Make 11. 写作自动化实操:用 Make 和 OpenRouter 批量制作万字长文

用 Make.com 和 OpenRouter 搭建万字长文自动化写作工作流。核心思路是先大纲后章节——大语言模型根据主题生成结构化大纲,Make 的 Iterator 模块逐章节展开,多模型路由策略自动切换最具性价比的 AI 完成初稿。教程涵盖 OpenRouter 多模型配置、大纲生成提示词、章节迭代逻辑和 Notion 回写整合,让内容产出效率翻倍。

Make 11. 写作自动化实操:用 Make 和 OpenRouter 批量制作万字长文

引言

写长文是内容创作者的刚需,也是最耗精力的环节。一篇万字教程或深度分析,手动写完动辄一整天。我在做自媒体的过程中反复思考:能不能让 AI 先帮我把框架和初稿跑出来,我再做精修?

我是翔宇。翔宇做自媒体以来测试了十几种长文自动化方案,最终沉淀出这套先大纲后章节的分步策略,初稿质量远超一次性生成。

答案是可以的。这期教程我会分享一个用 Make 和 OpenRouter 搭建的万字长文自动化工作流。核心思路是"先大纲后章节"——让大语言模型根据主题生成结构化大纲,再通过 Make 的 Iterator 遍历器逐章生成详细内容,最终组合成一篇完整的万字长文。整个过程大约三分钟,生成的文章 Markdown 格式规整,章节编号有序,几乎不需要手动排版。

这套工作流我自己用了很久,不管是教程类、科普类还是营销文案,都能快速产出初稿,写作效率提升了至少五倍。

你将学到

  • OpenRouter 平台注册与 API 配置方法
  • 利用 Notion 数据库管理文章主题和状态
  • 通过定制化提示词让大模型生成结构化 JSON 大纲
  • 使用 Make 的 Iterator 遍历器逐章生成详细内容
  • Bundle Order Position 控制章节编号的技巧
  • Router 路由器分支控制,避免重复操作
  • Google Docs 作为中转站整合全部章节
  • 最终内容回写 Notion 知识库

视频教程

本教程配套视频已发布在 YouTube,建议搭配视频一起学习效果更佳。

详细教程

四种万字长文生成模式

在开始搭建工作流之前,我先介绍四种不同的万字长文生成模式,帮你根据场景选择最合适的方案。

模式一:基于大模型自身知识库。 直接让大模型根据主题生成内容。优点是覆盖面广,适合通用主题;缺点是可能有深度不足或事实错误的问题。今天的教程用的就是这个模式。

模式二:基于搜索引擎检索知识。 通过 Google、Bing 等搜索引擎 API 检索相关网页内容,整理后投喂给大模型。内容更详实,但主题相关度取决于搜索结果的质量。

模式三:基于书籍内容生成。 将 PDF 书籍作为知识库,生成的内容相当于高质量读书笔记。覆盖面小但精准度高,适合需要定向深度内容的场景。

模式四:基于科研论文生成。 从预印本数据库检索论文全文来生成报告。极其专业,适合学生和科研工作者。

OpenRouter 平台介绍与配置

OpenRouter 是今天工作流的核心组件。它为各种大语言模型提供了统一的 API 接口,支持数十种模型——包括 Claude、GPT-4o、Gemini、Llama 等,通过修改一个模型名称字段就能切换模型。

配置步骤:

  1. 访问 OpenRouter 官网,注册账号
  2. 进入 Dashboard,点击 Keys 创建新的 API Key
  3. Activity 页面可以查看每个模型的消费记录和剩余额度

OpenRouter 的一个重要特点是提供免费模型。在 Explore 页面,把 Prompt Pricing 筛选为 Free,就能找到输入输出 Token 完全免费的模型。对于不重要或高 Token 消耗的任务(比如提取网页中的中文内容),用免费模型可以大幅降低成本。

搭建 Notion 知识库

工作流的第一步是在 Notion 中创建一个"万字长文库",作为主题输入和成果存储的地方。数据库需要三个属性:

属性名 类型 说明
标题 Title 文章标题(自带)
状态 Select "开始"触发工作流,"完成"表示已生成
主题 Text 输入你想生成的文章主题

使用时,在主题栏输入"ChatGPT 提示词的使用技巧"之类的内容,把状态改为"开始",Make 就会自动检索并处理。

新建 Notion 页面后,如果在 Make 中搜不到,需要到 Connections 里重新授权 Notion 连接,勾选新页面的访问权限。这个问题很常见,几乎每次新建页面都会遇到。

配置 Make 场景:Notion 检索模块

在 Make 中新建场景,命名为"长文库"。第一个模块选择 Notion 的 Search Database:

  1. 搜索并选择"万字长文库"
  2. 设置 Filter:Text is "开始"
  3. 点击运行测试,确认能获取到目标条目

配置 OpenAI 模块生成大纲

第二个模块用 OpenAI 的对话补全(也可以换成 OpenRouter)来生成大纲。关键配置:

System 提示词要点:

  • 定义角色为"文章大纲生成助手"
  • 要求输出严格的 JSON 格式,包含 titlechapters 数组
  • 每个章节包含 chaptertitlecontent 三个字段
  • 章节数量根据主题复杂度自动确定
  • 每个章节大纲描述大于 500 字
  • 章节之间内容不重复,有良好的区分度
  • 不得杜撰,符合事实与逻辑

User 消息中传入 Notion 获取的主题内容。

高级设置中选择 JSON 格式输出。一定要在提示词里给出 JSON 结构示例,否则大模型每次返回的字段名可能不一样,导致后续工作流解析失败。

{
  "title": "文章标题",
  "chapters": [
    {
      "chapter": "章节1",
      "title": "章节1标题",
      "content": "章节1主要内容描述..."
    }
  ]
}

解析 JSON 并创建 Google Docs

大纲生成后,添加一个 Parse JSON 模块解析返回的 JSON 数据,提取出标题和各章节信息。

然后添加 Google Docs - Create a Document 模块:

  • 选择保存目录(预先在 Google Drive 创建"长文"文件夹)
  • 标题设置为解析出的文章标题

Google Docs 在这里充当中转站——每个章节生成后先写入 Docs,最后一次性把完整内容同步到 Notion。

Iterator 遍历器:逐章生成内容

这是整个工作流最核心的部分。添加一个 Router(路由器),上分支接遍历器,下分支接后续的保存模块。

在上分支中添加 Iterator 模块,选择 chapters 数组。Iterator 会把包含六七个章节的数组拆开,逐个发送给下一个模块——相当于每个章节独立走一遍工作流。

OpenRouter HTTP 模块配置

Iterator 后面接一个 HTTP - Make a Request 模块,调用 OpenRouter API 生成每个章节的详细内容。

请求配置:

参数
URL https://openrouter.ai/api/v1/chat/completions
Method POST
Content-Type application/json
Authorization Bearer {你的 API Key}

请求体中的 System 提示词要点:

  • 角色是"章节内容生成助手"
  • 每章内容 3000 字左右,独立成章
  • 内容符合逻辑,不得编造
  • 直接输出正文,不包含开头语和结束语
  • 关键技巧:使用 Bundle Order Position 控制章节编号

Bundle Order Position 是 Iterator 提供的位置编号。第一次遍历值为 1,第二次为 2,依此类推。在提示词中写"需要生成第 {{Bundle Order Position}} 章的正文",大模型就会自动生成正确的章节编号(如 6.1、6.2、6.3)。这个技巧让生成的全文编号完全有序,不需要人工调整。

保存章节到 Google Docs

遍历器上分支的最后一个模块是 Google Docs - Insert a Paragraph,把每次 HTTP 响应中的文章内容追加到之前创建的文档中。生成一章保存一章,七个章节遍历完,Google Docs 里就是完整的万字长文。

Router 路由器的作用

为什么必须用 Router?如果不用路由器,Iterator 后面的所有模块都会跟着遍历七次。这意味着"获取 Docs 内容"和"保存到 Notion"也会执行七次,造成内容重复叠加——第一次保存一章,第二次保存两章,第三次保存三章……最终 Notion 里会出现十几万字的混乱内容。

用 Router 把工作流分成两个分支:

  • 上分支:Iterator → HTTP 生成 → 写入 Google Docs(遍历七次)
  • 下分支:更新 Notion 状态 → 获取 Docs 完整内容 → 保存到 Notion(只执行一次)

设置路由器顺序时,确保上分支先执行完毕,下分支再运行。

更新 Notion 状态并保存最终内容

下分支的流程:

  1. Notion - Update a Database Item:把状态从"开始"改为"完成"
  2. Google Docs - Get Content of a Document:获取完整文档的文本内容
  3. Notion - Append Block:把完整的万字长文保存到 Notion 知识库

三个模块的 Document ID / Page ID 都来自前面的模块输出,配置比较简单。

运行效果

点击运行,整个工作流大约两三分钟完成。实测生成七个章节,总字数约 15,000 字。Markdown 格式规整,章节标题清晰,有三级标题、引言、定义概念、代码引用等丰富的排版元素。

如果需要更长的内容,可以在大纲提示词中增加章节数量,或者把每章字数要求从 3000 字提高到 5000 字,生成三五万字的内容完全没问题,只是 Token 消耗会更多。

延伸阅读

常见问题

Q:OpenRouter 免费模型生成质量如何?
免费模型适合简单任务,如文本提取、格式转换等。生成万字长文建议用 GPT-4o 或 Claude 3.5 级别的模型,质量明显更好。可以在大纲阶段用高质量模型,章节生成阶段用性价比更高的模型。

Q:JSON 输出格式不稳定怎么办?
在提示词中给出完整的 JSON 示例,并明确要求"不得改变 JSON 结构"。同时在 OpenAI 模块的高级设置中选择 JSON 格式输出,可以大幅提高格式稳定性。

Q:Notion 搜索不到新建的数据库?
到 Make 的 Connections 页面,找到 Notion 连接,点击重新授权,在弹出的页面中勾选新数据库的访问权限。

总结

这套"先大纲后章节"的工作流模式,把万字长文的创作时间从几小时压缩到三分钟。核心技巧是 Iterator 遍历器配合 Bundle Order Position 实现有序章节生成,以及 Router 路由器控制工作流分支避免重复操作。下一期我会介绍如何利用 Make 和 Replicate 自动生成卡通头像,进入图像生成的自动化领域。

资源下载

订阅成功!请到邮箱查收确认链接。

订阅成功!请到邮箱查收确认链接。

订阅成功!请到邮箱查收确认链接。

订阅成功!请到邮箱查收确认链接。

操作成功。

操作已取消。