学员实践:openbili AI 接入驾驶舱介绍
Calvin 是「翔宇工作流」的学员,方向是 AI 模型中转。他把这件事做成了独立站点「openbili」,覆盖 OpenAI SDK 兼容、模型路由、调用成本可见、失败可解释。本文将其介绍给关注同方向的读者。
用 Make.com 和 OpenRouter 搭建万字长文自动化写作工作流。核心思路是先大纲后章节——大语言模型根据主题生成结构化大纲,Make 的 Iterator 模块逐章节展开,多模型路由策略自动切换最具性价比的 AI 完成初稿。教程涵盖 OpenRouter 多模型配置、大纲生成提示词、章节迭代逻辑和 Notion 回写整合,让内容产出效率翻倍。
写长文是内容创作者的刚需,也是最耗精力的环节。一篇万字教程或深度分析,手动写完动辄一整天。我在做自媒体的过程中反复思考:能不能让 AI 先帮我把框架和初稿跑出来,我再做精修?
我是翔宇。翔宇做自媒体以来测试了十几种长文自动化方案,最终沉淀出这套先大纲后章节的分步策略,初稿质量远超一次性生成。
答案是可以的。这期教程我会分享一个用 Make 和 OpenRouter 搭建的万字长文自动化工作流。核心思路是"先大纲后章节"——让大语言模型根据主题生成结构化大纲,再通过 Make 的 Iterator 遍历器逐章生成详细内容,最终组合成一篇完整的万字长文。整个过程大约三分钟,生成的文章 Markdown 格式规整,章节编号有序,几乎不需要手动排版。
这套工作流我自己用了很久,不管是教程类、科普类还是营销文案,都能快速产出初稿,写作效率提升了至少五倍。
本教程配套视频已发布在 YouTube,建议搭配视频一起学习效果更佳。
在开始搭建工作流之前,我先介绍四种不同的万字长文生成模式,帮你根据场景选择最合适的方案。
模式一:基于大模型自身知识库。 直接让大模型根据主题生成内容。优点是覆盖面广,适合通用主题;缺点是可能有深度不足或事实错误的问题。今天的教程用的就是这个模式。
模式二:基于搜索引擎检索知识。 通过 Google、Bing 等搜索引擎 API 检索相关网页内容,整理后投喂给大模型。内容更详实,但主题相关度取决于搜索结果的质量。
模式三:基于书籍内容生成。 将 PDF 书籍作为知识库,生成的内容相当于高质量读书笔记。覆盖面小但精准度高,适合需要定向深度内容的场景。
模式四:基于科研论文生成。 从预印本数据库检索论文全文来生成报告。极其专业,适合学生和科研工作者。
OpenRouter 是今天工作流的核心组件。它为各种大语言模型提供了统一的 API 接口,支持数十种模型——包括 Claude、GPT-4o、Gemini、Llama 等,通过修改一个模型名称字段就能切换模型。
配置步骤:
OpenRouter 的一个重要特点是提供免费模型。在 Explore 页面,把 Prompt Pricing 筛选为 Free,就能找到输入输出 Token 完全免费的模型。对于不重要或高 Token 消耗的任务(比如提取网页中的中文内容),用免费模型可以大幅降低成本。
工作流的第一步是在 Notion 中创建一个"万字长文库",作为主题输入和成果存储的地方。数据库需要三个属性:
| 属性名 | 类型 | 说明 |
|---|---|---|
| 标题 | Title | 文章标题(自带) |
| 状态 | Select | "开始"触发工作流,"完成"表示已生成 |
| 主题 | Text | 输入你想生成的文章主题 |
使用时,在主题栏输入"ChatGPT 提示词的使用技巧"之类的内容,把状态改为"开始",Make 就会自动检索并处理。
新建 Notion 页面后,如果在 Make 中搜不到,需要到 Connections 里重新授权 Notion 连接,勾选新页面的访问权限。这个问题很常见,几乎每次新建页面都会遇到。
在 Make 中新建场景,命名为"长文库"。第一个模块选择 Notion 的 Search Database:
第二个模块用 OpenAI 的对话补全(也可以换成 OpenRouter)来生成大纲。关键配置:
System 提示词要点:
title 和 chapters 数组chapter、title、content 三个字段User 消息中传入 Notion 获取的主题内容。
高级设置中选择 JSON 格式输出。一定要在提示词里给出 JSON 结构示例,否则大模型每次返回的字段名可能不一样,导致后续工作流解析失败。
{
"title": "文章标题",
"chapters": [
{
"chapter": "章节1",
"title": "章节1标题",
"content": "章节1主要内容描述..."
}
]
}
大纲生成后,添加一个 Parse JSON 模块解析返回的 JSON 数据,提取出标题和各章节信息。
然后添加 Google Docs - Create a Document 模块:
Google Docs 在这里充当中转站——每个章节生成后先写入 Docs,最后一次性把完整内容同步到 Notion。
这是整个工作流最核心的部分。添加一个 Router(路由器),上分支接遍历器,下分支接后续的保存模块。
在上分支中添加 Iterator 模块,选择 chapters 数组。Iterator 会把包含六七个章节的数组拆开,逐个发送给下一个模块——相当于每个章节独立走一遍工作流。
Iterator 后面接一个 HTTP - Make a Request 模块,调用 OpenRouter API 生成每个章节的详细内容。
请求配置:
| 参数 | 值 |
|---|---|
| URL | https://openrouter.ai/api/v1/chat/completions |
| Method | POST |
| Content-Type | application/json |
| Authorization | Bearer {你的 API Key} |
请求体中的 System 提示词要点:
Bundle Order Position 控制章节编号Bundle Order Position 是 Iterator 提供的位置编号。第一次遍历值为 1,第二次为 2,依此类推。在提示词中写"需要生成第 {{Bundle Order Position}} 章的正文",大模型就会自动生成正确的章节编号(如 6.1、6.2、6.3)。这个技巧让生成的全文编号完全有序,不需要人工调整。
遍历器上分支的最后一个模块是 Google Docs - Insert a Paragraph,把每次 HTTP 响应中的文章内容追加到之前创建的文档中。生成一章保存一章,七个章节遍历完,Google Docs 里就是完整的万字长文。
为什么必须用 Router?如果不用路由器,Iterator 后面的所有模块都会跟着遍历七次。这意味着"获取 Docs 内容"和"保存到 Notion"也会执行七次,造成内容重复叠加——第一次保存一章,第二次保存两章,第三次保存三章……最终 Notion 里会出现十几万字的混乱内容。
用 Router 把工作流分成两个分支:
设置路由器顺序时,确保上分支先执行完毕,下分支再运行。
下分支的流程:
三个模块的 Document ID / Page ID 都来自前面的模块输出,配置比较简单。
点击运行,整个工作流大约两三分钟完成。实测生成七个章节,总字数约 15,000 字。Markdown 格式规整,章节标题清晰,有三级标题、引言、定义概念、代码引用等丰富的排版元素。
如果需要更长的内容,可以在大纲提示词中增加章节数量,或者把每章字数要求从 3000 字提高到 5000 字,生成三五万字的内容完全没问题,只是 Token 消耗会更多。
Q:OpenRouter 免费模型生成质量如何?
免费模型适合简单任务,如文本提取、格式转换等。生成万字长文建议用 GPT-4o 或 Claude 3.5 级别的模型,质量明显更好。可以在大纲阶段用高质量模型,章节生成阶段用性价比更高的模型。
Q:JSON 输出格式不稳定怎么办?
在提示词中给出完整的 JSON 示例,并明确要求"不得改变 JSON 结构"。同时在 OpenAI 模块的高级设置中选择 JSON 格式输出,可以大幅提高格式稳定性。
Q:Notion 搜索不到新建的数据库?
到 Make 的 Connections 页面,找到 Notion 连接,点击重新授权,在弹出的页面中勾选新数据库的访问权限。
这套"先大纲后章节"的工作流模式,把万字长文的创作时间从几小时压缩到三分钟。核心技巧是 Iterator 遍历器配合 Bundle Order Position 实现有序章节生成,以及 Router 路由器控制工作流分支避免重复操作。下一期我会介绍如何利用 Make 和 Replicate 自动生成卡通头像,进入图像生成的自动化领域。
每周精选 AI 编程与自动化实战内容,直达你的邮箱