学员实践:openbili AI 接入驾驶舱介绍
Calvin 是「翔宇工作流」的学员,方向是 AI 模型中转。他把这件事做成了独立站点「openbili」,覆盖 OpenAI SDK 兼容、模型路由、调用成本可见、失败可解释。本文将其介绍给关注同方向的读者。
用 Make.com 搭建爆款提示词工厂,自动化批量生成高质量结构化写作提示词。工作流从 Notion 读取需求描述,通过多轮 AI 对话自动生成包含角色定义、目标设定、技能约束、工作流程和输出格式的完整提示词。教程涵盖提示词元架构设计、迭代优化逻辑和 Notion 模板管理,帮你从手动写提示词升级为系统化批量生产。
大部分人用 ChatGPT 写文章的流程是:直接告诉它"帮我写一篇关于 XX 的爆款文章"。结果呢?生成的内容千篇一律,既没有辨识度也没有传播力。问题出在哪里?出在提示词太泛了。
我是翔宇。翔宇在搭建自己的 AI 工作流体系时就面临批量生成提示词的需求,这套工厂模式就是那段经历的产出。
这期教程我分享的是一套"爆款提示词工厂"工作流。它的核心逻辑是——先分析真正的爆款文章,把它们的写作风格、结构技巧、修辞手法提炼成一套写作指令,然后用这套指令驱动 AI 自动生成新文章。
整个工作流有 33 个模块,分三个阶段:分析爆款文章生成写作提示词、抓取社会热点、基于提示词和热点自动生成爆款文章。它可能是我分享过的最复杂的工作流,但每个部分都可以拆开独立使用,灵活度很高。
实测效果让我自己都惊讶——生成的文章标题有"从水中飞鱼到千寻军子,一个冠军的成长之路"这种典型的爆款味道,正文的代入感、修辞运用、结构编排都明显优于普通 AI 生成的内容。
本教程配套视频已发布在 YouTube,建议搭配视频一起学习效果更佳。
33 个模块分为三个功能区域:
| 区域 | 功能 | 模块数 |
|---|---|---|
| 上半部分 | 爆款写作提示词生成 | ~15 |
| 中间部分 | 热点抓取与分类 | ~8 |
| 下半部分 | 基于提示词+热点生成文章 | ~10 |
三个区域通过 Notion 数据库联动:上半部分输出提示词存入"提示词库",中间部分输出热点存入"写作数据库",下半部分读取两者生成最终文章。
工作需要三个 Notion 数据库:
这是整个工作流最有价值的部分。我设计了一个 15 维度的分析框架,覆盖了爆款文章写作的所有关键要素:
分析一篇文章就能提炼出涵盖这 15 个方面的详细写作指令。分析五篇、十篇甚至一百篇,指令会越来越精准和全面。
分析模块用了 OpenRouter 的 HTTP 调用,但不是简单的一轮对话——而是三轮。
第一轮对话(模块 A):
第二轮对话(模块 B):
在模块 B 的请求体中,Messages 数组包含四条消息:
消息1(System):定义分析助手角色
消息2(User):发送文章内容
消息3(Assistant):模块A的分析回复
消息4(User):要求生成写作指令
通过把前一轮的完整对话历史传入下一轮,实现了 Make 中的"多轮对话"。这比单轮对话效果好得多,因为模型有了充分的上下文来生成高质量的指令。
为什么 User 消息不用 System 角色?因为 System 权限较高,是终极性指令,后面还要发送新的分析要求。用 User 角色更灵活,效果更好。
爆款文章的原文存在 Notion 页面的 Block 中。获取时要注意一个坑——如果 Block 中有空行,每个空行都会被当作独立的 Block 返回,导致文章被拆成多段。
解决方案有两个:
我推荐第二种,更稳健。不管 Block 有几个,聚合器都能拼成完整的一段文本。
每篇爆款文章分析后都会生成一条写作指令。如果分析了五篇文章,就有五条指令。但我们每次和 ChatGPT 对话只能发送一条提示词,所以需要把它们合并。
流程:
合并后的指令质量明显高于任何单条指令。分析五篇爆款文章合成的指令,覆盖了创作视角、标题设计、开门见山、结构编排、修辞手法等十几个维度,非常全面。
如果分析一百篇?那就不只是一条提示词了——它可以成为一本爆款文章写作指南。这就是自动化的力量:量变引发质变。
中间区域负责获取最新的社会热点。
热点抓取:用一个简单的 HTTP 模块调用免费的豆瓣热点 API,一次返回 30 条实时热点。
热点分类:添加一个 OpenAI 模块对热点进行分类。因为我目前做的是情感类爆款,需要过滤掉政治、文化等不相关的热点。
分类提示词要求 ChatGPT 以 JSON 格式输出每条热点的分类和分类原因。分类选项包括:情感、体育、娱乐、社会等。
{
"title": "热点标题",
"category": "情感",
"reason": "分类原因"
}
分类后通过 Router 的条件判断,只把目标类别(如"情感")的热点保存到写作数据库中。
最后一个区域把前两个阶段的产出组合起来。
获取提示词:从提示词库中检索状态为"使用中"的指令。这就是为什么合并指令时要把状态设为"使用中"——方便这一步精确定位。
获取热点主题:从写作数据库中检索状态为"开始"的条目。
EXA 素材检索:用热点标题作为关键词,调用 EXA API 获取 10 篇相关素材。
这个工作流有一个巧妙的质量控制环节——Token 计数。调用 Jina 的免费 Token 计算 API,统计素材的总 Token 数。
为什么要这么做?因为有些热点太新了,互联网上还没有足够的中文素材。如果素材 Token 不到一万,说明内容太少,强行生成的文章质量不会好。
通过 Router 设置条件:
这个机制有效避免了"薄素材硬写"的低质量产出。
素材通过质量检查后,进入文章生成模块。请求体中包含三个关键输入:
大模型基于专业的写作指令、真实的热点话题和丰富的素材,生成的文章自然比"裸写"好得多。
最终生成的内容保存到 Notion 写作数据库,状态更新为"已完成"。
这个工作流实际上涵盖了 AI 智能体的四种核心范式:
| 范式 | Make 实现方式 |
|---|---|
| 反思(Reflection) | 两个模块实现多轮对话,第二轮审核和优化第一轮结果 |
| 工具使用(Tool Use) | 调用 EXA、Pexels、热点 API 等外部工具 |
| 规划(Planning) | Router 模块让大模型决定走哪个分支 |
| 多智能体协同 | 多个工作流通过 Notion 状态字段联动 |
Make 工作流因为 ChatGPT 的加入,已经不只是简单的自动化工具了——它具备了智能决策和自主规划的能力。
分析用的爆款文章素材有几个选择原则:
写作风格要一致。 如果你选了五篇文章,三篇是煽情风、两篇是理性分析风,合成的指令会自相矛盾。一定要选同一种写作风格的文章。
数量控制在 5-8 篇。 太少了覆盖面不够,太多了指令会泛化。如果能找到 20 篇以上高度一致的爆款,效果会更好。
Block 中保持干净。 Notion 的 Block 获取会把空行当作独立 Block,确保文章内容连续无空行,或用 Text Aggregator 兜底。
Q:33 个模块太复杂了,可以简化吗?
可以把三个阶段拆成独立的场景。提示词生成是最有价值的部分,可以先只用这个。热点抓取和文章生成可以后续再接入。
Q:OpenRouter 的多轮对话经常格式报错?
最常见的原因是 JSON 请求体中的双引号被破坏了。编辑时一定不要误删或多加双引号。建议在代码编辑器中先写好 JSON,确认格式正确后再粘贴到 Make。
Q:Authorization Header 总是报错?
检查前缀格式。OpenRouter 用 Bearer {key}(Bearer 后面有空格),Replicate 用 Token {key}(Token 后面有空格)。漏掉空格或用错前缀都会导致 401 错误。
Q:如何提升生成文章的质量?
三个方向:增加分析的爆款文章数量(量变引发质变)、用更高质量的模型(如 GPT-4o 或 Claude)、优化素材获取(多渠道检索,不只用 EXA)。
爆款提示词工厂的核心理念是"用爆款训练爆款"——分析真正的爆款文章,提炼写作规律,用规律驱动新内容生成。33 个模块虽然复杂,但每个部分都可以独立复用。提示词生成模块可以分析任何领域的文章(不只是情感类),热点模块可以替换成任意平台的 API,写作模块可以对接不同的素材来源。
这套工作流的应用范围远不止写文章。分析口播稿的风格然后生成新脚本、分析竞品的文案特点然后生成差异化内容——只要是需要"模仿学习"的场景,都能用这套模式。下一期我会介绍如何用 Make 和 Firecrawl 爬虫全自动撰写博客文章来做 SEO 引流。
每周精选 AI 编程与自动化实战内容,直达你的邮箱