Make 14. 爆款提示词工厂:Make 自动化生成高质量写作提示词

用 Make.com 搭建爆款提示词工厂,自动化批量生成高质量结构化写作提示词。工作流从 Notion 读取需求描述,通过多轮 AI 对话自动生成包含角色定义、目标设定、技能约束、工作流程和输出格式的完整提示词。教程涵盖提示词元架构设计、迭代优化逻辑和 Notion 模板管理,帮你从手动写提示词升级为系统化批量生产。

Make 14. 爆款提示词工厂:Make 自动化生成高质量写作提示词

引言

大部分人用 ChatGPT 写文章的流程是:直接告诉它"帮我写一篇关于 XX 的爆款文章"。结果呢?生成的内容千篇一律,既没有辨识度也没有传播力。问题出在哪里?出在提示词太泛了。

我是翔宇。翔宇在搭建自己的 AI 工作流体系时就面临批量生成提示词的需求,这套工厂模式就是那段经历的产出。

这期教程我分享的是一套"爆款提示词工厂"工作流。它的核心逻辑是——先分析真正的爆款文章,把它们的写作风格、结构技巧、修辞手法提炼成一套写作指令,然后用这套指令驱动 AI 自动生成新文章。

整个工作流有 33 个模块,分三个阶段:分析爆款文章生成写作提示词、抓取社会热点、基于提示词和热点自动生成爆款文章。它可能是我分享过的最复杂的工作流,但每个部分都可以拆开独立使用,灵活度很高。

实测效果让我自己都惊讶——生成的文章标题有"从水中飞鱼到千寻军子,一个冠军的成长之路"这种典型的爆款味道,正文的代入感、修辞运用、结构编排都明显优于普通 AI 生成的内容。

你将学到

  • 爆款文章写作风格的 15 维度分析框架
  • Make 中利用 OpenRouter 实现多轮对话的配置方法
  • 多篇分析结果自动合并为一条综合写作指令
  • 免费 API 抓取豆瓣等平台的实时热点
  • ChatGPT 对热点进行自动分类筛选
  • EXA AI 素材检索与 Token 计数的质量控制
  • 路由器条件判断实现"素材不足"的自动跳过
  • 智能体四大范式在 Make 工作流中的应用

视频教程

本教程配套视频已发布在 YouTube,建议搭配视频一起学习效果更佳。

详细教程

工作流整体架构

33 个模块分为三个功能区域:

区域 功能 模块数
上半部分 爆款写作提示词生成 ~15
中间部分 热点抓取与分类 ~8
下半部分 基于提示词+热点生成文章 ~10

三个区域通过 Notion 数据库联动:上半部分输出提示词存入"提示词库",中间部分输出热点存入"写作数据库",下半部分读取两者生成最终文章。

工作需要三个 Notion 数据库:

  1. 爆款文章分析库:存放你找到的爆款文章原文
  2. 爆款文章提示词库:存放生成的写作指令
  3. 爆款写作数据库:存放热点和最终生成的文章

第一阶段:爆款文章写作风格分析

这是整个工作流最有价值的部分。我设计了一个 15 维度的分析框架,覆盖了爆款文章写作的所有关键要素:

  1. 创作视角的确立
  2. 标题设计方法
  3. 开头写作技巧
  4. 文章结构编排
  5. 语言风格把握
  6. 表达方式与修辞
  7. 写作技巧应用
  8. 叙述角度选择
  9. 表达特色展现
  10. 句式变化运用
  11. 写作风格选择
  12. 名言金句引用
  13. SEO 关键词优化
  14. 结尾写作方法
  15. 整体风格一致性

分析一篇文章就能提炼出涵盖这 15 个方面的详细写作指令。分析五篇、十篇甚至一百篇,指令会越来越精准和全面。

多轮对话的实现方式

分析模块用了 OpenRouter 的 HTTP 调用,但不是简单的一轮对话——而是三轮。

第一轮对话(模块 A)

  • System 消息:定义角色为"文章写作特色分析助手"
  • User 消息:发送爆款文章的标题和正文

第二轮对话(模块 B)

  • 把模块 A 的 System 消息、User 消息、Assistant 回复都放进来
  • 新增 User 消息:要求基于分析结果逆向生成写作指令

在模块 B 的请求体中,Messages 数组包含四条消息:

消息1(System):定义分析助手角色
消息2(User):发送文章内容
消息3(Assistant):模块A的分析回复
消息4(User):要求生成写作指令

通过把前一轮的完整对话历史传入下一轮,实现了 Make 中的"多轮对话"。这比单轮对话效果好得多,因为模型有了充分的上下文来生成高质量的指令。

为什么 User 消息不用 System 角色?因为 System 权限较高,是终极性指令,后面还要发送新的分析要求。用 User 角色更灵活,效果更好。

Notion Block 获取与遍历器

爆款文章的原文存在 Notion 页面的 Block 中。获取时要注意一个坑——如果 Block 中有空行,每个空行都会被当作独立的 Block 返回,导致文章被拆成多段。

解决方案有两个:

  1. 确保 Notion 页面中只有一个 Block,不要多余的空行
  2. Text Aggregator 模块把多个 Block 合并成完整文本

我推荐第二种,更稳健。不管 Block 有几个,聚合器都能拼成完整的一段文本。

指令合并:从多篇到一篇

每篇爆款文章分析后都会生成一条写作指令。如果分析了五篇文章,就有五条指令。但我们每次和 ChatGPT 对话只能发送一条提示词,所以需要把它们合并。

流程:

  1. Notion - List Page Blocks:遍历获取提示词库中所有指令
  2. Text Aggregator:把所有指令合并成一段文本
  3. OpenRouter HTTP:让大模型把多条指令总结为一条综合指令

合并后的指令质量明显高于任何单条指令。分析五篇爆款文章合成的指令,覆盖了创作视角、标题设计、开门见山、结构编排、修辞手法等十几个维度,非常全面。

如果分析一百篇?那就不只是一条提示词了——它可以成为一本爆款文章写作指南。这就是自动化的力量:量变引发质变。

第二阶段:热点抓取与分类

中间区域负责获取最新的社会热点。

热点抓取:用一个简单的 HTTP 模块调用免费的豆瓣热点 API,一次返回 30 条实时热点。

热点分类:添加一个 OpenAI 模块对热点进行分类。因为我目前做的是情感类爆款,需要过滤掉政治、文化等不相关的热点。

分类提示词要求 ChatGPT 以 JSON 格式输出每条热点的分类和分类原因。分类选项包括:情感、体育、娱乐、社会等。

{
  "title": "热点标题",
  "category": "情感",
  "reason": "分类原因"
}

分类后通过 Router 的条件判断,只把目标类别(如"情感")的热点保存到写作数据库中。

第三阶段:基于提示词+热点生成文章

最后一个区域把前两个阶段的产出组合起来。

获取提示词:从提示词库中检索状态为"使用中"的指令。这就是为什么合并指令时要把状态设为"使用中"——方便这一步精确定位。

获取热点主题:从写作数据库中检索状态为"开始"的条目。

EXA 素材检索:用热点标题作为关键词,调用 EXA API 获取 10 篇相关素材。

Token 计数:素材质量控制

这个工作流有一个巧妙的质量控制环节——Token 计数。调用 Jina 的免费 Token 计算 API,统计素材的总 Token 数。

为什么要这么做?因为有些热点太新了,互联网上还没有足够的中文素材。如果素材 Token 不到一万,说明内容太少,强行生成的文章质量不会好。

通过 Router 设置条件:

  • Token >= 10000:走生成文章的分支
  • Token < 10000:状态标记为"素材不足",跳过

这个机制有效避免了"薄素材硬写"的低质量产出。

大模型生成文章

素材通过质量检查后,进入文章生成模块。请求体中包含三个关键输入:

  1. 写作提示词:来自第一阶段分析合成的指令
  2. 写作主题:来自热点标题
  3. 写作素材:来自 EXA 检索并预处理的内容

大模型基于专业的写作指令、真实的热点话题和丰富的素材,生成的文章自然比"裸写"好得多。

最终生成的内容保存到 Notion 写作数据库,状态更新为"已完成"。

四大智能体范式在 Make 中的应用

这个工作流实际上涵盖了 AI 智能体的四种核心范式:

范式 Make 实现方式
反思(Reflection) 两个模块实现多轮对话,第二轮审核和优化第一轮结果
工具使用(Tool Use) 调用 EXA、Pexels、热点 API 等外部工具
规划(Planning) Router 模块让大模型决定走哪个分支
多智能体协同 多个工作流通过 Notion 状态字段联动

Make 工作流因为 ChatGPT 的加入,已经不只是简单的自动化工具了——它具备了智能决策和自主规划的能力。

素材选择的注意事项

分析用的爆款文章素材有几个选择原则:

写作风格要一致。 如果你选了五篇文章,三篇是煽情风、两篇是理性分析风,合成的指令会自相矛盾。一定要选同一种写作风格的文章。

数量控制在 5-8 篇。 太少了覆盖面不够,太多了指令会泛化。如果能找到 20 篇以上高度一致的爆款,效果会更好。

Block 中保持干净。 Notion 的 Block 获取会把空行当作独立 Block,确保文章内容连续无空行,或用 Text Aggregator 兜底。

延伸阅读

常见问题

Q:33 个模块太复杂了,可以简化吗?
可以把三个阶段拆成独立的场景。提示词生成是最有价值的部分,可以先只用这个。热点抓取和文章生成可以后续再接入。

Q:OpenRouter 的多轮对话经常格式报错?
最常见的原因是 JSON 请求体中的双引号被破坏了。编辑时一定不要误删或多加双引号。建议在代码编辑器中先写好 JSON,确认格式正确后再粘贴到 Make。

Q:Authorization Header 总是报错?
检查前缀格式。OpenRouter 用 Bearer {key}(Bearer 后面有空格),Replicate 用 Token {key}(Token 后面有空格)。漏掉空格或用错前缀都会导致 401 错误。

Q:如何提升生成文章的质量?
三个方向:增加分析的爆款文章数量(量变引发质变)、用更高质量的模型(如 GPT-4o 或 Claude)、优化素材获取(多渠道检索,不只用 EXA)。

总结

爆款提示词工厂的核心理念是"用爆款训练爆款"——分析真正的爆款文章,提炼写作规律,用规律驱动新内容生成。33 个模块虽然复杂,但每个部分都可以独立复用。提示词生成模块可以分析任何领域的文章(不只是情感类),热点模块可以替换成任意平台的 API,写作模块可以对接不同的素材来源。

这套工作流的应用范围远不止写文章。分析口播稿的风格然后生成新脚本、分析竞品的文案特点然后生成差异化内容——只要是需要"模仿学习"的场景,都能用这套模式。下一期我会介绍如何用 Make 和 Firecrawl 爬虫全自动撰写博客文章来做 SEO 引流。

资源下载

订阅成功!请到邮箱查收确认链接。

订阅成功!请到邮箱查收确认链接。

订阅成功!请到邮箱查收确认链接。

订阅成功!请到邮箱查收确认链接。

操作成功。

操作已取消。