Make 4. 小红书自动化:如何利用 Make 制作个人自媒体中心,批量生成爆款笔记

用 Make.com 搭建小红书自媒体中心,从 Notion 数据库批量生成爆款笔记。工作流涵盖热门选题采集、AI 自动生成标题和正文、配图风格匹配、多账号内容分发等完整链路。教程详解 Notion 数据库设计、Make 模块配置、提示词优化策略,帮助小红书运营者从手动创作升级为系统化内容生产,日均产出效率提升五倍以上。

Make 4. 小红书自动化:如何利用 Make 制作个人自媒体中心,批量生成爆款笔记

引言

做自媒体最累的不是写内容,而是每天重复"找选题 - 读新闻 - 写笔记 - 排版发布"这套流程。如果你在小红书上运营一个垂直领域的账号,你一定体会过这种感觉:明明有大量优质新闻素材,却没时间把它们变成一篇篇能发的笔记。

我是翔宇。本期教程我会带你用 Make.com 搭建一个"小红书笔记自动生成的媒体中心"。我们以人工智能新闻为例,实操演示如何自动采集新闻、用 ChatGPT 生成爆款笔记、最终保存到 Notion 知识库。整套流程跑通之后,你只需要打开 Notion,挑选满意的笔记直接发布就行。

这套工作流不限于 AI 领域。你是金融从业者,就抓金融新闻;你是产品经理,就抓产品资讯;你是科研人员,就订阅 Nature、Science。换几个关键词,整套系统就是你的专属内容工厂。

你将学到

  • 如何用 Inoreader 配置多源 RSS 订阅并分组管理
  • 如何在 Make.com 中连接 Inoreader 获取新闻数据
  • 如何用 Jina Reader API 抓取网页全文并转为纯文本
  • 如何编写 ChatGPT 系统提示词生成小红书风格笔记
  • 如何让 ChatGPT 输出结构化 JSON(标题/正文/标签/字数)
  • 如何将生成结果自动保存到 Notion 数据库
  • 如何用条件筛选控制数据质量和笔记字数

视频教程

本教程配套视频已发布在 YouTube,建议搭配视频一起学习效果更佳。

详细教程

工作流全景

整个工作流分四个阶段:

  1. 新闻获取:通过 Inoreader 订阅指定领域的 RSS 源
  2. 网页抓取:用 Jina Reader API 把新闻链接转为纯文本
  3. 笔记生成:ChatGPT 按小红书格式生成爆款笔记
  4. 知识库保存:结果自动写入 Notion 数据库

最终效果是一个无人工干预、自动更新的垂直领域资讯知识库,里面的内容可以直接用于小红书发布。

第一步:配置 Inoreader 新闻源

Inoreader 是一个 RSS 订阅管理工具,帮我们把分散的新闻源汇总到一个地方。

操作步骤:

  1. 注册并登录 Inoreader
  2. 在搜索框输入你的关键词,比如 Artificial Intelligence
  3. 筛选语言(英语、中文都支持),从推荐列表中选择几个订阅源
  4. 把选中的订阅源统一放到一个文件夹中,比如命名为"人工智能"

这个文件夹就是我们后续在 Make 中统一抓取的入口。你可以为不同领域创建不同的文件夹,互不干扰。

第二步:Make 场景搭建 - Inoreader 模块

在 Make.com 中新建一个场景,添加第一个模块:

  1. 搜索 Inoreader,选择获取订阅源文章的选项
  2. 创建连接:点击保存后会跳转到 Inoreader 授权页面,点击授权即可
  3. 订阅类型选择 Folder,然后选择刚才创建的"人工智能"文件夹
  4. 运行一次测试,确认能抓到数据

抓到的数据中,我们主要关注两个字段:文章的原始 URL 链接和部分 HTML 格式的内容。

第三步:用 Jina Reader API 抓取网页全文

Inoreader 返回的内容通常只是摘要,我们需要完整的文章内容才能生成高质量笔记。这就用到了 Jina Reader API——它能把任何网页转成干净的纯文本,去掉 HTML 标签和广告干扰。

在 Make 中添加 HTTP 模块:

  1. 选择 Make a request
  2. URL 填写 Jina 的 API 地址,后面拼接新闻链接
  3. 请求方式选择 POST
  4. 添加三个 Header:Accept: application/json(返回 JSON 格式);Authorization: Bearer 你的 API 密钥X-No-Cache: true(每次重新抓取,不用缓存)
  5. 输出格式选 JSON,打开 Parse response

Jina API 的价值在于:它把你的信息源范围扩展到了整个互联网。只要有 URL,就能拿到网页内容。

第四步:ChatGPT 生成小红书爆款笔记

添加 OpenAI 模块,选择创建对话。这里需要设置两轮消息:

System 消息(角色定义)

告诉 ChatGPT 它是一个小红书笔记撰写专家,需要把 AI 新闻转写成爆款笔记。关键约束包括:

  • 正文 300-400 字
  • 使用表情符号增强趣味性
  • 标题简洁有力
  • 输出 JSON 格式,包含标题、正文、标签和字数四个字段

User 消息(发送内容)

把 HTTP 模块抓取到的新闻标题和正文内容传进来。拆成两轮发送是为了避免单次输入过长影响输出质量。

在高级设置中把返回格式设为 JSON,保证输出结构稳定。

第五步:JSON 解析与 Notion 保存

解析 JSON:添加 Parse JSON 模块,把 ChatGPT 返回的 JSON 字符串拆分成独立字段——标题、正文、标签、字数。

保存到 Notion

  1. 提前在 Notion 中创建数据库,包含字段:标题(Title)、新闻链接(URL)、笔记内容(Text)、发布时间(Date)
  2. 在 Make 中添加 Notion 模块,选择"创建数据库条目"
  3. 字段映射:标题来自 JSON 解析、链接来自 HTTP 模块、内容拼接正文 + 标签、时间来自 Inoreader

第六步:条件筛选提升质量

为了避免浪费操作数,添加两层过滤:

过滤器一:网页内容质量

在 HTTP 模块和 ChatGPT 之间添加条件:如果抓取的文本长度小于 3000 字符,说明网页内容不完整(可能被封锁或需要登录),跳过不处理。

过滤器二:笔记字数控制

在 ChatGPT 和 Notion 之间添加条件:如果生成的笔记字数不在 300-500 范围内,也跳过。这能保证写入知识库的笔记都符合小红书的发布标准。

延伸阅读

常见问题

Q:Inoreader 免费版够用吗?
免费版足够完成本教程的所有操作。高级的规则过滤功能是收费的,但对基础的订阅和分组完全不影响。

Q:Jina Reader API 有调用限制吗?
Jina 提供免费额度,对于日常使用完全够用。注册后会自动获得 API Key,直接用就行。

Q:有些网页抓取不到内容怎么办?
部分网站有反爬限制或需要登录。这就是我们设置字符数过滤器的原因——抓不到就自动跳过,不影响整体流程。

Q:能不能换成其他平台的笔记格式?
完全可以。只需要修改 ChatGPT 的 System 提示词,把"小红书笔记"换成"微信公众号文章""Twitter 推文"等,调整字数和格式要求即可。

总结

这期教程我们完成了从新闻订阅到小红书笔记自动生成的全链路搭建。核心链路是:Inoreader 聚合新闻源、Jina API 抓取全文、ChatGPT 生成笔记、Notion 存储结果。整个过程零人工干预,设置一次终身受用。

你可以把新闻源换成任何领域——金融研报、科研论文、产品动态、行业资讯——同一套工作流立刻变成你的专属内容中心。下一期我们会讲 Notion 数据库的自动关联和分类,让你的知识库真正形成体系。

资源下载

订阅成功!请到邮箱查收确认链接。

订阅成功!请到邮箱查收确认链接。

订阅成功!请到邮箱查收确认链接。

订阅成功!请到邮箱查收确认链接。

操作成功。

操作已取消。