Make 16. 小红书图文笔记批量制作:Make 帮你实现图片创作自动化

用 Make.com 搭建小红书图文笔记批量制作工作流,实现图片创作自动化。从 Notion 素材库读取选题,AI 自动生成笔记文案和多张配图,适配小红书的竖版图文格式后批量输出。教程涵盖小红书爆款笔记结构分析、AI 图片生成风格一致性控制、多图排版逻辑设计和批量发布节奏规划,帮助小红书运营者从日更一篇提升到日更十篇。

Make 16. 小红书图文笔记批量制作:Make 帮你实现图片创作自动化

引言

做小红书知识分享类账号,最大的瓶颈不是写文案,而是做图。一张知识卡片要调排版、选配色、填内容,做完一张至少十几分钟。如果想日更三张图的节奏,光做图就能占掉半天时间。

我是翔宇。翔宇运营小红书账号期间测试了多种批量制作方案,这套在质量和效率上做到了最佳平衡。

我一直在思考:知识卡片本质上是"模板 + 结构化数据"的组合。模板固定,数据变化——这不就是自动化最擅长的事情吗?只要能把数据结构化提取出来,再套进固定的 HTML/CSS 模板,图片生成就可以完全交给机器。

这期视频我就实现了这个想法。用经济学人网站的财经词汇作为数据源,通过 Make 工作流一键生成上百张高清知识卡片,每张包含中英双语解释、生活化案例和相关新闻。一套流程跑下来,500 多个词汇、1500 张图片,全自动完成。

你将学到

  • 为什么结构化数据是自动化的前提条件
  • 两种网页数据结构化提取方法:正则表达式 vs Firecrawl LLM 提取
  • 如何用大语言模型生成正则表达式,不需要自己写代码
  • Firecrawl 结构化提取端点的实际配置方法
  • Create JSON 模块解决 HTTP 调用中 JSON 格式问题的技巧
  • HCTI(HTML/CSS to Image)工具生成高清知识卡片的完整流程
  • Cloudinary 图床的配置和使用
  • 通过字数限制模块控制图片文本溢出

视频教程

本教程配套视频已发布在 YouTube,建议搭配视频一起学习效果更佳。

详细教程

为什么结构化数据是自动化的前提

在动手搭工作流之前,先理解一个核心概念:自动化的前提是流程化,流程化的前提是规范化,规范化的前提是结构化。

拿今天的例子来说,经济学人网站上有 500 多个财经词汇,全部混在一个长页面里。如果不做结构化处理,这些数据就是一坨文本,没法自动化。但一旦把每个词汇拆成"名称 + 解释"两个字段,它就变成了一个数组,可以遍历、可以批量处理、可以套模板——这就是结构化的意义。

结构化数据有两个关键价值:

  1. 便于独立输出:500 个词汇不再是一整篇文章,而是 500 条独立的数据,每条都可以单独生成一张知识卡片。
  2. 支持批量处理:结构化后变成数组,Make 的 Iterator 可以逐条遍历,配合模板实现批量生成。

方法一:正则表达式提取(传统方法)

正则表达式提取分三步:找特征、搭表达式、测表达式

找特征:先分析网页的数据结构。经济学人的财经词汇页面有一个明显的规律——每个词汇和它的解释之间用两个空行分隔。这个"双空行"就是我们要找的特征。

搭表达式:不需要自己写。把样例数据和需求告诉大语言模型:

我有这样一段文本(附上样例),每个财经词汇后面跟着两个换行符,然后是解释。请帮我写一个正则表达式,分别捕获词汇名称和解释内容。

大语言模型会直接给出可用的正则表达式。

测表达式:用在线正则测试工具验证,确认匹配结果正确后再放到 Make 中。

在 Make 中的实际操作是用两个 Match Pattern 模块串联:

  1. 第一个正则 ^.{1560}([\s\S]*) —— 截掉前 1560 个字符(页面头部的非结构化内容),只保留正文。
  2. 第二个正则 ^([^\n]+)\n\n([^\n]+)(?=\n\n|\Z) —— 按双空行分割,捕获词汇名称(第一组)和解释(第二组)。

实测结果:507 个词汇全部正确提取,每个词汇独立为一个 Bundle 发射出去。

方法二:Firecrawl LLM 提取(新型方法)

Firecrawl 提供了一个基于大模型的结构化提取端点(Beta),三步搞定:定提示词、抓内容、摘数据

不需要写正则,只需要在 HTTP 请求中告诉 Firecrawl:

从这个页面中提取所有以 A 开头的财经词汇,输出 Term(条目)和 Definition(解释)两个字段。

Firecrawl 直接返回结构化的 JSON 数据。实测提取了 21 个 A 字母开头的词汇,全部正确。

这里有个细节:如果不限定字母范围,让它提取整页所有词汇可能会超时,因为页面数据量太大。分批提取是更稳妥的做法。

Create JSON 模块:解决 HTTP 调用格式问题

配置 Firecrawl 的 HTTP 请求时,我推荐用 Make 的 Create JSON 模块来生成 Request Body,而不是手动拼 JSON。

操作方法:

  1. 在 Make 中添加 JSON → Create JSON 模块
  2. 点击"添加数据结构",粘贴 API 文档中的样例 JSON,点 Generate 自动生成结构
  3. 后续只需要把前面模块的输出映射到对应字段

最大的好处是:Create JSON 模块会自动处理换行符、空格、双引号等影响 JSON 结构的字符。以前经常遇到的"HTTP 调用大模型时 JSON 格式报错"问题,用这个模块就彻底解决了。

结构化数据是自动化的前提

工作流整体架构

完整工作流分为四个阶段:

阶段 模块 作用
数据采集 Basic Trigger → Jina API 输入网址,抓取整页 Markdown
数据提取 Match Pattern x2 正则表达式提取词汇和解释
内容生成 EXA 新闻检索 → ChatGPT 结合新闻生成中英双语解释、案例、新闻
图片输出 HCTI x3 → Cloudinary x3 → Notion 三张卡片生成、上传图床、保存知识库

第一步:Jina API 采集网页

Basic Trigger 输入经济学人财经词汇页面的 URL,下一个 HTTP 模块调用 Jina Reader API 抓取整页内容。返回的 Markdown 包含了所有词汇数据。

这里分享一个提效技巧:在小报童专栏中我整理了常用 HTTP 调用模块的代码块,直接复制粘贴到 Make 中就能用,不需要手动填 URL、Headers、Body,大幅减少配置错误。

第二步:正则表达式筛选

两个 Match Pattern 模块串联。第一个截掉页面头部,第二个按双空行分割提取词汇和解释。Global 和 Multiline 选项都要打开。

第三步:EXA 新闻检索

对每个财经词汇,用 EXA 的 Search 端点检索 5 条相关新闻。检索类型选 Keyword,范围限定为新闻类内容,开启内容获取(Content: Yes)以拿到新闻正文。

EXA 返回的数据也是数组结构。通过中括号加数字的方式可以定位到具体条目,比如 Title[1] 就是第一条新闻的标题。

第四步:ChatGPT 生成结构化内容

GPT-4o-mini 模型,系统提示词定义"经济学科普作家"角色,要求输出 JSON 格式,包含以下字段:

  • term:中文词汇名称
  • definition_cn / definition_en:中英文解释(130-140 字)
  • example_cn / example_en:中英文生活案例(130-140 字)
  • news_cn / news_en:中英文相关新闻(130-140 字)

字数限制很重要——知识卡片的文本区域是固定大小的,超过 150 字就会溢出。提示词中必须明确指定字数范围,同时在 Make 中通过条件过滤模块进一步限制,只有字数达标的内容才生成图片。

User 角色输入三部分内容:正则提取的英文词汇名称、原始英文解释、EXA 检索的 5 条新闻标题和正文。高级选项中把输出格式设为 JSON,开启 JSON 解析。

Make完整工作流四阶段架构

第五步:HCTI 生成知识卡片

HCTI(HTML/CSS to Image)是把 HTML 代码渲染成图片的在线服务。免费额度每月 50 张,支持 4K 渲染。

每个词汇生成 3 张卡片:解释卡、案例卡、新闻卡。所以需要 3 个 HCTI 模块,每个模块输入不同的 HTML 代码。

HTML 代码的结构很简单——固定的模板,把 ChatGPT 输出的对应字段映射到 {{变量}} 位置即可。CSS 控制字体大小、间距、背景图等视觉效果。

关键参数:

参数 说明 推荐值
Device Scale 清晰度倍数 2(达到 4K)
Viewport Width 页面宽度 1240(小红书标准)
Viewport Height 页面高度 1660(小红书标准)

调试方法:直接在 HCTI 官网的 Demo 页面粘贴 HTML 和 CSS,实时预览效果。修改参数后即时看到变化,调好再复制回 Make。

第六步:Cloudinary 图床保存

HCTI 生成的图片链接可能会失效,需要保存到自己的图床。Cloudinary 提供 25GB 免费存储,支持图片压缩和尺寸调节。

在 Make 中添加 Cloudinary → Upload Resource 模块,把 HCTI 输出的 Image URL 映射过去即可。上传后返回永久有效的图片链接。

第七步:保存到 Notion

最后一个 Notion 模块创建数据条目,映射标题、三张图片的 URL、采集状态、小红书笔记内容。一条完整的小红书素材就准备好了——图片和文案同步生成。

常见问题

Q:不会 HTML/CSS 怎么办?
不需要会写代码。我在小报童专栏中提供了 5 套现成的图片模板,覆盖知识分享、语录、新闻速览等场景。直接复制代码到 Make 中,只需要修改映射的数据字段即可。调整样式在 HCTI Demo 页面实时预览,改数字就能看到效果。

Q:图片文字溢出怎么处理?
两个层面解决。第一,在 ChatGPT 提示词中严格限定每个字段的字数范围(130-140 字)。第二,在 Make 中添加条件过滤模块,检查 ChatGPT 返回的 word_count 字段,只有字数达标才继续生成图片。

Q:HCTI 免费额度不够用怎么办?
每月 50 张的免费额度,如果每条笔记 3 张图,大约能做 16 条。对于刚起步的账号,隔天发一条够用一个月。如果需要更大量,可以购买付费额度,或者考虑开源的 HTML 转图片方案。

HCTI知识卡片生成流程

总结

这套工作流把"网页采集 → 结构化提取 → 大模型生成内容 → HTML 渲染图片 → 图床保存 → Notion 归档"整条链路自动化了。核心思路是:知识卡片 = 模板 + 结构化数据,只要数据是结构化的,图片生成就可以无限复制。

500 多个词汇、1500 张图片、全程不需要手动做图。这套方法不限于财经词汇,任何知识分享类场景——英语单词、编程概念、健康知识、考公常识——只要能找到数据源,都可以用同样的逻辑批量生成。

下一期我会分享 PDF 翻译自动化工作流,教你用 Make 打造一套反思翻译系统。

资源下载

订阅成功!请到邮箱查收确认链接。

订阅成功!请到邮箱查收确认链接。

订阅成功!请到邮箱查收确认链接。

订阅成功!请到邮箱查收确认链接。

操作成功。

操作已取消。