学员实践:openbili AI 接入驾驶舱介绍
Calvin 是「翔宇工作流」的学员,方向是 AI 模型中转。他把这件事做成了独立站点「openbili」,覆盖 OpenAI SDK 兼容、模型路由、调用成本可见、失败可解释。本文将其介绍给关注同方向的读者。
用 Make.com 搭建小红书图文笔记批量制作工作流,实现图片创作自动化。从 Notion 素材库读取选题,AI 自动生成笔记文案和多张配图,适配小红书的竖版图文格式后批量输出。教程涵盖小红书爆款笔记结构分析、AI 图片生成风格一致性控制、多图排版逻辑设计和批量发布节奏规划,帮助小红书运营者从日更一篇提升到日更十篇。
做小红书知识分享类账号,最大的瓶颈不是写文案,而是做图。一张知识卡片要调排版、选配色、填内容,做完一张至少十几分钟。如果想日更三张图的节奏,光做图就能占掉半天时间。
我是翔宇。翔宇运营小红书账号期间测试了多种批量制作方案,这套在质量和效率上做到了最佳平衡。
我一直在思考:知识卡片本质上是"模板 + 结构化数据"的组合。模板固定,数据变化——这不就是自动化最擅长的事情吗?只要能把数据结构化提取出来,再套进固定的 HTML/CSS 模板,图片生成就可以完全交给机器。
这期视频我就实现了这个想法。用经济学人网站的财经词汇作为数据源,通过 Make 工作流一键生成上百张高清知识卡片,每张包含中英双语解释、生活化案例和相关新闻。一套流程跑下来,500 多个词汇、1500 张图片,全自动完成。
本教程配套视频已发布在 YouTube,建议搭配视频一起学习效果更佳。
在动手搭工作流之前,先理解一个核心概念:自动化的前提是流程化,流程化的前提是规范化,规范化的前提是结构化。
拿今天的例子来说,经济学人网站上有 500 多个财经词汇,全部混在一个长页面里。如果不做结构化处理,这些数据就是一坨文本,没法自动化。但一旦把每个词汇拆成"名称 + 解释"两个字段,它就变成了一个数组,可以遍历、可以批量处理、可以套模板——这就是结构化的意义。
结构化数据有两个关键价值:
正则表达式提取分三步:找特征、搭表达式、测表达式。
找特征:先分析网页的数据结构。经济学人的财经词汇页面有一个明显的规律——每个词汇和它的解释之间用两个空行分隔。这个"双空行"就是我们要找的特征。
搭表达式:不需要自己写。把样例数据和需求告诉大语言模型:
我有这样一段文本(附上样例),每个财经词汇后面跟着两个换行符,然后是解释。请帮我写一个正则表达式,分别捕获词汇名称和解释内容。
大语言模型会直接给出可用的正则表达式。
测表达式:用在线正则测试工具验证,确认匹配结果正确后再放到 Make 中。
在 Make 中的实际操作是用两个 Match Pattern 模块串联:
^.{1560}([\s\S]*) —— 截掉前 1560 个字符(页面头部的非结构化内容),只保留正文。^([^\n]+)\n\n([^\n]+)(?=\n\n|\Z) —— 按双空行分割,捕获词汇名称(第一组)和解释(第二组)。实测结果:507 个词汇全部正确提取,每个词汇独立为一个 Bundle 发射出去。
Firecrawl 提供了一个基于大模型的结构化提取端点(Beta),三步搞定:定提示词、抓内容、摘数据。
不需要写正则,只需要在 HTTP 请求中告诉 Firecrawl:
从这个页面中提取所有以 A 开头的财经词汇,输出 Term(条目)和 Definition(解释)两个字段。
Firecrawl 直接返回结构化的 JSON 数据。实测提取了 21 个 A 字母开头的词汇,全部正确。
这里有个细节:如果不限定字母范围,让它提取整页所有词汇可能会超时,因为页面数据量太大。分批提取是更稳妥的做法。
配置 Firecrawl 的 HTTP 请求时,我推荐用 Make 的 Create JSON 模块来生成 Request Body,而不是手动拼 JSON。
操作方法:
最大的好处是:Create JSON 模块会自动处理换行符、空格、双引号等影响 JSON 结构的字符。以前经常遇到的"HTTP 调用大模型时 JSON 格式报错"问题,用这个模块就彻底解决了。

完整工作流分为四个阶段:
| 阶段 | 模块 | 作用 |
|---|---|---|
| 数据采集 | Basic Trigger → Jina API | 输入网址,抓取整页 Markdown |
| 数据提取 | Match Pattern x2 | 正则表达式提取词汇和解释 |
| 内容生成 | EXA 新闻检索 → ChatGPT | 结合新闻生成中英双语解释、案例、新闻 |
| 图片输出 | HCTI x3 → Cloudinary x3 → Notion | 三张卡片生成、上传图床、保存知识库 |
Basic Trigger 输入经济学人财经词汇页面的 URL,下一个 HTTP 模块调用 Jina Reader API 抓取整页内容。返回的 Markdown 包含了所有词汇数据。
这里分享一个提效技巧:在小报童专栏中我整理了常用 HTTP 调用模块的代码块,直接复制粘贴到 Make 中就能用,不需要手动填 URL、Headers、Body,大幅减少配置错误。
两个 Match Pattern 模块串联。第一个截掉页面头部,第二个按双空行分割提取词汇和解释。Global 和 Multiline 选项都要打开。
对每个财经词汇,用 EXA 的 Search 端点检索 5 条相关新闻。检索类型选 Keyword,范围限定为新闻类内容,开启内容获取(Content: Yes)以拿到新闻正文。
EXA 返回的数据也是数组结构。通过中括号加数字的方式可以定位到具体条目,比如 Title[1] 就是第一条新闻的标题。
GPT-4o-mini 模型,系统提示词定义"经济学科普作家"角色,要求输出 JSON 格式,包含以下字段:
term:中文词汇名称definition_cn / definition_en:中英文解释(130-140 字)example_cn / example_en:中英文生活案例(130-140 字)news_cn / news_en:中英文相关新闻(130-140 字)字数限制很重要——知识卡片的文本区域是固定大小的,超过 150 字就会溢出。提示词中必须明确指定字数范围,同时在 Make 中通过条件过滤模块进一步限制,只有字数达标的内容才生成图片。
User 角色输入三部分内容:正则提取的英文词汇名称、原始英文解释、EXA 检索的 5 条新闻标题和正文。高级选项中把输出格式设为 JSON,开启 JSON 解析。

HCTI(HTML/CSS to Image)是把 HTML 代码渲染成图片的在线服务。免费额度每月 50 张,支持 4K 渲染。
每个词汇生成 3 张卡片:解释卡、案例卡、新闻卡。所以需要 3 个 HCTI 模块,每个模块输入不同的 HTML 代码。
HTML 代码的结构很简单——固定的模板,把 ChatGPT 输出的对应字段映射到 {{变量}} 位置即可。CSS 控制字体大小、间距、背景图等视觉效果。
关键参数:
| 参数 | 说明 | 推荐值 |
|---|---|---|
| Device Scale | 清晰度倍数 | 2(达到 4K) |
| Viewport Width | 页面宽度 | 1240(小红书标准) |
| Viewport Height | 页面高度 | 1660(小红书标准) |
调试方法:直接在 HCTI 官网的 Demo 页面粘贴 HTML 和 CSS,实时预览效果。修改参数后即时看到变化,调好再复制回 Make。
HCTI 生成的图片链接可能会失效,需要保存到自己的图床。Cloudinary 提供 25GB 免费存储,支持图片压缩和尺寸调节。
在 Make 中添加 Cloudinary → Upload Resource 模块,把 HCTI 输出的 Image URL 映射过去即可。上传后返回永久有效的图片链接。
最后一个 Notion 模块创建数据条目,映射标题、三张图片的 URL、采集状态、小红书笔记内容。一条完整的小红书素材就准备好了——图片和文案同步生成。
Q:不会 HTML/CSS 怎么办?
不需要会写代码。我在小报童专栏中提供了 5 套现成的图片模板,覆盖知识分享、语录、新闻速览等场景。直接复制代码到 Make 中,只需要修改映射的数据字段即可。调整样式在 HCTI Demo 页面实时预览,改数字就能看到效果。
Q:图片文字溢出怎么处理?
两个层面解决。第一,在 ChatGPT 提示词中严格限定每个字段的字数范围(130-140 字)。第二,在 Make 中添加条件过滤模块,检查 ChatGPT 返回的 word_count 字段,只有字数达标才继续生成图片。
Q:HCTI 免费额度不够用怎么办?
每月 50 张的免费额度,如果每条笔记 3 张图,大约能做 16 条。对于刚起步的账号,隔天发一条够用一个月。如果需要更大量,可以购买付费额度,或者考虑开源的 HTML 转图片方案。

这套工作流把"网页采集 → 结构化提取 → 大模型生成内容 → HTML 渲染图片 → 图床保存 → Notion 归档"整条链路自动化了。核心思路是:知识卡片 = 模板 + 结构化数据,只要数据是结构化的,图片生成就可以无限复制。
500 多个词汇、1500 张图片、全程不需要手动做图。这套方法不限于财经词汇,任何知识分享类场景——英语单词、编程概念、健康知识、考公常识——只要能找到数据源,都可以用同样的逻辑批量生成。
下一期我会分享 PDF 翻译自动化工作流,教你用 Make 打造一套反思翻译系统。
每周精选 AI 编程与自动化实战内容,直达你的邮箱