学员实践:openbili AI 接入驾驶舱介绍
Calvin 是「翔宇工作流」的学员,方向是 AI 模型中转。他把这件事做成了独立站点「openbili」,覆盖 OpenAI SDK 兼容、模型路由、调用成本可见、失败可解释。本文将其介绍给关注同方向的读者。
用 Make.com 搭建推特运营自动化工作流,将千字新闻浓缩为 128 字高密度推文并自动配图发布。工作流从 RSS 采集新闻、AI 精炼要点、生成情绪钩子文案、Flux 生成配图到 Twitter API 定时发布全程无人值守。教程涵盖推文浓缩提示词设计、图文配比策略和发布节奏优化,帮助推特运营者实现从信息采集到内容发布的全链路自动化。
做推特运营的朋友一定有过这种体验:每天要追踪大量新闻和热点,还得把几千字的内容浓缩成一条128字的推文,同时还要配上合适的图片。手动操作不仅耗时,质量还参差不齐。
我是翔宇。翔宇运营推特账号期间发现,128 字的浓缩推文比长推文的互动率高出三倍以上,关键是浓缩的质量。
我一直在思考,有没有办法让这整个流程自动化?从信息采集到内容精炼,再到配图和发布,全程不需要人工干预。经过反复测试和打磨,我终于搭建出了一套完整的推特运营自动化工作流——从 RSS 订阅抓取新闻,到128字高密度推文的生成,再到自动配图和一键发布,全部在 Make 中实现。
这套工作流最核心的亮点是我设计的"迭代总结法":通过三轮信息压缩,在不增加字数的前提下逐步提升信息密度,让每一个字都在传递关键信息。
本教程配套视频已发布在 YouTube,建议搭配视频一起学习效果更佳。
整个工作流的运行逻辑非常清晰:首先通过 RSS 获取信息源,利用 Jina 阅读器抓取网页全文,再通过 Jina 分类器确保获取到完整内容。接着进入核心环节——迭代总结,分三轮对内容进行精炼,每轮引入新实体的同时保持128字的篇幅限制。最后根据推文关键词通过 Apify 抓取谷歌图片,所有结果保存到 Notion 知识库,一键即可自动发布到推特。
这是我在本期视频中最想分享的方法论。传统的摘要生成只是简单压缩,而迭代总结法的核心思路完全不同:
第一轮:提取文章核心信息,生成不超过110字的初始概要,识别关键实体。
第二轮:在保持字数不变的前提下,新增3个关键实体,融合并压缩信息,提升信息密度。
第三轮:进一步叠加实体,每个字词都传递更丰富的信息,最终生成高度浓缩的推文。
举个实际例子:一篇关于 Figure 人形机器人的长文,经过三轮迭代后生成的推文——"Figure 突破博士动力空翻专利,推出高智能人形机器人,掌握咖啡拉花、叶销、分发、遛狗等多项技能。专注通用机器人及自研电机技术续航,预计年底实现商业应用,推动机器人从 M1向 M2阶段进化,覆盖家庭商业工业领域。"——没有一个字是废话,全是实体的聚集和叠加。
这种方法特别适合当下短内容消费的趋势,不管是推特、抖音还是其他平台,用更简短的文字高效传递信息已经成为刚需。
工作流的第一个模块是 Notion 搜索。通过创作状态字段筛选,支持"开始有水印"和"开始无水印"两种状态,用 OR 条件确保匹配任一状态即可触发。
配置要点:选定正确账户,通过标题关键词匹配数据库。如果检索不到,检查是否在 Notion 中为数据库添加了 Make 集成权限。
Jina 阅读器:通过 HTTP 模块调用 Jina 的 API,格式为 Jina 网址+目标链接。记得开启 Parse Response 选项,否则返回的 JSON 数据无法正确解析。
Jina 分段器(Tokenizer):这是处理长文本的关键工具。将抓取到的长文按照指定 Token 数进行切分(我一般设置2000),确保每一段都能被大模型充分处理。一定要开启"创作式"选项,否则只返回 Token 数而不返回实际分段内容。
为了让工作流能适应不同长度的文章,我设计了动态分段机制:通过一个变量模块计算文章长度除以2000再取整,得到分段数量,然后传递给重复器。这样无论是一千字还是一万字的文章,工作流都能自动调整处理策略。
传统改写只停留在词语和句式层面——修改措辞、切换语态、调整连接词,本质上是表面功夫。我首创的深度改写方法核心在于注入新信息。
借用物理学的熵增原理:封闭系统最终会走向混乱,打破混沌的唯一方式就是走往更大的世界。文章改写也是同理,不能仅停留在表面调整,一定要注入新鲜血液。我通过 Perplexity 在网络上抓取与主题相关的背景信息、数据支撑和权威引用,注入到改写过程中,让内容既有深度又有新意。
本期新增的配图方案——利用 Cloudinary 进行动态图片裁切,特别适合处理微信公众号图片底部的水印。通过宽高比计算拟合裁切比例,性价比极高且免费额度充足。
核心逻辑:先用正则表达式从文章中匹配图片链接,上传到 Cloudinary 后获取 URL,再通过 Replace 模块将固定部分替换为裁切参数。同时设置 Error Handler 做容错——图片上传失败时直接保留纯文本内容。
方法一:IP 风格化写作。使用 Claude 3.7,以 IP 视角代入深度改写。适合 Medium 等需要个人故事的平台。技巧是在写作风格中明确指定"使用某某作者的写作风格",并在额外需求中添加经历和关键词融入要求。
方法二:传统风格改写。使用 DeepSeek V3,直接指定写作风格,适合情感、生活赛道的公众号内容。如果大模型没有你想要的风格,可以利用它已知的名人写作风格,比如莫言、记者体等。
方法三:自定义风格写作。使用 Claude 3.7,自行定义写作风格描述(如"简洁犀利"),适合严肃领域的文章转写。信息准确度高,同时保持一定的风格特征。
Q:迭代总结的轮数越多效果越好吗?
A:不一定。三轮是比较均衡的选择。轮数过多可能导致内容过度压缩而丢失可读性,但由于是自动化生成,你完全可以尝试5轮甚至10轮,找到适合自己场景的最佳轮数。
Q:Jina 分段器的 Token 数应该设置多少?
A:建议2000左右。如果想节省 Token 可以调高,但要确保每段内容足够大模型理解上下文。
Q:Notion 检索不到数据库怎么办?
A:首先确认已在 Notion 中为该数据库添加 Make 集成权限。如果是授权后新建的数据库,需要手动在数据库设置中搜索并添加 Make 集成。
这期视频从推文自动化创作出发,覆盖了迭代总结法、深度改写原理、动态分段机制、Cloudinary 配图裁切、三种写作风格调优等多个核心技巧。每一个都是我在实际运营中打磨出来的方法。
如果你正在做社交媒体运营,或者想提升内容创作效率,这套工作流值得认真学习和实践。下期我将继续带来更多自动化运营的干货内容。
每周精选 AI 编程与自动化实战内容,直达你的邮箱