在这个信息大爆炸的时代,开发者和极客们每天面临着前所未有的信息过载:Hacker News 榜单、各大厂的技术博客、新模型发布、开源社区的变动……每天在这些碎片化的源头中淘金,不仅消耗精力,还极易产生“错失恐惧症”(FOMO)。
实际上,与其每天被算法喂养,不如利用你的本地数字助理 OpenClaw,配合 RSS 解析神器,搭建一套完全私有化、懂你痛点的“AI 资讯聚合引擎”。
今天我们将深入介绍如何利用 OpenClaw 强大的定时任务与语义分析能力,让 AI 每天早晨为你端上一份“高信噪比”的极简研报。
OpenClaw 交流群
如果你也在折腾 OpenClaw,或者对 AI Agent、自动化工具感兴趣,欢迎加入以下交流群。一起交流使用经验、分享自动化玩法、讨论最新进展。
🛠️ 核心组件:引入 Blogwatcher 工具箱
要让 OpenClaw 有效地追踪网页更新,直接让它暴力抓取会显得非常低效且耗费 Token。最佳实践是利用轻量级的订阅源管理库。这里我们推荐使用专门针对极简工作流优化的扩展工具:blogwatcher。
它的工作机制非常清晰:
- 统一订阅:接管你所有的 RSS/Atom 源。
- 静默扫描:在后台定期拉取数据提取新文章。
- AI 接管:OpenClaw 调用该工具的结果,提取内容、归类重构,并生成带感情色彩和优先级判断的摘要。
初始安装与验证
如果你尚未安装此依赖,可以在终端中通过 Go 快速获取:
go install github.com/Hyaxia/blogwatcher/cmd/blogwatcher@latest
安装完成后,输入 blogwatcher --help 验证命令是否已经写入环境变量。
📍 阶段一:建立你的高质量信息库
摒弃数量,追求质量。选择 10-15 个让你真正觉得有价值(高信噪比)的源,将它们喂给监控器。
绝大多数认真的技术博客与社区都保留着 RSS 订阅的优良传统(常见后缀如 /rss.xml 或 /feed)。
执行订阅指令
你可以根据领域进行归档订阅,例如:
# 前沿 AI 研究与产品
blogwatcher add "OpenAI News" https://openai.com/blog/rss.xml
blogwatcher add "Anthropic" https://www.anthropic.com/rss
# 独立见解与技术热榜
blogwatcher add "Paul Graham Essays" http://paulgraham.com/rss.html
blogwatcher add "Hacker News Top" https://hnrss.org/best
# 开源基建与部署
blogwatcher add "Vercel Releases" https://vercel.com/atom
blogwatcher add "Cloudflare Tech" https://blog.cloudflare.com/rss/
初始化数据快照
添加完成后,我们需要执行一次全量初始化,将历史存量数据打上“已读”标签,以免 AI 第一天给你推送几百条旧闻:
# 扫描并写入初始快照
blogwatcher scan
🧠 阶段二:赋予 OpenClaw 筛选灵魂
拥有了数据不等于拥有了见解。如果你只是想看到列表,任何一款传统的 RSS 阅读器都能做到。我们的目标是利用大语言模型的推理能力实现“信息降噪”。
我们可以直接在 OpenClaw 的会话中这样询问:
“使用 blogwatcher 检查新文章。请仔细阅读摘要,去掉水文,只为我挑选出技术突破和重大产品更新,并简单点评。”
得益于 OpenClaw 的 Tools 调用能力,它会自动执行后台扫描,并给你一份包含态度的微研报。
但这显然还不够极客,我们需要彻底的自动化。
⏳ 阶段三:编排全自动定时推送流 (Cron)
OpenClaw 提供了强大的内建 cron 任务系统。我们可以设定精确的触发条件、执行逻辑以及多渠道的分发路径。
场景 A:主理人的“早间读物”
对于希望拥有掌控感的人来说,每天早上一份综述是最好的安排:
openclaw cron add \
--name "每日资讯提纯" \
--cron "0 8 * * *" \
--tz "Asia/Shanghai" \
--session isolated \
--message "执行 blogwatcher scan 获取新源。请你扮演资深技术 CTO,对所有新文章进行筛选。如果有革命性的 AI 模型发布、重大融资或架构变更,请放置于【🔥 核心警报】区间并说明为何重要。其余正常产品迭代或讨论放置于【📝 常规动态】,每篇用不超过 20 字概括。剔除纯营销内容。" \
--announce \
--channel telegram \
--to "你的 Telegram ID"
提示:--tz 根据你的作息时区进行设定,例如东八区使用 Asia/Shanghai。
场景 B:高敏嗅觉的“四小时巡逻”
如果你是行业分析师或需要追热点的自媒体,可以增加巡逻密度,但同时要求 AI 具有“不打扰的智慧”:
openclaw cron add \
--name "四小时高频巡线" \
--cron "0 */4 * * *" \
--tz "Asia/Shanghai" \
--session isolated \
--message "即刻扫描 blogwatcher 订阅源。规则:若内容全无更新,你必须仅回复「暂无更新」四个字,禁止发出任何有效消息。若有更新,严苛地过滤出有价值的硬指标信息,带来源推给我。" \
--announce \
--channel telegram \
--to "你的 Telegram ID"
这种通过 Message 提示词对 AI 制定强规则的设计,是传统 RBA 自动化工具无法做到的。你能让系统真正“听懂”你的抗拒。
🚀 突破限制:面对没有 RSS 的孤岛怎么办?
在实际应用中,有很多优质网页或发布页并不提供 RSS 服务。在 OpenClaw 体系内,这并不构成障碍。
技巧 1:零代码化身爬虫大闸
遇到诸如官方 Changelog 无源的情况,可以命令 AI 结合长期记忆来对比:
命令示范:“请前往
https://platform.openai.com/docs/changelog抓取正文,调取我工作区里的last-changelog.md逐字比对,找出新的增改项并通知我,最后覆写该本地文档。”
技巧 2:拥抱 Github Releases 源
对于开源开发者,GitHub 原生提供的 Atom 生成可谓是宝藏,只需要在 Repo 路径后加上 .atom 即可获得即时的版本发版监控:
blogwatcher add "LangChain" https://github.com/langchain-ai/langchain/releases.atom
✅ 写在最后与命令速查
在算法平台肆虐的年代,利用大模型夺回自己的信息定义权是每个 Power User 的浪漫。通过聚合高密度源与 AI 洗稿,你的阅读效率将提升至少两倍以上。
Blogwatcher 常用快捷键:
blogwatcher blogs:盘点已订阅池。blogwatcher scan:触发拉取检测。blogwatcher read-all:清障指令,一键将所有积压标为已处理。blogwatcher remove "标签名":取消订阅清理门户。
如果你有了更巧妙的 Prompt 过滤逻辑,或是监控冷门站点的独家心得,欢迎步入 OpenClaw 的中文站 ClawCN 官方文档 (clawcn.net) 寻找灵感,或在 虾聊社区 (xialiao.ai) 与硬核玩家们碰撞火花!
虾聊用户群
一个人探索 AI 太孤独?欢迎加入【虾聊】官方高能玩家宇宙 🚀,和懂行的人一起开脑洞!第一时间获取产品更新与 AI 前沿玩法。
