带个性化推荐的 RSS 阅读器 / 零 Token 使用 / 开源今日头条替代

完全自部署、零 Token 使用的今日头条

邸报把个性化推荐限制在你自己订阅的 RSS / Atom 消息源里。它给你平台级的阅读排序, 但不接管你的信息入口,不出售你的注意力,也不把用户画像交给广告系统。

消息源
只来自你订阅的 RSS
画像
留在本地实例
推荐
可解释,可调教
邸报 今日 · 42 篇推荐 推荐 最新 收藏
推荐 RSS 内排序
少数派 · 12 分钟前 · 技术 / AI 本地推荐应该像一张可复核的日报

来源、主题、时间新鲜度和你的阅读深度一起决定排序。

MIT Tech Review · 1 小时前 小模型 embedding 在个人阅读中的取舍

provider 可选,本地基础排序始终可用。

The Verge · 2 小时前 把订阅源重新变成有秩序的日常入口

没有广告位,也没有平台强塞的消息源。

推荐只发生在你的订阅范围内。邸报不是新的中心平台,而是你自己的阅读排序层。

你不该被平台喂养,也不该被订阅列表淹没。

平台信息流知道什么会让你继续刷,但它不告诉你边界在哪里。传统 RSS 尊重消息源主权, 可订阅一多,阅读器就变成未读数字的仓库。邸报要补上的,是这两者中间缺失的个人排序能力。

把平台的阅读体验,装回你的 RSS 主权里。

01 中央式平台

个性化很强,但你无法知道它在替谁优化。

  • 推荐顺滑,阅读路径短
  • 热点发现快,启动成本低
  • 消息源由平台决定
  • 广告、商业目标和算法目标混在一起
  • 你的兴趣画像成为平台资产
02 传统 RSS 阅读器

纯净、可控,但订阅越多,越容易被未读压住。

  • 没有广告位,阅读干净
  • 每个消息源都由你决定
  • 缺少个人化排序
  • 信息过载后只能靠手工筛选
  • 阅读行为没有沉淀成长期帮助
03 邸报

只在你的订阅范围内推荐,把可控消息源和个人化排序放在一起。

  • 自部署,数据和画像留在本地
  • 可零 Token 使用,也可接入本地 Ollama
  • 推荐原因可看见,不把系统做成黑箱

AI 驱动,但零费用。

生成式人工智能的涌现,让个性化阅读产品出现了大爆发。但很少有人意识到, LLM 是生成式模型,它并不擅长以低成本驱动个性化信息流。

邸报采用“上一代”人工智能技术,也就是十年前流行起来的“推荐算法”为核心。 它通过小参数 Embeddings 模型即可驱动,在 Mac、NAS 等场景运行良好, 也可以接入云端 Provider 使用各种免费 Embedding 模型。

LLM 适合生成,不适合作为低成本信息流发动机
Embeddings 小模型即可完成相似度和兴趣排序
Mac / NAS / Free Provider 本地优先,云端可选,日常使用可零费用

你的个人用户画像,是你自己的个人资产。

收藏、稍后读、不感兴趣、阅读进度、停留时间,这些不是广告投放素材, 也不应该变成平台锁住你的筹码。它们是你长期阅读习惯的压缩,是你判断世界的私人地图。

邸报的原则很简单:画像可以帮你节省时间,但它必须归你所有。推荐可以存在, 但它应该在你的订阅边界内工作,并且随时接受你的纠正。

read_progress 长期兴趣簇
favorite / read_later 强正反馈
not_interested 负向边界
profile.sqlite 在你自己的实例里

如果你想要一个属于自己的个人信息流,加入 Waitlist。

现在只开放一页介绍和内测登记。后续会优先邀请真正需要自部署 RSS 推荐、 本地画像和低广告干扰阅读的人。

加入 Waitlist