碎片信息,我这样批量处理
*
不同信息来自不同地方,于是有了碎片。比如,我平时想知道的以下几类消息,就每个都渠道不同:
- 公众号文章来自微信
- 即时短讯来自官方微博
- 独立博客订阅
- GitHub 关注的项目更新
- ……
消息来源多,不同来源推送时间又不一致,就不可避免导致碎片。信息碎片化往往意味着注意力碎片化。我不喜欢。于是想了个法子来料理。大原则就一条:一元化。
也就是说,不是让各种碎片打散注意力,而是把所有这些信息,全部集中到一处;再统一筛选、阅读、标注;最后所有笔记也汇集到一处。具体可分四步:
1)汇集
2)过滤
3)阅读与标注
4)整理为卡片
*
第一步,汇集。
首先得把所有渠道的信息都汇总到一处,这样就不用我单独一个个客户端去蹲更新。
我用的办法是:订阅各渠道的 RSS。如果不了解 RSS 是什么,可以看看阮一峰的介绍文章:如何使用 RSS。
简单来说,就是订阅了某个消息源的 RSS,一旦有更新,就会自动推送到我的文章收件箱,不用我再去官网、官博、官方公众号逐个查看。
当然,并不是每个地方都提供 RSS,有的不提供,就要想点办法。
» 微博
我平时不看微博,但像最近,我需要了解广州疫情近况,于是把广州日报、羊城晚报、广州市政府新闻办等的官方微博做成 RSS 链接,供我订阅。
我是自己在腾讯云跑了个 RSSHub,这是个可以把各种网站的更新转变为 RSS 的魔法程序;
如果懒得折腾,也可以用现成的。比如,RSSHub 官方提供的服务可以免费用,还有热心的开发者免费开放了 Weibo to RSS 服务:https://rssfeed.today/weibo/ 。
输入想关注的微博主页链接,就能生成 RSS 订阅。
» 微信公众号
公众号自然也不提供 RSS 订阅,我用的是一个叫 WeRss 的服务,能帮我把公众号的文章推送转为 RSS。
至于 GitHub 和一些独立博客,都都自带 RSS Feed,可以直接订阅,无需额外操作。
……
于是,所有这些信息,不管它最初来自什么地方,只要有更新,都会经由 RSS,到达我指定的文章收件箱。
我用的文章收件箱叫 Inoreader。凡是我订阅了的文章、微博、公众号,都会汇聚到这一处来。
于是,我的 Inoreader 时间线里,最新的几篇文章,可能分别是 Paul Graham 的博客更新、少数派的最新文章、和菜头的公众号推送,还有羊城晚报刚发的微博。
……
汇总完成,就可以进行下一步了——
*
第二步:过滤。
过滤的目的,是刨去无关信息,只接收我需要的。
比如,我订阅了广州日报等微博,但这些号每天更新好几十条,讲疫情的、讲高考的、讲社会新闻的,混杂在一起。
但我只想看疫情相关,其余的不要出现在时间线。
Inoreader 就让这一点很好实现。
它能让我为每条订阅或每个文件夹设定规则,比如,只接收标题包含了「疫情」或「新冠」的文章,其余一概不收。
这样的好处是,时间线干净,新内容列表一眼扫过去就能看到重点,没有无关条目干扰视线。
*
第三步:阅读与标注。
收到文章后,我的习惯是每天安排一个时间,批量处理新文章。
我把文章分三类:
第一类:今天就需要看且有时间看的。这些文章,我会先开在浏览器后台新标签,等我筛选完 Inoreader 新文章列表后,待会儿一起看。
第二类:我近期感兴趣的主题,但这会儿先不细读的。
比如去年起,我开始关注德国社会学家尼克拉斯·卢曼和他的 Zettelkasten 卡片笔记法,订阅了一些相关 RSS 源,于是有新文章到了,我会先保存在一个叫 Pinboard 的书签服务,然后打上标签「#卢曼」「#Zettelkasten」,之后专门安排整块时间,按这主题标签,数篇或十几篇一起读,效果更佳。
第三类:剩下的就全是不感兴趣的内容了,在 Inoreader 用 ⇧+A 一键全部标为已读,收件箱清空。
……
此外,阅读总免不了要标注一处两处,由于是在浏览器网页读,就需要一个网页标注工具。
这类工具中,我用得最顺手的是 Diigo 。Diigo 做的事类似读纸书时用的荧光笔,我在网页上选中文本后,Diigo 就会自动弹出荧光笔图标,供我标注颜色,添加笔记。
这样一来,我就能把文章给拆散了,所谓文非摘不可用,我只留我需要的。而所有我用 Diigo 标注过的内容、写过的笔记,都会自动同步到我的 Diigo 主页,供我下一步整理为笔记。
*
第四步:整理为卡片。
最后这一步,便是对照 Diigo 的标注和笔记,来整理卡片。如马寅初在《余对于读书之经验》一文所说:每读一书,必取其精华,不肯放弃,如觉此书有伟大价值,非终篇不肯释手,力不虚糜,颇足自慰。
无论是读书笔记还是零散的阅读笔记,原理都是一样的,全部可以一卡封装。
具体如何写卡、如何整理、用什么工具,可参考文章《写读书卡片:踩过的三个坑,学到的三件事》,这里就不再详述了。
……
这么一轮下来,这汪信息海水里的盐,就都滤出来,妥妥存在我的卡片盒里了。
于是,从汇集到过滤,到阅读,到最终整理为卡片,各个渠道的碎片信息「一元化」流程,就全部完成啦。