第179期 - 喜贡爆炒

封面图拍摄来源于周末喜贡吃饭拍的店内图,假如你在杭州想去吃炒菜,辣的,下饭的,爆炒的那种,一定推荐去试试喜贡爆炒,可称杭州笨萝卜,6 分钟爆炒 3 个菜的节奏,上来时还有锅气的那种,价格 OK,很费米饭,很香很好吃,有一个同事可以吃 3 碗饭的那种。

记录每周看到的接地气的潮流技术,筛选后发布于此,觉得不错可关注此周刊,方便获取更新通知

技术学习

一份大约 30 篇 AI 研究论文的阅读清单
https://arc.net/folder/D0472A20-9C20-4D3F-B145-D2865C0A9FEE
在 Reddit 看到 OpenAI 的前联合创始人 Ilya Sutskever 给出一份大约 30 篇 AI 研究论文的阅读清单,并说 “如果你真正学会了所有这些,你就会知道当今 AI 的 90% 重要内容”,看了看只能收藏,阅读起来有点儿难度了…

100 Exercises To Learn Rust
https://rust-exercises.com/
这个「100 Exercises To Learn Rust」很适合有一定编程基础的同学想来想来学习 Rust 的场景,把里面重要的一些概念一次一个练习的方式来学习,会比单纯看纯文档方式好不少。

Google CR 指引, 如何推进代码评审
https://dub.sh/crcr
看到一篇关于如何 CR 的文章「Google CR 指引, 如何推进代码评审」,相比之前看到的那种看了感觉没有啥用的要好不少,提供了不少的好的建议,最近也在团队推广这个,有兴趣小伙伴可以一看。

潮流工具

如何让你的终端支持某些命令不输入密码执行

也即配置 sudo 以允许特定命令无需密码,这里需要注意是你信任的操作,主要是通过编辑 sudoers 文件做到的,先用 root 权限编辑 sudoers 文件。

sudo visudo

然后添加一条配置规则,指定允许的用户和命令,关于怎么获取到命令的 bin 路径,可以试试 which 命令输出,然后比如说你希望可以无密码执行所有 systemctl 命令,可以添加以下内容。

your_username ALL=(ALL) NOPASSWD: /bin/systemctl

这里可以在本地编辑好,然后 copy 进去即可,把 your_username 替换成你的 Mac 名称,如果你需要添加多个命令,可以使用逗号分隔,编辑好以后 qw 保存并退出编辑器。

your_username ALL=(ALL) NOPASSWD: /bin/systemctl, /usr/bin/apt-get`

这样以后,你在输入配置好的命令的时候,就不需要输入密码了。

QuickRecorder:一个好用的录屏工具
https://github.com/lihaoyun6/QuickRecorder
一个开源免费的多功能、轻量化、高性能的 macOS 屏幕录制工具,很小,使用起来还挺方便的。

微信输入法居然出了一个单机模式
https://z.weixin.qq.com/
微信输入法居然出了一个单机模式,也即不联网通过下载输入法模型到本地的方式,此外同步之前的词库,使用还体验挺好的,你觉得这种可以保护隐私不?在社区随便问了问,绝大多数人不是很信任这个东西。

随便看看

人生是旷野,不是轨道
看到这张图以后,更加觉得「人生是旷野,不是轨道」,每一个阶段的过去看似一个随便的路到达现在,但是从现在到未来有无数条新路可以选择,可以理解现在做的一切是为了尽可能让自己的未来多些选择。

随便写写:信息的获取难易程度与对你的用处的关系

0️⃣ 想和大伙接地气聊聊 信息的获取难易程度与对你的用处的关系,有很强关联性,信息获取的成本越高对你的用处越大,反而越小。

1️⃣ 获取过程不需要任何成本甚至喂你嘴里的信息对你越没用。想你不停看的的短视频/算法新闻/信息流均属这一类,基本上没有太大的输入价值,甚至还想通过你的浏览让他的利益最大化,比如卖广告收益、种草购买收益、SEO 流量暴涨完成 KPI 指标,这种信息看多了让你越来越不聪明。

2️⃣ 获取过程需要你寻找很久甚至要付出不少成本的信息对你越有用。比如说每月付费 20 刀订阅的 ChatGPT、花时间选书花钱买书还要花精力看完、需翻译且梳理很久才看得懂的论文期刊、前几年买中概股亏钱的经验,这种都算很有成本代价的信息来源,从此获取到的信息有很多甚至会让你一辈子都记住这个经验,甚至短期看花了点儿成本,但是长期的收益会大很多,比如说我不碰中概股了以后…

3️⃣ 相比信息获取成本高,对你的价值越大之外,还有一个很有用的技巧,就是将学习到的高质量的输出,看 100 篇不错的技术文章效果对于正在学习技术的同学不如一次高质量文章输出,也不如自己基于学习到的写个小玩具成长大。

4️⃣ 这三个过程又和现在的大模型知识训练很像,大模型对标我们的大脑。假如是大量的垃圾信息甚至是错误信息去训练一个模型,最终效果肯定是这个模型变得相比没有训练前更负分了;假如是经过整理的甚至是花钱购买精挑细选的知识数据的训练大模型,甚至还氪金用的好显卡,那模型效果会比想象得更好;再往后者就很像是类似特斯拉的 FSD 以及机器人,把训练好的能力再去实际使用,把过程再拿回来调优,好比有输入后进行输出再回调,那效果就特别牛逼了。