DeepSeek火出圈的这十几天,其实也是噪音最多的一段时间,说实话大部分的讨论成品都有种加班硬赶KPI的味道,是人是鬼都在掰扯,有留存价值的屈指可数,倒是有两期播客让我听后受益匪浅,非常推荐。
一个是张小珺请来加州伯克利大学AI实验室博士潘家怡对DeepSeek论文的逐句讲解,接近3个小时的高密度输出,非常能杀脑细胞,但杀完之后分泌出来的内啡肽,也含量爆炸。
另一个是Ben Thompson关于DeepSeek的3集播客合集,加起来1个多小时,这哥们是News Letter的开创者,也是全球最懂技术的分析师之一,常年旅居台北,对中国/亚洲的近距离洞察比美国同行要高很多。
先说张小珺的那期,嘉宾潘家怡当时是在读完DeepSeek的论文之后,最快开发出了小规模复现R1-Zero模型的项目,在GitHub上已经接近1万Stars。
这种薪火相传式的知识接力,其实是技术领域理想主义的投射,就像月之暗面的研究员Flood Sung也说,Kimi的推理模型k1.5最初就是基于OpenAI放出来的两个视频得到了启发,更早一点,当Google发布「Attention Is All You Need」之后,OpenAI立刻就意识到了Transformer的未来,智慧的流动性才是一切进步的先决条件。
所以大家才对Anthropic创始人Dario Amodei那番「科学没有国界,但科学家有祖国」的封锁表态大为失望,他在否定竞争的同时,也在挑战基本常识。
继续回到播客内容上,我还是试着划些重点出来给你们看,推荐有时间的还是听完原版:(1/n)
点击图片查看原图