接着昨天的帖子,继续聊聊 Deepseek,特别是关于言论审查的部分~
DeepSeek 言论审查可能是中推对于其讨论最多的话题,粉红朋友可能认为言论审查没什么大不了的,毕竟 DeepSeek 是承载国运的科技产品 x,而部分反贼朋友则从言论审查的例子中完全否定 DeepSeek。不过在我看来,双方都有些偏颇……
先说结论:审查本身不会影响模型性能,但它对社会影响极其负面。Deepseek 模型越强大,其潜在的恶劣影响就越不可忽视!
原因如下:
毋庸置疑,Deepseek 的审查机制完全遵循中共意志,不仅粉饰甚至篡改历史,更支持独裁统治(例如对独裁者的讨论、隐藏六四真相等)。目前来看,Deepseek 的审查主要体现在客户端的关键词过滤,但我们也发现了不少在后训练阶段扭曲模型知识的证据。未来,这一步骤的审查只会进一步加强!
这种操作意味着,当 AI 生成的内容日益成为互联网的重要数据源,并且被用于后续的 AI 再训练时 [1],我们实际上可能在为极权政权提供有偏见的历史解读与“洗白”材料!
审查不仅是技术层面的问题,更在潜移默化中为 AI 塑造一种特定的“政治人格”。在 AGI 或 ASI 来临之际,确保 AI 与人类普世价值相吻合至关重要。我们绝不能让 AI 成为独裁者压迫民众的工具,也不愿偏颇的信息进一步加剧言论不均等的现状。
当然,OpenAI 也并非十全十美。长期以来,左翼观念在 AI 领域占据主导地位,而右翼声音则往往被边缘化 [2]。就我个人而言,我并不清楚自己或左或右的立场,但我希望各方能平等发声——无论这个声音来自人类还是 AI。同时,对于那些极端分子和企图借助 AI 服务独裁的势力(中共),希望他们又多远滚多远😡。
总之,我们必须意识到,今天每一句话、每一段文字,未来都有可能成为影响整个人类社会与 AI 道德底线的重要数据。只有坚守多元和真相,才能确保 AI 不被任何一方垄断、洗脑或操控!
👉🏻 jump to previous: https://t.co/dnJ3O8sFo4
(以上内容在我与李老师 @whyyoutouzhele 的采访中已有提及,这里整理一下,为不愿观看视频的朋友提供更直观的 insights ~)
[1] Shumailov, I., Shumaylov, Z., Zhao, Y. et al. AI models collapse when trained on recursively generated data. Nature 631, 755–759 (2024).
[2] David Rozado. The Politics of AI. https://t.co/EVLpBV9NJ2