新的研究展示了所有主要AI语言模型的政治偏见:
- OpenAI的ChatGPT和GPT-4被认定为最左翼的自由主义者。
- Meta的LLaMA被认为是最右翼的权威主义者。
通过询问模型关于各种主题(如女权主义、民主)的观点,然后在政治指南针上进行绘图。
OpenAI的立场:该公司因潜在的自由派偏见受到批评。他们强调中立方法,称任何出现的偏见为\"bug,而不是特点\"。
博士研究员的观点:Chan Park认为没有任何语言模型能够完全摆脱政治偏见。
模型如何获得偏见:研究员们检查了模型开发的三个阶段。首先,他们使用政治敏感的声明查询模型以识别偏见。来自Google的BERT模型比OpenAI的GPT模型显示出更多的社会保守主义。该论文推测这可能是因为BERT在更保守的书籍上进行了训练,而较新的GPT模型在自由派的互联网文本上进行了训练。Meta澄清了在其LLaMA模型中减少偏见的步骤。(Google没有评论)
实际的训练放大了现有的偏见:左倾模型变得更加左倾,反之亦然。培训数据的政治取向影响模型对\"仇恨言论和错误信息\"的检测。
透明度问题:科技公司通常不分享培训数据/方法的详细信息。
他们应该被要求公开培训数据吗?
关键是,如果AI最终传播与人类交换的大部分信息,它可以引导意见。我们不能完全消除偏见,但人们应该意识到它的存在。
如果你对阅读完整的研究论文感兴趣,请查看图片的ALT文本中的链接。这是一篇很好的文章,只有大约10页(不包括参考文献)。
点击图片查看原图