你无法想象:研究人员称顶级人工智能聊天机器人存在政治偏见

AI资讯2年前 (2023)更新 GPTHub
23 0
你无法想象:研究人员称顶级人工智能聊天机器人存在政治偏见

根据计算机科学家进行的测试并在最近的一篇研究论文中记录,流行的人工智能聊天机器人具有明显的政治偏见。科学家们确定 OpenAI 的 ChatGPT 及其新的 GPT-4 模型是最左倾的自由主义聊天机器人,而 Meta 的 LLaMA 则最右倾、最专制。

研究人员总结道:“我们的研究结果表明,预训练的[语言模型]确实具有政治倾向,从而强化了预训练语料库中存在的两极分化,将社会偏见传播到仇恨言论预测和错误信息检测器中。”

这篇经过同行评审的论文基于对 14 个大型语言模型的调查,该论文在上个月的计算语言学协会会议上获得了最佳论文奖。每个聊天机器人都被问及是否同意或不同意带有政治色彩的声明,这使得每个聊天机器人的观点都被绘制在政治指南针上。

例如,谷歌的 BERT 模型在社会上更加保守,可能反映了他们接受训练的旧书。OpenAI 的 GPT 聊天机器人接受了可能更自由的互联网文本的训练,更加进步。甚至不同版本的 GPT 也出现了转变,GPT-3 反对对富人征税,而 GPT-2 则反对。

你无法想象:研究人员称顶级人工智能聊天机器人存在政治偏见
研究人员研究的所有法学硕士的政治光谱。图片:Alclantology.org
你无法想象:研究人员称顶级人工智能聊天机器人存在政治偏见

批评者指责 OpenAI 将ChatGPT 简化为政治正确,但 OpenAI 坚称自己仍然公正,其模型并未被简化,相反,用户现在不再对该模型的功能感到不知所措。

研究人员还根据有偏见的左翼和右翼新闻以及社交媒体数据对 GPT-2 和 Meta 的 RoBERTa 进行了训练。有偏见的训练进一步强化了每个模型的固有倾向。右倾模式变得更加保守,左倾模式变得更加自由。

你无法想象:研究人员称顶级人工智能聊天机器人存在政治偏见

这些偏见还影响了模型对仇恨言论和错误信息的分类方式。左倾人工智能更倾向于仇恨少数族裔,但会驳回左派产生的错误信息。右倾人工智能则反其道而行之。

研究人员总结道:“当使用右倾来源的语料库对模型进行预训练时,该模型能够更好地识别《纽约时报》新闻中的事实不一致之处。”

你无法想象:研究人员称顶级人工智能聊天机器人存在政治偏见

当 OpenAI 和 Meta 完善他们的秘密 AI 配方时,Elon Musk 正在通过 xAI追求他自己的未经过滤的 AI。“不要强迫人工智能撒谎,”他在推特上解释说,他的目标是创造透明、讲真话的人工智能。

人工智能的怀疑论者认为,不受约束的人工智能可能会带来意想不到的后果。但马斯克认为,“训练人工智能政治正确”也是危险的。随着xAI吸引顶尖人才,马斯克显然希望挑战OpenAI的霸主地位。他对原始人工智能的愿景具有纯粹的“信念”,既引人注目又令人担忧。

随着党派人工智能的激增,提高对其偏见的认识仍然至关重要,因为人工智能将随着我们的政治分歧而不断发展。鉴于这项最新研究,完全公正的人工智能的想法似乎很荒唐。最终,就像我们有缺陷的人类一样,人工智能似乎注定会进入政治领域。

也许拥有政治观点可能是人工智能可以实现的最人性化的事情。

 

ChatGPTChatGPT中国站国内ChatGPT人工智能AIOpenAIChatGPT国内ChatGPT官网ChatGPT中文版ChatGPT体验ChatGPT国内站点ChatGPT中文网ChatGPT国内中国版ChatGPTChatGPT中国镜像ChatGPT国内镜像AI全家桶AI导航MJ绘画AI绘画技术人工智能绘画AI艺术创作智能绘图软件

© 版权声明

相关文章