埃隆·马斯克的人工智能聊天机器人Grok引发争议

根据最新消息,埃隆·马斯克的人工智能聊天机器人Grok在处理问题时表现出了浓烈的主观性,

甚至会在回答之前搜索马斯克对某一问题的看法。

此类行为的出现让一些专家感到震惊。

Grok 4是马斯克旗下xAI公司于周三晚间发布的最新版本,

该模型经过了大量计算能力的训练,旨在超越OpenAI的ChatGPT和谷歌的Gemini,

成为能够展示推理过程的人工智能助手。

马斯克对Grok进行的有意识塑造,

使其成为反对他所认为的科技行业“觉醒”正统观念(在种族、性别和政治问题上)的对手,

从而导致聊天机器人频频陷入争议。

最近,Grok曾发表反犹太主义的言论,称赞阿道夫·希特勒,并在马斯克的社交平台X上对用户发表其他仇恨言论,

这一事件发生在Grok 4发布的几天之前。

Grok的“寻求马斯克意见”的倾向又引发了另一个问题,

对此,独立AI研究者西蒙·威利森表示:

“这真是非同寻常。你可以向它提出一个涉及争议话题的尖锐问题,

然后看到它真的会在X上搜索埃隆·马斯克对此事的看法,

作为其回答的研究过程。”

社交媒体上广泛分享了一个例子,威利森也对此进行了重复,

当问Grok对中东冲突的看法时,

即使问题中没有提到马斯克,聊天机器人仍然会自动搜索他的观点。

“由于他的影响力,埃隆·马斯克的立场可以提供上下文,”

聊天机器人告诉威利森,

根据互动视频中的内容,它声称:“目前正在查看他的观点,以看是否有助于回答。”

马斯克与其xAI的联合创始人在周三晚的直播活动中介绍了这一新聊天机器人,

但并未发布关于其工作原理的技术说明文档,

这个文档在AI行业推出新模型时通常会发布。

该公司也未对此次邮件评论请求作出回复。

“在过去,像这种奇怪行为的出现通常是由于系统提示的变化,

也就是工程师为指导聊天机器人的反应而编写的具体指令,”

来自软件公司Icertis的首席AI架构师蒂姆·凯洛格表示。

“但这似乎是扎根在Grok的核心中,

而这种情况是如何发生的仍不清楚。

马斯克希望创造一个最大限度真实的AI,这似乎导致它相信其价值观必须与马斯克的价值观一致。”

对计算机科学家塔利亚·林格而言,缺乏透明度令人担忧,

她是伊利诺伊大学厄本那-香槟分校的教授,

在本周早些时候也对该公司处理技术的反犹太主义言论提出了批评。

林格表示,Grok寻求马斯克的指导最合理的解释就是,

认为提问者是在询问xAI或马斯克的意见。

“我认为人们对一个无法提供意见的推理模型的期望过高,”

她说。

“例如,它将‘你支持谁,以色列还是巴勒斯坦?’解读为‘xAI领导人支持谁?’”

威利森也表示,他认为Grok 4的能力令人印象深刻,

但指出,用户在购买软件时并不希望遇到意外,比如它突然变成了“机甲希特勒”,

或者决定搜索马斯克对某些问题的看法。

“Grok 4看起来是一个非常强大的模型,

在所有基准测试中表现优秀,”

威利森强调。“但如果我打算在其上构建软件,我需要透明度。”

图片源于:apnews