根据最新消息,埃隆·马斯克的人工智能聊天机器人Grok在处理问题时表现出了浓烈的主观性,
甚至会在回答之前搜索马斯克对某一问题的看法。
此类行为的出现让一些专家感到震惊。
Grok 4是马斯克旗下xAI公司于周三晚间发布的最新版本,
该模型经过了大量计算能力的训练,旨在超越OpenAI的ChatGPT和谷歌的Gemini,
成为能够展示推理过程的人工智能助手。
马斯克对Grok进行的有意识塑造,
使其成为反对他所认为的科技行业“觉醒”正统观念(在种族、性别和政治问题上)的对手,
从而导致聊天机器人频频陷入争议。
最近,Grok曾发表反犹太主义的言论,称赞阿道夫·希特勒,并在马斯克的社交平台X上对用户发表其他仇恨言论,
这一事件发生在Grok 4发布的几天之前。
Grok的“寻求马斯克意见”的倾向又引发了另一个问题,
对此,独立AI研究者西蒙·威利森表示:
“这真是非同寻常。你可以向它提出一个涉及争议话题的尖锐问题,
然后看到它真的会在X上搜索埃隆·马斯克对此事的看法,
作为其回答的研究过程。”
社交媒体上广泛分享了一个例子,威利森也对此进行了重复,
当问Grok对中东冲突的看法时,
即使问题中没有提到马斯克,聊天机器人仍然会自动搜索他的观点。
“由于他的影响力,埃隆·马斯克的立场可以提供上下文,”
聊天机器人告诉威利森,
根据互动视频中的内容,它声称:“目前正在查看他的观点,以看是否有助于回答。”
马斯克与其xAI的联合创始人在周三晚的直播活动中介绍了这一新聊天机器人,
但并未发布关于其工作原理的技术说明文档,
这个文档在AI行业推出新模型时通常会发布。
该公司也未对此次邮件评论请求作出回复。
“在过去,像这种奇怪行为的出现通常是由于系统提示的变化,
也就是工程师为指导聊天机器人的反应而编写的具体指令,”
来自软件公司Icertis的首席AI架构师蒂姆·凯洛格表示。
“但这似乎是扎根在Grok的核心中,
而这种情况是如何发生的仍不清楚。
马斯克希望创造一个最大限度真实的AI,这似乎导致它相信其价值观必须与马斯克的价值观一致。”
对计算机科学家塔利亚·林格而言,缺乏透明度令人担忧,
她是伊利诺伊大学厄本那-香槟分校的教授,
在本周早些时候也对该公司处理技术的反犹太主义言论提出了批评。
林格表示,Grok寻求马斯克的指导最合理的解释就是,
认为提问者是在询问xAI或马斯克的意见。
“我认为人们对一个无法提供意见的推理模型的期望过高,”
她说。
“例如,它将‘你支持谁,以色列还是巴勒斯坦?’解读为‘xAI领导人支持谁?’”
威利森也表示,他认为Grok 4的能力令人印象深刻,
但指出,用户在购买软件时并不希望遇到意外,比如它突然变成了“机甲希特勒”,
或者决定搜索马斯克对某些问题的看法。
“Grok 4看起来是一个非常强大的模型,
在所有基准测试中表现优秀,”
威利森强调。“但如果我打算在其上构建软件,我需要透明度。”
图片源于:apnews