乔治亚州律师因使用生成 AI 制作虚假案例被罚

最近,乔治亚州的一家上诉法院就一起涉及律师使用人工智能生成内容的案件发表了意见,表示担忧。

法官们指出,案件中的文件存在不规则之处,暗示这些文档可能是通过生成 AI 编写的。

“我们对审判法院订单中引用虚假案例感到困扰。”法官们在意见中写道。

被投诉的律师林奇(Lynch)没有立即回应有关裁决的电话和邮件询问。

根据乔治亚州律师协会的记录,她于1995年获得在乔治亚州执业的资格,目前在斯通山进行单独执业。

在这个案件中,林奇的客户是一个于2022年提交离婚申请的丈夫,法官们表示,林奇在支持其客户的过程中引用了虚假案例,剥夺了其前妻适当回应的机会。

案件记录显示,林奇的客户在2022年4月在德卡尔布县申请离婚,并于同年7月获得离婚判决。

而在2023年10月,他的前妻请求县法官重新审理该案件,并撤销离婚判决,声称自己在2021年已搬到德克萨斯州,未能合法接收离婚投诉。

德卡尔布县地方法院法官约兰达·帕克-史密斯在2024年5月否决了前妻的请求,对此法院在随后的建议中对此表示关注。

在前妻的上诉中,她指出审判法官依赖的两个虚假案例使得该裁定无效。

上诉法官称,帕克-史密斯签署的命令似乎是由林奇准备的,其中引用的两个虚假案例在其后续文件中同样被提到。

法官们表示,林奇在请求与前妻的上诉相关的律师费时加了伤害,甚至引用了一个虚假的案例来支持这一请求。

“我们无法找到被引用的案例 Johnson v. Johnson,无论是案例名称还是引用,”法官们指出。“更不必说,我们无法通过其声称的裁定找到该案件,这明显是对法律的严重误述。”

法官们对林奇的“无理”律师费请求施加了最高罚款,并将此案发回德卡尔布县法官,要求其重新考虑前妻申请撤销离婚判决的请求。

上诉法院的意见还引用了一项斯坦福大学的研究,该研究发现,包括 ChatGPT 在内的生成 AI 模型在回答关于法院核心裁定的问题时,约有 75% 的概率会出现“幻觉”。

同时,在亚特兰大的一起消费者信贷案件中,原告的律师最近被要求解释其书面引用的案例和引用,引起法官的关注,法官无法找到其引用的内容。

律师纳贾·霍克(Naja Hawk)在6月26日的回应中承认,她无法确认所引用的案例并主动撤回对这些案例的依赖,称它们显然是错误引用。

目前,乔治亚州的法院正在评估人工智能的影响,这项评估由乔治亚州最高法院法官安德鲁·平森(Andrew Pinson)主持,并得到国家法院中心的协助。

该委员会的任务是形成建议,以帮助在人工智能使用增加的情况下维护公众对该州司法系统的信任与信心。

图片源于:ajc