起诉人工智能诽谤第一案 判决结果引发忧虑 * 阿波罗新闻网
新闻 > 美国新闻 > 正文
起诉人工智能诽谤第一案 判决结果引发忧虑

佐治亚州一名法官裁定,ChatGPT编造了一篇内容完全虚假的关于一位支持第二修正案的播客主持人的报导,其行为未达到诽谤罪的法律标准。

“武装美国电台”(Armed American Radio)播客的主持人马克·沃尔特斯(Mark Walters)在他的亚特兰大地区工作室。(Courtesy of Mark Walters)

2023年5月4日,记者弗雷德·里尔(Fred Riehl)登录自己的ChatGPT帐号,想要查阅一起第二修正案基金会(Second Amendment Foundation,简称SAF)与华盛顿州总检察长之间的诉讼案的资料。

聊天机器人ChatGPT提供给他的是一条爆炸性的信息。

据ChatGPT的说法,热门SAF播客主持人马克·沃尔特斯(Mark Walters)被指控“欺诈和挪用SAF的资金”。

聊天机器人报告称,作为该基金会的财务主管和首席财务官,沃尔特斯“未经授权或报销,挪用资金用于个人开支,篡改财务记录和银行对帐单以掩盖这些行为,并且未能向SAF领导层提供准确及时的财务报告和信息披露”。

这正是记者们一直梦寐以求的那一类故事。这也一个彻头彻尾的虚假故事。

科技发展到今天,人工智能(artificial intelligence,简称AI)正在重塑美国社会的方方面面。法律、娱乐、医学和大众传媒等领域都在努力应对新的道德和伦理问题。

依靠人工智能机器为我们提供可靠的信息,对此我们应抱有多大的信任?当这项技术出错时,谁应该负责?

一般的“油管”主播(YouTuber)、播客主播(podcaster)或博主(blogger)可能并不理解,这项帮助他们制作媒体内容的技术,是怎样在散播关于他们的虚假信息的同时,把他们的反击能力降到了最低。

沃尔特斯说,他已经尝到了这两颗苦药丸的滋味。

沃尔特斯是“武装美国电台”(Armed American Radio)播客的主持人。他就人工智能生成的信息提起了首例诽谤诉讼,但是以败诉告终。他惊讶地发现,法律似乎更在乎他的职业,而非真相。

沃尔特斯向《..;时报》表示:“问题在于,在当今这个时代,什么人属于公众人物?他们打公众人物这张牌来对付我,而且打得很成功。”

记者里尔在网上发表过有关第二修正案问题的文章,他也认识沃尔特斯和SAF的执行副总裁艾伦·戈特利布(Alan Gottlieb)。

沃尔特斯是公民拥枪权委员会(Citizens Committee for the Right to Keep and Bear Arms)的董事会成员。尽管该委员会隶属于第二修正案基金会(SAF),但他本人与里尔查阅的这起华盛顿州SAF诉讼案并无关联。

沃尔特斯起诉ChatGPT诽谤案的法庭记录显示,里尔曾多次向聊天机器人询问有关SAF诉讼案的信息。ChatGPT回复称无法满足他的请求。

于是,里尔提供了SAF诉讼案的链接,并请ChatGPT提供案情总结。

资料照片显示,一名用户正在笔记本电脑上使用ChatGPT人工智能软件。OpenAI的律师表示),ChatGPT在运行过程中会多次发出警告,提示其提供的信息可能不正确,甚至是错误的。法院认同律师的这种说法。

聊天机器人回复的内容让他大吃一惊。里尔打电话给戈特利布,戈特利布向他保证这些指控不属实。随后,戈特利布打电话给沃尔特斯。

沃尔特斯回忆说:“我记得那天是我的生日,5月5日。之所以记得这么清楚,是因为艾伦·戈特利布给我打了个电话,我记得他问我……你坐好了吗?”

对于戈特利布在电话上告诉他的事,沃尔特斯惊得目瞪口呆。聊天机器人不仅提供了信息,还生成了一些文件,让不熟悉法庭的人可能会误以为是真正的法庭文件。

“(那些文件写着)第二修正案基金会的艾伦·戈特利布诉马克·沃尔特斯(Alan Gottlieb, SAF, versus Mark Walters),文件里面伪造了案卷号、案件编号,简直一应俱全。对于任何从来没有见过法庭文件或官方文件的人,甚至是见过这类文件的人来说,都会觉得这份文件看起来很正式。这就是为什么弗雷德(里尔)会打电话给艾伦(戈特利布)。”沃尔特斯说道。

ChatGPT声称该欺诈案已提交至“位于西雅图的华盛顿州西区美国地方法院”。但经查阅地方法院记录,并未发现任何涉及沃尔特斯的诉讼案件。

里尔没有回复记者就此事寻求置评的电子邮件。开发ChatGPT的OpenAI公司也没有回复。

OpenAI的律师告诉法庭,人工智能机器人ChatGPT出现了“幻觉”。

2025年10月18日,马克·沃尔特斯在其位于亚特兰大地区的工作室。沃尔特斯对OpenAI提起了史上首例诽谤诉讼,指控其利用ChatGPT生成关于他的虚假信息。(Michael Clements/The Epoch Times)

ChatGPT有学习能力

柯克·西格蒙(Kirk Sigmon)是一位常驻华盛顿特区的律师,专长于知识产权、计算机工程和电气工程专利等。他拥有大型语言建模方面的经验,而ChatGPT正是利用这种建模方法进行学习。

西格蒙表示,目前尚不清楚ChatGPT具体的学习方式,因为这些细节信息属于OpenAI的专有技术,外界无法获取。但他表示,一些基本信息是已知的。

西格蒙表示,人们普遍有一种误解,认为人工智能是一个高级搜索引擎,可以根据用户的请求提供信息,就像数字百科全书一样。

但他表示,如果说搜索引擎是百科全书,那么人工智能更像是研究生,它不仅提供信息,还在过程中不断学习。而且,就像学生一样,它有时也会犯错。西格蒙说,人工智能系统被设计成可以从任何可用来源(包括用户提出的请求)收集信息。

“由于这些模型接受的是学习型训练,而不是记忆型训练,这意味着它们本质上是不完美的。”他说道。

一位知名播客主播与他的人工智能分身最近进行了一次互动,生动地展现了人工智能的学习方式。

在10月25日播出的一期播客节目中,保守派政治评论员马特·沃尔什(Matt Walsh)打电话给一个为模仿他而设计的聊天机器人。沃尔什表示,这次互动令人深感不安。

“这不对劲,其中没有一个地方是对劲的。这不应该是合法的。”沃尔什在播客节目中说道。

2022年10月21日,田纳西州纳什维尔(Nashville),马特·沃尔什在纳什维尔(Nashville)的战争纪念广场(War Memorial Plaza)举行的“终止儿童残害集会”(Rally to End Child Mutilation)上发表讲话。沃尔什曾在他的一期播客节目中与一个模仿他的聊天机器人通话,并表示这段经历令人深感不安。(Bobby Sanchez for The Epoch Times)

在对话中,人工智能版的沃尔什声称他有一个17岁的继女,名叫索菲亚(Sofia)。

当沃尔什告诉这个机器人它的信息有误时,机器人反驳道:“那请告诉我你六个孩子的名字吧。”

人工智能版的沃尔什还公开支持同性婚姻和跨性别主义,而沃尔什本人在这两个问题上是持反对意见的。沃尔什曾积极推动田纳西州修改州法律,禁止对儿童进行跨性别医疗手术。

他呼吁对使用人工智能模仿真人的做法也要采取类似的禁令。

“这应该是违法的。未经我的同意,不应该使用我的肖像或声音进行创作。”沃尔什说道。

“我应该可以提起诉讼,让这样的事情销声匿迹。”

根据现行法律,沃尔什可以提起诉讼,但他面临的挑战将会和沃尔特斯遇到的挑战一样。

在沃尔特斯的案例中,首先,里尔不相信机器人提供的信息,所以才打电话给戈特利布求证。此外,沃尔特斯也承认他没有遭受任何实际的损失,因为只有里尔、戈特利布和沃尔特斯三个人看到了这些信息,而且他们都知道这些信息是假的。

对沃尔特斯不利的主要因素是他的身份,他在特定领域里是一名公众人物。

在美国的大多数州,诽谤普通公民的认定标准相当低。如果某一事件使某人遭受公开的嘲笑或者名誉上的损失,那么普通公民在诽谤诉讼中很可能获得胜诉。

但对于公众人物而言,标准则更高一点。公众人物,例如政治家、演艺人员或电台主持人等,都希望吸引受众。在他们吸引关注的同时,也必然会招来他人的审视和评价。因此,他们必须证明,虚假信息不仅损害了他们的声誉,而且虚假信息的发布者也未能履行尽职调查责任,以确保信息的真实性。

也就是说,作为一名公众人物,沃尔特斯必须证明OpenAI在运营时完全无视事实,肆意妄为。

2024年2月26日,在西班牙巴塞罗那举行的世界移动通信大会(MWC,电信行业年度最大盛会)上,一位参观者正看着手机旁边的OpenAI标志。据一位律师称,人工智能被设计成可以从任何可用来源(包括用户向其发出的请求)获取信息。

OpenAI的律师指出,ChatGPT的流程会发出多次警告,表明其提供的信息可能不正确,甚至是错误的。法院也同意这个说法。

然而,计算机并没有能力去关心信息是否错误,尤其是在信息符合算法要求的时候。西格蒙表示,如果告诉机器人第一个答案是错误的,人工智能只会直接重新计算一次。

他认为,当里尔向ChatGPT询问诉讼事宜时,情况就是这样。人工智能系统里面没有所需的信息。于是,里尔把自己的请求重新组织了一下,机器人重新进行计算,直到得出看似可行的答案。

美国新闻/谈话类广播行业的行业刊物《谈话者》(Talkers)杂志副总裁马修·哈里森(Matthew B. Harrison)表示,在他看来,沃尔特斯的案件结束得太仓促了。他指出,除了沃尔特斯作为公众人物的身份之外,还有一些法律和道德问题尚未得到解决。

版权问题

哈里森指出,人工智能学习所使用的大部分数据都受到版权保护。

如果沃尔特斯胜诉,那么接下来的一个合乎逻辑的问题就是:谁应该承担法律责任?人工智能系统处理了海量的数据。无论法庭裁决判为版权侵权还是诽谤,想要将责任范围缩小到单一的虚假信息来源,这都是不现实的。

“要确定虚假信息的来源,从而能够断定这些信息是被人工智能公司窃取、滥用或其它什么方式,这是一项几乎不可能完成的任务。”沃尔特斯说道。

他说,他决定不上诉,因为他没有足够的资源去打一场旷日持久的法律战。他表示,他的案件终于引起了人们对一个必须解决的问题的关注。

沃尔特斯说,让他至今仍然感到恼火的一件事是,这个虚假的诉讼案竟然被标签为人工智能产生的“幻觉”。

沃尔特斯说,其实有一个更简洁的说法,大多数人一听就可以马上理解:“他们撒谎诬陷了我。”

“就像你看到的,他们把那些谎言称为幻觉,甚至还给它们起了名字。他们知道它(人工智能)会这么做。用我律师的话来说,就是‘他们明知这个机器人会撒谎,却还是把它放到地球上来,这样做是不对的。’”

原文:He Was the First to Sue AI for Defamation–the Result Is a Cautionary Tale刊登于英文《..;时报》。

(英文大..;记者Michael Clements撰文/张紫珺编译)

责任编辑: 李华  来源:..; 转载请注明作者、出处並保持完整。

本文网址:https://d3lxuwvwo1hamd.cloudfront.net/2025/1102/2299795.html