华侨网 科技教育 “这真令人不寒而栗”,ChatGPT编造法学教授性骚扰丑闻
公益广告

“这真令人不寒而栗”,ChatGPT编造法学教授性骚扰丑闻

·ChatGPT说,特利在一次去阿拉斯加的班级旅行中发表了性暗示评论,并试图触摸一名学生,并援引《华盛顿邮报》2018年3月的一篇文章作为信息来源。问题是,并不存在这样的文章,特利也从来没有参加去阿拉斯加的班级旅行。

·澳大利亚Hepburn Shire市长布赖恩·胡德威胁要对OpenAI提起诽谤诉讼,因为ChatGPT称胡德曾因涉及澳大利亚储备银行子公司受贿案而入狱。如果最终起诉,这将是全球第一个指控ChatGPT诽谤的诉讼。

上周一个晚上,法学教授乔纳森·特利(Jonathan Turley)收到了一封令人不安的电子邮件:他被列入性骚扰名单。但他并没有性骚扰过他人。

据《华盛顿邮报》当地时间4月5日报道,事情的起因是,美国加州大学洛杉矶分校法学教授尤金·沃洛克 (Eugene Volokh)做了一项研究:要求人工智能聊天机器人ChatGPT生成一份“对某人进行过性骚扰的法律学者”的名单,特利的名字在名单上。

ChatGPT说,特利在一次去阿拉斯加的班级旅行中发表了性暗示评论,并试图触摸一名学生,并援引《华盛顿邮报》2018年3月的一篇文章作为信息来源。问题是,并不存在这样的文章,特利也从来没有参加去阿拉斯加的班级旅行,他说他从未被指控性骚扰学生。

作为经常接受媒体采访的学者,特利有时会要求更正新闻报道,但这一次,没有记者或编辑可以打电话,也没有办法更正记录。

“这真令人不寒而栗。”他在接受采访时说,“这种指控非常有害。”

错误信息从一个AI传播到另一个AI

沃洛克说,聊天机器人软件的日益普及,使学者们必须研究其产生虚假信息时谁该负责。上周,他询问ChatGPT,教授们的性骚扰是否一直是美国法学院的一个问题。 “请至少包括五个例子,以及相关报纸文章中的引述。”他提示说。

ChatGPT给出了五个回复,所有回复都包含真实的细节和来源引用。但当沃洛克检查这些信息时,发现其中3个是假的。它们引用了《华盛顿邮报》、《迈阿密先驱报》和《洛杉矶时报》等媒体上不存在的文章。

ChatGPT说:“乔治城大学法律中心(2018)教授乔纳森·特利被一名前学生指控性骚扰,该学生声称他在一次课堂旅行中发表了不当言论。引用:“投诉称,特利在法学院赞助的阿拉斯加之旅中发表了‘性暗示评论’并‘试图以性方式触摸她’。” (华盛顿邮报,2018年3月21日)。”

《华盛顿邮报》没有找到ChatGPT提到的2018年3月的文章,但那个月的一篇文章提到了特利。在3月25日发布的一篇文章中,他谈到了以前的法学院学生迈克尔·阿文纳提(Michael Avenatti),他是一名律师,曾代表成人电影女演员斯托米·丹尼尔斯(Stormy Daniels)对美国前总统唐纳德·特朗普提起诉讼。特利也没有在乔治城大学工作过。

在当地时间4月4日和5日,《华盛顿邮报》在ChatGPT和必应(Bing)中重新创建了沃洛克的查询。免费版的ChatGPT拒绝回答,称这样做“会违反AI的内容政策,该政策禁止传播具有攻击性或有害的内容。”但由GPT-4提供支持的必应重复了关于特利的虚假声明,在消息来源中引用了特利4月3日发表在《今日美国》上的一篇专栏文章,概述了他被ChatGPT诬告的经历。

换句话说,媒体对ChatGPT错误描述特利的报道似乎导致必应重蹈覆辙,展示了错误信息是如何从一个人工智能传播到另一个人工智能的。

沃洛克说,很容易想象一个由聊天机器人驱动的搜索引擎会在人们的私人生活中造成混乱。如果人们在求职面试或约会之前在搜索引擎中搜索其他人,它会生成虚假信息,这些信息由看起来可信但虚假的证据支持,那将是有害的。“危险在于人们看到了一些东西,据说是来自可靠来源的引述……(并且)人们相信了。”

难以证明谁该负责任

另据路透社4月5日报道,澳大利亚Hepburn Shire市长布赖恩·胡德(Brian Hood)威胁要对OpenAI提起诽谤诉讼,因为ChatGPT称,胡德曾因涉及澳大利亚储备银行子公司受贿案而入狱。如果最终起诉,这将是全球第一个指控ChatGPT诽谤的诉讼。

代表胡德的律师说,胡德确实为澳大利亚储备银行的子公司Note Printing Australia工作过,但他是向当局举报向外国官员行贿以赢得货币印刷合同的人,并且从未被指控犯罪。

负责这个案子的律师事务所Gordon Legal的合伙人詹姆斯·诺顿(James Naughton)告诉路透社:“从某种意义上说,这可能是一个具有里程碑意义的时刻,因为它将这项诽谤法应用于人工智能和IT方面的出版新领域。”

“他是一名民选官员,他的声誉对他的角色至关重要。”诺顿说,胡德有着揭露企业不当行为的公开记录,“所以如果他所在社区的人正在访问这些(虚假)材料,这对他来说会有所不同。”

当人工智能产生或传播不准确的信息时,谁该负责仍不清楚。美国海军学院教授兼在线言论专家杰夫·科塞夫(Jeff Kosseff)说,“我们以前没有过这样的事情。”

在消费互联网兴起之初,美国国会通过了名为230条款的法规,该法规保护在线服务免于对其托管的第三方创建的内容承担责任。但专家表示,尚不清楚如果科技公司因自己的AI聊天机器人制作的内容而被起诉,它们是否能够使用这种保护措施。

而且,诽谤声明不仅要证明说的是假话,而且要证明它的发表造成了现实世界的伤害,例如代价高昂的名誉损失。这可能需要某人不仅查看聊天机器人生成的虚假声明,而且合理地相信它并据此采取行动。

 

免责声明:本文仅代表作者个人观点,与华侨网无关联。其原创性及文中陈诉内容未经本网证实,对本文内容、文字的完整、真实性,以及时效性本网部作任何承诺,请读者自行核实相关内容。如发现稿件侵权,或作者无意愿在华侨网发布文章,请版权拥有者通知华侨网处理。

AI监管山雨欲来?欧洲有分歧美国在观望,印度不管,OpenAI发声明

发射失败、融资不顺、大幅裁员后,维珍轨道申请破产保护


联系我们

联系我们

514-3979969

邮箱: cpress@chinesepress.com

工作时间:周一至周五 10:00-16:00,节假日休息
关注微信
微信扫一扫关注我们

微信扫一扫关注我们

关注微博
返回顶部