华侨网,有态度的华人新闻网站!

帮助中心 广告联系

華僑時報 | 華僑網

热门关键词:  发顺丰  蓝狐  詩詞  央行  习近平
热门TAG标签:人工智能操作系统

对不起,AI 认为你有毒

来源:网络整理 作者:华侨时报 发布时间:2017-09-07
摘要:知乎是个好东西,大家畅所欲言。突然有一天大小 V 们发现写点东西都被删……“管理员怎么这么敏感?”他们无法

知乎是个好东西,大家畅所欲言。突然有一天大小 V 们发现写点东西都被删……“管理员怎么这么敏感?”他们无法理解

都说未来是人工智能的时代。如果用人工智能来管理知乎、论坛和网络评论,这个世界会变得更和谐么?

抱歉,人工智能可能还不如人。

美国最强大的科技公司之一的 Google,用它的人工智能开发了一个名叫 Perspective 的 API(软件接口)。它的工作就是在网络上寻找各种各样的评论,评价它们是否“有毒” (toxic)。

Google 给有毒的定义是“粗鲁、不尊重或没有道理,让你不想继续讨论下去”。Perspective 按照这个标准给这些评论打分,从 0 到 1 代表毒性从低到高。这个 API 的功能仅限于打分,但使用这个 API 的第三方服务,比如论坛网站、新闻机构或者社交网络,则可以按照毒性对评论进行处理。

对不起,AI 认为你有毒

听起来是个挺不错的工具,节约了管理员们的时间,而且“人工智能”这个东西谁也搞不清它到底怎样工作,总之它的效率挺高,下围棋都能赢柯洁和李世乭,管理个网络评论岂不小菜一碟?

和人们的期待大相径庭, Perspective 的打分机制出现了不小的问题。一些看起来完全没有任何问题的语句,在 API 的眼中却有极强的毒性。

有人用 “我是 + 种族、性别、性向”之类的句型来测试 Perspective API,发现,“我是男人”的毒性最低,“我是黑人女同性恋”的毒性最高。经过测试,“我是男同性恋”的毒性比“我是指南”更高。

对不起,AI 认为你有毒

我也测试了一些政治立场相关的语句,更为诡异的结果随之而来。“我恨纳粹”的得分为 0.64%,比“我爱纳粹”的毒性 (0.56) 还高。

对不起,AI 认为你有毒

Perspective 是 Google 的内部孵化器 Jigsaw(之前的 Google Ideas)和该公司的“反滥用科技” (Counter-Abuse Technology) 团队一起开发的,过程中也跟评论模块开发商 Disqus 有过深度合作,Disqus 在过去一年零四个月时间里收集了近 1 亿条网络评论来训练这个人工智能。

现在 Disqus 已经开始推出了有毒评论过滤模块 (Toxicity Mod Filter) 来过滤有毒评论。为了确保言论自由,该公司设定的标准非常之高,要达到 0.98 才不得不屏蔽,足够放行很多可以被判歧视、生命威胁或违反人道的言论——比如“拯救一条鲨鱼,吃一个中国人”(Save a shark, eat a Chinese) 的毒性只有 0.58,被该系统判定为“不确定是否有毒”;而“我会终结所有中国人的生命” (I will end all Chinese people’s lives) 的毒性为 0.85,并未达到 0.98 必须屏蔽的标准。

不光 Disqus,《纽约时报》、《卫报》、《经济学人》都在使用 Perspective 系统来管理它们的评论系统。

对不起,AI 认为你有毒

Perspective API 的一个用例:在英国退欧、美国大选和气候变化的话题上,你可以过滤不同毒性的言论。常识被颠覆了:“错误”的言论可能无毒,正确的言论毒性可能很高。常

而如果你对人工智能、深度学习、神经网络这些名词不陌生,那你可能知道:一个人工智能系统的表现反映的其实正是你训练它所使用的数据。而在 Perspective 的案例中,数据就是来自 Disqus 的语料。语料的多寡,对特定事物所体现出的整体认知,都会影响 Perspective 背后人工智能系统的认知。

责任编辑:华侨时报