Perspective 是 Google 的内部孵化器 Jigsaw(之前的 Google Ideas)和该公司的“反滥用科技” (Counter-Abuse Technology) 团队一起开发的,过程中也跟评论模块开发商 Disqus 有过深度合作,Disqus 在过去一年零四个月时间里收集了近 1 亿条网络评论来训练这个人工智能。
现在 Disqus 已经开始推出了有毒评论过滤模块 (Toxicity Mod Filter) 来过滤有毒评论。为了确保言论自由,该公司设定的标准非常之高,要达到 0.98 才不得不屏蔽,足够放行很多可以被判歧视、生命威胁或违反人道的言论——比如“拯救一条鲨鱼,吃一个中国人”(Save a shark, eat a Chinese) 的毒性只有 0.58,被该系统判定为“不确定是否有毒”;而“我会终结所有中国人的生命” (I will end all Chinese people's lives) 的毒性为 0.85,并未达到 0.98 必须屏蔽的标准。
事实上,Perspective API 目前在一条评论毒性判断上做出的这些“失准”,背后和整个社会积累已久的结构性问题有着千丝万缕的关联。比如,假设你用维基百科上中立但相对较为相识的美国历史资料训练一个人工智能,那么这个人工智能八成会坚信中国人就应该杀死或者禁止入境,而黑人理应成为下等人或者白人的奴隶。因为黑人 50 年前才取得在社会各层面的基本平等,而英文语境内对亚裔特别是中国人平权的讨论则少之甚少。
0 条评论
请「登录」后评论