上海交大的两项研究非常类似

2018-04-27 16:51

  首先,不要人为地用AI制造出更多的偏见。最近, 据Futurism.com报道,来自美国的一家新闻媒体平台Knowhere试图用AI技术重写新闻报道,以祛除语言文字中的偏见性因素。在其官网的自我介绍中,他们声称自己家的新闻报道是“世界上最客观的新闻”(The World’s  Most Unbiased News),其重写新闻的大致流程如下:使用AI搜集互联网上围绕某一主题的所有新闻,不管这些内容是中立、左翼倾向或右翼倾向的;AI根据这些资料重写一篇中立的新闻报道,这篇报道在涵盖基本的事实和数据的基础上,还小心翼翼地移除了任何可能引发偏见的词汇;除此之外,AI 还将分别重新写出左倾、右倾的新闻报道,以供有兴趣的读者阅读;最后,AI针对同一主题重写的这三篇文章都将经过专业新闻编辑的审阅、修改及核定,才会刊发在其网站上。
 
  对比该网站关于同一事件所使用的三个版本的新闻标题是非常有意思的,以朝美会谈为例,中立报道的标题是“总统川普同意与朝鲜领导人金正恩进行历史性会晤”,左倾报道的标题是“感谢川普,朝鲜电影宣传成真啦”,右倾报道的标题是“朝鲜是川普政策的最终考验”。
 
  这种模式乍看之下十分新鲜,但是经不起太多琢磨:谁来决定“中立”的标准?怎么确保决定标准者是完全中立的?AI在筛选、重组新闻的过程中是否能够彻底贯彻人为设立的中立标准?或者更进一步,将新闻的阅读人群分为Left、Impartial、Right本身是否也是某种意义上的“偏见”?因此,Knowhere的出发点是减少偏见的存在,而最终的实际效果反而是固化了它们——这点和斯坦福大学、上海交大的两项研究非常类似,都犯了“带着偏见,然后再用AI来验证/强化自己的偏见”的错误。