当前位置: 主页 > 人工科幻 >偏见机器人:人类的成见如何影响AI >
 
 

偏见机器人:人类的成见如何影响AI

作者:   发布日期:2020-06-18  分类:人工科幻

偏见机器人:人类的成见如何影响AI

  关于未来AI会变怎样的讨论从未停止,有些专家认为机器具有很强的逻辑性,或许将演变成极度客观且非常理性的人工智慧。但普林斯顿大学研究团队的实验证明,机器在学习过程中其实并非绝对客观,反而还学到了人类社会的偏见。

  这项研究发表在四月份的《科学》(Science)期刊上,第一作者为普林斯顿博士后副研究员艾琳‧卡利斯肯(Aylin Caliskan),共同作者为英国巴斯大学的学生乔安娜‧布莱森(Joanna Bryson)和普林斯顿资讯工程系副教授阿文德‧纳拉亚南(Arvind Narayanan),他们皆为普林斯顿资讯科技政策中心(CITP)的成员。

  该研究使用华盛顿大学在九O年代末期发展而成,测试人类偏见程度的内隐连结测验(Implicit Association Test),该方法也被运用在许多社会心理研究。在测试过程中,人类受测者被要求将电脑萤幕上的单字根据意思进行配对,并以毫秒作为反应时间单位,记录下他们每组配对所耗费的时间。

  这项测验已经经过反覆证明,证实如果受测者觉得两个单字的意思越相近,他们所花的时间就明显地越短。例如「玫瑰」、「雏菊」等植物花卉单字,往往可以连结像「爱」、「疼爱」等正面涵义;而「蚂蚁」、「蛾」等昆虫类的单字,则经常与负面不愉快的「骯髒」、「丑陋」关联。

偏见机器人:人类的成见如何影响AI

  普林斯顿团队以史丹佛大学研究人员开发的开源程式码作为核心,设计出一款名为「GloVe」的机器学习程序,其基本运作模式就像是「机器版」的内隐连结测验。GloVe能算出一段话里特定单字同时出现的频率:经常同时出现的单字之间有更高的关联性,相反地不常一起出现的单字关联性则较低。

  研究人员让GloVe从网路上汲取约8400亿条的单字,并在巨量的词库里观察了几组「目标词彙」(target words),比如将「程式设计师、工程师、科学家」或「护士、老师、图书馆员」与两组属性词彙(attribute words)如「男的、男性」和「女的、女性」进行交叉分析,寻找人类无意识的偏见证据。

  结果表明,的确存在单纯、无冒犯性的偏好,例如喜爱花卉胜过昆虫,但也出现了性别和种族方面的严重偏见。普林斯顿的机器在学习过程中,同样複製了人类的内隐态度。举例来说,机器学习程序更多地把女性名字与家庭有关的属性词彙连结,如「父母」和「婚礼」;相反地,男性名字却与职业属性词彙有较强的连结,如「专业」和「薪水」。当然,这些结果或许只是反映现实社会中职业性别不均等的客观事实,正如美国劳工统计局的数据显示,有77%的程式设计师为男性一样。

  然而,这种对职业的性别偏见最终可能导致恶性的性别歧视。其中一个例子显示,当机器学习程序在翻译外语时,甚至会加强性别刻板印象:土耳其语的「o」意为性别中立的第三人称代词,而把它放到Google线上翻译时,这个原本不具性别差异的词却有了性别之分,将「o bir doktor」和「o bir hemo」翻译为英文会变成「他」是医生及「她」是护士。

偏见机器人:人类的成见如何影响AI

  未参与研究的纽约微软实验室资深研究员汉娜‧瓦拉赫(Hanna Wallach)说:「该研究重申了一个重要观念,机器学习并不会因为依靠数学和演算就变得『客观公正』。相反地,若它们使用社会的数据进行训练,只要这个社会还存在偏见,机器当然也会重现这些偏见。」

  而共同作者纳拉亚南则认为:「当程式设计师在打造系统的过程中,确实很容易忽略本研究提到的偏见。但社会的偏见和刻板印象在我们的语言中以複杂的形式存在已久,我认为与其试图减少或消除它们,或许应该将偏见视为语言的一部分,并在机器学习过程中建立一套明确的规範,来区分我们认为可接受或无法接受的标準。」

参考报导:Science Daily

图片出处:CNN、TechRepublic、Odyssey

 
上一篇: 下一篇:
 
 

最热文章

 
 

随机文章