a&s专业的自动化&安全生态服务平台
公众号
安全自动化

安全自动化

安防知识网

安防知识网

手机站
手机站

手机站

大安防供需平台
大安防供需平台

大安防供需平台

资讯频道横幅A1
首页 > 资讯 > 正文

种族和性别偏见只是冰山一角 人工智能向谁学坏了

人工智能出现种族偏见和性别偏见
资讯频道文章B

  人工智能的学习能力是让人类羡慕的,特别是让计算机具备理解人类语言的人工智能(AI)更是科技上的一大进步,但是语言本就是意识形态的产物,而今,广泛学习人类语言的人工智能工具已经出现了明显的种族和性别偏见。我们禁不住问:人工智能向谁学坏了?

  人工智能出现种族偏见和性别偏见

  一项研究发现,计算机在学习人类语言的同时还吸收了人类文化中的一些根深蒂固的观念,出现了相同的人类偏见。普林斯顿大学信息技术政策中心的计算机科学家们发现了这一问题,他们解释,计算机 AI 出现种族歧视和偏见源于算法偏差造成的。此前心理学家曾经做过一项称为“隐性关联测试(IAT)”,测试已揭示人类的偏见。而在新的研究中,AI 在学习人类语言的时候也把这种关联词学到其中,从而也出现像人一样的性别种族偏见。

  这项研究被刊登在 2017 年 4 月 14 日发表的《科学》杂志上,为了揭示 AI 在语言学习中可能出现的偏见,研究团队们根据 IAT 创建了新的统计检测,重点关注一种名为“单词嵌入”机器学习工具。结果发现这种学习算法改变了计算机解读语音和文本的方式,结果表明,算法与 IAT 一样拥有同样的偏见,也就是把表示愉快的单词与(美国和英国的)白人面孔联系起来。这将意味着算法的存在也会让隐性关联出现在 AI 之中,从而也会带来人类偏见。更严重的是,由于 AI 的学习速度惊人,这种人类偏见或许比现实社会中的还要严重。

  关于“人工智能学坏”的几点想法

  偏见只是冰山一角,人工智能的快速学习能力可能是把双刃剑。曾有研究表明,性别歧视和种族偏见将会对人类行为产生深远的影响。研究从面试角度进行,对于非洲裔美国人,如果面试者的名字是欧洲裔美国人,即使简历内容相同,后者所能获得的面试邀请将比前者多出 50%。而我们使用 AI,并不希望它给我们带来任何行动上的麻烦。如何把握,还是一个重大课题。

  技术本身没错,但是如何应用以及产生的后果则会沦为道德或者社会问题。其实,原则上,我们可以建立一些系统对带有偏见的决定进行检测,然后采取行动,并与其他人一起呼吁建立一个人工智能监管机构。这是一项非常复杂的任务,但作为一种社会责任,我们不应回避。


参与评论
回复:
0/300
文明上网理性发言,评论区仅供其表达个人看法,并不表明a&s观点。
0
关于我们

a&s是国际知名展览公司——德国法兰克福展览集团旗下专业的自动化&安全生态服务平台,为智慧安防、智慧生活、智能交通、智能建筑、IT通讯&网络等从业者提供市场分析、技术资讯、方案评估、行业预测等,为读者搭建专业的行业交流平台。

免责声明:本站所使用的字体和图片文字等素材部分来源于互联网共享平台。如使用任何字体和图片文字有冒犯其版权所有方的,皆为无意。如您是字体厂商、图片文字厂商等版权方,且不允许本站使用您的字体和图片文字等素材,请联系我们,本站核实后将立即删除!任何版权方从未通知联系本站管理者停止使用,并索要赔偿或上诉法院的,均视为新型网络碰瓷及敲诈勒索,将不予任何的法律和经济赔偿!敬请谅解!
© 2020 Messe Frankfurt (Shenzhen) Co., Ltd, All rights reserved.
法兰克福展览(深圳)有限公司版权所有 粤ICP备12072668号 粤公网安备 44030402000264号
用户
反馈