来源:巽如数字科技2019-06-18 19:06:00 热度:

AI人工智能也存在偏见和歧视?

LX A i 中 国 网 Q

原标题:AI人工智能也存在偏见和歧视?

人类之间总是或多或少存在着偏见,国籍、肤色、学历、性别等等。部分群体在人们的心中,常有一定的刻板印象,例如女性就该温和顺从,工程技术人才多以男性为主,白人智力高于黑人等等。每个人都是独立个体,对他人的态度和看法有所不同也是正常,而没有想到的是,AI人工智能同样有着“偏见”。

最近,Facebook的人工智能实验室做了一项有趣的新研究,他们发现人工智能的偏见,不止存在于国家内部,也存在于不同国家之间。

研究人员测试了五种流行的现成物体识别算法,包括Microsoft Azure、Clarifai、Google Cloud Vision、Amazon Rekognition和IBM Watson,从中了解每个程序的效果。用于测试的数据集均来自不同国家的家庭,贫富有差,包括了117个类别,从鞋子、肥皂到沙发等。

(图片来源于网络)

在这项研究中,研究人员发现,在被要求识别低收入家庭时,物体识别算法的准确率与月收入高的家庭相比降低10%,随着月收入增高,误差也会随继增大,尤其是谷歌、微软、亚马逊,对于低收入家庭的用品算法识别准确率偏低。

算法的差异还存在于不同国家之间,与索马里和布基纳法索相比,算法在识别美国产品时,准确率要提升15-20%左右。

导致这种现象的原因很多,最常见的是创建算法时候,通常会受相关工程师的生活和背景影响,而这些人多数来自于高收入阶级的精英,思维及认知都基于此,使得AI算法也是如此。

人工智能具备强大的计算能力,可以轻易获得海量的数据,基于算法去分辨信息,但令人担忧的是,其存在的偏见比起人类来说不遑多让,不仅在物品识别上有偏见,它们也存在着种族和性别歧视。

(图片来源于网络)

研究人员测试微软、IBM、Facebook三家的人脸识别功能,发现它们识别白人男性的正确率均高于99%,但测试肤色较深的黑人女性则错误率在47%。

亚马逊曾开发的一套人工智能程序进行简历筛选,同样也表现出对女性歧视的一面,通过简历优选出的男性远多于女性,包含女性字样的简历权重会被降低,它甚至还下调了两所女子学院的毕业生评级。

(图片来源于网络)

人工智能存在偏见,如同人类一般,但比起人类,人工智能系统无法抵制学到的偏见,没有道德观念驱动,产生的偏见无法消除,这种“偏见”也并非它思考的结果,而是从广大数据中析取的规律,反映了社会中真实存在的问题,想让人工智能走出偏见,未来还有很长的路要走。

LX A i 中 国 网 Q

本文网址:

欢迎关注微信公众号:人工智能报;合作及投稿请联系:editor@cnaiplus.com

AI中国号...

关注微信公众号,了解最新精彩内容