人类之间总是或多或少存在着偏见,国籍、肤色、学历、性别等等。部分群体在人们的心中,常有一定的刻板印象,例如女性就该温和顺从,工程技术人才多以男性为主,白人智力高于黑人等等。每个人都是独立个体,对他人的态度和看法有所不同也是正常,而没有想到的是,AI人工智能同样有着“偏见”。
最近,Facebook的人工智能实验室做了一项有趣的新研究,他们发现人工智能的偏见,不止存在于国家内部,也存在于不同国家之间。
研究人员测试了五种流行的现成物体识别算法,包括Microsoft Azure、Clarifai、Google Cloud Vision、Amazon Rekognition和IBM Watson,从中了解每个程序的效果。用于测试的数据集均来自不同国家的家庭,贫富有差,包括了117个类别,从鞋子、肥皂到沙发等。
(图片来源于网络)
在这项研究中,研究人员发现,在被要求识别低收入家庭时,物体识别算法的准确率与月收入高的家庭相比降低10%,随着月收入增高,误差也会随继增大,尤其是谷歌、微软、亚马逊,对于低收入家庭的用品算法识别准确率偏低。
算法的差异还存在于不同国家之间,与索马里和布基纳法索相比,算法在识别美国产品时,准确率要提升15-20%左右。
导致这种现象的原因很多,最常见的是创建算法时候,通常会受相关工程师的生活和背景影响,而这些人多数来自于高收入阶级的精英,思维及认知都基于此,使得AI算法也是如此。
人工智能具备强大的计算能力,可以轻易获得海量的数据,基于算法去分辨信息,但令人担忧的是,其存在的偏见比起人类来说不遑多让,不仅在物品识别上有偏见,它们也存在着种族和性别歧视。
(图片来源于网络)
研究人员测试微软、IBM、Facebook三家的人脸识别功能,发现它们识别白人男性的正确率均高于99%,但测试肤色较深的黑人女性则错误率在47%。
亚马逊曾开发的一套人工智能程序进行简历筛选,同样也表现出对女性歧视的一面,通过简历优选出的男性远多于女性,包含女性字样的简历权重会被降低,它甚至还下调了两所女子学院的毕业生评级。
(图片来源于网络)
人工智能存在偏见,如同人类一般,但比起人类,人工智能系统无法抵制学到的偏见,没有道德观念驱动,产生的偏见无法消除,这种“偏见”也并非它思考的结果,而是从广大数据中析取的规律,反映了社会中真实存在的问题,想让人工智能走出偏见,未来还有很长的路要走。
本文网址: