人脸识别有歧视?识别准确率黑人比白人差很多,厂商们这样回应-w88中文版

激光雕刻机 | 2021-04-19

w88-2月9日,纽约时报英文网站发表文章,认为现在非常流行的AI应用于人脸识别,其准确率因种族不同而差异很大。其中,黑人女性的错误率约为21%-35%,而白人男性的错误率高于1%。这篇文章引用了一篇研究论文《性别图谱:商用性别分类技术中的种族准确率差异》(性别阴影:商业性别分类的交叉准确性差异)中的数据,该论文由麻省理工学院媒体实验室的研究员Joy Buolamwini和微软公司的科学家Timnit Gebru合著。

w88(中文版手机登陆)

本文作者自由选择了微软、IBM和Face三种人脸识别API,并基于性别判断测试了它们的人脸识别功能。以下是两组准确率差异仅次于的人。在一组385张照片中,白人男性的识别误差仅为1%。

在一组271张照片中,肤色较白的女性识别错误率低35%左右。来源:纽约时报,Joy Buolamwini,M.I.T. Media Lab paper research用于自收集的一组Pilot ParliamentsBenchmark (PPB)数据集,其中包括1270张面孔。在识别照片中人物的性别时,以下是作者在测试后获得的主要发现:所有分类器在男性面孔上的识别性能都高于女性面孔(误差差为8.1%-20.6%);所有分类器在肤色较深的人脸上表现出较高的识别性能(误差差为11.8%-19.2%);所有分类器在深色皮肤的人脸上表现最好(错误率为20.8%-30.8%),IBM的分类器在深色皮肤的人脸上表现最差(错误率分别为0%和0.3%)0.3%),Face的分类器在深色皮肤的人脸上表现最差(错误率为0.7%)。最佳组和最差组的差异约为34.4%。

必须考虑的是,三种人脸识别API都没有详细说明它们使用的分类方法,也没有提到它们使用的训练数据。但微软在服务中指出“不一定每次都有100%的准确率”;尤其是Face,指出在使用条款上不保证准确性。至于可能的原因,《泰晤士报》文章回应说,目前的人工智能是数据为王,数据的质量和数量不会影响AI的智能。所以,如果用来训练AI模型的数据侧重于白人男性的数据少于黑人女性的数据,那么系统在识别后者的能力上也不会不如前者。

现有数据集中于这种现象的缺失。例如,根据另一项研究,一个常用的人脸识别数据侧重于75%是男性,80%是白人的事实。不考虑对此给出的回应,黑暗种族数据集相对不可用,所以会更差;另外,使用RGB相机进行人脸识别时,很难发现肤色较浅的人的人脸特征,尤其是在光线较暗的情况下,这也是原因之一。

对于IBM来说,论文使用的版本太阳的,新版本做了改进,找到了这篇论文给Buolamwini和Gebru。2月6日,IBM在自己的IBM研究博客上发表了一篇关于此事的文章。

文章并没有坚持找论文,而是认为IBM的沃森视觉识别服务还在不断改进。在2月23日即将发布的新版服务中,它用于比论文更常见的数据集,具有很强的识别能力,比论文中的错误率高出近10倍。然后,针对文章,IBM Research用类似于论文中的方法展开了一个实验,发现如下:结果显示整体错误率很低,虽然白肤色女性的错误率在所有人中还是最低的,但相比论文的结果有了相当大的提高。

忽略这一点:浅肤色人种识别错误率低是普遍现象,在商业产品中不会有所改善。针对这篇论文,对方给出了非常详细的回答。 对此,鄙视首先回应了论文的研究方法,但同时认为研究中使用的在线API是比较老的版本,这样的问题经常出现在商业产品中;而且这样的问题在行业内比较常见,并不局限于这三种测试。

主要有两个原因,一个是缺少黑暗种族的数据集,另一个是难以提取黑暗种族的面部特征。以下为全文:我们坚信,文章(论文)的性质不是针对任何技术,基本上是一种中立的态度,文章的测试方法还是比较科学的,但是文章中使用的“ppb”(Pilot parents Benchmark)数据集在GitHub的发布地址已经过热,目前无法自行测试文章的结论。当它被构建到Face API中时,鄙视研究所针对不同种族推出了检测和识别等测试。但就目前在国际范围内的研究水平而言,无论在学术界还是工业界,肤色人种的识别都不如肤色较深的人种(指文中使用的词语)突出。

从本文的测试结果也可以看出,微软、IBM、Face在肤色较深种族(尤其是肤色较深的女性)的识别中,假阳性率不会更高。一方面,从人类基因和人脸识别技术的角度来看,皮肤越深,基于RGB红外线的人脸识别的可玩性越强。由于机器在人脸检测、分析和识别过程中必须对人脸图像进行预处理和特征提取,皮肤越黑,提取人脸特征信息越困难,尤其是在一些暗光情况下。另一方面,人脸识别很大程度上依赖于数据训练,整个行业黑人的可训练数据量较少,所以识别结果在一定程度上并不令人满意,所以本文给出的测试结果是行业内普遍存在的现象。

本文只选择了三个行业代表进行测试。如果样本量足够大,有可能得不到其他结论。

但测试结果也显示,黑人男性的Face识别错误率(0.7%)低于PPB的南非分测,该分测侧重于Face较黑肤色人种的显示完美,这只能间接说明Face的人脸识别能力处于世界领先地位。文章作者明明提了一个很好的问题,但是文章中测试的在线版API和我们为用户获取的商业版都涉及到了,用户在商业使用中会有什么影响。当然,我们也坚信,业界正在对民族识别优化寄予各种希望。

就Face而言,未来研究所不会从减少训练数据、针对不同种族开展专项训练等几个角度来改善现状。此外,还意味着在算法层面优化当前流程,提高不同种族的识别性能。

此外,蔑视也增加了3D感官的研究和开发,将3D特征信息集成到应用中,以填补2D信息的严重不足,使模型更加健壮。AI了解种族歧视吗?据《泰晤士报》报道,本文作者之一的黑人女性Buolamwini在做这项研究之前,遇到过自己的脸无法通过人脸识别来识别的情况,而且是在戴着白色面具的情况下,才导致她开启了这项研究。显然,本研究试图探索AI时代是否不存在社会不公甚至种族歧视。

种族歧视是一个很脆弱的话题,很多事情只要稍微触动就不会引起反感。在人脸识别方面,无论是作者的研究还是厂商的实验都发现女性黑暗种族识别的错误率较高。但这能代表AI中的种族歧视吗?好像不是。

肤色较深的女性之所以更难识别,不仅是因为自然的面部特征无法提取,也是因为可供训练的数据集较少。 从市场来看,IBM和微软的服务在白人男性中是最差的,因为他们的市场主要在白人占多数的欧美;鄙视的主要市场在东亚和东南亚,所以它在黄种人中间的展示不会好太多,这和种族歧视无关,而是市场化的技术研发。话又说回来,本文明确说明AI的智能与训练数据有相当大的关系。

所以在设计AI应用的时候,要尽可能的把它用于通用的、有代表性的数据,照顾到不同的人。同时要大力向公众讲解AI的构建原理。最后,(微信官方账号:)指出,这件事也指出,希望新技术的发展能让更多的族群受益,某种程度上是面子认可、语言、文化等方面的受益,是一件必须高度尊重的事情。

允许禁止发表的原创文章。以下是发布通知。-w88。

本文来源:w88中文版-www.esmitaxi.com