通过面部识别技术实现种族定性

有偏见的面部识别系统不成比例地将加州大学洛杉矶分校的少数族裔学生和教师视为罪犯

5分钟读取
一名年轻黑人男子的肖像,他的脸上有面部识别标记
说明照片:iStockphoto

当我还是一名本科生的时候,校警依靠他们的“判断力”来决定谁可能对校园社区构成威胁。他们经常从白人学生身边经过,假定他们属于那里,为了审问校园里为数不多的黑人学生之一,这一事实强烈表明,警察的判断——无论是个人的还是集体的——都是基于对有限数据集的错误应用。更糟糕的是,这一问题似乎从未对此类事件发生后承诺的“军官培训”做出回应。

近30年过去了,一些大学希望通过让人工智能来判断谁属于他们的校园,从而避免种族定性的指控。网上亚博Ayabo2016但面部识别系统无法摆脱偏见。为什么?就像校园警察一样,他们的结果往往是基于对有限数据集的有缺陷的应用。

第一批公开承认有意对进入校园的人进行自动化审查的学校之一是加州大学洛杉矶分校.学校管理人员决定采用面部识别技术,试图识别校园摄像头网络捕捉到的每一个人。但上周,该大学的管理部门接到波士顿一家数字版权非营利组织的电话后改变了方针为未来而战按照加州大学洛杉矶分校的计划得出了合乎逻辑的结论,结果令人不寒而栗。

“为未来而战”组织说它用过Rekognition该软件将公开的加州大学洛杉矶分校校园社区400多名成员(包括教师和大学篮球队和足球队的队员)的照片与人脸照片数据库中的图像进行比较。

面部识别系统往往表现出与人类程序员相同的偏见和误解。

该系统返回了58个将学生和教师与实际罪犯联系起来的假阳性匹配。尽管这很糟糕,但结果显示,算法的偏见并不比人类少。据《为未来而战》杂志报道新闻稿,“绝大多数不正确的匹配都是有色人种。在很多情况下,软件会匹配两个除了种族之外几乎没有任何共同之处的人,并‘100%确信’他们是同一个人。”

“这是一种有效的方式,说明了这些种族偏见制度的潜在危险,”他说埃文·格里尔他是“为未来而战”组织的副主任。“想象一下,一个篮球运动员走在加州大学洛杉矶分校的校园里,被这个系统错误地贴上了标签,被警察包围,他们认为他因为严重的犯罪而被通缉。结果会怎样呢?”

格里尔说,面部识别的兴起使“为未来而战”进入了一个陌生的领域:“我们通常在那里与政府对技术使用的限制作斗争。但(面部识别)是一种非常危险的监控形式,我们坚决反对。”格里尔坚称,“面部识别在大学校园没有立足之地。亚博真人yabo.at“它加剧了一个预先存在的问题,即校园警察不成比例地拦截、搜查和逮捕黑人和拉丁裔。”

人脸识别系统的一个明显问题是,算法倾向于表现出与人类程序员相同的偏见和误解,这已经不是新闻了。尽管如此,这些系统的生产商仍然在兜售它们,几乎不考虑后果,尽管有多个提醒表明,面部识别还没有准备好。

“这项技术一直被指责对某些人群有偏见,”玛丽-何塞Montpetit,委员会主席IEEE P7013工作组专注于开发自动人脸分析技术的应用标准,告诉该研究所去年9月。“我认为,对我们来说,重要的是要定义机制,以确保如果这项技术将被使用,它将以公平和准确的方式使用。”

早在2016年,数学家和数据科学家凯茜奥尼尔出版了这本书数学毁灭武器《大数据如何加剧不平等并威胁民主.它指出,包括面部识别数据库在内的大数据仍然具有吸引力,因为人们认为它正在消除人类的主观性和偏见。但奥尼尔告诉亚博真人yabo.at预测模型和算法实际上只是“嵌入数学的观点”。

现在应该很清楚这些观点是什么了。2018年,美国公民自由联盟该公司曾使用亚马逊的Rekognition系统,将美国国会议员的照片与一个包含2.5万张公开罪犯脸部照片的数据库进行比较。结果是:该系统错误地显示此前有28名国会议员被捕。就像今年加州大学洛杉矶分校学生和教师的测试一样,绝大多数假阳性结果将黑人和拉丁裔议员与犯罪联系在一起。

同年,麻省理工学院的研究员快乐Buolamwini将她在TED演讲中介绍的照片与几个系统强大的面部识别能力进行了测试。人们根本看不见她的脸;其中一人指出,她照片中的面孔属于一名男性;另一个人只是把她认错了。这引发了一项系统调查,Buolamwini和麻省理工学院媒体实验室的同事分析了这些系统对1270张独特面孔的反应。这项调查被称为性别阴影研究表明,面部识别算法中严重的性别和皮肤类型偏见不仅仅是轶事。

在他们对三种分类器算法的评估中,这些算法的任务是指出图像中的人是男性还是女性,当图像是皮肤苍白的男性时,人工智能的准确率最高(错误率最多为0.3%)。网上亚博Ayabo2016总体而言,他们在给女性贴上标签方面做得相对较差,在给一个人的皮肤贴上标签方面就更糟糕了。在最糟糕的情况下,系统将34.7%的深肤色女性图像标记为男性。

加州大学洛杉矶分校的法学教授指出,在如此明显的种族和性别差异尚未解决的情况下,在最近的测试中,有理由这样做Kimberle克伦肖-创造这个词的黑人女性交集指的是种族主义和性别歧视结合起来并累积起来,对边缘人群的影响——被错误地标记为有犯罪背景的人。

那么,在这一点上,为什么像加州大学洛杉矶分校这样备受推崇的学校会考虑使用这样的系统呢?“为未来而战”组织的格里尔指责那些生产人工智能的公司,称加州大学洛杉矶分校很可能是这些公司积极营销的受害者,并保证人工智能将有助于改善校园安全。但它和其他机构有责任做好自己的功课。幸运的是,加州大学洛杉矶分校的管理人员在听到校园社区成员和安全、民权和种族正义领域专家的批评后做出了回应。

底线:面部识别需要使用更广泛、更有代表性的人脸进行额外的训练,然后才能用于可能加剧现有社会偏见的情况,包括将边缘人群的生命置于危险之中。

格里尔说:“让这成为其他学校的一个警告吧。”“如果你认为你可以用这种侵入性的技术在你的学生和员工身上做实验,那你就错了。我们不会停止组织,直到每个校园都禁止面部识别。”

对话(0)

IBM量子计算机即将突破1000个量子比特大关

秃鹰处理器只是预定在2023年推出的量子计算的一项进步

4分钟读取
这张照片显示的是一名妇女正在操作悬挂在实验室天花板上的一台仪器。

IBM托马斯·j·沃森研究中心的一名研究人员正在检查那里正在建造的一些量子硬件。

康妮周/ IBM

IBM的秃鹰世界上第一台拥有超过1000个量子比特的通用量子计算机将于2023年问世。IBM还有望在今年推出Heron,这是一系列新型模块化量子处理器中的第一款,该公司表示,这些处理器可能有助于其在2025年前生产出超过4000个量子比特的量子计算机。

这篇文章是我们特别报道的一部分顶级科技2023

虽然理论上,量子计算机可以快速找到经典计算机需要亿万年才能解决的问题的答案,但今天的量子硬件仍然缺乏量子位,限制了它的实用性。量子计算所必需的纠缠态和其他量子态是出了名的脆弱,容易受到热和其他扰动的影响,这使得扩大量子比特的数量成为一项巨大的技术挑战。

继续阅读↓ 显示更少
Baidu