jqk:(本文作者为佐治亚理工大学科学技术与社会研究博士候选人)<div>软件开发者们知道这个问题吗?可能知道,但面部识别技术可能存在的偏见,并不是许多做监考软件的小公司优先考虑的事情。OpenCV是一款训练成熟的开源软件,有广泛应用的基础,但却并没有人在各种应用环境下为其重训、纠偏。在当下,人工智能逐渐变成一个拼硬件和数据库实力的战场,然而大部分小公司实力有限。现有的数据库、模型和算法,恐怕无法支撑从实验室到多元、复杂的真实世界的过渡,这一过程中必然会出现大量问题。</div><div><br></div><div>纠偏也是一个非常困难的事情,即使对于大公司来讲也不容易。谷歌曾经出现过用黑人图片反搜、结果出现“猩猩”这种情况。他们的做法,是直接把猩猩这个标签给隐藏了,并没有从根本上解决图片识别里潜藏的错误偏见。</div><div><br></div><div>在机器学习研究的领域里,数据库还是相对比较“干净”,标签、分类等等都相对规范。然而在商业领域采集到的数据,很多都非常潦草,训练出来的算法也有很大问题。“垃圾进,垃圾出”(Garbage in,Garbage out),是业界对于糟烂数据库训练出糟烂智能的吐槽——很多时候,甚至是自嘲。</div><div><br></div><div>说到底,在这个阶段,将人工智能作为一切的“守门人”和“判定人”,时机还相当不成熟。机器学习将复杂的现实压缩成信号,再用一层层的神经网络去把这些信号“模拟”成现实的样子,形成一套标准化的认知(比如一个人的脸“该长什么样”)。然而我们所处的世界,还有无数多特殊的、多维度的、多角度的“现实”。面部识别工具给我们提供的方便、快速、“智能”的场景,是不可能概括这种复杂现实的。</div><div><br></div><div>英国巴斯大学计算机系教授 Joanna Bryson 说,“偏见,只是机器从数据中拾取的规律(regularity)而已。”在人工智能和机器学习的范畴里,“偏见”并不是一个带有价值判断的词汇。然而,在涉及到现实应用的领域,情况就不一样了。现在的机器,当然不具备体会情感或者故意施加偏见的能力,只是诚实地反映了数据库、乃至社会中真实存在的偏见,而这些反映有时候并不是我们想要的。</div><div><br></div><div>更大的问题,是把技术语言不加审视地“翻译”成为客观现实,甚至替代人类的判断。这种技术层面的偏差(bias)便会在社会上迅速地积累成实际的歧视(discrimination)。</div><div><br></div><div>在实验室的环境中,一般来讲,一个模型对于数据匹配的判定,是以“置信度”为标准的。从原理上讲,它们并不是“不认得”非裔面孔,只是“置信度”不够高——也就是原始数据训练不足的情况下,在判定上没有那么大的把握。然而,Proctorio 等监考软件的问题就在于,一旦低于某个置信度的阈值,它的结果就直接是“不认得”(或者判定失败),这直接给大量少数族裔的使用者带来了严重的不便。考试是一个讲求公平公正的场合,这种使用上的不便、特别是对特定人群的不便,严重影响了考试的公平。从这个角度上讲,不加考虑地使用带有偏见的工具,的确是种族歧视。</div><div><br></div><div>另外一个严重的问题,是特定人群和某些特征的数据上的“关联”,直接被运用在对风险的“判定”上。哈佛大学计算机系教授 Latanya Sweeney 发现,在搜索引擎上搜典型的黑人名字,搜索引擎会有超过80%的概率在搜索建议里提供“逮捕”“犯罪”等词汇,而没有种族特征的却只有不到30%。2019年美国国家标准和技术研究所的一份研究报告,分析了市面上200多个面部识别算法,发现大部分对少数族裔的识别都存在或多或少的偏见,而在所谓的“一对多”的算法里(例如警方采集一个人的面部特征并比对犯罪数据库进行比对),非裔女性的假阳性概率最高。也就是说,非裔女性最容易被系统误判成有前科的犯罪分子。</div><div><br></div><div>从去年开始,因为疫情的原因,许多美国大学的大课都转成了网课。Zoom、Canvas 和 Microsoft Team 成为了课程交流的主要平台,同学们开始逐渐熟悉线上交作业、线上讨论等等,甚至还组织了线上 social。然而,比起上课时的断网、无聊和注意力涣散,线上考试成为了许多人的梦魇——特别是少数族裔。</div><div><br></div><div>纽约大学法学院的中东裔学生 Alivardi Khan 怎么都登不上考试界面。考试软件的面部识别功能,一直提示他“没有足够的光”,尽管他在的房间光线十分充足。“这根本就不是光的问题,面部识别算法有种族偏见。”他在推特上抱怨道。</div><div><br></div><div>在强大的面部识别技术下,我们怎么办?</div><div><br></div><div>在当下,人工智能提供了一个非常方便而强大的“解法”。特别是面部识别技术,能够在暗处、无阻碍地对人进行监视以及数据的收集,这无疑给安全和监控系统提供了大量方便,甚至某种“路径依赖”。毕竟,买一套成熟的解决方案,比自己研究开发容易多了。</div><div><br></div><div>但是,对这些“解决方案”不加审视地广泛应用,对于少数族裔、少数族群、特殊情况的无视,对“标准化”“理想化”以外情景的缺乏考虑,无疑会极大地影响软件应用上的公平公正,乃至方便普适。</div><div><br></div><div>所以,人工智能的“歧视”,说到底还是人类现有偏见的积累。我们还在不断地完善我们自己的认识,在不断的发展和学习中纠正我们自己的偏见,去消除歧视和不公。因此,我们也需要给机器以机会完善自身,成为我们的认识伙伴,而不是用智能、“客观”的“模型”,来武断地代替我们去认识世界。</div><div><br></div><div>对于我们每个人来说,需要警惕身边的数据“采集”,多注意一下这些技术的用途,拒绝没有同意(consent)的技术应用。只有这样,才能促使技术开发和运用向更人性、更保障隐私、更公平的方向发展。(责编 / 张希蓓)</div><div><br></div><div>而另外有好几所大学,使用的是一款叫 Proctorio 的在线智能监考工具。通过摄像头和人工智能(AI),Proctorio 能够自动识别学生的面部。闭卷考试的时候,学生必须全程盯着屏幕,如果有移动、离场的情况,会自动触发软件的“警报”,而监考人员则会收到通知。此外,这个软件还会实时监控眼睛移动、打字规律,从中找出作弊的蛛丝马迹。这个软件遭到了大量学生的抵制,少数族裔尤甚——软件无法识别面部,无法进入考试界面;好不容易登陆进去,软件在中途却频频警报、暂停,甚至将人从考试界面踢出去。</div><div><br></div><div>一个非裔女生的妈妈 Janice,把女儿挣扎着考试的情况发上了推特。“电脑调亮,不管用;窗子打开,过曝了;台灯打开,又太黑。她最后必须在头上打光,才能让软件正常工作。”尽管如此,试了9次,只有两次成功。</div><div><a href="https://mp.weixin.qq.com/s/YgzL0D972enJPTDL10OHJA" target="" title="">https://mp.weixin.qq.com/s/YgzL0D972enJPTDL10OHJA</a><br></div><div><br></div>