当一项技术被证明对女性、年轻人和少数族裔存在系统性偏见,却仍被执法部门主动选择使用时,这已不仅是技术缺陷问题,更是对社会公平正义的严峻拷问。
近日曝光的英国警方游说使用存在偏见的面部识别系统事件,揭开了人工智能伦理困境的冰山一角。警方因另一版本系统“产生的潜在嫌疑人较少”而选择偏见版本,这一理由本身便暴露了执法逻辑中令人不安的倾向——效率优先于公平,数量优先于质量。
**一、偏见如何被编码进算法?**
英国警方使用的警察国家数据库(PND)存储着超过1900万张拘留照片,当一张嫌疑人“探针图像”与这个庞大数据库比对时,系统本应保持绝对中立。但现实是,算法在训练数据、特征提取和阈值设定等多个层面,都可能植入人类社会既有的偏见。
研究表明,当前主流面部识别系统在深色皮肤女性图像上的错误率,比浅色皮肤男性高出数十个百分点。这种偏差并非偶然:训练数据集中少数族裔样本不足、面部特征标注存在文化盲区、光照条件标准化以特定人种为基准……技术从诞生之初就带着“原罪”。
**二、执法部门的“主动选择偏见”更令人担忧**
比技术偏见更值得警惕的是制度性选择。警方明知系统存在缺陷仍坚持使用,反映出执法体系内一种危险思维:将破案率、嫌疑人识别数量等量化指标,置于公民权利保护之上。
这种选择会产生自我强化的恶性循环:有偏见的系统更频繁地将少数群体标记为嫌疑人→这些群体的逮捕记录增加→数据库中他们的照片比例进一步失衡→算法偏见持续加深。最终,技术偏见固化为结构性歧视。
**三、人脸识别成为“数字红lining”工具**
历史上,美国“红lining”政策曾系统性拒绝向少数族裔社区提供贷款和服务。如今,有偏见的面部识别可能正在创造“数字红lining”——通过算法将特定人群标记为高风险群体,限制其进入公共场所、享受公共服务的机会。
当一位黑人女性走在街头,被监控摄像头捕捉并错误匹配为嫌疑人时,她不仅面临被拦截盘问的尴尬,更可能在数据库中留下永久记录。这种“算法凝视”正在重塑现代社会的权力边界。
**四、技术中立的幻象与监管真空**
警方为使用偏见系统辩护时,常诉诸“技术中立”论调。但无数案例证明,算法永远无法完全脱离创造者的价值观和训练数据的社会语境。当企业将算法作为黑箱产品出售,警方将其作为权威工具使用,责任便被层层稀释。
英国目前缺乏针对执法部门使用人工智能的专门立法,欧盟《人工智能法案》虽将实时生物识别列为“高风险”却留有执法例外。这种监管滞后使技术滥用几乎不受制约。
**五、构建公平AI的三大支柱**
要打破这一困局,需要建立三位一体的治理框架:
1. **技术透明化**:强制要求执法算法公开测试结果,特别是不同人口群体的错误率差异,建立第三方审计制度。
2. **程序正当化**:面部识别匹配结果不得作为唯一证据,必须与传统侦查手段相互印证,并赋予被误识别者申诉权利。
3. **社会参与化**:少数族裔社区应参与算法设计监督,建立多元化的技术伦理委员会,打破工程师群体的同质化思维。
**六、当我们谈论偏见时,我们在谈论什么**
最终,面部识别偏见问题触及现代社会的核心矛盾:在效率至上的技术乌托邦理想与保障每个人尊严的公平社会之间,我们该如何选择?
英国警方此次选择提醒我们,技术从来不是中立的工具,它放大并加速着人类社会的既有倾向。当执法部门为“更高匹配率”而接受系统偏见时,他们实际上在交易某种更珍贵的东西——公众对执法公正性的信任。
这起事件不应仅被视为英国的地方新闻。在全球范围内,超过100个国家正在使用或测试面部识别技术,其中大多数缺乏足够的偏见检测机制。算法偏见正在成为跨国界的系统性风险。
**结语:技术的温度在于使用者的态度**
任何工具的价值都不在于其本身,而在于使用者赋予它的意义。选择继续使用有偏见的系统,本质上是选择接受一个对弱势群体更苛刻的社会契约。
在效率与公平的天平上,每一次技术选择都是价值观的投票。当警方下一次游说使用某个系统时,我们应当追问的不仅是“它能找到多少嫌疑人”,更是“它会错误地标记多少无辜者”——后者才是一个文明社会的真正度量衡。
—
**你怎么看?**
如果你在街头被误识别为嫌疑人,你认为自己该如何自证清白?当算法错误成为常态,我们是否应该重新思考技术在执法中的边界?欢迎在评论区分享你的观点。





