2025-04-03 14:00来源:本站编辑
机器的决策是“公平的”,这意味着什么?到目前为止,公众辩论主要集中在偏见和歧视问题上。这是可以理解的:大多数人都希望机器比人类更少有偏见(事实上,这经常被认为是在招聘等过程中使用机器的理由),因此关注机器也可能有偏见的证据是正确的。
但是“公平”这个词有很多解释,“公正”只是其中之一。最近,我发现自己接受了一个自动决策,这让我开始思考,感觉自己受到了公正的对待到底意味着什么,以及在一个日益自动化的世界里,坚持这些原则有多困难。
我有一个个人Gmail帐户,我用它来通信关于我正在进行的一个图书项目。11月的一天早上,我醒来时发现我再也无法访问它了。
Gmail的一条消息说,我的访问被“全球限制”,因为“Gmail似乎被用来发送不想要的内容。”垃圾邮件违反了b谷歌的政策。”通知说,这个决定是通过“自动处理”做出的,如果我认为这是一个错误,我可以提出上诉。
我没有发过任何垃圾邮件,也无法想象为什么谷歌的算法会认为我发过垃圾邮件。这让我很难知道在“申诉”文本框里该写些什么,除了惊慌失措地说:“我没这么做(不管它是什么)!”以及“请帮帮我,我真的需要查看我的电子邮件和文件”。(让我松了一口气的是,后来我意识到,我并没有丢失对硬盘的访问权限。)
两天后,我收到了回复:“在审查了您的申诉后,您的帐户使用这项服务仍然受到限制。”我没有被告知我应该做了什么,也没有被告知上诉被拒绝的原因,但他们告诉我,“如果你不同意这个决定,你可以再提出上诉。”
我又试了一次,又被拒绝了。我又这样做了几次——在这一点上,我很好奇,这种厄运循环能持续多久。浏览一下Reddit,就会发现其他人也经历过类似的事情。最终,我放弃了。(b谷歌拒绝就此发表评论。)
在监管机构中,对于如何让自动决策更“公平”这个问题,一个流行的答案是,坚持人们可以要求人工审查。
但这种补救措施有多有效呢?首先,人类容易产生“自动化自满”——一种过于信任机器的倾向。例如,在英国邮局丑闻的案例中,由于一个名为Horizon的计算机系统有缺陷,邮政局长被错误地指控犯有盗窃罪,2019年的一名法官得出结论,邮局的人表现出“一种简单的制度固执,或者拒绝考虑任何可能替代他们对Horizon的看法”。
密歇根大学(University of Michigan)算法公平问题专家本•格林(Ben Green)表示,在一些组织中也可能存在实际问题。他告诉我:“通常情况下,人工监督员的日程很紧——他们有很多案件要审查。”“我看过的很多案例都是基于某种统计预测做出的决定,”他说,但“人们并不擅长做出这些预测,那么他们为什么会擅长评估这些预测呢?”
[非完全自动驾驶汽车的人性问题在新窗口打开]
当我对邮件的愤怒渐渐平息后,我发现自己对b谷歌产生了一定程度的同情。有这么多的客户,自动化系统是检测违反其政策的唯一实用方法。
虽然在不知道是什么触发了这个系统,也没有解释上诉中要避免的陷阱的情况下,我不得不为自己的案子辩护,这让我感到非常不公平,但我也可以看到,谷歌提供的系统运作方式的细节越多,坏人就越容易绕过它。
但这就是问题的关键。在日益自动化的系统中,程序正义的目标——人们觉得这个过程对他们是公平的——经常与其他目标发生冲突,比如对效率、隐私或安全的需求。没有简单的方法可以让这些权衡消失。
至于我的电子邮件帐户,当我决定为这个专栏写我的经历时,我给b谷歌的新闻办公室发了邮件,详细说明了这个问题,看看我是否可以讨论这个问题。到那天结束时,我的电子邮件账户已经恢复了。当然,我很高兴,但我认为很多人也不会认为这是特别公平的。-版权所有金融时报有限公司2025