AI决策能优于人类,那我们为何仍心存疑虑?

机器能以人类无法做到的方式展示其决策过程,这或许能化解公众的不信任感。

如果今年夏天你碰巧在得克萨斯州的一条高速公路上,看到一辆重达5万磅的半挂卡车在无人驾驶的情况下呼啸而过,请记住:自动驾驶卡车致人死亡的可能性要低于人类驾驶的卡车。

至少,自动驾驶汽车软件开发商Aurora Innovation的首席执行官克里斯·厄姆森(Chris Urmson)是这样坚称的。

类似的逻辑也适用于一个完全不同的领域:法律仲裁。密歇根州最高法院前首席大法官、现任美国仲裁协会(American Arbitration Association)首席执行官的布里奇特·玛丽·麦科马克(Bridget Mary McCormack)认为,该协会新推出的人工智能仲裁员在解决某些争议方面会比大多数人类仲裁员做得更好。

早在人工智能(AI)这个词出现之前,保险公司就已经开始进行算法决策。在此过程中,它们曾因偏见而被起诉,并不得不更新其业务方式。监管机构很早就明确表示,它们基于AI的系统将与人类决策遵循同样的标准。这迫使许多保险公司使其算法变得“可解释”:它们会展示其工作过程,而不是将其隐藏在AI黑箱之中。

与那些鼓吹“再过几年聊天机器人就会比人类更聪明”的炒作人士不同,这些决策系统的开发者们会不遗余力地记录其“思考”过程,并将其应用范围严格限定在能够被证明具备能力和可靠性的领域。

尽管如此,我们中的许多人仍然更倾向于依赖人类的判断。

“你走上法庭,法官做出裁决,你根本无从得知她的大脑是如何运作并得出那个裁决的,”麦科马克表示。“但你可以建立一个可审计的AI系统,它能展示其工作过程,并向各方展示其做出决定的方式。”

她说,我们正处在一个哲学困境中:尽管多年的研究表明我们人类自身易于犯错,但我们却容忍人类决策的不透明性。然而,我们中的许多人还没准备好相信自动化系统能做得更好。

算法审计师

皮尤研究中心(Pew Research Center)表示,人们对AI的担忧至少与其兴奋程度相当。这也理所当然:基于计算机的决策的漫长历史并非一路凯歌。

法院系统的量刑算法被证明存在种族偏见。教师评估软件未能实现问责。

“十年前,当我写《数学毁灭武器》(Weapons of Math Destruction)这本书时,我提出了一个在当时确实千真万确的观点,即很多这类系统被投入使用,是为了规避问责,”算法审计师凯茜·奥尼尔(Cathy O’Neil)表示。

但她补充说,这些早期的尝试即使失败了也意义重大,因为一个流程一旦数字化,就会产生前所未有的海量数据。当公司被迫向监管机构或对方律师交出其算法运作情况的内部记录时,结果就是一种非自愿的透明度。

奥尼尔会探查决策软件,以确定其是否按预期运行,以及可能对谁造成伤害。她代表那些可能因金融欺诈、社交媒体伤害等事由而提起诉讼的原告,审查该软件产生的大量输出数据。

她说:“我工作中一个最激动人心的时刻就是拿到数据。我们可以看到这些人做了什么,而且他们还无法否认,毕竟这是他们自己的数据。”

她关注的是算法的影响——即其所做决策的分布情况,而不是它如何得出这些决策——这就是为什么即使在大语言模型和生成式AI主导该领域后,她的方法也几乎没有改变。

奥尼尔对让公司为其算法负责的前景充满希望,因为这是美国两党间为数不多的仍存共识的领域之一。在最近一次《华尔街日报》举办的会议上,南卡罗来纳州共和党参议员林赛·格雷厄姆(Lindsey Graham)表示,他认为科技公司应为其系统可能造成的任何损害负责。

先验证,后信任

2023年,自动驾驶卡车软件开发商Aurora的工程师们研究了2018年至2022年间在达拉斯和休斯敦之间的45号州际公路上发生的每一起致命碰撞事故。根据警方的报告,该团队为每一起车祸事故创建了模拟场景,然后让其名为Aurora驾驶员(Aurora Driver)的AI在模拟场景中驾驶汽车。

该公司首席执行官厄姆森说:“在每起案例中,Aurora驾驶员都可以避免碰撞。”

然而,该公司最近也遭遇了挫折。去年春天,Aurora在得克萨斯州投放了无人驾驶的卡车运送货物。两周后,应其一家制造商的要求,Aurora不得不重新安排人类观察员上车。该公司强调,其软件仍对驾驶负全责,并预计到2026年中期,其部分卡车将再次实现完全无人驾驶。

在推出初期,美国仲裁协会仅将其AI仲裁员用于一种特定类型的案件,即那些仅凭文件即可裁决的案件,这类案件非常适合当今的AI去处理。该系统提供了透明度、可解释性,并能监控其结论与人类专家在案件中可能得出的结论之间的偏差。

然而,尽管专业仲裁员、法官和法学院学生在测试中发现AI仲裁员是可靠的,但自其上月首次亮相以来,还没有人在真实案件中选择使用它。麦科马克表示,这可能是因为它新颖,而且从业者对其不熟悉。(争议双方必须在开始时同意使用该机器人。)

对于那些希望公众信任其AI系统的人来说,情况并不乐观,因为基于相关技术的系统正以各种我们每天都能听到的方式造成伤害——从鼓励自杀的聊天机器人,到吞噬就业机会和知识产权的图像生成工具。

“如果你只是笼统地问人们,‘你为什么不信任AI来解决你的纠纷?’他们会自动想到,‘我为什么要把我的纠纷丢给ChatGPT?’”麦科马克表示。“当然,我并不是在推荐那样做。”

在人力资源等某些领域,就连AI行业的专业人士也认为,人类情感很重要——而AI决策可能过于冷静无情。

但只要我们能验证这些系统确实如其开发者所声称的那样运行,负责任的发展就有可能开始平衡AI的负面影响。试想一下这样一个未来:一段繁忙的高速公路上的死亡事故将会大幅减少,甚至可能为零。

“人们很容易迷失在统计数据和数字中,”Aurora的首席执行官厄姆森在反思其团队研究过的那些可怕且本可避免的事故时说。“但当你开始思考这对人们生活的影响时,那就完全是另一回事了。”

Enjoyed this article? Sign up for our newsletter to receive regular insights and stay connected.

Leave a Reply