人工智能治理充斥着规则——风险分类、合规评估、透明度要求、对齐规范(alignment specifications)、模型卡片(model cards)以及影响评估。然而,它仍然缺少一种制度性机制,用以判断这些规则是否在实质上而非仅在形式上得到遵循。
本文认为,这一缺失并非偶然,而是结构性的。当前论辩的一个重要分支以相反的前提为起点:Kahneman et al. (2021) 认为人类判断充满噪声,算法决策可以提升一致性。这一观点自有其说服力,但它预设了规则能够穷尽地决定自身的适用。在治理的边界——合规需要被评估而非仅仅被执行——维特根斯坦式批判同样适用于算法规则和非算法规则。透明度要求、风险分类和对齐规范均致力于消除情境化人类判断力的必要性 (Ananny and Crawford, 2018),由此为行为体履行合规表象同时规避问责创造了空间。
其结果便是本文所称的表演性合规(performative alignment):对治理规则的形式遵从,发挥着公共关系而非实质约束的功能。表演性合规是治理架构在不断增加规则的同时却未提供判断规则是否真正运行之机制的可预见的制度性后果。其标志性机制——能动性放弃(waivers of agency)——是在 AI 能动性有利于企业的语境中主张之、在可能引发问责的语境中否认之的策略性摆动。
对 Anthropic 的 Claude Constitution、OpenAI 的 Model Spec 和 Google 的 AI Principles 进行的比较法教义学(Rechtsdogmatik)分析揭示了这一模式在三家头部 AI 开发商中的运作。
那么,什么制度能够提供缺失的判断力?公司法已为此类情形发展出一套机制。当企业的法律架构被用于将损害外部化转嫁给第三方时,法院有权"刺破公司面纱"(pierce the corporate veil)——穿透形式结构,审查运营实态。该学说刻意保持其非算法特征:没有清单决定何时刺破面纱,法院须就全部情事行使情境化判断力。以亚里士多德的术语言之,这是制度化的实践智慧(phronesis)——一种恰好在规则穷尽之处运作的判断力机制。
三项主张构成本文论证的骨架:规则与其适用之间的鸿沟是当前人工智能治理的运作现实(第二部分);这一鸿沟已通过"能动性放弃"模式被策略性地利用(第三部分);公司面纱刺破学说——经由四项治理专属触发条件加以改造——为当前人工智能治理所缺失的制度性判断力机制提供了方案(第四部分)。随后,本文将该方案映射至欧盟、中国和英国的监管架构(第五部分),并讨论其局限性(第六部分)。本文的贡献是哲学性而非立法性的:一项诊断和一种制度性救济方案,而非法条建议。
当前论辩建立在四项假设之上:判断力与规则紧密关联;算法规则与非算法规则存在差异;算法规则穷尽地决定自身适用;判断力仅在非算法情形中补充规则之不足。无论是否追随 Gori (2024) 将计算规则视为与其适用之间存在比法律规则更确定的关系——本文承认这构成一种程度上的实质差异——关键问题在于,这种程度差异是否在治理边界上构成性质差异。前两项假设以强化的形式得以成立:判断力对于规则是构成性的,而非仅与之相关——规则若缺乏适用之判断力,便是"死的符号"(dead signs, 维特根斯坦语)。本文挑战第三项假设:即便是算法规则,在治理边界上也无法穷尽地决定自身适用——元递归问题(meta-recursive problem, 第2.1节)表明,无论进行多少产出检查,都无法区分真实合规与表演性合规。并重新阐释第四项假设:判断力并非补充性的,而是构成性的。缺乏判断力的规则产生可被利用的治理——即第三部分所诊断的"能动性放弃"模式。