三个主要法域已经建立了大规模的人工智能治理架构,各自展现出精密的规则体系与欠发达的适用判断机制之间的耦合。
《欧盟人工智能法》(Regulation 2024/1689)构成迄今最精细的 AI 治理规则体系 (European Parliament, 2024)——四级风险分类、合规评估、禁止性做法以及对高风险系统的人类监督要求。然而,欧盟委员会于2025年2月撤回了人工智能责任指令(AILD),本可为中间案件提供制度性判断力的工具就此消失。《欧盟人工智能法》规制的是部署之前的阶段;修订后的产品责任指令(Directive 2024/2853)在缺陷产品造成损害时提供严格责任。AILD 本可弥合二者之间的鸿沟:针对那些符合监管要求却通过可预见但未受监管之途径造成损害的系统适用过错责任。其撤回意味着缺少一种判断合规是真实还是表演性的机制——这一问题因"合理可预见用途"(reasonably foreseeable use)标准被施加于用途在设计上不可预见的系统而更加突出 (Rodriguez de las Heras Ballell, 2024)。框架的相关性可由荷兰 SyRI 案佐证。这一部署于多个市镇的福利欺诈检测算法,符合其授权立法且满足形式化的数据保护要求。海牙地方法院于2020年2月依据《欧洲人权公约》将其推翻——这是一个判断,而非规则的适用——认定系统的不透明性和有效救济机制的缺失构成对私人生活权的不成比例干预 (Rechtbank Den Haag, 2020)。没有任何合规评估或风险分类本可产生这一结果。它需要法院行使人工智能治理系统性欠缺的那种情境化、处境性评估。SyRI 的领域——福利金给付资格认定——恰好落入《欧盟人工智能法》附件三第5(a)类。该案由此揭示了框架与该法风险分类架构之间的关联:一个今天会被归类为高风险的系统,在符合其授权立法的情况下,不是被合规评估而是被法院行使情境性判断力所推翻。
中国的《生成式人工智能服务管理暂行办法》(Cyberspace Administration of China, 2023) 构成现有最全面的全生命周期文档要求,施加了涵盖训练数据治理、内容标注、安全评估和备案审查的义务。然而其局限性不在于规则的全面性,而在于执行方式:合规完全通过行政渠道运作 (Roberts et al., 2021),行政检查运行在规则遵循逻辑上——企业可以在形式上满足要求的同时实质性地掏空内涵。面纱刺破框架的不同之处至关重要:它将全生命周期文档设想为可供对抗性司法审查的证据性基础设施,而非监管核查的清单。
英国2025年《数据(使用和访问)法》(Parliament of the United Kingdom, 2025) 尝试直接立法规定判断力,以"有意义的人类参与"(meaningful human involvement)标准取代2018年《数据保护法》中禁止完全自动化决策的规定 (Parliament of the United Kingdom, 2018)——实质上是尝试将实践智慧(phronesis)立法化。关于有意义的人类控制 (Santoni de Sio and van den Hoven, 2018) 的文献已经表明,此类要求在缺乏制度性保障的情况下可被系统性地还原为形式性表演。没有面纱刺破式的制度性保障,“有意义的"将沦为又一条可被博弈的规则。
澳大利亚皇家委员会对 Robodebt 计划的调查 (Commonwealth of Australia, 2023) 通过不同的法律传统得出了相同的结论。审查一个在多个时段内非法平均收入以产生47万笔错误债务的自动化福利追偿系统后,委员会建议对自动化决策所依据的业务规则和算法进行独立专家审查、建立监督自动化决策过程的机构、以及在何处和如何使用自动化方面的强制透明度。这些建议——在与 AI 对齐话语毫无关联的情况下得出——与本文提出的程序性启动机制框架趋同:跨法域和法律传统,对自动化决策的制度性回应一致地要求外部判断力而非内部合规。
规律是一致的。欧盟建构了全球最精细的 AI 治理规则体系,随即撤回了本可提供适用判断力的工具。中国要求最详细的文档但将执行完全导入行政规则核查的渠道。英国尝试立法规定判断力本身,但缺乏验证该要求实质性的制度性基础设施。面纱刺破学说提供了规则制度单独无法做到的:一个非算法的、对抗性的过程,法院可以通过它判断企业合规是真实的还是表演性的。
六、制度前提与俘获
本框架预设制度能力——独立的司法、对抗性诉讼、监管独立性——这些在各法域之间分布不均。在这些前提条件缺失的地方,第四部分提出的问责结构可能无法按设计运作,而将其不加修改地移植至具有不同法律认识论的法域,则有复制其所诊断之模式的风险:在不对地方条件行使判断力的情况下施加关于判断力的规则 (Anghie, 2004)。框架坦诚的贡献是一项诊断而非普遍解决方案:规则与判断力之间的鸿沟是企业权力运作的场所,制度性回应必然因法律传统而异。
第二个局限性则指向相反方向。即便在制度能力存在的地方,大型 AI 企业也拥有博弈任何治理体系的资源——这是从金融业 (Johnson and Kwak, 2010) 到制药业中有据可查的历史性监管俘获模式。但这一反对意见若被正确理解,恰恰是支持而非反对基于判断力之治理的论据。基于规则的体系正是大型企业最擅长博弈的:它们产出满足形式要求的文档同时规避实质性问责。处境性的人类评价——法院适用面纱刺破标准进行逐案评估、监管机构被赋权审视形式合规之外的实质——比清单更难被俘获 (Mökander and Floridi, 2021)。第三部分诊断的能动性放弃模式在规则治理空间中恰好如鱼得水。判断力以其本质属性能够关注形式与实质之间的差距。
来自企业俘获的反对意见真实但不具决定性。有原则的企业行动仍然可能——近期案例充分表明了这一点 (Amodei, 2026)——但本文提出的框架不依赖于期望此类个体总能占据权力位置。其制度贡献在于使表演性合规的代价——面纱刺破的风险敞口、对内部记录的对抗性证据开示、强制补救——足够高昂,使真正的合规成为最小阻力路径,而非仰赖个人英雄主义的道路。
七、结论:判断力贯穿始终
这场论辩的一个突出框定方式将问题呈现为自动化偏见判断与以规则取代之之间的选择。这种框定是错误的。问题不在于规则与判断力孰应胜出,而在于制度应如何治理规则与其适用之间的鸿沟。
“能动性放弃"模式提供了经验性症候:企业在销售系统时主张能动性、在责任到来时否认之——一种借用宪制性治理的语法却不接受其约束的管辖权越界形式。面纱刺破学说提供了制度性回应。其非算法结构赋予法院一种区分真实合规与表演性合规的方式,而无需假装另一份清单能解决问题。
该方案受限于不均衡的制度能力和俘获风险。但这些是特定救济方案的局限,而非诊断的局限。救济必须践行其所倡导的:如果第四部分提出的触发条件固化为合规清单——如果"规避触发条件三"变得与"发布一份 AI 宪法"一样公式化——框架将复制其所诊断的病理。保障在于结构性的:触发条件开启调查而非结束调查,司法推理始终可被上诉、质疑和修正。规则告诉我们去寻找什么;判断力告诉我们是否已经找到。人工智能治理已经精心发展了前者。它现在需要能够胜任后者的制度。