作者简介:刘振华,男,山西临汾人,吉林大学理论法学研究中心博士研究生,研究方向:数字法学、法理学;杜宴林,男,吉林长春人,法学博士,吉林大学理论法学研究中心教授、博士生导师,吉林大学理论法学研究中心主任,研究方向:法理学。
摘要:工具理性的越位致使针对算法自动决策的治理逻辑也被工具理性思维所占据。工具理性主义主导下的算法治理在治理议题上强调算法透明度;在治理路径上,通过“技术标准”展开治理。学界习惯通过呼吁价值理性的回归来纠正算法治理中呈现的工具理性的异化,但是由于其无法实现算法治理理论与实践的统一,因此具有片面性。实践理性一方面由于其自身蕴含着价值的多重内容,因而能够替代价值理性实现对治理中工具理性主义的纠偏;另一方面由于其蕴含着价值的实现方式,进而能够破除治理理论与实践的分裂问题,并使得算法治理导向一种立基于“厚”的制度逻辑的“数字治理”范式。在此过程中,算法治理开始将研究重心从治理对象转向治理过程、从理论维度转向工程维度。在此基础上,实践理性也完成了对法学研究愈发“技术化”的纠偏,提升了法理学应对现实问题的回应度,并引导未来的法学研究进行“转出理论”和“转向工程”的转变。
关键词:算法自动决策;工具理性;实践理性;数字治理;工程思维
引言
算法自动决策作为具有重大的颠覆性意义的新一代人工智能技术,正在深刻塑造全球竞争格局。人工智能语境下的自动决策是指采用机器学习算法处理关键数据进而做出决策或者提出建议的活动。通过将决策过程委托给算法,自动决策系统已经被政府部门、企业以及非营利部门广泛使用。虽然自动决策系统的发展势头不减,拥护者们也对所谓的“第四次工业革命”这一新的时代的到来表示欢迎,但并非所有人都认为人工智能的快速迭代是一件好事。原因在于:其一,基于人工智能的算法自动决策技术可能会按照某种节奏不断引起飞跃式的变化,甚至通过复杂的连锁反应造成混沌。其二,算法技术的快速迭代也引发了治理难题。从法律角度看,虽然法律规则的更新能够实现针对算法自动决策的治理,但这种回应性的治理模式并不是最好的办法。在人们抱怨治理滞后的同时,我们也会发现,错误的治理路径可能会减缓科技的发展,甚至扼杀数字创新。
实现算法技术与社会的功能整合,需要从解构现代科技蕴含的单向度的工具理性开始。算法技术在改变人类生产和生活方面迅猛发展使得工具理性在当下过分张扬,工具理性的思维方式已经超越科技领域而进入到法律和思想领域,针对算法自动决策的治理逻辑也不可避免地被工具化了。工具理性并未穷尽人类对理性的全部理解,仅仅借助工具理性主义的治理观无法实现对算法技术的有效监管。同时,工具理性在治理领域的实践程度越深,治理理论与实践的分裂与冲突问题也就越严重。职是之故,本文将以算法治理中涌现出的工具理性主义为切入点,结合针对算法自动决策的最新治理动态,尝试从实践理性的角度阐释算法治理的逻辑演变与路径变迁,并在此基础上提出与之相呼应的拓展性治理范式。
一、算法自动决策的治理逻辑演变:从技术理性到实践理性
(一)技术理性与算法透明度
在自动决策技术出现的早期阶段,公众对透明度的要求使得针对自动决策系统的治理主要在工具理性的支配下进行。这种治理逻辑不仅在行为层面上更多依赖工具的作用,而且在整个治理制度的设计中都贯穿了技术逻辑的原则。技术逻辑主要从“技术内生的风险”角度理解算法治理的议题,即强调算法的透明度或者可解释性是治理的重要前提。随着技术逻辑被包容在治理的框架内,技术理性开始成为“工具理性”概念在科技发达时代的具体化,技术的合理性已经变成治理的合理性。算法自动决策技术作为人类追求自由与解放的手段与初衷,在现代社会的发展中却逐渐走向其对立面。
技术理性在算法治理中的盛行使得学界越来越关注算法决策的透明度。在此,透明度不仅是推翻不利决策的手段,它本身也被视作是算法治理的重要原则。对于自动决策来说,一个迫切的问题是,如何以最佳方式呈现算法系统的比对结果,以便向算法决策的受众做出解释。与这一问题相关的研究领域被称为“可解释的人工智能”,它已成为一个日益活跃的研究领域。不同于传统算法中的透明度问题,在自动决策系统语境下,算法的运行过程不受人的控制。因此,透明度不可避免地成为一个问题:我们无法事先知道系统将使用哪些规则来处理不可预见的信息,对系统运行的事前预测和事后评估都很难准确制定。这正是人们抱怨当今算法缺乏透明度的症结所在:如果我们不能确切地知道机器为什么会做出这样的决定,那么又有什么依据可以对其决定进行监管呢?
从治理路径上看,技术理性试图通过“技术标准”展开算法治理。首先,技术标准为制度设计提供了可行的工具箱,从技术视角实现了算法的去黑箱化;其次,相较于伦理标准的宏观性,技术标准更具有操作性,可以在数据的输入、分析和输出阶段实现对道德风险的系统性预防;最后,通过技术标准进行规范建构,可以在尊重算法运作封闭性的同时,在法律关系上透视算法黑箱。
技术理性面临着不可回避的困境。其一是“算法透明度”存在的问题。与隐私权类似,透明度通常被描述为一种规范性理想,但同时又是一个模糊的概念,这导致透明度实施起来极为困难。人们很容易认为“透明度越高越好”,但这一观点并没有得到相关经验证据的证实。尤其是随着算法技术的更迭,算法已然颠覆了以往传统程序的编程逻辑,走上了自我编程、自我进化的全新技术路线,这无疑加剧了实现算法透明度的难度。实证研究表明,过高的透明度可能会产生意想不到的副作用,如算法破灭(algorithmic disillusionment)。完全透明本身也会造成明显的伦理问题:尤其是当个人数据被用于训练机器学习算法时,完全透明化的要求可能会暴露敏感和隐私数据。此外,算法透明化的一个关键障碍是底层技术的复杂性,特别是在拥有大量训练数据的情况下,即使是专家也不可能逐步追踪这些系统。其二是算法治理对技术理性的关注偏离了治理的本质。不可否认,法律从业者对技术的适当了解可以减少研究上的阻碍。然而,法律人对于技术本质的过分强调,一方面由于自身技术专业能力不足,会“神圣化”技术本质;另一方面,过分纠结于技术本质,可能会导致无法充分考察法律以及其他治理要素对技术所引发的社会关系的回应。在法律和技术的交叉领域,我们应当保持平衡,既要了解技术的本质,又不能忽视伦理和法律的重要性。伦理能够在识别认识论问题和规范性问题的基础上,分析自动决策系统产生的道德影响,并将这种理解转化为合理的、可操作的指导,用于监管算法自动决策系统的设计和使用。法律则需要在伦理考量的基础上思考如何促使技术的发展符合法治原则,以保护个体权益、社会公平和法律体系的完整性。
(二)从技术理性到实践理性:算法治理逻辑的重大调整
技术理性所遭遇的困境本质上源于为科学主义提供合法化证明的叙事机制没有跟上科学发展的步伐,逐渐变得落伍。技术理性所依凭的科学主义叙事正在遭遇一场危机,起源于工业社会的科学主义在完成它的解放功能后由于缺乏后续的合法性论证,在数字化时代日益成为一种压抑的力量。技术理性的治理逻辑在科学主义的影响下,开始机械地、不加批判地将自然科学的方法应用于治理领域,逐渐成为了一种带有严重偏见的逻辑进路。
技术理性存在的消极面向不仅会引发责任判断的难题,还会引发人类存在的危机。面对算法技术的普及所导致的技术理性的过分张扬,学界一般从价值理性的角度切入,力图通过重建工具理性与价值理性的平衡来剔除人类思维深处的工具理性观。诚然,价值理性所拥有的价值导向与价值规范功能有助于帮助治理主体确定治理目标与治理标准,这种目标以及标准是判断治理逻辑可行与否的价值尺度。但是对于算法技术的治理而言,价值理性仅仅做到了对治理中存在的工具理性思维的纠偏,完成了“理论”层面的任务。对于需要何种治理路径,价值理性并没有给出一种替代性的解决方案,因此其在“实践”层面是缺失的。换言之,对算法治理中存在的工具理性谜题,价值理性的引入并不能完全解决该谜题,这一思路呈现出“理论上成立”和“实践中不成立”并存的奇特现象。
价值理性思路的失败并不意味着理性不可信赖,它恰恰表明由矛盾构成的理性世界是一个充满张力的自由空间,这个张力空间正好可以发挥人的自主性和创造性,问题只在于我们如何去运用和发挥理性的作用。理性自身产生的问题,需要回到理性自身去解决。蕴含价值的多重内容与价值实现方式的实践理性对于弥补价值理性的缺陷具有天然的优势。在形式层面,实践理性主要表现为正当性原则,其内涵在于合乎一定的价值原则;在实质层面,实践理性表现为向善原则,其要义在于实践过程合乎实践主体的合理需要。显然,用实践理性作为指导算法治理的重要依托,能够破解治理理论与实践的分裂问题。从实践理性的角度看,任何形式的实践活动都涉及到实践推理,需要依据已有的实践信息决定如何行动。技术理性的消解意味着它不能为算法治理提供合法性支持,而奠基于实践理性的法律可以在相对确定的范围内为算法治理提供相对明确的指引。从一定意义上说,实践理性理应成为算法治理的基础预设,这不仅是对当下的法学研究愈发“技术化”的纠偏,也是法学研究在切入交叉领域时应当预设的方法论立场。
(三)实践理性视域下的治理逻辑展开
实践理性指导下的算法治理不再是纯粹的逻辑演绎活动,而是利益权衡与价值判断的选择过程。法律主体在算法治理中不再是被动的一方,而是开始发挥创造性的作用。
从治理工具看,实践理性通过倡导“立法伦理”“算法专项立法” 将算法治理纳入国家治理体系。技术理性一方面对算法抱有一种不切实际的期待,一方面又把算法治理问题推给了算法本身以及算法开发者。不同于技术理性对算法的这种暧昧态度,实践理性主张通过制度改良主义来实现“科技向善”。这种治理取向从各国的治理实践中也可以得到证实。以美国为例,2016年,美国国家科技委员会反对对人工智能研究或实践进行广泛监管。考虑到监管措施可能会增加合规成本或减缓创新,委员会呼吁在不对安全性或市场公平性造成不利影响的情况下,弱化监管措施。这种呼吁显然没有考虑到人工智能研究是一个瞬息万变的领域。随后的几年里,各国政府、非政府组织和私营公司开始在有关“公平”和“道德”人工智能与算法的对话中扮演重要角色,有关算法伦理的研究工作显著增加,针对这一主题的研究在数量和质量上都得到了极大提升。美国政府随即转变了治理思路,认为法律规范不应当过度限制人工智能技术发展,政府应努力避免人工智能规范阻碍人工智能创新与增长。在此背景下,2022年,美国国会提出了《算法责任法案》(AAA)。该法案旨在解决人们日益关注的自动决策系统问题。它建议部署自动决策系统的机构采取具体措施,识别并减轻潜在危害。总体而言,《算法责任法案》是平衡自动决策系统带来的效益和风险的务实之举。
正如有论者指出的,美国的《算法责任法案》是世界范围内以立法补充自动决策领域自我监管的最新里程碑。这种以立法回应实践理性的治理思路很快便被推广开来。2023 年 3 月 29 日,英国政府发布了《人工智能监管白皮书》,为自动决策系统制定了“适度且有利于创新的监管框架”,旨在支持创新、识别和应对风险。2023年6月14日,欧洲议会全体会议通过了对拟议的《人工智能法案》(AIA)的谈判立场,随后与欧盟成员国就该法案的最终形式进行了谈判。这些规则将确保欧洲开发和使用的自动决策系统完全符合欧盟的权利和价值观,包括人类监督、安全、隐私、透明度、非歧视以及社会和环境福祉。
对各国治理实践的探索表明,以实践理性取代技术理性的算法治理势在必行。基于实践理性的治理逻辑不仅改变了仅从理论层面克服工具理性的思路,而且能够在治理理论与实践的互动中实现对价值理性的补强与超越。
二、算法自动决策的治理路径调试:从“算法归责”范式到“数字治理”范式
实践理性的治理逻辑为算法自动决策的治理研究提供了一种本体论上的哲学假设与前提。治理路径的选择问题便是基于这种哲学假设与前提,体现了对“何为最好的研究”的某种态度或立场。作为一种沟通桥梁,实践理性是打通治理理论与实践的中介元素,引导着算法治理向立法论的方向迈进。立法可以从制度层面保障算法主体和算法用户的合法权利,同时明晰算法控制者和处理者的行为边界。作为一种反思性理念,在解决了算法治理“应该做什么”之后,实践理性在这一过程中催生了新的问题意识,那就是算法治理“将要做什么”。实践理性反对“标准的设定”,标准的存在意味着对于算法治理而言,存在着唯一正确的、教条式的答案,这使得治理的表达过于简单化。通过对“标准”进行反思,实践理性真正关注的是何种治理进路对于人类而言具有目的性价值,而非仅仅具有工具性价值,这种反思最终促进了算法自动决策的治理路径跃迁,形成了基于实践理性的“数字治理”范式。
(一)“薄”的制度逻辑与“算法归责”范式
应对算法风险并实现算法与人类社会相容的制度需求激起了法律人“规训算法”的雄心。实践理性指导下的算法治理逐渐表征为一种制度逻辑,强调通过立法对算法风险进行社会建构,并以法律制度规范算法的技术流程,调整相关主体的行为。这种治理逻辑的转变得益于各国政府在有关人工智能规范方面形成的重叠共识,即各国立法尽管语言和重点不同,但是往往都包含以下六个主题(见表1)。
这六个主题中,“人类控制”“透明度”可以被视为是算法治理的指导性原则,这意味着算法治理的重心在于保障公众的算法地位,防止“自主性消解”;同时,算法治理的目的不是针对自动决策技术本身,而是算法应用行为。“安全”“非歧视”“隐私”可被视作是算法治理的具体内容,这意味着针对自动决策系统的法律监管应当围绕着算法黑箱、算法操纵和算法权力三方面展开。“算法归责”是算法治理的后置程序,从规范层面看,它具有一定的规范性和强制力;从实践层面看,它要求当自动决策系统造成负面影响时,被动地制裁负有责任的行为者。这种以“算法归责”为核心的制度逻辑,试图在“制度失范—制度改良—制度规范”的周期性规律中实现算法决策社会影响的秩序性,是一种“薄”的制度逻辑的体现。
算法归责可以被视为是通过实践理性约束技术理性的制度性尝试。广义的算法归责是指,谁有义务证明自动决策系统的设计、使用和结果是合理的,谁对这些系统的负面后果承担责任。通过分配责任和要求说明理由,可以实现对自动决策系统的监督和约束。法学界对算法归责的讨论采取了一种实用的策略,法律主体要对自己的行为承担责任,这意味着其行为必须可被解释,而人工智能的自我调适和演化,决定了人工智能的不可解释性,即便令其承担法律责任,在下一起事故中,同样的错误仍然不可避免,因此人工智能不能作为法律责任的主体。这种实用性并不意味着法学界在归责问题的讨论中搁置了伦理考量,既有研究意识到道德责任与法律责任的分离趋势,进而从伦理与法律互动的角度出发,通过法律责任与道德责任的融合,引申出一种动态的算法归责机制。归责体系的动态性体现在,法律责任体系要适应算法技术不断升级的智能化社会转型。
诚然,算法自动决策技术的出现和推广使得法律责任的机制发生了变化,但是自动化进程并不意味着必须修改责任制度。自动化决策系统所致损害的责任主体依然是开发和运用此类系统的自然人或者法人。变化之处在于,在责任主体的认定中,要展现出主体的新兴技术人格状态,并据此修改与之对应的权利保护规则和举证归责等法律。总之,自动化决策系统的运用导致责任主体和人工智能体(即算法决策系统)是否合理这两项判断的分离,使得责任制度更加复杂,但责任制度的法律内涵并未发生改变。
(二)算法归责与科林里奇困境
算法归责本质上是一种事后救济,针对算法自动决策的算法治理将重心落在法律归责上,强化事后救济,无法回应人工智能的科林里奇困境。1980年,科林里奇撰文指出,任何控制新技术的努力都面临着双重束缚,在本可以进行控制的早期阶段,由于对该技术的社会危害没有足够的认识,因此人们认为没有监管的必要,然而,随着技术的有害后果逐渐显露出来,对技术的监管已经变得昂贵而缓慢。对科林里奇困境的第一种解读可以从时间维度展开,即什么时候对技术进行监管是合适的?对技术进行监管的许多努力都集中于从预测和避免风险的角度对这一问题进行解答。对技术的早期控制是有可能的,因为这时候技术对社会的影响和渗透尚处于萌芽状态,控制起来较为容易。技术发展的时间叙事意味着与之对应的算法治理应该减少时间维度的束缚,延展算法治理的时间边界,将针对技术的监管提前至研发阶段。算法治理在时间链条上的延伸对当前的算法归责进路提出了挑战。尽管在法律责任领域一直存在着关于报应主义的惩罚和教育主义的预防之争,但是在当下的风险社会中,预防主义无疑具有更重要的地位。当前的算法归责并不能很好地落实这种预防主义,而是导向了具有路径依赖的事后救济,这也是“薄”的制度逻辑的缺陷所在。
对科林里奇困境的第二种解读主要围绕着技术创新与监管之间的冲突展开。技术变化是指数级的,相应的算法治理机制的变化往往是渐进式的,这显然无法实现有效的监管。对此,立法者可以采取的改进策略较为有限,一种策略是采取面向未来的概括式或者原则性立法,以此作为法律归责的依据。这种策略的好处是足够宽泛,可以适应不断变化的环境,但也有可能过于模糊,无法为具体场景提供有意义的指导。还有一种策略是精明无为(masterly inactivity),意指在面对不可取的选择时保持警惕克制。就算法自动决策而言,这意味着政府对于算法决策的治理采取一种观望态度。不采取行动可能是合适的,以避免通过先发制人的规则扭曲了技术的本质,或者通过冗长的裁决拖延了技术的发展。但是不作为可能是一种推卸责任的做法,政府如果选择不监管,算法治理将延续旧的算法归责模式,这可能会导致算法自动决策朝着无益的方向发展。
人工智能的科林里奇困境揭示了算法归责作为一种“薄”的制度逻辑在算法治理问题上的“失语”。其一,技术发展的时间叙事意味着算法治理应当减少时间维度的束缚,延展治理的时间链条,将对技术的治理提前至研发阶段。在此,需要从法理上重视预防原则,并将之纳入到治理内容当中。其二,技术创新与监管之间的冲突还需要我们采取能够平衡两者的监管方法。正如有论者指出,对于治理自动决策系统来说,政策制定者不应试图确保最低限度的算法问责制,而应把重点放在设计治理机制上,使组织能够在法律允许和商业可行的范围内进行权衡并证明其合理性,从而决定如何设计自动决策系统以及明确它们服务于哪些目的。单一化地遵循基于算法归责的“薄”的制度逻辑并不能对人工智能的损害实施充分有效的救济,更无法对危及公共安全的人工智能进行预防性治理。算法治理并不局限于限制或禁止不良行为,它还应该促成或促进积极的活动,由此导向了一种“厚”的制度逻辑。
(三)“厚”的制度逻辑与“数字治理”范式
“厚”的制度逻辑对算法治理问题具有较强的实践理性和体系化治理的认知取向,并倾向于在算法治理的规范性内涵之中补充进伦理内容和经验性内容,这在丰富算法治理内涵的同时,延伸出一种基于“数字治理”范式的包容性制度框架。数字治理(digital governance)是“对数字化的治理(the governance of the digital)”的简称,是指为正确开发、使用和管理算法而制定和实施政策、程序和标准的实践。通过数字治理,政府可以确定算法的使用程序和方法,以提高算法自动决策的安全性和可靠性,并确定算法相关主体的责任。算法自动决策技术的“数字治理”范式的提出,不仅意味着在治理逻辑上对算法治理体系化的强调,也意味着在治理路径上对传统治理模式的超越。如图1所示,针对数字治理与算法伦理、算法监管之间的关系需要做如下说明:
首先,数字治理可以从广义和狭义两个角度理解。广义的数字治理是指本图所呈现的三种治理方式的整合,这种表述在文献中并不少见。诚然,算法治理因主体、对象、事项的不同导致治理策略存在着差异,但如果只是结合具体情境的个案式治理,缺乏整体结构下的任何精细化进路,或者无法演绎分析,或者沦为套套逻辑,终将徒劳无功。算法自动决策的科林里奇困境必然要求法律做出体系性回应。在此,数字治理并非要排斥基于算法透明度的柔性监管,也并非不需要基于算法归责的刚性监管,而是要在统合事前监管和事后监管的基础上,以整体性思维回应技术变革。
其次,在数字治理语境下,算法监管通过法律遵循来形塑数字治理,即政府机构通过制定和执行相应的规则,以规范相关主体的行为。法学语境下的算法监管曾一度被技术理性所支配。在技术理性的裹挟下,算法技术退化为单向度的工具理性,这使得算法逐渐沦为一种资本家逐利和增值的工具。建构数字治理语境下的算法监管,需要破除技术理性的迷思,以价值理性趋近技术理性,同时通过监管过程中“德性”元素的不断累加,为最终的“科技向善”奠定必要条件。这便需要始终坚持利益平衡原则,平衡安全与发展的辩证关系。当然,算法监管虽然对于数字治理来说是必要的,但不足以引导算法朝着正确的方向发展。算法监管界定了算法自动决策中的合法和非法行为,但是并没有说明如何促使算法的发展尽可能惠及用户、企业及社会公众,同时保证个体在算法的惊涛骇浪中依然有能力掌控自身的命运。这既是算法伦理的任务,也是数字治理的任务。
最后,算法伦理具有与算法监管同等重要的地位。在数字治理语境下,算法伦理充当的是价值理性的角色:一方面,算法伦理作为一种约束力量旨在评估与算法有关的道德问题,对算法和相关主体起着引导和节制作用;另一方面,算法伦理表征为一种进行道德思考和道德判断的理性能力,个人运用这种理性能力将个体的道德理性上升为集体的道德理性,从而使得算法伦理具有了普遍的约束力。严格的道德规范是塑造法律的基础,通过伦理影响评估,算法伦理塑造了数字治理和算法监管。算法伦理及其反映的价值观对技术世界的影响已经远远超过其他任何力量。这是因为,对算法的道德反思产生的集体理性会影响公众舆论,从而影响社会对算法的接受程度,进而影响算法的政治可行性,最终影响法律的执行。这意味着算法伦理不再是一种事后的伦理,不再是薄暮降临的时候才悄然起飞的“密涅瓦的猫头鹰”。算法伦理必须从一开始就成为数字治理的一部分,成为政策和规则制定的一部分,因为从资源和影响的角度看,改变行动方针更容易,成本也更低。这也是数字治理的宗旨所在,即必须在对算法采取治理措施之前进行伦理上的考量和评估。
总之,数字治理范式对算法的治理完成了从技术理性到实践理性的跨越。在这种包容性治理框架下,数字治理不仅回答了算法治理“应当做什么”,还能够在“厚”的制度逻辑的指引下关注算法治理“将要做什么”。“搭上技术列车的最佳方式不是追赶它,而是在下一站”,算法治理需要在超越法律形式主义的基础上进行更具整全性的制度建构。数字治理范式所主张的治理路径的革新,便是在治理逻辑上从追逐转向引领,在治理手段上化整为零,从集中于风险链条的中间节点扩展至整个风险链条的前端与末端,以动态演化的治理谱系应对不断变化的算法风险。
三、“数字治理”范式的法理因应
实践理性之于法学而言具有批判和建构的双重意义——侧重于批判,落脚于建构。批判性在于,实践理性具有强烈的价值关切,能够根据主体的需要“改造”和“完善”法律。从技术逻辑到制度逻辑的转变,从“算法归责”范式到“数字治理”范式的跃迁,实践理性帮助算法治理走出了技术理性的怪圈。建构性在于,实践理性还具有显著的创造性,能够促进法学研究及其思维方式的思想变革。这意味着对算法的法哲学反思要在批判技术主义的基础上进行一般理论意义上的范畴更新和思维划界,以此来强化法理学自身的自我理解和扩张,进而提供一种与智能科技时代的算法风险相对应的法理学新体系,避免法理学由于科技因素的介入而导致的极端相对主义化。从法理学的角度看,这种反思是一种以法理学自身的理论逻辑、思维方式来进行回应的过程。由此,实践理性话语不仅凸显了我们通过法律建构我们的生活世界的能力,同时也能够丰富法律作为一种制度性力量的内涵。
(一)算法的治理范式改造与法理学的整体性革新
算法技术的治理范式革新得益于实践理性的批判与建构作用。通过充分发挥理性的作用,使得针对算法技术的治理异化问题得以纠正,这表明理性具有自洁的功能。需要看到的是,实践理性对于当下的算法治理进行方法论纠偏的同时,也为反思和重构当前的法理学提供了契机。纵观当代法理学,它的发展遭遇了内外两方面的困境:内在方面,受到社会思潮与现实导向影响的当代法理学在学派脉络、基本旨趣以及研究路径上,呈现为多元、不稳定的状态。无论是从知识层面还是政治层面,法学理论都是活跃的,且永远处于变革的过程中,这导致法理学很难建构起一种“共识理论”。由此导致法理学的基本理念和主流趋势同学科发展的内在需求之间存在着巨大的张力。而当代法理学外在方面的困境则主要围绕着理论的抽象性与形而上学性展开。如上文所述,针对算法技术的治理困境需要在理论与实践的互动中寻求解决之道。传统法理学作为一种建立在部门法基础上的坐而论道式的学问,不仅缺乏客观的可检验性,而且远离人们的现实生活。这种思辨式的法理学由于缺乏与实践的互动,因此在回应算法技术引发的治理困境时一直处于边缘地位。在此过程中,算法技术的更迭还会形成一种认知性学习的力量,占据旧的不学习的法律的领地。如果法理学不及时作出回应,算法的规范性极有可能取代法律的规范性,这不仅会引发法理学的危机,而且将危及法学的正当性。
解决法理学当前内外困境的关键在于,能否基于法理学自身理性的发展来统一法理学的研究范畴与逻辑体系。在具体的应对策略上,学界普遍从“部分重构”和“彻底重构”两种进路来探讨统一法理学范畴体系的可能性。虽然这两种进路都包含一定的合理因素,为破解法理学内外困境提供了系列解答。但是由于缺乏整合当前理论资源的理性内核的驱动,这两种进路即使形成了一种对“法理的共同关注”,也会因为忽略与实践的互动而难以延续学科生命力。
实践理性之于算法的作用对于解决法理学的困境具有借鉴意义。针对法理学由于理论多元而导致的难以凝聚共识的内在困境,可以通过发挥实践理性的价值引导作用加以解决。从价值的多重内容到价值的实现方式,价值内涵于实践理性之中。在此,实践理性奠基下的“价值”可以作为统一当前法理学范畴体系的概念工具。法体系的开放性与法概念的不确定性需要通过参考内在于实践理性的“价值”来获得确定性的答案。这意味着法概念始终是价值判断的延伸。此外,法律规则与原则的实际应用过程也是价值的践行过程,法律规则是价值观平衡的结果,法律原则是价值观的规范性表述。在这个意义上,所有的法律问题都是价值问题。此处的价值包括关于共同利益、普遍利益、人权和集体目的等各种想法的组合。考虑到在法理学的各种要素之中,只有价值才能被真正普遍化。因此,法学理论的各种流派,无论是自由主义、功利主义、社群主义还是义务论,都可以在道德价值(表征为自由、平等、尊严)和政治价值(表征为民主与法治概念)的基础上形成一种“共识理论”。
针对法理学由于缺乏与实践的互动而导致的外在困境,则可以通过实践理性的建构功能加以解决。在实践理性与实践的关系上,各种具体的实践是由实践理性推动的,实践理性在与实践的互动中具有优先性。实践理性的这种优先性使得其能够在解决法理学的外在困境方面发挥规范和引导作用。实践理性是实践的标准。实践是否成功,要用作为蓝图的实践理性来检验。当然,有时也需要根据具体的实践来修改实践理性的内容。当代法理学要摆脱纯粹的思辨,便需要将实践理性作为自身的理性内核。发挥实践理性的建构作用,既有利于法理学在价值化约的基础上形成理论共识,建构起理论秩序,又能够在法学理论领域与法学实践领域之间架起融通的桥梁,从而使理论在与实践的互动中实现自身的价值。
总之,在实践理性的驱动下,当代法理学不仅实现了整体性革新,而且能够在理论与实践的互动中增强法理学超越自身的自我反思能力,进而实现法理学的自我理解和扩张。
(二)治理内涵的变化引发“数字治理”范式的回应性变迁
基于实践理性的法理学整体性革新同时也影响着治理理论自身的理论基础与制度框架。治理的内涵变迁需要数字治理范式作出回应。在此过程中,数字治理范式必须适应时代特点与形势要求,将重心从治理对象转向治理过程,以促进基础理论与治理实践的互动融通。
对治理的一般性理解奠基于理论家们对治理所拥有的共同的理论企图,即强调通过多元主体的“新的组合”来完善政治制度,同时为政府寻找适当的定位,进而在更大程度上实现公共利益。治理的优点在于,作为一个跨学科概念,它能够使学者们在讨论政策问题时超越对国家的狭隘关注;同时,治理与国家地位的变化是相辅相成的,治理的变迁能够反映现代国家制度架构的改变和国家地位的变迁。
然而,治理并非没有缺点。批评者指责治理导致了处理社会和经济问题时边界和责任的模糊化,这意味着治理没有主体,只有结构。尽管治理的出现被认为是对市场失灵和国家失败的回应,但是治理理论却没有考虑治理失败的可能性。尤其是在提供公共服务和实现公共价值方面,治理不一定是比国家更有效的选择路径。政府至少在统筹资源和实现公众利益方面拥有合法性地位以及象征性权威,而其他参与治理的主体在能力上未必强于政府,却又较少需要为行动的后果负责。治理理论在主体层面的缺陷使得元治理理论开始意识到国家才是最合适的协调者和制度设计者。
可以看出,治理理论经历了从“去中心”到“再造中心”的转变,在此过程中国家的重要性被重新认识,同时政府被赋予了新的内涵,在治理中扮演着“同辈中的长者”角色。治理的理论谱系呈现出的这种逻辑递进意味着当我们从法学角度讨论治理时,不能仅仅从一种国家主义或者非国家主义的视角来理解治理,而是要注意到国家和公民社会之间的界限正在变得模糊,两者之间正在相互渗透,因此治理涉及到政府、公民和专业人员之间复杂的互动网络。在对治理理论的反思中,学界日渐认识到国家始终是多元治理体系中的核心与主导者,这已成为当前关于治理主体的共识。在此基础上,治理理论也逐渐将研究重点从治理对象转向治理过程。
具体到数字治理,我们需要放弃治理的某些终极理论关怀,不应一味地追求一种完美的理论状态,而是应将治理视作是一个正在发生着的过程。在此,需要区分治理的实施与治理所要服务的规范目标,而前者正是治理的核心所在。这便要求数字治理走出宏观理论的藩篱,在微观意义上说明我们正面临着何种治理难题,需要用哪些治理工具的组合来克服这种难题,哪些治理政策是可复制的、可模仿的,在此基础上进而形成体系化的治理模式。对数字治理的微观层面的关注衍生出一种以实践理性为导向的微观治理框架,这种治理框架以“敏捷治理”为原则。展开来讲,算法自动决策的技术迭代引发的高度不确定性使得政府很难提供清晰的法律指导,如果等待政府形成立法后再进行治理,则有可能无法有效控制风险。敏捷治理是一套具有流动性、灵活性和可持续的行动或方法,这便要求针对算法自动决策的数字治理需要为快速发展中的变化做出持续准备,而且需要重新思考和设计治理的流程。而法律规则的滞后性使得数字治理需要更多地依赖抽象的法律原则作为指导,尤其是涉及到公众利益方面,需要政府及时反应和介入治理才能最大程度地控制风险的蔓延,进而实现从技术端、运行端、管理端到应急端的动态治理。
(三)数字治理的思维方式革新引导法学的未来走向
数字治理既有理论的维度,也有政策的维度,对治理的这种划界本质上源于人文社会科学中理论思维与工程思维的划界。理论思维以认知为要务,即弄清事物的本来面目、发现属性间的必然联系。工程思维以筹划为价值目的,即设计出理想性的对象、将不同联系系统中的属性复合为一个工程整体。在一般情况下,理论思维服务于工程思维,而工程思维则服务于实践。作为认知虚体的理论思维是数字治理的起点,它能够在总结和反思各种治理学说的基础上,形成关于数字治理的基本价值立场和明确的问题域,尤其是能够明确针对算法自动决策的治理原则和治理主体问题;其缺点是,理论思维一次只能运行一种理论,因此无法完成对数字治理的筹划和改造。算法技术的复杂性和产业性使得以政策主张为表征的工程思维能够为数字治理指明方向,这得益于工程思维自身的特性——工程思维不是某种排他性治理学说的强行落实,而是各种有益于数字治理的治理理论的综合运用。
在没有思维划界的情况下,治理的理论维度和政策维度往往合二为一,这使得治理理论悖离了其本真的理论状态,又使得治理政策呈现出一种教条式的肢解状态。在法学语境中,缺乏思维划界的治理往往被视作是一种理论意义与实践价值诉求相交织的产物,即学者们往往按照自己的理论主张来设计社会治理蓝图和治理架构,实践者们则依据其实践需求“制造”或“想象”相应的治理理论,治理的“理论”研究总是与社会治理“政策”相混合。治理的思维方式的划界有助于治理学说和治理政策各自找回本真的自我,意识到自身的思维方式,从而为治理学说理论化、治理政策工程化指明方向。
治理的思维划界赋予了数字治理新的理论内涵。数字治理包含两个维度:一个是以治理学说为导向的理论维度;一个是以治理政策为导向的工程维度。其中,治理的理论维度旨在“解释世界”,治理的工程维度旨在“改变世界”,通过这种划界,能够为数字治理提供一种坚实的方法论基础。在此基础上,数字治理重点关注治理的工程维度,这是算法技术复杂性提出的要求。如果说科学本身是在追问确定性,工程则是要对不确定性给出一套解决方案,这便是数字治理的工程转向的核心要义。换言之,随着“治理”从一种社会科学的亚领域到开始提出独立的学科建制的理论诉求,进而以成熟的认知论和方法论向算法治理等具体的社会科学领域的渗透,数字治理也必然需要从作为认知的体系向作为筹划的体制迈进。这种转变需要数字治理广泛吸收和综合运用各种有益于数字治理的治理理论,促进治理工具的灵活转化,进而在促进算法技术创新的同时规制算法发展带来的负面影响。
数字治理范式的工程思维导向为未来的法理学研究提供了一种新的可能。当下的中国法学需要实现一场“转出理论”和“转向工程”的转变,法理学的工程维度在这一转变中努力从边缘走向中心区域,这种转向也意味着法理学正在逐渐从理论关怀走向现实关怀。从工程维度看,法学本身并不存在固定的知识论立场,法学的任务不再是提供一种永恒的与确定的知识,而是不断修正和综合原有的知识,进而促使理论之于实践而言具有动态性和可错性。
提倡法理学的工程维度具有极强的现实意义。这实际上是主张我国的法学研究应当从当代中国的社会现实问题出发思考法律解决方案,法学研究也必须直面我们生活于其中的现实世界。未来的法学研究需要转换研究思路,不再寻求所谓最完美的法律与法律治理方式,而是寻求最有用、最有效的治理方式,并且在必要时转化政策工具,采取果断措施,避免公众利益受到损害。一言以蔽之,提倡法学研究的工具维度,能够使法律治理方式摆脱以往治理议题中呈现出的“头痛医头、脚痛医脚”的局限,意识到治理的整体性与关联性,进而形成系统性治理方案,最终为人类迈向“算法社会”提供坚实的智识后盾。
结语
源于西方语境的治理理论谱系从引入我国之初就承载着众多的期望,在关于如何规制算法自动决策的讨论中,治理更是被赋予重要的使命。但是正如上文所述,技术理性主导下的治理一方面对算法抱有一种不切实际的期待,一方面又把算法治理问题推给了算法本身以及算法开发者,因此这种治理具有内在的局限性。实践理性主导下的治理逻辑在批判技术理性的基础上,促使算法自动决策的治理进路从一种“薄”的制度逻辑迈向一种“厚”的制度逻辑,进而能够以动态演化的治理谱系应对不断变化的算法风险。一种理论越是承载着期望,越是需要接受严肃地批评。针对算法自动决策的数字治理范式,正是在实践理性的批判与建构下逐渐生成了一套系统的问题域与方法论立场:批判性在于,这种治理范式立足于实践理性,促使针对算法自动决策的治理在治理逻辑上从技术逻辑转向制度逻辑,在治理进路上从算法归责转向数字治理。建构性在于,数字治理范式在实践理性的指导下走出了“以言行事”的概念藩篱,并将研究重心从治理对象转向治理过程、从理论维度转向工程维度。更重要的是,实践理性增强了法理学超越自身的自我反思能力,使其在理论与实践的互动中实现了整体性革新。这种革新也意味着,未来的法学研究需要以实践理性和工程思维为主导,实现一场“转出理论”和“转向工程”的转变。如此才能脱离法学研究中的工具理性主义思维,提升法理学应对现实问题的回应度和法理学学术话语的创造力。
因篇幅限制,已省略注释及参考文献。原文详见《河北法学》2024年第11期。