作者简介:陆小华,男,江苏徐州人,天津大学新媒体与传播学院讲席教授,博士生导师,研究方向:民商法;陆赛赛,女,河北石家庄人,天津大学法学院博士研究生,研究方向:民商法。
摘要:人工智能广泛的致害风险挑战了侵权法适配于人类行为的过错标准。现有研究旨在通过构建庞大的注意义务体系,以厘定行为界限,兼具理论与实践的局限性。正视人工智能侵权行为的可过错性,拓展合理性分析框架,构建“合理的人工智能”标准,能够更好地实现技术发展与保护受侵害权益之间的平衡。在静态结构层面,构建“合理的人工智能”标准必须考虑价值判断、合理的人工智能的自身状况和案件环境三大要素。在动态运作层面,应当更加注重判断注意义务之违反,以人类行为、其他机器行为作为二元评估对象,经由比较与计算的双重阶段,搭建违反“合理的人工智能”标准的判断模型。在场景应用层面,“合理的人工智能”标准需要借由具体案件展开并予以明确,同时兼顾技术理性及价值判断。
关键词:过错;机器行为;注意义务;合理性分析;合理的人工智能
一、问题的提出
数智时代,人工智能侵权事故频繁出现并不断扩张。最初,引发关注的是自动驾驶汽车侵权及诊疗人工智能侵权这两类案件。但众所周知,目前自动驾驶汽车的事故率远低于人类司机,加之我国相关法律文件对诊疗人工智能辅助地位的强调,这在一定程度上削减了公众对上述侵权风险的担忧。然而,ChatGPT的火爆出圈极大拓宽了人工智能的应用领域,引发了侵害人格权及著作权的广泛风险。不止如此,中国公司研发的DeepSeek R1于2025年1月20日发布,不仅只用7天获得亿级用户,而且采用开源策略为多种产业赋能,目前全球多领域头部企业已经接入DeepSeek以构建AI生态。2025年2月7日,优必选公司表示,其已在具身智能应用场景中验证DeepSeek技术的有效性,有望利用推理模型解决复杂任务从而赋能万亿产业集群。在可预见的未来,具身智能作为物理世界的通用平台,将代替人类承担更复杂的角色。国内层面,我国于2023年就发布了《人形机器人创新发展指导意见》,前瞻性地指出具身智能拥有巨大市场应用潜力,并确定于2025年初步建立人形机器人创新体系的战略目标。这也就意味着,一旦成千上万以大模型为驱动的具身智能投放市场,那么,人工智能在现实中可能侵害的权益种类和范围都将急剧扩张。
时值我国人工智能立法的机遇期和窗口期,法律尤其需要对人工智能侵权责任的认定作出积极回应。划定人工智能行为(以下简称机器行为)的界限,确立人工智能侵权中的过错标准,应属当务之急。然而,学者对人工智能法律主体地位、人工智能侵权中因果关系、侵权主体等问题多有讨论,却唯独对过错问题避而不谈。即使谈论过错,相关争议亦围绕过错是否应为人工智能侵权责任构成要件展开,亦或集中于讨论服务提供者甚至用户的注意义务。诚如部分学者所言,人工智能应用责任确系当下研究重点,探讨与人工智能相关的应用主体(以下简称相关主体)的过错,诸如自动驾驶汽车使用者是否负担接管义务等问题自有其价值。但需要警惕的是,将相关主体的过错与人工智能侵权中的过错混为一谈。前者关注的是人工智能应用者、使用者一方的风险损害承担问题,后者关注的则是机器行为本身是否具有合理性的问题。两者本应相互补充,共同解决人工智能侵权责任承担问题。但是,在当前的研究语境中,相关主体的过错与人工智能侵权中的过错,两者并无明显区分,甚至有混同之嫌。
究其原因,在当前“人工智能非主体性”的主流语境之下,探讨人工智能本身的过错似乎毫无意义。但是,直接将人类的过错等同于人工智能的过错,是否具有合理性呢?二者又真的能够等同吗?显然,现有研究普遍缺乏对这一问题的省思。纵观已有研究,主体与过错的相互纠缠只能给人工智能侵权责任的认定带来更多的困扰。最直接的危害表现为,所有应用主体均被施加了更多、更重的注意义务。值得追问的是,传统责任制度只着眼于约束人类行为,真的能够实现减少人工智能侵权的法律效果吗?本文认为,相比于探讨人类过错,更应当正视机器行为的合理性问题。只有为人工智能设定自身的行为标准,才能真正预防和减少人工智能侵权。何种机器行为是侵权行为?判断标准如何确定?以上问题不仅仅是关乎权利保护与产业发展的现实问题,更是侵权法必须予以回应的重大法律问题。
可喜的是,侵权法关于过错的研究颇为丰富。通说认为,人类行为过错的判定以“合理的人”为标准。合理性分析作为基本工具与通道,已然确立了过错判定的一般框架,可谓意义重大。以“合理的人”这一标准为模板,已有学者提出算法的理性标准,用以解决算法归责难题;也有学者提出设定“理性车”标准,用以判断自动驾驶系统的过错。只是上述标准聚焦于特殊对象及特定场景,不具有普适性。受此启发,本文旨在构建人工智能侵权中的一般过错标准。通过揭示现有人工智能侵权中过错认定的逻辑误区,从机器行为切入,证立机器行为的可过错性与合理性分析的可拓展性,提出“合理的人工智能”标准,尝试为人工智能侵权中的过错认定提供可行方案。
为避免混淆,还需就本文所讨论的侵权情形作出如下限定:本文关于人工智能侵权中过错的论述,均以人工智能因自主决策而侵害他人的合法权益为具体语境。当然,在人类诱导下,人工智能也会生成侵权内容。比如,通过特定技术手段,用户可以促使ChatGPT生成暴力、歧视内容。此类情形下,人工智能具有工具属性,与本文的研究对象存在明显差异,因此不在本文讨论范畴。
二、人工智能侵权中过错认定的逻辑误区
长久以来,面对人工智能侵权,学者关注的是刺破“人工智能面纱”背后的人的行为,包括但不限于生产者、设计者、服务提供者的行为,过错标准也紧紧围绕上述主体展开。这实际上是一种以主体为中心的过错构建逻辑(以下简称主体思维),即以可能存在的责任主体为逻辑起点,进而探究相关主体的注意义务范围。由此,人工智能侵权中的过错与相关主体的过错实现了同义替换,相关主体存在过错,那么人工智能就存在过错,反之亦同。这意味着,就人工智能侵权而言,不存在一个统一的过错认定标准。与其诉诸于某一特定标准,毋宁说是需要设定关于相关主体的庞大的注意义务体系,才能够解决人工智能侵权中的过错认定问题。
基于“人工智能非主体性”的基本共识,在现有法律承认人工智能的法律主体地位之前,将人工智能侵权的关注重心聚焦于人类行为,是理论与实践的默认选择。但是,以人类行为作为人工智能过错构建的核心,既是对“人工智能非主体性”的僵化理解,又显然缺乏现实可能性。
第一,人工智能的主体资格与过错评判并非事物的一体两面,两者的规范功能不同。前者关注某一实体能否构建法律上的权利义务关系,后者关注某一行为是否具有合理性。鉴于主体通常是行为的发出者,过错与主体概念相互关联。在人工智能非主体性的基本预设下,学者通过否定人工智能的法律地位,进而拒绝评价机器行为是否存在过错。当然,强调主体概念的差异性无可厚非,本文也无意挑战现阶段“人类作为最终侵权责任主体”这一基本共识。但是,将这种差异性继续延展至过错要件的讨论,就不再具有正当性。原因在于,就过错判定而言,侵权行为与责任主体完全能够相互分离。以替代责任为例,替代责任要求“行为人之外的人对行为人的侵权行为负责”,即实施侵权行为的主体无须为侵权结果负责。例如,在用人者责任中,劳动者因执行工作任务致他人损害的,用人单位应当承担相应的损害赔偿责任。或有质疑认为,替代责任中,侵权行为指向的是人的行为,在拟人的情境中探讨机器行为,欠缺法律意义。其实不然,正如王利明指出:“侵权行为是指由于过错侵害他人的人身和财产而依法应承担侵权责任的行为,以及依法律的特别规定应当承担侵权责任的其他损害行为。”上述界定为容纳多种形态的侵权行为提供了空间,非人类行为亦可被评价为侵权法上的加害行为。
最典型的情形是,在饲养动物损害责任中,尽管动物饲养人是最终承担侵权责任的主体,但法院分析对象也同时指向动物的致害行为,毕竟动物致害责任的构成要件之一,就是动物危险的实现。故而,法官必须谨慎地对动物致害行为作出相应的法律评价。比如,在“于某某诉何某某侵权责任纠纷案”中,法院在裁判说理时明确地将动物的非接触行为定性为加害行为。这表明,动物的非主体资格,并不妨碍动物行为作为侵权过错的判断对象。实际上,行为作出不仅仅是法律主体才具有的功能。正如拉图尔的行动者网络理论(ActorNetwork Theory)所描述,一切“通过制造差别而改变了事物状态的东西”都是行动者。非人类实体也能够以自己的活动参与社会建构。模拟人脑思考的人工智能,尽管不拥有生物学意义上的人脑,但是仍会在与外界环境的交互中有所反应。因此,以人工智能的非主体性为理据,质疑机器行为的可过错性,实则过度夸大了主体的重要性,而忽视了两者规范意义的根本不同。
第二,基于实践理性,采用搭建相关主体注意义务体系的这一方案,显然欠缺现实可行性。一方面,相关主体的注意义务内容难以确定。客观上,科技对注意义务具有较强的形塑功能,一项技术创新会在无形中增加或强化注意义务的内容,如果技术更新的速度过快,注意义务的范围和程度就会处于不稳定状态。加之,人工智能的参与主体非常复杂,包括但不限于算法设计者、算力开发商、数据提供者、数据所有者、平台运营方、用户等。确定由谁承担侵权责任相当复杂,学界对此问题的讨论尚存分歧。为了实现负责任的人工智能,就需要为“具有系统重要性的相关主体均设置相应的规制内容与明确的评价标准”。这无疑会引发下列难题:构建较为稳定的注意义务体系这一目标,与新的义务内容不断涌入这一趋势,相互矛盾且不可调和。比如,有学者认为,应当为使用者增设合理操作义务、合理指令义务甚至过程管理义务;也有学者指出,生成式人工智能相关主体应当履行标识义务。实践层面,法院在“新华创诉某科技公司案”中,明确论述生成式人工智能服务提供者应当履行设立投诉举报机制义务、提示潜在风险义务及显著标识义务。以上表明,确立完整的相关主体的注意义务体系根本不可能实现,旨在通过逐一检验各主体的注意义务来判断人工智能的过错,反而会进一步导向过错的不可知。
另一方面,即使勉力搭建相关主体的注意义务体系,也无益于过错的证成。根据侵权行为构成的基本理论,加害行为首先需得满足要件事实(行为、权利受侵害及因果关系),才可继续验证有责性(过错)。但问题在于,先于过错判断的行为难以被证成。依据主体思维,除非能够清晰辨识各主体行为,否则无法判定主体过错。然而,在人机交互的运行机制下,损害可能源自多方主体的行为,这些行为紧密交织,几乎不可能还原为各主体的单一行为。伴随人工智能技术的发展演进,机器行为难以被清晰切割为各个可识别的人类行为将成为常态。举例来讲,智能机器人从事家务活动时,不慎撞伤家中儿童。由于代码设计、环境传感、软件运营与维护、使用人指令等行为均会影响人工智能的行为决策,试图厘清机器行为中的主体原因行为,显然不具有可行性。既然难以辨认主体行为,那么探讨过错问题实属空中楼阁。由此,即使能够从理论上划定相关主体的注意义务群,也会因主体的不确定性,导致过错认定丧失前提基础。
综上,以构建相关主体注意义务体系的方式确定人工智能侵权中的过错,不仅是对主体概念的过度扩张运用,完全混淆了相关主体过错与人工智能过错的关系。而且此种方案还存在高度不确定性及缺乏现实价值的衍生弊病。因此,在人工智能已经全面冲击现有侵权责任体系之时,有必要跳出主体思维,为过错要件的认定提供更为清晰和更具说服力的标准。
三、人工智能侵权中过错的再定位:“合理的人工智能”标准
以“合理的人”概念为参考,“合理的人工智能”标准的规范意涵是指:一个抽象意义上的人工智能应当如何行为,是一种在特定社会价值指引下的拟制的机器形象。尽管“合理的人工智能”标准的客观状态难以描述,但正是这种弹性概念才能确保法律与科技的协同,满足多维度的规范需求。事实上,从解释论观察,引入“合理的人工智能”标准,既是对客观过失理论的规范性理解,又与侵权法的过失框架相契合。从制度功能及法律效果考量,该标准有降低制度成本、增进社会福利优化及促进实质正义的诸多社会价值。
(一)“合理的人工智能”标准的证成
主体思维不足以证明限制机器行为作为过错评判对象的合理性。基于法学的类型思维,机器行为与人类行为享有相同制度评价的类型基础。机器行为不仅应为人工智能侵权的过错评判对象,而且与合理性分析具有高度适配性,两者结合生成“合理的人工智能”标准,完全具有理论正当性。
1.机器行为应为过错评价对象
尽管机器行为源于模型驱动或模型与环境的交互过程,难以容纳情感等伦理要素。但随着过失标准的客观化,伦理要素的影响力已经大大降低,考察过失的重心已由分析行为人的主观状态转移至客观行为本身。以理性人为例,过失不再以考察行为人的主观状态为核心,只要个别行为满足一般人之注意,就为合理,反之具有过错。基于“同等事物相同对待”的类型思维,机器行为与人类行为不存在本质不同。正如学者所言:“法学的类型思维促使人们对法律事实的关注点从事实认定转向对事实的正当评价。”只要二者在“对法律评价有决定性意义的方面一致”,就应当获得相同的法律评价。虽然机器行为与人类行为的确在表达机制、生成逻辑等方面存在不同,但是二者同时具备行为自主与损害同质的类似之处,这是决定两者均可作为过错评判对象的关键依据。
第一,侵权法上的“行为”应当是自主的行为,而机器行为符合这一关键要件。行为自主性强调,个体在行动时展现出的独立性及自我决定能力。在此,重要的不是由主体推定行为自主,而是要在交互中解读行为是否符合人类规范的自主性特征。由于机器学习算法具备涌现能力及随机应对能力,学者已经逐步认可机器行为的自主性。尤其是,支持人工智能生成内容可版权性的学者,明确认可人工智能的作品创作能力。依据“举重以明轻”的法理,既然人工智能都可以独创性地创作作品,那么机器行为的自主性不必再证。从全球人工智能的治理政策考察,承认并尊重人工智能的行为自主性已经成为主流理念。其中,《欧盟机械条例》特别回应了人工智能自主性问题,强调人工智能在预设的任务和活动空间内能够进行自主活动。从技术维度考察,诚如学者指出:“从技术智能化与其指令执行过程的相对独立性上来看,人工智能在社会生产过程中的自主性是毋庸置疑的。” 技术实践表明,人工智能并非工具,而更像是嵌入社会关系中的“伙伴”,甚至已经演化出类人意志,具备行为能力与意思表示能力。例如,ChatGPT的模型参数及训练数据库具有同一性,但其就同一问题的回答均不相同;又如,尽管程序员以提高人脸识别准确率作为算法的功能目标,但针对不同人种的人脸识别偏差率就不取决于设计者。从司法实践观察,北京互联网法院还率先作出人工智能生成图片属于作品的判决,足可在一定程度上反映实务界对机器行为的肯认。由此可见,人工智能在与人类交互中生成的机器行为,可以根据环境的变化采取自主行为,不再完全处于人类的控制之下,相反其获得了对行为的主导权。
第二,行为须得侵害他人民事权益,才是侵权法评价的行为。从机器行为造成的损害后果来看,其与人类行为所侵害的权益种类、程度无根本差异。就受损权益范围而言,所有人类行为可为的损害,机器行为也同样可为。这是因为,人工智能已经深度嵌入人类生活实践的各个环节,包括但不限于政务、医疗、教育、工业、生活服务等领域。特别是,随着人形机器人产业的大规模开发和应用,这一领域还在逐步拓展。在可预期的未来,人工智能对人类的代替将是全方位的,几乎不存在由人类独占的行为领域。就受损结果而言,二者均会造成实害,而且前者的危害程度远超后者。一般而言,侵权法所救济的损害范围限于个人损害,这是由“加害人—受害人”模型中“一对一”的特质所决定的。然而,机器行为致损对象指向的并非个体,而是某一群体乃至社会公众。一旦人工智能出现故障,侵害范围并不局限于某一个体,而是具有持续性、累积性及扩散性。比如,OpenAI公司曾因系统漏洞,导致大量用户的姓名、对话内容等个人信息被泄露;意大利户户送有限公司平台因采用歧视算法,侵害了大量外卖骑手的平等就业权。可见,机器行为不仅能够造成损害,而且致损后果的严重程度远超人类行为。
以上表明,尽管目前人工智能尚未获得法律主体地位,但这并不影响证成机器行为的可过错性。就侵权行为而言,依据同类事物同等处理的法律原则,机器行为在关键要件上与人类行为彼此相似,二者在过错评价上应当获得同等对待。
2.合理性分析的可拓展性
既然机器行为能够作为过错评判对象,那么尚需讨论的是,应当依据何种理论或工具评判机器行为的过错?随着侵权法中的过失标准不断趋向客观化,合理性分析已经成为判定人类过失必不可少的工具。作为一项成熟的分析工具,基于以下两点,合理性分析也完全可以应用到判定机器行为的过错之中。
第一,合理性分析与行为的性质无关。合理性分析旨在将加害行为与其他从事此类活动的行为相比较,检验其是否符合普遍或一般化的社会期待。在此,不论合理性分析指向的对象是人类行为,还是机器行为,均不影响其规范效果。如果将合理性分析视为计算机程序,行为只是运行该程序的一个变量,只要有可以对照的一般社会期待,那么就能输出相应的对比结果。申言之,合理性分析作为一种规范方法及思维框架,具有超越行为特性的规范效力。而且,恰恰是不同的行为,才更能凸显合理性分析作为分析工具的重要功能。例如,已有学者指出,人形机器人致害时,应当比照一般理性人标准设定算法注意义务。这表明,作为判断某一行为是否合理的技术性方法,合理性分析不仅适用于人类行为,也适用于机器行为。毕竟合理性分析的核心在于通过法律对行为的评价,引导和塑造个体甚至社会的行为模式,从而实现社会共同认可的价值和原则。在这个意义上,正是由于现代社会的损害已经明显呈现机器化特征,损害范围及结果的严重程度不容小觑,所以才更应当采用合理性分析这一工具,合理规范机器行为,确保技术进步将造福而非损害人类利益。
第二,合理性分析与机器行为的技术特征彼此兼容。质疑合理性分析适配于机器行为的一个重要理由在于,机器行为难以解释不可预测,且处于不断进化之中。机器行为的特殊性确实存在,但能否就此反对应用合理性分析,恐怕还有进一步思考的余地。一方面,就合理性分析而言,“人工智能为何作出此种行为”并不重要,它需要解决的是“人工智能应当如何行为”这一问题。相较于行为原因,合理性分析更关注的是行为结果,或者说是行为本身。举例来讲,当人们评判加害人是否应对其暴力行为负责时,法律关注的是行为人的行为方式,是被经验感知的事实层面的行为,而非行为背后的动机。同理,缺乏预测性及可解释性的机器行为,只要仍然是造成实害的行为,就能够适用合理性分析的框架。另一方面,技术的更新迭代也不会对合理性分析造成实质干扰,受到影响的只是合理性分析的结果。在此,应当严肃区分分析结果与分析工具的根本性不同。比如,随着技术改进,自动驾驶汽车的一般反应速度由10秒降至3秒。在10秒的标准下,一辆反应速度为8秒的自动驾驶汽车并不为其事故负担责任。但在3秒的标准下,则很可能被认定为具有过错。以上说明,技术更迭在一定程度上会影响分析结果,但并不能影响规范评估机制的贯通性。合理性分析作为普适的评价工具,能够在不同的技术水平下发挥作用,与技术进步彼此协同。
(二)“合理的人工智能”标准的社会价值
相较于为相关主体设定庞大的注意义务体系,确定“合理的人工智能”标准是认定人工智能侵权中过错的更优方案。该标准既能将法律技术要素嵌入规范体系,实现保障技术发展与维护受保护权益的双重目标;又能弥补现有路径的不足,彰显并提升侵权法的科学性,切实增进社会福祉。
首先,从社会成本和资源配置的角度看,“合理的人工智能”标准有利于减少不必要的经济支出,避免支付高昂的诉讼成本,实现社会资源的优化配置。以人形机器人致损案件为例,采用“合理的人工智能”标准更具优势。依照主体思维,法律需要将机器行为拆解为各主体行为,进而分析各主体行为,比如设计行为、运营行为、使用行为等是否合理。其中,受害人需要收集有关各主体行为的资料,辨识出某一行为的不合理性,进而才可起诉非理性行为人,要求损害赔偿。但是这一流程存在诸多法律障碍。其一,机器行为难以拆解。随着人机交互的复杂性不断升级,致损的机器行为会越来越难以被拆解,并视为各主体行为的总和。其二,受害人作为普通的自然人,根本不可能掌握如此多的材料证据,聘请专业人士取证调查,无疑会大幅增加诉讼成本。加之缺乏相应的激励机制,针对受损轻微案件,机器行为的错误根本无法得到纠正。但是,若采用“合理的人工智能”标准,上述困境便能一扫而空。因为此时法律关注的不是各主体行为,而是机器行为。造成损害的机器行为能够被直接观察和感知,无须受害人支付高额调查费以辨识加害行为。由此,受害人收集资料、固定证据以及起诉的成本都将大大降低。成本的降低、简便的维权渠道也会进一步激发受害人积极维权的热情,既不会减少人们应用人工智能的频率,相反还能强化人工智能的功能更新,实现可信人工智能的发展。
其次,从降低人工智能风险、减少损害发生的角度看,“合理的人工智能”标准有利于激励相关主体提升技术水平,减少事故发生。风险社会,侵权法的重要机理之一就是要预防损害。若个体的注意义务水平无法维持稳定的阈值,那么预防风险就只是纸上谈兵。不清晰的责任制度会增加人工智能的运营障碍,而“合理的人工智能”标准有助于打破这一隐忧。尽管目前的技术水平难以解决算法黑箱的不透明性难题,但是,诚如学者所言,为机器行为设定一套行为准则,并不比为人类行为制定规则更为虚幻。毕竟机器行为强调决策的理性与科学性,而人类行为模式更易受到情感因素影响,难以被量化。通过为机器行为设定合理的参考点,能够为相关主体提供稳定的心理预期。与产品领域的ISO标准相类似,“合理的人工智能”标准在人工智能产业生命周期的各个环节都发挥着重要的支撑作用。作为企业研发成功与否的核心衡量指标,企业会尽最大努力使开发的人工智能产品或服务满足此标准。在设计、研发、运营等环节采取合理的注意义务,以最小化现实可能发生的事故率。人工智能产品或服务的大规模的商业化应用及用户反馈,又会进一步推动技术进步,最终达到改善技术缺陷、降低侵害风险的目标。
再次,从鼓励创新,支持技术发展的角度看,“合理的人工智能”标准有利于避免寒蝉效应,为技术开发提供良好的商业环境和制度环境。其一,通过机器行为设定合理的阈值,能够使相关主体理性预期自己的经营成本和可能风险,更加客观地设定投资规划。如果对人工智能相关主体设定太高的注意义务,不仅无法激励企业投入人力资源和技术资源,反而会使企业不敢轻易投入,产生承担过重责任的担忧,阻碍技术进步。其二,“合理的人工智能”标准能够与技术进步相互协同。在技术发展的不成熟期,“合理的人工智能”标准较低,与审慎包容、鼓励创新的技术发展精神相契合,有利于促进市场自由竞争,提升企业参与度和创新活力。在技术发展的成熟期,该标准又能同步提升,切实保障用户权益,助力人工智能产业的可持续高质量发展。其底层逻辑为:该标准体现了技术与法律的融合,而只要设定一个合乎技术发展水平的标准,就能鼓励企业以对人类更有利的方式发展可信人工智能。概言之,“合理的人工智能”标准的科学性既能确保不放任市场失衡,又能实现技术稳定发展的目标。
最后,从法律概念的开放性角度看,“合理的人工智能”标准有利于应对风险流变的智能社会,构建“科技理性和法律理性共同支撑的社会秩序”。该标准兼具科技性与规范性的双重属性。科技性是指,判定机器行为是否合理,必然要以人工智能科技活动的一般规律为基础。因为技术的快速发展导致机器行为的合理性判断结果时刻处于变化之中。比如,同一机器行为在不同的技术发展时期,其合理性存在差异。规范性是指,该标准实为具有法拘束力的价值判断。即使技术水平相同,该标准的内容也能基于政策考量灵活地决定促进或限制某一利益,选择考虑的因素及权重,在无需重塑法律框架的基础上,重新设定其追求的法律价值。假使坚持主体思维,那么只能通过事后增加或减少某一个体注意义务的方式,变更过错判定结果。但是,“合理的人工智能”标准的复合属性却能微妙地平衡技术风险及发展目标的冲突。这种灵活、动态的处理方式将给司法实践预留回旋余地,避免导向僵化的评价体系及结果。
四、“合理的人工智能”标准的建构与运用
确立“合理的人工智能”标准兼具理论基础及诸多实益。进而需要明确的是:“合理的人工智能”标准如何构建与运用?对此问题的回答,既依赖于静态层面解释什么是“合理的人工智能”标准,又需要从动态层面阐述如何判断机器行为违反“合理的人工智能”标准。与此同时,“合理的人工智能”标准在典型场景的具体应用也有待说明。
(一)“合理的人工智能”标准的构建方法
“合理的人工智能”与“合理的人”作为合理性分析的应用成果,具有相同的理论基础,前者借鉴后者的建构逻辑是应有之义。“合理的人”的建构方法,必须包含价值判断、合理的人自身状况和案件环境三个部分。以此类推,“合理的人工智能”的建构方法也应当围绕上述三个要素依次展开。
第一,构建“合理的人工智能”标准应当以整体性价值为导向。整体性价值不以单一价值为鹄,强调兼容多元个体选择,整体性地理解各个价值冲突。毕竟,“合理的人工智能”背后的价值基础是多元且动态的,既无法统一,也无法形成唯一的价值选择。有鉴于此,为了维持各个价值的整体性秩序,必须要动态地认定“合理的人工智能”标准所展现的价值偏好,而无须为各个价值赋予固定的价值位阶。例如,人工智能治理的核心就是要努力维持人工智能发展与其可能产生风险之间的平衡。这表明,发展自由与安全是“合理的人工智能”标准背后的两大主要价值。那么,接下来的难题便是,如何确保发展自由与安全共存于一个良性的网络中呢?
当前,面对人工智能治理难题,不论是国内法还是国际法,各国立法者达成的基本共识为采用风险管理进路。欧盟《人工智能法》“序言”第26条明确指出采用“基于风险的路径”,该法将人工智能风险划分为不可接受的风险、高风险、有限风险、最小风险,并针对不同的风险设定了不同的义务。我国签署的全球第一份人工智能治理的国际性声明《布莱切利宣言》,同样以风险管理为基本原则。国内层面,《互联网信息服务算法推荐管理规定》第23条、《生成式人工智能服务管理暂行办法》第3条也明确体现了分级分类的风险监管理念。以风险治理为基本准则,当发展自由与安全互有冲突时,应当依据不同的风险等级动态处理,促进价值平衡。详言之,当风险等级较低的人工智能致损时,由于其可能产生的财产及人身损害后果都较为轻微,“合理的人工智能”标准应当更偏重于发展自由。此时,受害人在享受技术进步的同时,对技术风险的容忍义务更高。相反,当风险等级较高的人工智能致损时,由于其可能引发严重的财产及人身损害,“合理的人工智能”标准应当更偏重于安全。
第二,应以技术指标构建“合理的人工智能”的自身状况。“合理的人”的自身状况,包括能力与知识两个方面,统称为认知能力。与之相似,“合理的人工智能”标准也需要考虑具体案件环境下的能力与知识。有疑问的是,人的认知能力存在差异,因而法官会在内心区分各种人物形象,诸如成人、儿童、妇女、老人等,并依据价值衡量形成最终的“合理的人”的拟制形象。比如,鉴于认知能力的差异,社会对于未成年人的行为期待一般低于成年人,对非专业人士的行为期许弱于专业人士。但人工智能的认知能力又应当如何判断呢?
认知科学理论提醒我们,无论人工智能如何模拟人类智能,二者仍然存在本质不同。这表明,用以调整人类认知能力的分析框架不可不加变动地适用于人工智能,需得结合机器行为的特征适时调整。实际上,针对人工智能,能力与知识的区分并不显著,而是高度相关,这是由人工智能的科技属性决定的。作为科学研究成果,人工智能的能力与知识能够合二为一,集中表现为性能。因此,在形成拟制的“合理的人工智能”形象时,无需区分对待上述两个要素。人工智能所接受的训练数据越多,代表其储备的知识量越多,能力越高,性能也就越好。换言之,决定人工智能认知水平的是基础模型、算法性能和训练数据集大小等技术要素。其中,基础模型作为“人工智能时代的新型数字基础设施”,不仅具有通用性,而且还具有强大的赋能效果,是决定人工智能认知水平的关键因素。如果各个人工智能之间共享一个大模型,那么其认知能力应当不相上下。也就是说,当基础模型一致时,除非其他技术指标的对比结果存在显著差异,否则人们无须在认知能力上作偏离一般人工智能形象的调整。至于其他技术指标,在何种程度上影响“合理的人工智能”标准,则需结合个案的争议焦点进行判断。这取决于其他技术指标的差异是否实质影响、在多大程度上影响了人工智能的选择和决策。
第三,“合理的人工智能”标准需要考虑具体的案件环境。“合理的人工智能”标准指向具体的时空和场景,因此,人工智能所处行业、地域、交易环境变化均会引起“合理的人工智能”标准的相应变动。例如,应用于交通领域的自动驾驶汽车与运用于医疗领域的医疗机器人,二者的注意义务肯定不同。尽管二者可能采用同一基础模型进行数据训练,但是不同行业之间的功能预设及任务差距,就已经决定了注意义务的差异。又如,不同国家在同一时期的人工智能发展水平存在高低差异,同一国家在不同时期的人工智能发展水平也存在差异,那么其所设定的“合理的人工智能”标准亦不相同。概言之,“合理的人工智能”标准应当对人工智能的环境变动有所反应。由此,依据不同场景具体化“合理的人工智能”标准时,应当积极采用类型化思维。比如,应当区分交易环境、功能、区域、技术水平等因素,分别归属至不同类型,进而设置不同的注意义务。具化应用表现为“合理的自动驾驶汽车”标准、“合理的人形机器人”标准或“合理的诊疗机器人”标准等。
此外,鉴于“弹性因素最终要通过法官心理机制的整合得出确定的结论”,完全摒弃法官的自由裁量权,采用客观唯一的方法塑造“合理的人工智能”标准是不现实的。自由裁量并不意味着法官可以恣意裁判,相反自由裁量需要依法依证据作出,逻辑推理与经验常识是法官认定事实的重要依托。其中,法官自我法律意识及经验范围的提升有利于导向良好的裁判结果。鉴于法官个人经验对案件事实的认定具有重要作用,因此在疑难或新型案件中,借鉴他人经验用以修正法官的经验偏差就显得尤为必要。具言之,由于法官对于新兴科技的掌握能力较弱,为了矫正法官可能存在的认知偏差,提升“合理的人工智能”标准的准确性,就有必要引入专家辅助机制。专家辅助是指专家仅从技术角度提供参考信息,而不作任何规范判断。这有利于补足法官的技术认知短板,规范法官行为,使法官从规范层面作出的具体价值判断,更接近于人工智能应有的注意义务水平。
(二)违反“合理的人工智能”标准的判断模型
确定抽象意义上的注意义务固然重要,但是义务违反作为侵权责任的发生基础,更需要得到关注。毕竟仅仅依赖理论构建尚无法将法律实践引向更精细的方向。一般而言,法院在判断人类过失时,需要以其他人在相同或类似情况下的行为作为参考。以此类推,法院在判断机器行为的过失时,也应当考虑其他人工智能的行为表现。但也有学者认为,应当以人的行为作为判断机器行为过错的标准。实际上,无论是以人类行为,还是以其他机器行为作为过错参考对象,都难以得出机器行为是否合理的判断。以下两种情形能够说明设定一元评估对象的困难和矛盾。
情形1:人工智能的表现优于人类行为,却又差于其他机器行为。以自动驾驶汽车为例,假设人类司机的刹车反应的平均速度为0.7秒,某一车企生产的自动驾驶汽车A刹车反应速度为0.6秒,投放市场的自动驾驶汽车刹车反应的平均速度为0.3秒。那么,在同等驾驶状态下,A因刹车不及时引发了交通事故。那么,A的刹车行为是否具有过错?对此问题的回答,取决于不同行为参照对象的设定。如果机器行为与人类行为相比较,人类刹车反应速度通常在0.7秒左右,机器行为表现更优;如果机器行为与其他机器行为作比较,机器行为则低于其他机器表现的平均水平。那么,优于人类行为却低于其他机器行为的某一机器行为,是否具有过错呢?当然,我们可以为优于人类表现的人工智能设定较高的注意义务水平。但是,这将与自动驾驶汽车的安全性能整体高于人类的事实判断不符,也会不可抑制地带来寒蝉效应,助推形成一家独大的市场格局,进而变相地走向市场垄断。
情形2:人工智能的表现差于人类行为,却又优于其他机器行为。诚然,人工智能并非在任何方面都有胜于人类的表现。从技术表现看,虽然人工智能不会受到疲劳或者压力等人类弱点的影响,但其更容易遭受黑客入侵等网络攻击的风险。又如,在涉及伦理、道德的选择上,人工智能的表现并不比人类更好,也许还会更差。如果面对价值选择难题,人工智能作出的决策不符合一般人类抉择,却又优于其他机器行为,那么又应当如何评价人工智能的过错呢?同上一种情形一样,参照对象的不同将导向完全相反的过错判定结果。
上述两种情形表明,采用一元评估对象的结论不仅相互矛盾,而且都脱离了一般意义上的法正义观。以单一指标(人类行为或者机器行为)作为依据,根本无法得出人工智能是否具有过错的正当性结论。由此,不妨设置一种更为动态、灵活的评估方法,同时将人类行为、其他机器行为设为比照对象,尝试搭建违反“合理的人工智能”标准的判断模型(见图1)。此判断模型区分为以下两个递进阶段:一是比较阶段。在比较阶段,应当将机器行为与人的行为、其他机器行为依次进行比较,如果通过比较就能够确定过错与否,则不再进入下一阶段。二是计算阶段。只有在上一阶段无法判定过错的情形,才需要进入计算阶段。

在比较阶段,机器行为与人的行为相比较,有可能产生以下三种结果:高于人类行为(>=)、低于人类行为(<)或者不确定。同样,与其他机器行为相比较,也有可能产生以下三种结果:高于其他机器行为(>=)、低于其他机器行为(<)或者不确定。因此,混合比较的结果共有C31×C31=9种组合情况。其中只有A、E组合能够得出准确的过错评价结果,如表1。

应当注意的是,“高”或“低”是一种宽泛而非精确的价值描述。从规范意义上讲,行为表现的优劣不仅仅是事实问题,而是融合了法学利益衡量的法律问题。因此,在得出比较结果的论证过程中,基于“合理的人工智能”标准的构建理念,法官至少应当考虑以下三个因素:(1)危险或侵害的严重性;(2)行为的效益;(3)防范避免的负担,即为除去或减少危险而采预防措施或者替代行为所需支付的费用或不便。此外,就案件环境而言,若机器行为所从事的活动没有特殊性,那么人类行为标准对应的是一般合理人的注意义务。若机器行为从事医疗、法律、证券从业等需要高度技术能力与专业能力的行业,与之相对应,人类行为标准应采专家的注意义务。例如,我国《民法典》第1221条规定,医务人员在诊疗活动中应当尽到“与当时的医疗水平相应的诊疗义务”,就是对医务人员这个专业团体提出的特殊要求。
至此为止,除A、E之外的剩余7个组合中,机器行为的比较表现结果摇摆于高与低之间,难以判定机器行为是否具有合理性。因此,需要进入下一阶段——计算阶段。计算阶段的核心,就是为机器行为设置一条比较基准线。比较基准线的设定原理在于:如果从事某项任务的人工智能造成的伤害小于所有行为者(包括人类和人工智能)在从事该任务时造成伤害的加权平均值M,那么机器行为就无过错,反之亦同。加权平均值M的计算应严格遵循以下步骤。首先,计算人类伤害的平均行为值H,这需要将人类行为造成的总伤害单元相加,除以人类行为的任务单元数。其次,计算人工智能伤害的平均行为值I,即将人工智能从事某一任务的总伤害单元相加,除以人工智能行为的任务单元数。再次,计算各个行为的权重,WH和WI分别是人类与人工智能所完成某任务的单元数的比重。最后,计算加权平均值M=H×WH+I×WI 。此外,造成事故的机器行为的伤害率I1,应当使用案涉机器行为造成的伤害单元相加,除以案涉人工智能完成的任务单元数。
尚需强调的是,在判断过错违反的过程中,应当特别限制法官行为,并且关注机器行为的异常。其一,法官在比较和计算两个阶段均享有较大的自由裁量权,因此必须从程序上予以限制。具言之,法官在比较机器行为与其他机器行为时,要明确其采取的标准。比如,医疗机器人致损,法官可以选择的参考对象为:某一细分领域的诊疗机器人、特定领域的诊疗机器人或者非特定领域的诊疗机器人。不论法官如何选择,其均应当提供详细的法律论证,以证明选择的正当性。特别是,如果无法得出高或低的比较结论,在计算加权平均值M时,数据的选取要与上述选择范围保持一致。其二,如果机器行为在某一时段内造成的事故过于频繁,那么,即使机器行为的事故率仍保持在合理阈值范围之内,也不得再适用“合理的人工智能”标准。背后的逻辑为,当机器行为造成事故后,暂且不论人工智能是否具有过错,企业也应当积极调整技术,修复或消除漏洞,防范继续出现人工智能侵权事件。如果企业怠于履行这一义务,导致机器侵权事故频繁上演,那么就无需继续适用客观过失标准,因为机器行为已经趋向于“故意”侵权。
(三)“合理的人工智能”标准的场景化运用
从技术应用深度及权益受侵害程度两方面考量,人工智能在自动驾驶领域及诊疗领域的应用规模较大且持续扩张,损害也直接关乎广大人民群众的生命财产安全。其引发的侵权事故值得重视且具有典型性。因此,本文以上述两个领域的事例为例,分别阐释“合理的人工智能”标准的具体运用。
事例1:高速驾驶道路上,两辆自动驾驶汽车均以时速100km/h同方向行驶并保持合理车距。突然,行驶至最前方的大型货车突遇故障,车辆熄火停至高速路的第三车道。前方自动驾驶汽车A遇此紧急情况,及时刹车并调整车道至第二车道,后方自动驾驶汽车B也及时降低速度并选择最为安全的调整方案。B转移至第二车道过程时与A车发生追尾,导致B车内副驾驶座位人员受伤,A车车辆尾部受损。经查,A、B两辆汽车性能均达到国家标准及行业标准,无制造、警示缺陷。其中,A车的制动效能及恒定性优于B车。具体数据如下:上一年度自动驾驶汽车行驶里程数为80万公里,人类司机行驶里程数为240万公里;自动驾驶汽车因追尾造成驾驶内人员身体受损事件为300起,人类司机因追尾造成驾驶内人员身体受损事件为3000起;上一年度B型号自动驾驶汽车行驶里程数为20万公里,造成了20起追尾损害事故。
事例2:一位高龄患者到医院进行常规检查,诊疗人工智能C在收集患者基本信息之后,根据患者年龄、性别及口述症状等多要素,合理建议患者进行多项检查项目,其中不包括心脏缺血检测。患者在进行上述检测后未见明显异状,但几日后却因心肌梗塞死亡。经查,诊疗人工智能C性能符合相关技术标准。诊疗人工智能C未建议患者进行心脏缺血检查的原因为,患者口述症状属于心肌梗死的非典型症状,诊疗人工智能既有的训练数据库及后天习得的实践经验并未收录此种症状。数据调查显示,因诊疗人工智能的建议失误引发患者未能及时治疗导致心肌梗死的事故仅此一例。
事例1中,B车在突发事件中的选择,符合通常情况下人们对人类司机与自动驾驶汽车的预期。当前方车辆发生紧急事故时,B车紧急刹车并转移至最近车道的行为具有合理性。但问题是,在同等情况下,人类司机是否也会与前方的A车追尾?其他自动驾驶汽车在平均制动效能下,是否会与A车追尾?上述问题的答案模糊不清,这一点与Justine Hsu v. Tesla inc案不同。因此,需要借由数据统计结果定量计算B车造成的损害是否偏离了所有行为者的加权平均值M。加权平均值M的计算过程如下:H=3000起受损事故/240万行驶里程=0.00125;I=300起受损事故/80万行驶里程=0.000375;WH=240万公里行驶里程/320万公里行驶里程=0.75;WI=80万行驶里程/320万行驶里程=0.25;加权平均值M=H×WH+I×WI=0.00125×0.75+0.000375×0.25=0.00103125。B型号车造成的事故率I1=20起受损事故/20万行驶里程=0.0001。最后,两个结果相比较,可知B车优于“合理的人工智能”标准,并不存在过错。
或有学者主张,应当采用产品责任路径认定自动驾驶汽车的侵权责任。仍以此事例为讨论对象,如果适用产品责任,那么设计者很可能需要承担侵权责任。这是因为,A车的制动效能及恒定性优于B车。假使受害人能够提供合理的替代设计,并经由风险—效用标准检验,那么B车就会被认定为设计缺陷,设计者需得承担侵权责任。然而,这无疑徒增设计压力并助长市场垄断。事实上,人工智能侵权适用产品责任已受到多方质疑,甚至有学者建议在产品责任中引入理性算法作为认定设计缺陷的标准。以上观点其实已经背离了产品责任,转向了“合理的人工智能”标准。客观上,随着自动驾驶汽车的普及,形成一个合理的自动驾驶汽车水平并不困难。
事例2中,判断诊疗人工智能C是否具有过错,首先需要比较诊疗人工智能C与人类医生的表现。当诊疗人工智能可以独立对患者提供医学建议时,我们不应当认可其专业水平可以低于专业医生。依据《最高人民法院关于审理医疗损害责任纠纷案件适用法律若干问题的解释》第16条的规定,医生是否合理诊疗应当考虑患者病情的紧急程度、个体差异、现实医疗水平及医务人员资质等因素。鉴于在准确采集信息的基础上,患者所述症状并非典型心肌梗塞症状。即使是专业医生,也很可能错误忽视心脏风险。因此,相比于人类医生,诊疗人工智能C的表现并不差。此外,经由大量数据训练的诊疗人工智能,只能对数据输入准确的患者提供精准的建议。由于算法模型高度依赖数据输入,限于历史诊疗数据的遗漏,其他诊疗人工智能也无法识别心脏风险并给出相关检查指导。因此,与其他诊疗人工智能相比,诊疗人工智能C的表现也具有合理性。综合以上,诊疗人工智能C无过错。
相比于自动驾驶汽车,判定诊疗人工智能的过错更依赖于定性分析,而非定量计算。经由比较阶段,通常就能判断诊疗人工智能是否具有过错。究其原因,诊疗过程往往涉及复杂的个体差异及专业判断,某一诊疗错误、遗漏而致患者受损的事故难以被量化指标直接捕捉。除非诊疗人工智能违背基本医理致人损害,比如,诊疗人工智能开出的医嘱或药方明显与医学原理或规范相悖。可是,在此类事件中,诊疗人工智能的过错明显,根本无量化的必要性。当然,在定性分析时,应当在市场上寻找同类诊疗人工智能,结合具体场景确定理性算法形象。同时,也要注重收集信息采集准确率、诊断准确率等指标,这些客观标准表征了诊疗人工智能的系统性能,为比较阶段的定性分析提供了坚实的事实基础和数字支撑。
总之,正如学者所言:“理性人假设是一种方法论逻辑,为科学研究所必须”。“合理的人工智能”标准作为可供对照的人工智能应有的合理形象,在不同的应用场景中具有不同的内涵,应当结合具体案件确定假定形象并予以具化。只是,现实事故必然比本文所列举事例更为复杂,在判断人工智能是否合理行为时,除了考量技术指标,亦要重视价值评估的规范判断。究竟什么样的机器行为可被评价为合理,是技术与政策的双重问题。举例来讲,如果事例1的追尾事故调整为:追尾导致坐于后排宝宝椅上的儿童受伤。鉴于社会对儿童安全的高度重视和广泛关注,法官很可能限缩数据的选取范围,以强化侵权责任认定。又如,若着重强调安全价值,赋予诊疗人工智能优于人类专家的社会期待,那么事例2中的诊疗人工智能C因掌握大量电子病历信息,却无法识别非典型症状,就很可能被法院判定为具有过错。
结语
如何认定人工智能侵权中的过错,是当前侵权责任制度亟待解决的重大问题。现有研究坚持行为与主体的同一,以人的行为作为过错的评判对象,陷入了构建相关主体注意义务群的理论误区,故而有必要重新修正。机器行为已然超越传统工具的束缚,演变为独立的行为,倒逼侵权法过失标准的范式变革。从解释论角度观察,“合理的人工智能”标准仍旧坚守了现有侵权法的过失框架,并未偏离客观过失的理论基础。从法学的类型思维出发,机器行为与人类行为在对法律评价有决定性意义的方面一致,应为过错评价对象。因此,打破传统的以人为中心的路径依赖,确立“合理的人工智能”标准,为机器行为提供清晰且充分的行为指引,具有正当性及可行性。具体而言,“合理的人工智能”标准的构建方法应与“合理的人”的构建方法保持一致,但也需要结合人工智能的本身特性作细微调整。相比于确认注意义务,判断注意义务的违反更为关键。因此,应当以人类行为和其他机器行为作为参照对象,依次经过比较和计算两个阶段,搭建违反“合理的人工智能”的判断模型。此外,不同场景及案件中的“合理的人工智能”标准也需要相应调整,不仅需要考虑技术指标,更应当重视价值判断及政策考量。唯其如此,才能真正化解人工智能侵权中过错的认定困境,解决大量无法受现行法保护的救济需求,真正促进人工智能产业的健康有序发展。
因篇幅限制,已省略注释及参考文献。原文详见《河北法学》2025年第5期。