设为首页 | 加入收藏 | 联系我们

河北法学

法治动态

当前位置: 期刊首页 >> 法治动态 >> 正文



AI善治学术研究重磅发布 | 人工智能法治研究的十大真问题(2025)
日期: 2025-03-18      信息来源: 法律适用      点击数:

编者按


为深入贯彻落实习近平法治思想、习近平文化思想,全面贯彻落实党的二十届三中全会精神,着力建设具有强大凝聚力和引领力的社会主义意识形态,着力培育和践行社会主义核心价值观,《法律适用》微信公众号在推送纸质期刊文章外,特开设“实践法学笔谈”栏目,为务实管用的实践法学研究成果提供更为广阔的展示舞台,敬请关注!


编辑提示
2025年3月16日,AI善治学术工作组、北京航空航天大学法学院、北京航空航天大学人文社会科学高等研究院在北京举办了“AI善治论坛:探寻人工智能法治研究的真问题”学术论坛,重磅发布了《人工智能法治研究的十大真问题(2025)》,集合领域权威专家群体的集体智慧,为数字法学研究指明了十大真问题。《法律适用》编辑部长期关注、支持数字法学研究,致力于以实践法学研究助力构建中国数字法学自主知识体系,特将《人工智能法治研究的十大真问题(2025)》于“实践法学笔谈”栏目发布。未来,我刊拟围绕十大真问题组织学者和实务专家进行探讨,形成若干专栏,欢迎大家关注并积极参与。

前言

未来已来,随着人工智能技术与产业图景徐徐展开,前沿技术与社会运行真实交互,催生出一系列法律治理体系革新的理论和现实议题,也愈发需要有志于人工智能法治研究的学者,将宝贵的精力与才智投入到这一领域的“真问题”的研究之中。
      所谓“真问题”,是指扎根于实践需求、直指知识体系缺口、具有可探索性等重大理论价值和实践意义的研究议题。为此,AI善治学术工作组邀请多位深耕人工智能法治研究的学者担任执笔人,基于技术迭代轨迹、产业落地瓶颈、监管执法痛点、司法裁判争议及其引发的理论需求,凝练出2025年值得学界关注的十大人工智能法治研究议题。

这些议题直接来源于算法工程师的合规问题、企业法务的决策焦虑、监管者的执法困惑以及法官面对的新型案例挑战。各位执笔人将理论和实践前沿的研究思考与写作计划无私分享,是为抛砖引玉,期待用真问题引领真思考,以真思考催生真成果,协同学界同仁用扎实的理论研究回应时代命题,推动人工智能法治研究理论与实践的进一步完善和发展。


一、人工智能立法的理论基础与推进路径

人工智能立法的最终目标是构建合理的法律治理体系,这离不开对其理论基础与体系架构的探讨。从技术基础看,人工智能立法既包括最新技术发展,如训练和推理环节的规模法则,也包括已有的理论积淀,如图灵测试等。从立法的制度基础看,既往的隐私公平、可问责性和伦理审查等诞生于半个世纪前的制度依然可以沿用。从立法的体系协调看,针对数据(信息)、算法(模型)和算力(硬件)等人工智能要素的立法,都存在与现行有效规范的衔接问题。因此,人工智能立法的理论基础与推进路径仍需要持续深入研究。

第一,法的滞后性可能导致法律制度无法适应最新技术发展的情形,例如欧盟《人工智能法》采用的浮点算力阈值标准由于大模型架构不断创新、训练成本降低而充满争议。对此,人工智能技术路线、应用场景的变数如何影响人工智能立法的必要性、体例结构和具体制度设计?

第二,人工智能立法并非仅指成文法形式的“人工智能法”,也可以是包括人工智能要素、场景、领域的法律治理体系。人工智能法律治理体系既包括人工智能专门法(如自动驾驶的专门法律法规)与相关法(如《道路交通法》《公路法》等),也包括人工智能要素法(如数据相关法规)与领域法(如人工智能生成内容治理规范)。面对现行法体系中适用于人工智能相关要素的诸多法律,如何处理其合成效应,避免规则“叠床架屋”?如何识别确实有待填补、更新、衔接的法律治理问题?如何衔接法律史和科技史上既有的技术治理制度,借鉴其经验?


二、端侧模型与智能体的伦理考量与私法调适

现行法中的人工智能法律治理多从监管与规制的公法维度展开。随着智能手机终端搭载人工智能模型,以及能够完成复合任务的智能体应用逐渐增多,将有更多的人际交往、交易等活动以人工智能为媒介开展。端侧模型与智能体不仅将与人发生推荐、建议、陪伴等诸多互动,而且将越来越多地承担代理人类行为的角色。这既关系到民法中的经典条款的更新应对,也逐渐引发了人们对人机关系问题的思考。人工智能公法维度的宏观法律治理具有局限性,私法维度的伦理考量和制度调适亟待学界讨论。

第一,如何识别和应对此类应用可能给特定群体带来的精神损害风险?如人工智能为老年人和未成年人提供陪伴、辅助决策带来的依赖、诱导和沉迷风险。

第二,人工智能提供多重任务处理应用时,这种行为的法律效力在民法上如何认定?例如,在通过人工智能达成的交易中,如何处理人工智能行为与用户意思表示的关系,如何认定代理权限,是否允许人工智能服务提供者自我优待,是否有合同效力制度的适用空间?

第三,通过端侧模型或智能体的信息收集与处理(智能搜索)与传统搜索引擎在信息检索、分析、呈现等方式上存在诸多差异,如何避免搜索过程中的错误或不当信息带来的侵权隐患,以及智能搜索过程中复制、引用他人作品片段的行为是否构成著作权侵权?


三、人工智能价值链上法律责任的认定与分配问题

侵权法发展历史上,技术与生产方式的变革往往引起侵权责任理论的变革。现行侵权责任制度以人类过错作为认定和分配责任的基础。但是在人工智能价值链上,存在技术研发、数据训练、算法部署、服务运营等多个主体与环节,复杂的生产过程导致以过错为中心的责任追溯与分配机制失灵,传统法律责任的归结认定范式面临结构性挑战。例如,自动驾驶汽车发生事故、生成式人工智能创作内容侵权、医疗人工智能诊断失误时,研发主体、服务提供者、训练数据提供者、终端用户之间的责任分配机制仍十分模糊。同时,当具有一定通用性的人工智能跨场景应用时,金融、医疗、交通等垂直领域的差异化风险需求也无法“一刀切”地适用产品责任规则。

第一,人工智能价值链主体间的责任如何界分?尤其是预训练、推理、实时数据输入、算法更新都可能影响最终结果,如何合理地在开发者、部署者、使用者之间合理地设计责任分担机制?如何将诸多动态化因素纳入考量?

第二,人工智能责任已有产品与服务二分的制度尝试(如欧盟),如将虚拟聊天机器人认定为服务、智能音箱则认定为产品。然而,人工智能终端产品因其物理实体与服务紧密高度结合,难以明确厘清产品与服务。如何界分人工智能(算法)服务的过错与产品缺陷?无人车、无人机、无人艇、人型机器人、机器狗等人工智能驱动设备风险的基础性、一般性规则如何设立?面对人工智能技术,发展风险抗辩又该如何适用?

第三,互联网发展初期,“避风港规则”为促进产业发展发挥了重要作用。人工智能服务是否也应该适用“避风港规则”?《民法典》中基于网络服务提供者(ISP)与网络内容提供者(ICP)二元划分的注意义务体系在多大程度上可以延伸至人工智能产业?


四、人工智能训练数据供给的法律制度保障

人工智能技术与产业的发展,迫切需要海量高质量的训练数据。然而在现行法律体系中,训练数据获取的合法性边界仍然模糊,无法为人工智能产业发展提供有效法律制度保障。从训练数据来源的角度看,数据爬取行为的合法性边界模糊,数据交易的法律效力存疑,个人信息流通的授权标准不清,版权作品的合理使用边界不明,企业数据共享面临制度壁垒,知识蒸馏技术面临法律性质争议,训练数据相关法律制度供给不足,诸多问题已实质性制约人工智能技术产业发展。

第一,人工智能训练数据的获取中,数据爬取、数据交易、API(应用程序编程接口)调用、数据众包等采集方式,如何提供清晰稳定的合法性评估框架?

第二,使用他人版权作品进行模型训练的行为如何定性?在人工智能企业海量获取作品需求与版权人合法权益保护之间,如何构建利益衡平的新型知识产权规则?

第三,DeepSeek的兴起使得“蒸馏”(Knowledge Distillation)进入法律视野,有观点认为其构成对商业秘密的侵权或不正当竞争行为,有观点认为其违反用户协议,有观点认为其是正常的训练数据获取,如何对其进行中肯的法律评价?


五、开源模型的创新保障与生态治理

在DeepSeek问世之后,人工智能产业发展开始从主要依靠“算力资源推动”,转向侧重“算法模型性能推动”。开源人工智能模型被视为人工智能技术创新的重要驱动力,能够普遍惠及发展中国家、社会大众,使其共享人工智能发展红利。然而,现有人工智能法律规范体系尚未形成与之适配的治理体系,以“服务提供者”为中心的治理,难以有效规制上游模型开发者、垂直领域专业化开发与终端使用者本地化部署相分离的生态。与此同时,技术定义模糊导致“技术洗白”争议频发,分布式协作模式冲击传统责任认定规则,国际规则与本土产业政策的冲突加剧系统性风险。如何在激发开源创新活力与防范技术滥用之间实现平衡,已成为人工智能治理的关键命题。

第一,如何培育具有创新活力、国际影响力和持续发展能力的本土开源生态?如何协调国际开源规则与本土产业政策,以构建政府引导、企业主导、社区参与的协同治理框架,并设计适应开源社区自治的激励约束机制?

第二,开源模型已经被广泛使用,如何在不妨碍科技创新和限制代码开源的前提下,针对开源模型生态体系的各个环节、各类创新主体设置相应的风险预防义务?

第三,如何应对分布式模型对传统责任认定规则的冲击?如何构建负责任开源的制度化实践路径?软件开源许可证是否可沿用至模型开源?如何通过法律制度设计规范开源主体的行为准则?


六、人工智能关键应用场景的相关法律问题

2025年全国两会持续关注“人工智能+”行动,政府工作报告明确要求“将数字技术与制造优势、市场优势更好结合起来,支持大模型广泛应用”,可以预见人工智能将迅速落地在自动驾驶、智慧医疗、智慧政务等核心场景中。人工智能应用与原场景特有的法律关系、制度特点结合,使得相关法律问题更为复杂,亟待依据不同场景特点构建与之匹配的精细化治理框架。

第一,自动驾驶场景下,如何利用《道路交通安全法》修订机会,实现为自动驾驶商业化应用设置配套规则?怎样设计契合自动驾驶技术特征的责任保险制度?车内座舱与车外环境中的个人信息与隐私保护如何落地?如何解决自动驾驶汽车数据的权属与利用问题?

第二,智慧医疗场景下,医疗健康数据包含大量隐私和敏感个人信息,相关治理机制如何构建?如何平衡医疗健康数据利用与患者隐私保护?建立医患信任机制是否应强制要求医疗AI算法具备可解释性?医疗健康数据采集、共享与二次开发的法律制度如何平衡患者权益与公共利益?

第三,智慧政务(数字政府)场景下,如何规范政务数据共享与调用的权限与程序?是否需要通过数据信托等制度平衡公共利益与个人权利?如何界定数字权利的范围并构建保障机制?

七、人工智能治理制度工具箱设计

人工智能治理需要设置一个相对灵活、具有适应性的“制度工具箱”。制度工具箱中应包括法律、技术标准、科技伦理等制度工具,以适应不同的治理目标和治理需求。工具箱中不仅包括算法备案、科技伦理审查、网络安全风险评估等已有的制度工具,更应当积极扩展适应人工智能技术新发展的模型测评、价值对齐等制度工具。

第一,人工智能的测评已经成为现有技术水平下的重要安全制度工具。如何科学合理地评价和选择测评基准、确定测评流程,探索合理分类设置测评基准和测评方案?如何建立动态更新的测评基准库和质量管理制度?部分关键场景中测评结果的法律效力如何界定?

第二,在法律制度无法及时供给的情况下,人工智能伦理治理成为重要手段,价值对齐也成为其中的核心方法。如何设置价值对齐的法律标准?法律如何设计人工智能伦理化的标准与路径?科技伦理审查机制如何设立,如何确保规范伦理委员会依法履职?如何厘清企业自治与公权干预的界限?

第三,人工智能治理标准化趋势日益加强,人工智能治理中各类技术标准在法律中如何定位?技术标准制定主体的权责边界如何划定?技术标准如何在分级分类、沙盒监管中发挥作用?


八、人工智能产业发展的激励与规范

预计2025年我国人工智能产业政策资源投入规模将持续加大。当前,各国人工智能产业政策深刻影响各国人工智能技术产业的布局与发展,人工智能产业政策的法治化约束则是当前国家治理体系现代化进程中的关键命题。产业政策的目标在于解决政策制定与法律框架之间的结构性矛盾,但现实中难免出现政策叠床架屋、缺乏部门协调性、突破现行法律等问题,难以以整体全局思路推进技术创新与协调市场秩序。

第一,政府动用公共资源支持数据、算法与算力供给的权限范围缺乏明确法律界定,应当如何在法律框架内讨论人工智能要素的供给规模、渠道和对象?如何引导产业政策和政府监管对市场竞争进行有序干预?

第二,数字基础设施投资与使用的权责划分尚未形成共识,政府应当在什么范围内、以何种方式促进数字基础设施的建设、利用和保护?法律是否需要赋予相关主体以普遍服务义务和非歧视义务?

第三,利益平衡思想为人工智能产业获取数据、部署应用提供更丰富的理论依据。知识产权制度如何更充分地支持人工智能创新发展?如何在理论上更充分地阐释算法模型的可专利性问题?智能创造场景下,利用大模型技术进行文艺创作的成果是否具有可版权性,进而使相关客体成为著作权法意义上的作品,如何设计权属机制以鼓励创作与知识生产?


九、人工智能模型的风险防控与安全利用

较之传统网络安全和数据安全,人工智能模型安全问题具有自身特点:既包括基础模型的安全保障,也包括领域模型和场景模型的安全保障;既涵盖模型自身设计与常态运行的安全机制,也涵盖人工智能模型安全利用的法律准则;既指向主模型的安全,也指向训练数据和知识库等其他投入要素或组件的安全,还指向模型所可能影响到的国家安全和公共安全。这些问题在人工智能立法与监管进程中已日益成为备受瞩目的基础性议题。

第一,人工智能模型已经具备一定的通用性,可接入不同应用领域。如何处理模型安全的“系统性”与“场景性”的关系?如何对安全利用的规制需求进行精准的细分,对控制风险的手段和效果进行精细设定,以保障不同层面和场景规制负担合比例性?

第二,如何处理可能引起人工智能模型安全风险的数据缺陷风险?训练数据受到污染或者遭遇数据投毒,可导致生成内容存在偏差;反复抓取包含模型生成内容的网络公开数据作为训练数据集时,会进一步造成恶性循环。如何通过法律制度和标准体系的建设,保障人工智能训练和精调数据处理规范的安全性?

十、人工智能涉外法治与全球人工智能治理


人工智能技术的可持续发展不仅涉及技术层面的竞争,而且涉及法治软实力的竞争。人工智能相关法律制度是未来五年立法规划中提到“加强重点领域、新兴领域、涉外领域立法,统筹推进国内法治和涉外法治”的重要议题。欧盟试图在人工智能法律治理领域重现“布鲁塞尔效应”;美国虽未出台联邦层面的法律法规,但正通过多管齐下的策略借助各州立法、技术标准和指南发挥国际影响力,确保美国在全球人工智能治理领域的领导地位。我国需参与引领全球治理体系改革和建设,有效应对外部风险挑战,人工智能法律治理必然成为全球制度协同与话语权争夺的核心领域。

第一,人工智能法律治理规则在全球影响力的提高,不仅体现为立法的示范辐射作用,而且体现为通过典型司法案例确立的具体裁判规则得到更多国家认可。我国人工智能产业位居世界前列,我国人工智能法律治理的制度如何获得更为广泛的国际影响力?如何为高水平对外开放提供法律支撑?

第二,我国人工智能企业出海不仅面临制度层面的“水土不服”,还频繁遭遇以国家安全泛化为借口的政治打压,面临的国际环境和法律风险日益复杂。对此,涉外法治服务保障体系如何才能为出海企业提供有效支持,化解其面临的困难,并有效保障人工智能产业形成“出海舰队”?

第三,当前全球人工智能治理面临参与代表性不足、治理机制协调性不足、技术规则间协调难度较大、治理红利释放不足等困境,如何回应全球南方关切,以能力建设为抓手,强化多方协同,向发展中国家提供基础设施、开源模型、数据集建设、治理方案、安全工具等一揽子公共产品,通过全球人工智能产业合作带动人工智能治理合作?


执笔人简介

张凌寒,中国政法大学数据法治研究院教授,博士生导师。AI善治学术工作组召集人,《人工智能法(学者建议稿)》起草专家组牵头专家。

杨建军,西北政法大学教授,博士生导师,《法律科学》主编。

程莹,中国信通院政策与经济研究所主任工程师,中国人工智能产业发展联盟政策法规工作组秘书长,北京理工大学法学院特聘研究员。

赵精武,北京航空航天大学法学院副教授、院长助理。

郑志峰,西南政法大学民商法学院教授、博士生导师,科技法学研究院副院长。

韩旭至,华东政法大学数字法治研究院副院长、《数字法学评论》副主编,副教授。

徐小奔,中南财经政法大学知识产权研究中心研究员、法学院学院副教授。

苏宇,中国人民公安大学法学院教授、博士生导师。张吉豫,中国人民大学

朱悦,同济大学法学院助理教授、上海市人工智能社会治理协同创新中心研究员。李汶龙,伯明翰大学

李铭轩,中国人民大学交叉科学研究院、高瓴人工智能学院讲师。



地址:河北省石家庄市友谊北大街569号

Copyright© 2004-2005 All Rights Reserved 冀ICP备11009298号