设为首页 | 加入收藏 | 联系我们

河北法学

精文推荐

当前位置: 期刊首页 >> 精文推荐 >> 正文



【青年法学家|李晓宇】短视频平台算法推荐侵权的体系化规制
日期: 2025-05-22      信息来源:      点击数:

作者简介李晓宇,男,福建莆田人,广东外语外贸大学法学院讲师,中国政法大学民商经济法学院博士后研究人员,硕士生导师,法学博士,研究方向:知识产权法。


摘要短视频平台算法推荐改变信息的传播范式,提升了个性化推荐的传播效率,并优化用户的信息服务体验。然而,算法、主体和价值的多重因素耦合促使短视频平台算法推荐面临侵权泛化危机。避风港规则作为短视频平台的侵权豁免理由,其适用在算法推荐情境下已出现失灵。短视频算法推荐的使用实质上是平台嵌入价值选择的结果,该行为不具备中立性。立足我国版权产业和互联网产业的特色现状,短视频平台算法推荐侵权的体系化规制可从主体规制”“行为规制法律科技混合规制三个维度展开。符合守门人标准的超大型短视频平台应承担多层级义务群,包括禁止数据混同义务、开放与披露义务以及裁量性义务,但不宜让其承担强制性过滤义务。为实现个人、平台和著作权人的互利共赢,可将非营利性、非职业化创作人的短视频使用和传播行为推定为合法使用。在短视频平台算法推荐技术的各个阶段,平台除赋予个人删除权、拒绝权之外,还应履行告知义务、剔除低质内容的审核义务,以及对热门短视频作品更高的注意义务。

关键词避风港规则;技术中立;强制性过滤义务;守门人;事先推定合法使用;注意义务


一、问题的缘起

算法推荐技术重构了短视频传播范式并催生出侵权泛化危机。Web1.0时代,电视、报纸等传统媒体通过中心化传播掌控内容分发权,形成创作者媒体受众的单向线性传播结构。Web3.0时代算法推荐则构建去中心化网状传播体系,用户兼具创作者、传播者与消费者三重身份。平台通过采集用户浏览、点赞等行为数据,运用机器学习预测偏好并实施精准推送,致使传播控制权从传统媒体让渡至算法系统。这种控制权转移呈现三重特征:分发机制由人工编辑转向数据驱动,传播路径从单向广播演变为多点交互,内容供给逻辑从专业生产变革为用户生成(UGC)主导。技术赋权下,算法系统受用户偏好、平台商业利益与政策导向的多重博弈影响,导致搬运短视频”“影视切条等侵权内容呈指数级扩散。

从理论上看,为了规制短视频算法推荐所导致的侵权泛化,学界对短视频平台是否引入强制过滤义务莫衷一是。有观点认为,算法推荐技术提升了短视频平台信息管理的能力,在能力越大、责任越大的理念下,短视频平台应借助算法推荐技术承担强制过滤义务。强制过滤义务的引入,既可节省著作权人监督侵权内容成本,也能降低短视频平台处理侵权通知的成本。不过,也有学者主张,算法推荐技术不仅难以识别合理使用和侵权使用之间的区别,也没有机会了解短视频作品的侵权属性。若强制过滤义务被强行施加,可能侵蚀用户自由表达,也会抑制短视频产业的创新活力,破坏自由竞争的市场环境。那么,平台承担强制过滤义务能否防范短视频著作权侵权,过滤技术是否对网络自由表达产生负面影响?对此亟待理论上作出回应。

从立法视角审视,传统避风港规则难以有效解决短视频算法推荐的侵权纠纷。我国《民法典》第1195条对避风港规则进行了重要扩展,将原有的通知删除规则扩张为通知必要措施规则,要求短视频平台在接到通知后承担一定的注意义务。在国际层面,2019年欧盟通过的《单一数字市场版权指令》第17条在既有避风港规则基础上引入强制性过滤机制,并要求网络服务提供者尽最大努力获得授权。与欧盟相比,美国则在经过参议院多轮讨论后,选择在微调的基础上继续适用经典的避风港规则,体现了对互联网产业发展自由的更大包容性。欧美国家对避风港制度的差异化选择,本质上是各国版权产业与互联网产业博弈妥协的结果。我国《互联网信息服务算法推荐管理规定》为短视频平台算法推荐的法律规制提供了方案。然而,该规制方案更多依赖于行政机关的直接管制,具体操作中存在执行保障不足的问题。特别是在网络服务提供者义务的细节设计上,尚缺乏更具操作性的规范指引。

从实务上看,我国司法实践日益倾向于要求短视频平台承担更多注意义务。例如,在腾讯诉抖音侵权《云南虫谷》案中,法院认为抖音平台运用算法推荐热播知名作品《云南虫谷》,在明知用户存在侵犯信息网络传播权行为的情况下,却未采取删除、屏蔽等必要措施,构成帮助侵权。此外,在2023圆桌派案、2021三千鸦杀案、2019延禧攻略案中,法院普遍认为,与不使用算法推荐的平台相比,使用算法推荐的短视频平台应承担更高的注意义务。这种倾向体现了司法实践对算法推荐技术可能助长侵权行为的敏感性和对平台技术优势的责任期待。尽管上述案例表明我国司法实践逐渐偏向认定平台对短视频的著作权侵权承担更多的义务,但平台义务的具体构成要件以及具体义务的内容仍未在实践中形成统一的标准。

有鉴于此,本文尝试从侵权泛化、侵权豁免以及规制路径三个维度审视短视频平台算法推荐的法律纠纷治理。首先,从算法技术、职业创作者主体、传播效率论三个层面,回应现实中涌现海量的短视频侵权的原因。其次,从理论层面反思传统避风港规则在算法推荐时代的适用失灵,通过剖析算法推荐技术使用的伪中立性,对短视频平台援引侵权豁免理由展开辨析。最后,探寻短视频平台守门人制度的本土化构建路径,确立合法使用短视频的行为标准,阐释以法律科技协同为核心的二元治理模式,并细化平台在各技术环节中的具体义务配置。


二、短视频平台算法推荐的侵权泛化省思

流量为王的信息时代,短视频平台借助算法推荐重塑了信息传播模式,极大提升了内容分发效率和用户体验。然而,这种效率提升也伴随着侵权行为的泛化趋势。平台基于算法的推送行为已深度嵌入价值判断与流量利益,在缺乏有效监管的情况下,容易诱发结构性侵权风险。短视频侵权问题的本质并非单一技术或制度失灵,而是技术逻辑、创作生态与平台理念三者耦合下的系统性扩张。本文从算法逻辑、创作主体和价值取向三个维度,对短视频侵权泛化的深层成因予以解析。

(一)算法归因

算法推荐技术通过分布式传播模式突破传统中心化审查机制,形成三重侵权驱动链。首先,算法审核机制异化导致把关失灵Web3.0时代,算法以用户行为数据为权重,实现信息找人的精准推送,其技术内核优先考量流量最大化而非著作权合规。相较于Web1.0时代人工编辑的主动筛查,算法推荐系统缺乏侵权内容识别功能,导致侵权视频突破事前过滤屏障。其次,信息源依赖加剧侵权风险。平台为满足长尾需求,需构建海量视频数据库。根据长尾理论,非主流内容聚合形成的规模效应虽能提升用户黏性,但强制要求平台对亿级视频实施逐条筛查,将导致运营成本指数级增长。我国《信息网络传播权保护条例》第4条确立的通知-删除规则,客观上使平台倾向于选择性履行注意义务,形成被动审查路径依赖。最后,算法权力异化加剧逐利行为。算法通过流量分配权重构平台权力格局,创作者为获取曝光被迫采取侵权优先策略。头部平台热门视频中存在众多未授权的二次创作、缩减、混编等行为。这种算法激励下的逐利行为,实质是科斯定理在数字空间的失效——当侵权收益远超预期成本时,理性主体必然选择违规路径。

(二)主体归因

短视频创作主体需区分非职业创作者与职业创作者,实施差异化治理。对于非职业创作者,其非营利性的二次创作、缩减、混编等行为多属《著作权法》第24个人学习例外范畴。其行为特征符合三重豁免要件:传播范围限于私域社交圈;戏仿类视频赋予原作品新价值;权利人诉讼成本与收益呈倒挂关系。非职业创作者因其非营利性、分散性和表达性,往往被著作权人默许,属于容忍性使用范畴。此类行为多为社交表达和生活记录,虽可能在形式上使用他人作品,但对权利人市场造成的实质性冲击较小。然而,MCN机构主导的职业化创作具有显著营利属性,其混编行为构成对原作品市场利益的实质性剥夺。以MCN机构为代表的内容生产体系,日益强化了短视频的商品性。这类主体往往依赖剪辑、模仿、搬运等方式提升点击率,并通过直播、广告、电商转化为经济利益。一旦未经授权使用他人作品,其行为极易对原权利人的市场收益构成实质性侵害。尤其是,当职业创作者上传的侵权短视频播放量达到百万级别时,已对原权利人的市场份额构成严重侵蚀,损害其正当的经济利益与市场竞争地位。

(三)价值归因

短视频侵权争议本质是许可效率与传播效率的价值博弈,需回归权利普遍原则。康德权利普遍原则强调,自由的行使必须以不妨害他人权利为边界,体现了自由与权利共容的规范理性。传播效率论者主张的信息自由流通至上观,实质是对创作者财产权的漠视。虽然传播效率论确实揭示了数字传播时代对信息自由流动的现实需求,但若以此为由普遍正当化未经授权的二次创作、缩减、混编等行为,显然可能削弱版权制度对原创的激励功能。版权制度的正当性基础在于激励回报机制,一旦传播效率凌驾于许可效率之上,权利人的创作积极性将难以持续。根据阿列克西的权重公式,需对二次创作、缩减、混编等行为进行目的手段合比例审查:混编是否产生新文化价值;是否存在更低侵权风险的替代方案;社会效益是否显著超越权利人损失。


三、短视频平台算法推荐的侵权豁免辨析

短视频平台算法推荐存在侵权频发的现象,其背后既与权利人对维权成本与收益之间的权衡密切相关,也与平台借助算法推荐技术所享有的侵权豁免机制紧密相连。那么,在短视频算法推荐主导的信息传播格局下,平台能否仍以避风港规则或技术中立原则作为抗辩依据,继续获得侵权豁免?

(一)短视频平台算法推荐下避风港规则适用的失灵

避风港规则是一种典型的事后审查机制,旨在通过网络服务提供者对收到的侵权通知进行实质性审查,以决定是否对用户上传的内容采取删除或屏蔽措施。避风港规则的执行传统上依赖人工编辑,通过人为判断完成对侵权内容的处理。然而,随着算法推荐技术的广泛应用,短视频平台的内容分发与管理模式发生了深刻变革,算法逐渐取代了传统人工编辑的角色。在这种新技术环境下,避风港规则的适用正遭遇颠覆性冲击。

1.侵权通知由人工通知/人工删除转向算法通知/算法删除

随着算力的显著提升,短视频侵权的处理模式逐步从人工通知/人工删除算法通知/算法删除转型。著作权人或其代理机构借助算法技术,能对海量短视频内容进行自动化分析并发出侵权通知。其中,视频指纹提取技术(即多媒体感知哈希算法)发挥了核心作用,该技术通过生成视频特有的数字指纹来识别相似内容,实现对侵权视频的自动检测与处理。目前,智能审核流程主要分为算法识别、过滤与通知三个阶段。以谷歌为例,2009年人工删除通知不足百条,至2016年算法生成的删除请求已超10亿条。我国版权协会检测中心亦通过该技术累计发出3250万条侵权通知。

尽管算法极大提升了处理效率,但也带来了合理使用被误删、恶意通知滥用等问题。即便是全球最大的用户内容过滤商Audible Magic,算法准确率达99%,在日处理百万条内容的情况下,仍有数万条内容被误判或误删。要求平台对每一则通知作实质性审查将带来难以承受的成本压力。根据避风港规则的规定,即使通知存在错误,平台若未能及时采取必要措施,仍可能被认定为共同侵权。鉴于高昂的审核成本与避风港规则连带责任的双重压力,短视频平台不得不依赖算法技术完成识别与自动移除,从而推动了从人工通知/人工删除算法通知/算法删除的模式演化。

2.反通知救济的逐渐架空

避风港规则中设计的反通知程序,原本旨在为网络用户提供应对错误删除或权利人滥用通知制度的救济手段。用户接到侵权通知后,可通过提交非侵权声明请求平台恢复被删除内容,实现著作权保护与表达自由之间的平衡。不过,在短视频平台广泛采用算法识别、算法过滤、算法通知及算法删除的技术环境下,反通知却未能实现算法化,仍停留在人工操作阶段。技术与制度的非对称性,是反通知机制失效的根本原因。一方面, 用户隐私顾虑限制反通知的使用。反通知程序要求用户提供姓名、地址等个人信息,增加了隐私泄露的风险,许多用户出于对隐私安全的担忧而放弃申诉。另一方面,成本与收益的不对称性。算法使权利人能以近乎零边际成本发起海量通知,而用户反通知需承担身份验证、证据收集及后续诉讼成本。正因如此,用户往往在权利成本与潜在风险之间作出理性选择,即沉默。据统计,美国电影协会在半年内发出了多达2500万个删除通知,而同期收到的反通知仅有8个。

3.算法删除难以识别合理使用

作为技术性过滤机制,算法删除仅具备事实判断能力,难以胜任对合理使用所需的法律价值判断。合理使用涉及使用比例、目的、社会价值等多重考量,其主观性与模糊性超出算法识别的能力边界。目前算法虽可检测短视频与原作品的相似度,但无法判断其合法性。典型如Brad Jones影评视频因分析框架涉电影主题被误删,揭示算法无法识别转换性使用的致命缺陷。更严重的是,部分权利人滥用算法机制,通过错误通知压制竞争者,造成合法表达被扼杀、权利被滥用。我国《信息网络传播权保护条例》第14条未要求权利人发送通知前审查合理使用可能,导致通知删除程序沦为商业策略工具。反观美国,Lenz v. Universal案确立预先合理使用审查义务,要求权利人未履行该义务时承担《数字千年版权法案》第512(f)条项下的虚假陈述责任,此规则通过司法能动性弥补了算法治理的合法性缺口。

4.对用户自由的不当侵害

算法删除合理使用的短视频,实质上构成了对用户信息自由、表达自由和言论自由的不当侵害。著作权法作为有限排他性权利的规制法,其核心在于平衡创作者利益与公众表达权之间的张力。短视频的合理使用不仅有助于保障公众获取信息资源的权利,同时推动了短视频作品的传播与整个产业的可持续发展,也可遏制著作权人权利无序扩张的风险。我国《著作权法》第24条明确规定,在学习、研究、评论等特定目的下的合理使用不构成侵权,体现了对信息自由与公共利益的制度性保障。短视频作为数字表达的重要载体,用户合理使用行为理应受到保护,亦有助于内容传播与产业可持续发展,防止著作权权利的无序扩张。当前平台算法过滤机制往往对用户生成内容一刀切处理,导致合理使用短视频被强制删除,从而对言论自由造成抑制性影响。诚如,2019年欧盟通过的《单一数字市场版权指令》第17版权过滤义务条款引发争议,波兰政府即以其违反《欧盟基本权利宪章》中的言论自由保障为由,向欧盟法院提出撤销请求,反映出算法干预与基本权利保障之间的深刻冲突。

(二)短视频平台算法推荐技术使用的伪中立性

技术中立原则滥觞于1984年美国联邦最高法院索尼案确立的实质性非侵权用途标准,其制度初衷在于保护技术创新的法律空间。在短视频平台算法推荐责任认定中,平台亦以技术中立为由,主张其仅为中立工具提供者,以规避可能面临的法律追责。不过,算法虽然在程序设计层面具备形式中立性,但其运行逻辑、参数设定及目标优化均由平台主导,带有明显的价值导向与利益偏好。算法推荐所产生的传播结果并非纯粹偶然,而是平台行为选择的结果。由此,平台应对算法使用中所引发的侵权风险承担合理注意义务,技术中立不应成为平台规避责任的免责盾牌。

1.技术中立并不等同于技术使用的中立

有观点认为,算法推荐技术仅在预设程序下机械运作,其本身不承载价值判断。平台通过分析用户行为数据生成画像,并据此推送相似内容,推荐结果被视为用户偏好的自然呈现,平台亦借此主张自身不生产内容、不承担责任。然而,本文认为技术一旦嵌入社会运行结构,其所谓的中立性即不复存在。技术的设计、优化与使用过程深受平台价值选择、商业动机与社会需求的影响。算法推荐虽为程序生成,但平台以提升黏性、扩大流量、获取收益为目标,实际上主导并控制了信息分发过程,使算法成为其实现商业利益的手段。虽算法推荐代码运行呈现机械化特征,但平台通过调整完播率权重、热榜排序等算法参数实质操控内容分发,构成《民法典》第1195条关于平台应知要件的认定基础,技术中立抗辩的适用基础随之消解。

2.平台使用算法推荐技术嵌入主观意图

短视频平台在使用算法推荐技术时,往往将主观意图与商业利益深度嵌入其技术设计之中。平台为增强用户黏性、扩大流量与实现利润最大化,借助算法推荐推动爆款短视频的生产与传播,通过优先分配流量资源以引导内容创作方向,并吸引广告、电商等商业合作。这种技术使用并非中立的工具理性,而是平台价值取向和运营策略的体现,形成以数据劳工流量变现为核心的内容生产生态。以抖音为例,其算法系统不仅满足用户个性化需求,更服务于平台对高流量内容的优先推荐与商业变现目标。搜索引擎领域的Search King v. Google案亦揭示了技术背后价值嵌入的本质,法院指出谷歌出于主观判断调整网页排名,平台并非被动中介,而是具有明确意图的主动操控者。算法排名调整所引发的访问量争议揭示了技术架构中隐性价值干预的客观存在,司法实践进一步确证平台作为商业主体的算法操纵者身份,其技术使用始终服务于竞争优势构建与商业生态控制的双重目标。

3.平台对算法推荐的结果负有注意义务

短视频平台对算法推荐结果负有注意义务的证成可基于预见可能性、控制能力及角色定位三个维度展开。其一,平台具备算法侵权的技术预见性基础。通过视频指纹提取等算法识别技术,平台已能初步预判侵权内容传播风险,且在算法架构设计中预设数据反馈与动态调整机制,实质上形成对推荐结果走向的预期控制。其二,平台具有危险控制义务的履行能力。依危险控制义务者理论,平台作为算法技术控制方,通过推荐服务获取流量经济收益的同时,应承担与其技术支配力相匹配的风险防范责任。平台凭借技术优势既能识别算法运行中的侵权风险,亦可通过算法参数优化、推荐权重调整等技术措施实现风险规制。其三,平台已突破技术中立边界转向积极内容生态构建者。算法推荐技术的深度介入使平台从消极技术服务提供者转型为内容分发的实质参与者,其主动干预算法推荐的行为强化了侵权损害的原因力。短视频平台算法推荐行为与用户侵权共同构成多因一果的因果链条。平台既通过算法推荐共享侵权内容传播的增值利益,自应承担与算法控制力相适应的注意义务,以实现技术收益与风险责任的均衡配置。


四、短视频平台算法推荐的规制路径建构

抖音、快手、B站等超大型短视频平台凭借庞大用户基数与强大的算法推送能力,在内容传播中形成了显著的支配力与控制力,实质上已具备欧盟《数字市场法》(DMA)所界定的守门人特征。在我国构建本土化守门人制度的过程中,应充分考虑平台在数字经济中的积极作用,同时警惕其可能对表达自由、内容多样性及公共领域活力造成的潜在压制。在制度设计上,可引入分级分类的多层次义务体系,针对不同类型平台确立相应的事先规制义务,强化对超大型平台的算法透明、数据开放与反垄断义务。为实现平台监管的法治化与精准化治理,应同步确立算法推荐下的合法使用标准,通过法律规则与技术手段的协同运行,建构权利保护与创新发展的平衡机制。

(一)主体规制:守门人制度的本土化引入

1.“守门人制度背景下欧美规制路径的分野

守门人概念最早由库尔特·勒温提出,用以指代在信息传播链条中掌握筛选权的中介主体。在数字时代下,该理论衍生出替代责任规则,即平台作为新型守门人,若未履行必要注意义务需对第三方侵权行为担责。随着算法推荐技术的发展,平台逐步形成具有准公共属性的私权力,通过内容排序、流量分配等隐性控制机制实质主导用户行为,导致传统避风港规则在短视频侵权治理中陷入系统性失效。欧盟《数字市场法》突破了以往事后规制路径,转向事先预防+竞争促进的监管逻辑,确立了大型平台应承担开放接口、禁止自我优待等义务的守门人制度。欧盟《数字市场法》第3条从市场影响力、经济阈值和服务类型三个维度界定守门人。该制度通过强制平台履行数据可携带、算法透明等义务,意在打破赢者通吃的垄断格局。短视频平台因同时具备社交与传播双重属性,成为该制度的重点规制对象,算法操控内容排名与设置准入门槛等反竞争行为受到严格限制。

欧盟推行守门人制度背后具有双重战略动因:一是限制美国科技巨头对欧洲市场的支配地位,二是保护欧洲数字主权的战略工具,扶持本土数字产业的生存与发展。相比之下,美国秉持市场自律理念,主张平台应享有较大的算法自主权,凸显技术创新优先原则,反对强制过滤机制,认为此类义务将抑制创新活力。以谷歌为代表的科技企业主张采取自愿过滤模式,强调规模经济所带来的成本优势与安全保障能力。欧美之间在平台治理理念上的分歧,深刻体现了数字治理中的价值冲突:欧盟基于数字人权观强调平台公共责任,而美国奉行数字自由主义维护市场效能。对中国而言,借鉴域外经验时应避免制度移植陷阱,在保障市场活力与提升治理能力之间寻求本土化的规制路径。

2.“守门人制度的本土化构造

我国短视频平台算法推荐的制度设计,应立足于本国网络与版权产业结构、技术运作逻辑及法律制度基础,推动守门人制度的本土化构建。从产业结构看,与欧盟网络产业弱于版权产业、美国相对均衡不同,我国由腾讯、字节跳动、阿里巴巴等本土企业主导的网络平台在技术和市场上均占据优势,版权产业相对弱势。引入守门人制度,不应照搬欧盟模式,而应以本土发展为导向。在算法推荐机制中,平台通过控制短视频的呈现方式与排序规则,主导信息流向,掌握信息传播的实质性权力,形成强势平台私权力。为回应权力扩张所带来的公共风险,应在权责一致的原则下,赋予平台与其影响力相匹配的事先规制义务。为此,本文认为应建立以多层次义务群为核心的守门人制度,以实现对短视频平台行为的有效监管与产业发展的平衡。

1)短视频平台应遵守禁止数据混同义务

短视频平台作为数字生态的核心节点,其禁止数据混同义务的履行需以结构性市场优势的约束为逻辑基点。平台凭借技术垄断与用户依赖性形成的议价能力失衡,易通过格式合同实施数据聚合与服务捆绑,实质构成对用户数据自决权与公平竞争秩序的侵蚀。具体而言,短视频平台不得以用户同意瑕疵的格式条款实施非对称授权,或借助跨平台数据强制迁移(如要求用户生成内容向竞品平台开放接口)实现流量壁垒的非法建构;亦不得将非必要关联服务(如电商会员准入)作为基础功能使用的前置条件。此类行为本质上属于市场支配地位的滥用,既违反禁止权利滥用原则,亦背离守门人制度中数据流通的最小必要边界。

2)短视频平台应遵守开放义务与披露义务

开放义务与披露义务是破解短视频算法推荐技术黑箱现象的有效路径。一方面,短视频算法推荐技术是通过程序员编写的复杂代码实现的,其中包含大量专业术语和技术细节。对于普通用户而言,这种代码语言晦涩难懂,使其难以了解算法的具体运行逻辑、计算公式以及参数权重。另一方面,短视频算法推荐技术通常采用深度学习方法,在机器学习运行过程中可能产生训练者无法预见的输出结果。这种技术特性加剧了算法的不可解释性和黑箱属性。正因如此,要求平台对算法推荐技术的运行机制进行适度的开放与披露,不仅能够有效缓解用户与平台之间的信息不对称,还能防范平台因权力过大而产生的恣意行为。例如,我国《互联网信息服务算法推荐管理规定》第4条和第7条明确要求,平台提供算法推荐服务应遵循透明公开原则公开算法推荐服务相关规则。这些规定为短视频平台的开放义务与披露义务提供了法律依据。短视频算法推荐技术的开放与披露,不仅是实现算法透明化与可解释性的内在要求,更是保障用户知情权的重要体现。

3)通过对话机制确立平台的裁量性义务群

短视频平台的裁量性义务群需以权力责任动态平衡为核心,通过监管机构与平台的双向对话机制实现差异化规制框架的生成。考虑到短视频平台在服务类型、治理能力与成本承受能力方面存在差异,裁量性义务不宜一刀切,应根据平台实际状况灵活设定。在算法推荐技术快速迭代、使用模式多样化的背景下,平台可结合自身场景自主履行合理范围内的义务,执法机关则应坚持比例原则、适度开放与动态调整,确保规制弹性与合理性并存。

2021年《互联网平台分类分级指南(征求意见稿)》已为平台监管提供类型与等级的制度框架,将短视频平台划为社交娱乐平台,并依据用户规模与市场能力划分为超级型、大型及中小型平台。在此基础上,裁量性义务的设定应因平台等级而异。对于超级型与大型平台,重点规制其在算法推荐中可能存在的滥用市场支配地位、排斥竞争或侵害用户内容权与人格权的行为。例如,欧盟《数字市场法》第6条第1款规定平台应提供数据访问、使用与可携带权,并遵守公平、合理、非歧视FRAND)原则,保障用户在不同平台间自由转移自身内容数据。相比之下,中小型平台则可采取柔性合规指引,通过自检清单与过渡期安排缓释监管压力。此分层治理模式通过基准义务+动态增益的弹性架构,既确保守门人履行遏制注意力垄断”“创作权挤压等结构性风险的核心责任,亦为技术迭代保留制度冗余空间,最终在权力制衡框架下实现合规成本与治理效能的帕累托最优。

4)不宜引入短视频平台的强制性过滤义务

在我国语境下,引入强制性过滤义务并不具备制度正当性,主要基于价值差困境缺位、公平竞争秩序维护与平台私权滥用风险等多重考量。其一,从制度背景看,欧盟推动强制过滤制度的根本动因在于美国网络巨头与本土版权产业之间的价值差问题,而我国市场由本土网络平台主导,外资平台并不具备支配地位,价值差问题并不突出。此外,欧盟版权协会亦指出,强制过滤是否能有效弥合价值差尚缺乏实证支持,反而可能带来内容传播的价值增值。其二,从市场结构看,强制性过滤义务对软硬件配置与人力资源提出高要求,实质性提高了行业准入门槛,增加平台合规成本,不利于初创企业与中小平台的生存与发展,反而固化了互联网巨头赢者通吃的市场格局,抑制创新与公平竞争。其三,从治理逻辑看,强制性过滤义务赋予超大型平台更大的信息过滤与传播控制能力,平台通过算法、基础架构与用户接口控制信息流通路径,进而强化其数字主权属性。在缺乏明确法律标准与外部监管的情况下,此类私权极易被滥用,可能导致内容审查扩张、竞争压制与用户权利侵害。

(二)行为规制:事先豁免之推定合法使用

短视频算法推荐平台与权利人应在合作基础上,共同努力防止侵权短视频的传播,但同时需避免对合法短视频的上传与传播造成不必要的阻碍。短视频的合法使用包括法定合法使用与推定合法使用两种类型。一方面,法定合法使用指的是《著作权法》明文规定的合理使用范畴。短视频的合法使用可结合《著作权法》第24条规定,以及短视频的作品性质、使用目的、替代性和适度引用性等要素进行综合考量。短视频的合理使用已有诸多学者进行系统性探讨,对此不再赘述。另一方面,推定合法使用是指非营利性、非职业化创作人使用和传播短视频的行为,它处于构成合理使用与具备侵权短视频外观行为之间的模糊缓冲地带。

1.确立推定合法使用短视频行为的正当性

将非营利性、非职业化创作人对短视频的使用与传播行为确认为推定合法使用,有助于实现平台、用户与著作权人之间的利益平衡,兼顾表达自由、著作权保护与平台治理效率。其一,此规则有助于缓解平台在守门人义务与自愿过滤义务之间的压力。当前对平台施加的事先审查责任,常使合法短视频因误判被误删,变相将平台置于准司法裁判者角色。确立推定合法使用,有助于限制平台对内容合法性的越位判断,减轻其事先审核负担,提升运营合规性与内容活力。其二,该规则能够有效保障非营利性用户的自由表达权。在著作权为有限排他权的定位下,非职业创作者的合理使用行为应获得更多容忍空间,以避免过度干预公共领域的正常言论表达。其三,推定合法使用还可反哺著作权人的商业价值。在流量即收益的平台逻辑中,用户对短视频的非商业性搬运、剪辑或合辑,有助于提升作品曝光度与平台关注度,从而增强其潜在变现能力。因此,在合理边界内确立推定合法使用规则,既有助于防止平台监管权滥用,也能激励用户表达与原创传播,实现平台生态的良性循环。

2.确立推定合法使用短视频行为的标准

推定合法使用标准的关键在于明确其构成要件。即非营利性、非职业化的短视频创作与传播行为需满足何种条件,方可推定为合法使用。德国《网络内容分享服务提供者著作权责任法》(2021)对此提供了明确标准:其一,引用作品不得超过原作的二分之一,图像类作品可全部使用;其二,所引用内容须与原创或他人合法内容结合使用;其三,引用量应受限,例如音视频不得超过15秒,文字不得超过160字符,图片不高于125千字节。该量化标准增强了司法实践的操作性与法律的可预期性。

然而,严格适用量化标准可能难以适应技术演进带来的挑战。以高清视频和高分辨率图片为例,尽管其片段极短,却可能因超出技术限定而不符合合法使用标准。对此,短视频平台应引入比例原则对引用行为进行价值衡量。具体而言,目的正当性要求引用须服务于批评、教育或创意表达等具有公共价值的目的;适当性原则强调使用方式应与目的相匹配,避免过度引用;必要性原则则要求在多种实现路径中选取对权利人损害最小的方式;均衡性原则则要求引用目的在权利价值权重上不低于被引内容本身。

(三)混合规制:法律科技的二元治理模式

短视频算法推荐不应仅停留在科技向善的伦理约束,还需通过法律与科技的深度融合,为各应用环节创设明确的合规准则,以推动算法推荐的价值实现。本文将这种法律规范与技术机制相结合的治理路径称为法律科技二元治理模式。一方面,从法律价值上看,短视频算法推荐的规制是以价值约束行为,旨在规避算法推荐对现有法秩序和价值体系的冲击,保障用户权益与公平竞争机制。另一方面,从技术环节上看,平台短视频算法推荐技术涉及内容收集、内容分析审核、用户标签提取、内容推荐和内容复审等环节。短视频推荐结果的实现并非单纯依赖算法模型,而是各技术环节形成闭环运作的结果。

1.内容收集阶段:履行告知义务

在内容收集阶段,短视频平台需履行算法推荐的告知义务。短视频平台通过构建涵盖个人信息、商业数据与公共数据的海量数据库,为个性化推荐提供技术支持。不过,数据内容收集容易侵犯用户隐私权和企业商业秘密,因此,告知义务不仅是算法推荐透明化的必要条件,也是保障用户权益的前置措施。短视频算法推荐应用的告知方式,应以社会公众能够理解的形式作出。比如,我国《个人信息保护法》第17条第1款第2项与《互联网信息服务算法推荐管理规定》第16条规定,平台在收集处理个人信息前,应以显著方式、清晰易懂的语言告知数据信息的基本原理、目的意图、处理方式和运行机制等。这种公开透明的告知方式,旨在增进社会公众对算法推荐机制的理解与信任。例如,平台可通过信息提示框、用户协议或简洁的交互界面,向用户展示算法推荐应用的核心逻辑,从而避免因信息不对称导致的权益争议。不过,倘若算法推荐技术的基本原理和运行机制的告知有可能侵犯平台商业秘密,平台有权以保护知识产权为由提出抗辩。2020912日起施行的《最高人民法院关于审理侵犯商业秘密民事案件适用法律若干问题的规定》将算法推荐技术纳入技术信息的范畴,使其成为商业秘密的保护客体。例如,在凌某某诉北京微播视界科技有限公司案中,北京互联网法院认为,若算法推荐技术构成平台的商业秘密,则告知算法推荐技术运行机制不再是保护个人信息的必要措施。

2.内容分析审核阶段:剔除低质内容的审核义务

涉黄、低俗、谩骂、煽动性等低质内容的识别与剔除,是短视频平台净化网络环境和合规的重要工作。在内容分析审核环节,短视频平台收集的海量数据内容并非直接推荐给用户,而是按照不同类别的内容进行标签化分析处理。比如,抖音平台根据内容主题,将数据划分为生活记录、知识科普、影视娱乐等类别,并在此基础上进一步细分为子分类,如体育类别下细分为足球、篮球等项目,而足球类别还可根据国别进一步划分为国际足球和国内足球。这种层级化的分类和标签处理,不仅提升了内容组织的有序性,还为后续内容与用户的精准匹配提供了技术支持。

在内容分类完成后,短视频平台通过算法推荐技术对数据内容进行审核,以识别和剔除低质内容。这一过程确保了算法推荐的安全性与合法性。短视频平台通过构建智能算法模块,如鉴黄模型、低俗信息检测、谩骂识别及煽动信息筛查,能够以低成本、高效率的方式实时清除不良内容。审核范围不仅限于视频内容本身,还覆盖评论区的用户留言,从而实现内容生态的全面净化。在传统审核模式下,完全依赖人工对海量动态增长的短视频内容进行事先审查,会耗费巨大的时间、人力和财力成本。借助智能化审核技术,平台不仅可以实时高效地完成低质内容的筛查,还可以通过建立短视频不良信息数据库,进一步提高审核精度和效率。此外,平台之间可探索不良信息数据库的共享机制,形成行业协作网络,从而提升低质内容识别与剔除的整体效能。

3.用户标签提取阶段:赋予个人删除权和拒绝权

在用户标签提取环节,短视频平台应赋予用户删除权与拒绝权,以应对算法推荐带来的潜在不利影响。算法推荐依赖用户行为、身份等数据精准构建个体标签,虽然有助于降低信息搜寻成本、提升供需匹配效率,但标签滥用也可能引发算法歧视成瘾性算法推荐等问题,侵蚀用户权利与公共价值。

一方面,算法歧视表现为平台基于对用户兴趣、经济状况、社会身份等信息的分析,实施区别性推荐与差别化对待。用户标签构成其算法身份,但由于算法决策缺乏透明性,平台主导地位强势,算法歧视易于滋生。例如,大数据杀熟通过价格歧视与定向推送实现流量变现,用户在缺乏知情与选择的前提下被动接受内容分配,选择权与公平权遭到削弱。同时,算法黑箱结构也使用户维权路径受阻,缺乏有效的申诉与救济机制。

另一方面,成瘾性算法推荐通过极端内容推送、信息隔离与稀缺制造等手段诱导用户沉迷,形成负面社会影响。其主要表现可以归纳为以下三方面。其一,平台推送暴力、色情、犯罪等内容,违反公序良俗并干扰舆论环境;其二,用户长期被推送同质信息,陷入信息茧房回音气泡,削弱认知多元性,加剧舆论极化;其三,平台通过限时抢购、倒计时折扣等方式制造人为稀缺,操控消费心理,诱发非理性消费,损害用户的自主选择。

为防范上述风险,平台应在用户标签生成与使用过程中建立公平透明机制,赋予用户删除和拒绝标签的权利,保障其知情与控制权。正如欧盟《通用数据保护条例》第22条所确认的,个人在涉及其重大权益的情境中,有权拒绝完全依赖自动化决策。该制度设计不仅回应了技术风险,也为维护用户尊严与数字公平提供了制度支持。

4.内容推荐阶段:热门短视频负有较高注意义务

在内容推荐环节,短视频平台对热门短视频负有更高的注意义务。在短视频传播中,算法推荐通常以点击率、评论、点赞、收藏等作为权重,通过机器学习和训练模型精准匹配用户兴趣,从而推送其可能最感兴趣的短视频。热播的影视剧、火爆的体育赛事、知名博主的作品、文学大家的著作以及著名歌手的音乐作品,往往因被大量点赞、转发、评论而成为算法推荐的核心目标。得益于算法推荐的助力,热门的作品容易获得更多的流量和注意力。然而,热门短视频的高流量属性也使其更易成为侵权的重灾区。由于热门作品通常具有较高的经济价值和显著的时效性,在传播的黄金期内,若未能有效防范侵权行为,著作权人的权益将遭受重大损失。

鉴于此,短视频平台作为算法推荐的提供者,需对热门短视频履行更高的注意义务,而不能单纯依赖通知删除规则作为免责理由。热门短视频的高流量、高关注属性决定了短视频平台需从技术、人工审核和异议申诉机制三个层面履行更高注意义务。一是,技术手段的运用是平台履行高注意义务的基础。平台应主动运用热门关键词过滤器”“视频指纹提取技术”“内容全文对比等先进的版权筛查技术,自动化检测、识别和删除构成侵权的热门短视频内容。此外,这些技术手段应针对侵权高发内容进行动态监控,以提升识别精度和效率。二是,人工审核的介入则是技术筛查的有力补充。短视频平台需配备专门的人工审查团队,对热门短视频进行实时人工审核与把关。人工审核可弥补技术手段的不足,确保侵权内容在传播初期便得到有效控制,从而减少权利人的潜在损失。三是,异议申诉机制的建立是平衡权利人保护与用户权益的重要环节。在履行高注意义务的同时,平台也需平衡用户权益,为被删除内容的上传者提供异议申诉的救济渠道。具言之,平台在删除涉嫌侵权的热门短视频时,应弹出异议申诉的选项菜单,为用户提供简便的申诉流程。上传者可以说明删除行为的不合理之处,平台则需配备专门人员对申诉理由进行审核,确保删除行为的正当性与合理性。平台应建立高效的反馈机制,及时处理用户申诉,并确保争议内容在合理时限内得到公正解决。

综上,通过技术、人工审核和申诉机制的协同治理,短视频平台可逐步形成对热门短视频推荐的全过程检测机制。这不仅有助于减少侵权行为,也能够为短视频传播营造更加有序的生态环境,最终实现平台、权利人和用户之间的利益平衡。

短视频算法推荐侵权纠纷的背后,折射出平台对流量经济”“注意力经济的争夺。超级短视频平台凭借数据流量超强规模呈现赢者通吃的竞争样态,进而导致用户个人社会福利减损与市场垄断的加剧。短视频算法推荐既改变了信息传播范式,也引发了著作权侵权泛化的危机。在辨别短视频算法推荐的侵权风险过程中,既需明确非职业创作者与职业内容创作者的主体差异性,也应认真对待传播效率和许可效率的不同价值取向。在Web1.0时代,避风港规则与技术中立作为网络服务提供者的免责事由,在促进信息传播并保障公众表达自由方面发挥了重要作用。不过,避风港规则在短视频算法推荐的适用中出现失灵现象。超级短视频平台拥有绝对的支配力、影响力和控制力,它们处于类似行政管理机构的私权力主体地位。短视频算法推荐的法律规制,应立足我国本土版权产业与互联网产业的特色现状,可从主体规制、行为规制和法律科技混合规制的三个维度进行考量,引入超级短视频平台的守门人制度,确立推定合法使用短视频的行为标准,合理设置短视频平台算法推荐各阶段的义务。


因篇幅限制,已省略注释及参考文献。

引注:李晓宇:《短视频平台算法推荐侵权的体系化规制》,载《河北法学》2025年第6期,第147-163页。



地址:河北省石家庄市友谊北大街569号

Copyright© 2004-2005 All Rights Reserved 冀ICP备11009298号