前言
今年春节档强势上映了武侠电影《镖人:风起大漠》,该部电影是由袁和平执导,吴京、谢霆锋、于适、陈丽君、孙艺洲、此沙、李云霄领衔主演,梁家辉特别演出,张晋、惠英红、张译友情客串,刘耀文、熊瑾怡、莒谦朗、白那日苏、梁壁荧、文俊辉、董思成主演,于2026年2月17日在中国大陆上映。影片改编自许先哲同名漫画《镖人》,讲述了行走于西域大漠的镖客刀马受恩人莫族长委托护送神秘人知世郎回长安,途中遭到暴乱胡商家族围剿,莫族长为维护刀马曾救下罪臣遗孤小七的左骁骑卫身份而殒命,由此揭开小七与刀马宿命羁绊的故事。
笔者作为武侠片爱好者,第一时间走入电影院观赏,整体来说中规中矩,武侠打斗观赏性很强,也是旧式武侠片和武侠精神的一种赤诚回归,虽然《镖人》并非完美之作,剧情剧本存在明显硬伤,影片虽尽力忠于原著,却对隋末乱世格局、各方势力纠葛等核心背景交代模糊,非原著观众极易看得一头雾水,人物动机与故事逻辑也略显单薄,文戏的短板着实令人遗憾。但即便如此,我依旧愿意为《镖人》打出五星好评。这部作品是武侠片最真挚的回归,吴京、李连杰、张晋等一众功夫影星齐聚,再加上陈丽君、李云霄等越剧演员跨界加盟,戏曲功底与武侠动作完美融合,叠加多位实力派明星和流量明星,尽显主创满满的诚意。影片全程实拍,拒绝敷衍特效,武打动作拳拳到肉、酷炫利落,刀光剑影间满是中式武侠的硬核质感,每一场打戏都堪称视觉盛宴。
2026年2月12日,字节跳动正式上线新一代AI视频生成模型Seedance 2.0,并接入旗下生成式AI创作平台“即梦”以及豆包App,将视频特效卷到了地板价,其卓越的自动化剪辑、素材匹配和特效叠加功能可根据文本或图像创建电影级视频,用户只需编写详细提示或上传一张图片,即可在60秒内生成带有原生音频的多镜头序列视频,人人都能创作好莱坞短片。在2026年春节联欢晚会上,十二花神图惊艳全场,一人一花一典故,当诗词意境、历史传说撞上现代科技,每一帧都美成壁纸。AI视频技术,具象了穿越古今的浪漫。
当前,站在AI时代的关口,这份手作诚意更显珍贵,未来AI能分分钟生成华丽武打,看似压缩成本,却可能彻底终结武侠片的黄金时代,一想到这部诚意满满的《镖人》或许是这些老牌武打电影人最后一部肉身拼搏的手工作品,便满是扼腕叹息,AI对武侠片乃至整个电影行业的冲击难以抵挡,但无论技术如何迭代,都应尊重前辈们打下的武侠根基,守住法律与商业道德的底线,别让这份承载着情怀与匠心的武侠魂,彻底消散在算法的洪流里。
目前来看随着以Seedance 2.0为代表的AI视频生成工具的普及,一方面提高了创作的效率,但是另一方面也隐藏着显而易见的法律风险,3月15日,据媒体消息,字节跳动宣布暂停其最新视频生成模型Seedance 2.0的全球发布计划。该决定源于公司与好莱坞多家大型制片厂及流媒体平台之间爆发的一系列版权纠纷,其中迪士尼上月已向字节跳动发送停止侵权函,指控其在未经许可的情况下使用迪士尼角色训练AI模型。此前Seedance 2.0生成的视频在中国网络走红后引发争议,其中包括一段汤姆·克鲁斯与布拉德·皮特打斗的片段。迪士尼指控字节跳动为Seedance预装了盗版版权角色库,涵盖《星球大战》《漫威》等系列IP,并将这些角色伪装成公有领域素材。字节跳动原计划于3月中旬向全球用户推出该模型,但目前相关计划已暂停。公司法务团队正在排查并解决潜在法律问题,工程师也在增加防护机制,防止模型生成可能引发更多知识产权侵权的内容。上月,在美国多家制片厂发出法律诉讼威胁后,字节跳动曾表示将采取措施防止其AI视频生成器被未经授权地用于侵犯知识产权。与此同时,在我国,司法部部长贺荣12日在十四届全国人大四次会议第三场“部长通道”上表示,今年将进一步加强重点领域、新兴领域、涉外领域的法律法规制度供给,其中重点就是推进人工智能领域的立法。由此也可以看出,AI相关的法律问题已经是迫在眉睫提上日程的事情,后续我们也会持续不断关注。
两个看似毫无关联的事件引起了我们的思考,本文尝试依据现有法律框架内容讨论AI视频生成技术的法律风险边界,并结合典型案例,为创作者、平台及监管方提供合规参考。
一、当前AI视频侵权案例及司法裁判要旨概述
1.长沙:《庆余年》一键成片案
在《庆余年》一键成片案中,被告度加公司通过AI功能将《庆余年》切成3-7秒短视频,存储在服务器上供用户使用,湖南市中级人民法院认定构成对原告腾讯公司的信息网络传播权的直接侵权,判决赔偿80万元。
核心观点:作为AI服务的提供者,某网络公司没有履行应尽的注意义务,也没有建立有效的知识产权侵权风险防范机制。具体问题包括:1.投诉举报机制不完善;2.AI功能存在侵权风险:软件的AI功能可以根据用户指令自动剪辑影视作品片段,但被告没有证明他们设置了拒绝机制或其他措施来避免侵权;3.侵权应对策略未持续更新。直到开庭前,软件中仍然能搜索并播放《庆余年》的片段,某网络公司没有及时采取措施阻止侵权行为。因此,某网络公司通过AI功能传播《庆余年》片段的行为存在明显过错,侵犯了原告的信息网络传播权。
该案承办法官表示:当前生成式人工智能技术正飞速迭代演进,现有法律规定的网络服务提供者类型与生成式人工智能服务提供者的特性并不完全契合,故应依据《中华人民共和国民法典》等相关规定,将过错责任原则作为认定侵权的核心裁判规则。同时,鉴于生成式人工智能技术尚处于不断成熟的发展初期,不宜强加一般性审查义务,以免过度抑制技术创新。在评估生成式人工智能服务提供者是否存在过错时,需全面权衡技术的当前发展阶段、行业普遍认知以及技术实施的可操作性等核心要素。既尊重生成式人工智能技术特点,又划定生成式人工智能服务提供者的侵权责任认定边界。
2.北京:《山海奇镜》预告片案
在《山海奇镜》预告片案中,原告创作者“闲人一坤”通过AI工具制作预告片,被告抖音主播“文刻创作”直接复制发布,原告认为被告完全复制原告预告片的文案、配音、音乐,并通过AI工具对预告片的镜头进行修改。侵权动画在镜头内容、形象造型、色彩搭配、画面布局等整体视觉效果以及画面局部细节特征,均与原告作品一一对应并具有高度相似性,被告抄袭原告作品且声称侵权作品为其原创,删除原告署名并篡改来源,原告主张停止侵权并赔偿50万元,目前该案仍在审理,但抖音平台已删除涉案视频。
目前这个案件引发了广泛关注,原告制作预告片的过程虽然借助AI工具,但是其实过程非常复杂,首先是提示词优化,然后说概念图生成,再次是图转视频,每个阶段需要使用不同AI工具接力绘制,而且历经多次修正。原告描述在视频生成阶段使用PixVerse工具,这是一个提供包括图生视频及文生视频功能在内的多模态输入AI,其实问题的核心可能在于提示词的问题,提示词驱动的AI生成内容是否可受版权保护是目前争议最大的一个问题,目前该案尚在审理之中,我们持续关注。
3. 英国:Getty Images v. Stability AI 案
在Getty Images v. Stability AI 案件中,Getty指控Stability AI在训练Stable Diffusion模型时,未经授权复制其数百万受版权保护的图片(包含元数据),用于生成包含Getty水印的图像,构成直接/间接版权侵权。2025年11月4日,英格兰和威尔士高等法院(EWHC)作出判决,在英国司法层面明确生成式人工智能(AI)在训练模型生成内容上不必然构成版权侵权。乔安娜·史密斯法官(Mrs Justice Joanna Smith DBE)在判决中指出,Stable Diffusion等AI模型由于并未存储或复制受版权保护作品,不属于《版权、外观设计与专利法》(CDPA)第22条与第23条意义下的“侵权复制品”。史密斯法官认为,尽管Stable Diffusion模型权重在训练阶段曾接触受版权保护的图像,但并未保留或再现这些作品的内容,因此模型本身不是侵权复制品,也不构成版权侵权。
除了版权侵权指控,Getty Images还指控Stable AI商标侵权。Getty的指控主要针对Stable Diffusion生成的图像中出现的Getty Images商标与iStock水印,最终判决结果支持了Getty的部分商标侵权主张,但范围仅限于带水印的特定图像。
史密斯法官的判决中明确了,当Stable Diffusion等人工智能模型没有存储或复制受版权保护的作品时,则不构成CDPA下的版权侵权,该案的后续效应可能影响英国乃至欧盟在AI监管框架中的政策以及司法取向,或将成为全球各国法院在处理类似案件时的重要参考。这一判决被视为英国在AI与知识产权交汇领域的重要判决。
4.上海:AI提示词案
当前来说,之所以争议很大的还有一个很重要的原因在于传统著作权法体系项下的思想表达二分法问题,在以往的著作权侵权领域尤其涉及影视层面,思想表达二分法就一直是充满争议的地带,在进入到AI领域之后,这类问题随着技术的介入更加扑朔迷离。近日,上海市黄浦区人民法院对上海首例涉AI提示词著作权侵权案作出一审判决,该案将争议核心锁定于输入端,围绕提示词是否具备作品独创性、是否属于“表达”等问题展开论证。
OpenAI在其官方文档中阐述,提示词是“提供给模型的输入,用以引导其生成文本、代码或其他输出”。在各类AI软件的应用情景下,提示词主要涉及对主题、风格、细节、构图等多维度元素的综合描述,但是提示词本身的法律属性目前迎来了新的难题,究竟是功能性的“操作指令”,还是具备独创性的“表达”,这种定性问题直接牵涉到后续的维权路径和请求权基础,成为著作权法必须直面的新问题。
在这个案件中,上海黄浦区法院认为,提示词缺乏著作权法要求的“独创性”。著作权法保护的“独创性”,核心是作品需体现作者独立的智力判断与选择,形成具有个性化的表达。而涉案提示词仅能以词或短语形式呈现,本质上只是引导AI生成内容的“指令集合”,并没有体现出独特的创作思路与个性化表达,自然不符合“独创性”的核心要求。
除此之外,上海黄浦区法院认为,提示词属于“思想”范畴,而非“思想的外在表达”。著作权法的核心原则是“思想与表达二分法”,即法律仅保护将思想转化后的具体表达,而不保护思想本身、创作构思、方法等抽象内容。涉案AI提示词本质上是原告对目标图片的创作构思描述,这只是抽象的创作意图与思路,并未通过文字、图像等载体转化为可感知、可复制的具体表达。这种纯粹的构思描述,显然不在著作权法的保护范围内。
综合来看,涉案AI提示词因缺乏独创性、属于思想范畴,不满足作品构成要件,无法获得著作权保护。
以上的案例主要是涉及到知识产权领域,除此之外,还有涉及人格权的纠纷也值得关注,2026春节期间AI合成明星拜年视频泛滥,央视网援引《民法典》及专家意见指出:人脸、人声作为生物识别信息,属于法律保护的敏感个人信息。未经授权使用名人肖像或声音合成拜年内容,直接侵害当事人肖像权及参照肖像权保护的声音权。即便合成视频标注“AI制作”或用于非商业目的(如亲友传播),只要未取得被仿名人单独同意,均可能构成侵权。同一时期,杨幂工作室披露新增60件相关侵权案件进展,并在2026年2月12日将之前抖音AI视频侵权案胜诉细节公开,凸显公众(特别是名人)对AI合成技术的伦理焦虑与维权诉求。
技术中立不是免死金牌,利用AI合成抄袭作品或伪造他人人格标识的,依法承担侵权责任。透过上述案例,我们不禁要问:AI视频的权利范围和风险边界在哪里?
二、当前法律框架下AI视频的法律规制
在 AI 视频生成内容的监管方面,我国未形成严密的法律框架,尚在探索完善阶段:
《网络安全法》主要规范 AI 视频内容的网络传播安全,要求生成内容不得含有违法不良信息,平台需履行内容审核与管理义务,防止利用 AI 视频危害国家安全或扰乱社会秩序。
《数据安全法》重点关注 AI 视频模型训练及运行过程中的数据安全管理,特别是语料数据来源的合法性、分类分级保护以及重要数据出境的安全评估。
《个人信息保护法》则聚焦于 AI 视频涉及的人脸、声音等生物识别信息的处理,要求处理敏感个人信息需取得个人单独同意,不得非法制作、使用、公开他人肖像,防止“换脸”、“换声”等技术侵犯公民人格权益。
《互联网信息服务深度合成管理规定》将 AI 视频生成纳入深度合成服务监管,要求服务提供者进行算法备案及安全评估,并对生成内容进行显著标识;
《生成式人工智能服务管理暂行办法》针对 AI 视频生成服务提出了训练数据合法、内容真实准确等具体要求,强调尊重知识产权,不得侵害他人依法享有的知识产权。
《人工智能生成合成内容标识办法》强制要求 AI 生成视频必须进行显著标识,防止公众混淆;
《网络信息内容生态治理规定》进一步明确了 AI 视频内容生态治理的责任主体,禁止利用 AI 技术制作传播虚假新闻或侵权视频。
三、AI视频的法律风险分析
1.素材来源风险
若生成视频使用的训练数据包含未经授权的影视素材或个人作品,可能侵犯著作权;若使用未经肖像权人同意的面部图像,或利用AI技术伪造他人肖像,将侵犯肖像权;若使用未经授权的声音或者AI克隆明星声音用于视频配音,可能侵犯声音权;如果直接截取影视片段或高度模仿独创性表达(如分镜、台词),又将侵犯改编权。
2.合成内容风险
若AI生成视频直接提取或高度模仿原作品独创性表达,将构成对信息网络传播权和改编权的侵害;视频内容未在显著位置标识“当前为AI生成内容”,或是短视频内容经多平台转发后标识被二次编辑移除(如去水印工具),将触发监管处罚风险。若用户仅输入简单指令(如“一键生成拜年视频”),AI生成内容缺乏人类实质性智力投入,难以获得著作权保护。如何量化用户对AI生成内容的智力贡献以判断是否达到独创性要求,仍处于探索阶段;
3.平台传播风险
依据《互联网信息服务深度合成管理规定》,提供人脸、人声编辑功能的平台必须履行三重义务:其一,显著提示义务要求用户告知被编辑个人;其二,单独同意机制需取得被仿者明确授权;其三,全流程管理需建立事前提示、事中审核、事后追溯机制。平台必须对用户生成内容履行审核义务,否则可能承担连带责任,若未及时删除侵权内容(如杨幂工作室起诉的侵权视频),需对损害扩大部分承担连带责任。
四、技术中立抗辩与算法可解释性的区别与联系?
在各地互联网法院陆续公布的AI侵权类案例中,我们可以发现:法官视角下,单纯主张技术中立抗辩已难以成立,如果技术设计存在侵权诱导性,将直接推翻中立性,司法审查的重点在于平台是否具有主观过错、技术设计是否诱导侵权、平台是否履行必要注意义务等等。技术中立不再是无往不利的避风港,而是需要主动证明的合规状态,算法可解释性从技术需求逐渐升格为法律义务,技术中立是结果,算法可解释性是路径,企业必须将可解释性设计前置到AI开发环节,通过算法可解释性佐证技术中立,才能真正获得法律保护。
五、作品层面的合理使用 VS数据层面的合理使用
作品的合理使用源于《著作权法》第24条,适用于生成结果,举证责任由侵权内容使用者(创作者)承担;数据的合理使用源于《个人信息保护法》第13条及“数据二十条”相关文件精神,适用于训练过程,举证责任由AI模型训练者(平台或开发者)承担。当训练数据来源不合法时,AI生成内容的独创性是否存疑?未建立数据来源追溯机制的模型,其生成内容是否推定存在侵权风险?毒树之果的难题仍在热议,但著作权与数据的双重合规是各界共识,否则一个视频可能同时触发数据侵权与作品侵权的双重诉讼并面临高额赔偿。
同时值得一提的是,鉴于著作权法认定侵权的标准相对严苛,而AI工具建立在大语言模型对海量作品进行数据训练的基础上,其内在的算法逻辑导致直接输出与训练素材近似内容的概率非常低(除非刻意为之),而前文来看AI提示词以及数据训练行为也更多被纳入合理使用或思想范畴,因此哪怕生成的内容感官上十分相似,真正意义上的原创作者无法对这种内容生成行为主张著作权保护,如果同时亦未能从数据训练中获得任何收益与回报,这非常有可能导致架空著作权法体系的根基和核心。因此基于此,笔者认为既然大语言模型在数据训练的过程中使用了海量的素材,其中涉及不少受到著作权保护的作品,既然数据收集整理、模型训练以及模型微调等阶段均涉及对人类已有的智力成果的复制、演绎和修改,那么按照著作权法的法理逻辑与制度规范,大语言模型开发者以及用户使用者应该获得相关作品著作权人的许可并支付报酬才能进行数据训练,设定针对数据训练的知识生产者补偿机制,是现阶段实现利益平衡的妥当方案,这样才是不断绝根基的办法和途径。
六、当前合规建议
1.AI生成内容标识
平台应强制要求所有AI生成视频添加显性水印和隐性标识,建立水印检测系统,对未添加标识的AI生成内容进行拦截和处理;开发者应将水印技术嵌入AI生成工具,确保内容生成时自动添加标识。
2.训练数据合法授权
开发者应建立训练数据溯源系统,记录数据来源、获取方式和授权状态;开发者或用户应与版权方签订书面授权协议,明确使用范围、地域、期限、派生与再授权等条款;开发者对训练数据进行合规审查,排除未经授权的内容。
3.平台严格管理
建立AI视频内容实时监测系统,对明显侵权内容进行自动拦截;根据使用场景和目的,实施分级授权管理,区分个人学习、研究与商业用途;开发内容查重系统,对用户上传内容进行相似度比对;设置提示词过滤机制,对明显涉及侵权的关键词进行拦截;建立肖像黑名单,对高知名度人士的肖像特征进行保护性过滤等。
4.创作者合规使用
自行留存或要求平台保存AI生成内容的创作过程记录,包括提示词修改日志、分镜设计草图等,作为证明独创性的证据;创作过程中仅使用平台授权人脸库或AI生成无特征虚拟人,影视片段采用CC0协议或使用正版素材库,音乐和字体使用AI工具内置免版税资源;进行风险自查,使用多种渠道验证肖像权与版权风险;在视频起始画面和视频播放周边的适当位置(或在视频末尾和中间适当位置)添加“AI生成”显著提示标识,确保公众能够清晰识别等等。
七、结语
AI视频生成技术正在重塑内容创作的边界,为创作者带来前所未有的便利,同时也带来了更复杂的法律风险。对于创作者而言,应充分认识AI视频生成的法律风险,尊重他人知识产权,合法使用肖像和声音,规范记录创作过程,为可能的著作权保护奠定基础。对于平台而言,需建立完善的AI内容审核机制,部署严密的筛查检测技术,履行内容标识义务,明确平台责任边界,在技术创新与法律合规之间找到平衡点。
万物皆有其律,技术创新与法律规制的竞速已成为时代命题。未来的现象级内容,不仅诞生于算法的突破,更根植于对法律边界的精准丈量,唯有将合规基因植入创作源头,方能在AI浪潮中构筑真正的护城河。
本文作者

赖宁律师
专业领域:数据合规、公司股权、民商事争议解决

(卓建名片)

丁涛律师
卓建律所合伙人
专业领域:文化传媒娱乐体育、公司商事纠纷、投融资并购、知识产权 。

(卓建律师名片)
来 源|赖宁、丁涛
审核|高记源、品宣部
编辑|卓小豸