专业文章

李凤翔、蔡成思|Seedance 2.0风波深度解析:当AI学会“导演”,法律如何划定边界?

2026-02-11
分享到

一、风波缘起:一个“恐怖”的AI评测视频


2026年2月初,字节跳动旗下AI视频模型Seedance 2.0在内测阶段便引爆了科技圈。这款被誉为“导演级”的工具,凭借其强大的多镜头叙事、精准的视频操控和音画同步能力,让人们看到了AI视频创作的巨大潜力。然而,知名科技博主“影视飓风”创始人Tim发布的一则评测视频,却将这场技术狂欢瞬间拉入了冷静的思考。


在视频中,Tim展示了几个令他感到“恐怖”的测试结果:


· 声音克隆:仅上传一张自己的静态照片,未提供任何音频数据,Seedance 2.0便生成了一段与他本人音色、语气甚至说话习惯都高度相似的配音。


· 空间补全:上传一张仅包含其公司大楼正面的照片,模型生成的运镜视频竟然能流畅地摇到大楼背面,并精准呈现出从未在照片中出现过的建筑细节。


这些发现指向一个令人不安的推论:Seedance 2.0的训练数据集中,可能包含了大量影视飓风团队公开发布的视频内容,而这一切均在创作者不知情且未授权的情况下发生。这一事件迅速发酵,将AI大模型训练数据的“原罪”问题——数据来源的合法性与个人权益的保护——再次推至风口浪尖。面对汹涌的舆论,字节跳动迅速做出反应,于2026年2月10日宣布紧急暂停Seedance 2.0的真人素材参考功能,以进行优化。


这场风波不仅是一次关于特定AI产品的争议,更是一面棱镜,折射出生成式AI技术狂飙突进背后,法律、伦理与商业利益之间错综复杂的张力。它迫使我们思考:当AI的能力边界以前所未有的速度扩张时,我们的法律边界应如何划定?


二、核心争议的法律剖析:数据从何而来,权利归于何处?


Seedance 2.0事件的核心法律争议,集中在两个层面:一是未经授权处理个人信息与侵犯人格权的问题;二是将他人享有著作权的作品用于模型训练的版权问题。这两个问题,恰好对应了AI大模型发展中最为棘手的两大法律雷区。


(一)个人信息与人格权:声音和人脸的法律红线 


Tim的评测中最令人震惊的部分,莫过于模型在没有音频输入的情况下,仅凭一张照片就合成了他本人的声音。这直接触及了个人信息保护的核心领域,特别是关于生物识别信息处理的法律规定。


根据我国《个人信息保护法》第二十八条,生物识别信息(包括人脸、声纹等)属于敏感个人信息。处理此类信息需要满足“具有特定的目的和充分的必要性”,并“取得个人的单独同意”。“单独同意”意味着,平台不能通过一揽子用户协议的方式获得授权,而必须就处理敏感个人信息这一具体事项,以明确、清晰的方式单独征求用户的同意。


此外,《民法典》第一千零三十四条也将声音明确列为个人信息。而第一千零二十三条第二款规定:“对自然人声音的保护,参照适用肖像权保护的有关规定。”这意味着,未经本人同意,不得以营利为目的使用他人声音。北京互联网法院在全国首例“AI声音权”案(殷某某诉某智能科技公司案)中,已明确认定AI生成声音只要能与特定自然人建立起一一对应的联系,该自然人的声音权益即可及于该AI声音,未经授权使用构成侵权。


在Seedance 2.0事件中,即便影视飓风的视频是公开发布的,但这并不等同于创作者同意平台提取其声音、面部等生物特征用于训练一个可以“克隆”自己的AI模型。这种处理行为显然超出了“个人自行公开”信息的合理使用范围。根据《个人信息保护法》第二十七条,处理已公开的个人信息,若对个人权益有重大影响,仍需取得个人同意。将个人声音特征模型化并用于商业服务,无疑属于对个人权益有重大影响的情形。


(二)版权与合理使用:AI训练的“原罪”与“豁免”之辩 


Tim推断其团队作品被用于训练,引出了另一个世纪难题:AI模型训练使用受版权保护的作品,是否构成侵权?


AI开发者通常会主张“合理使用”(Fair Use)作为抗辩理由。他们认为,模型训练并非为了复制或传播作品本身,而是为了学习数据中的模式、风格和知识,属于一种“转换性使用”(Transformative Use),并未直接替代原作品的市场。这种观点认为,机器学习是对作品的“非表达性使用”,不应落入著作权控制范围。


然而,权利人一方则认为,未经许可的训练行为至少构成了对作品的复制,且最终生成的内可能与原作品形成实质性相似,直接损害了原作品的潜在市场价值。例如,如果AI能完美模仿某位导演的风格,客户为何还要高价聘请这位导演呢?《纽约时报》诉OpenAI案、Getty Images诉Stability AI案等国际诉讼,均围绕这一焦点展开。


在我国,法律对此尚无明确规定,司法实践也处于探索阶段。2024年的“广州AI生成奥特曼图片案”中,法院支持了权利人对AI生成内容侵犯其复制权和改编权的主张,但因证据不足,未支持删除训练数据的请求,回避了对训练行为本身的定性,而在同一年的杭州奥特曼案件中,法院也并未直接肯定商业AI大模型平台未经授权使用版权作品作为训练数据的合法性。在我们此前发布的《训练AI,能否“合理使用”版权数据?——不同法域裁判视角的认定逻辑》中,也对合理使用这一常见抗辩结合目前的各国典型案例进行了分析。


我国《生成式人工智能服务管理暂行办法》第七条明确要求,提供者应当“使用具有合法来源的数据和基础模型”,并且“涉及知识产权的,不得侵害他人依法享有的知识产权”。但何为“合法来源”,如何界定“侵害”,依然是模糊地带。学术界有观点提出“宽进严出”的治理思路,即在输入端(训练阶段)对数据使用采取相对宽松的合理使用认定,以鼓励技术创新;但在输出端(生成阶段)对侵权内容进行严格规制,由平台承担更高的注意义务。


Seedance 2.0事件恰恰说明,当输入端的数据使用直接导致输出端能够精准“复刻”个人特征时,“宽进”与“严出”的界限变得模糊,对训练行为本身的法律审视变得不可避免。


三、平台责任与治理:从“技术中立”到“守门人”


技术本身是中立的,但技术的开发者和提供者并非没有责任。Seedance 2.0风波凸显了AI平台在数据合规与伦理治理方面不可推卸的“守门人”角色。


我国已经初步构建了针对生成式AI的监管框架,主要包括《网络安全法》、《数据安全法》、《个人信息保护法》以及《生成式人工智能服务管理暂行办法》。这些法规为平台划定了明确的责任边界,平台在提供生成式AI服务时,至少应当履行以下义务,承担相应责任。


告知与同意义务:根据《个人信息保护法》,平台在处理个人信息前,必须以显著、清晰易懂的方式告知用户处理目的、方式、个人信息种类等,并取得同意。显然,通过爬取公开视频、个人信息数据来训练一个能模拟特定个人的模型,并未满足法律规定的相关合规要求。


安全保障义务:平台需采取必要措施确保数据安全,防止泄露和滥用。当模型能够精准还原个人生物信息时,其潜在的安全风险是巨大的,平台必须承担更高的安全保障责任。


内容生产者责任:《暂行办法》第九条规定,当大模型平台被认定为人工智能服务提供者时,应当依法承担“网络信息内容生产者责任”。这意味着平台以“技术中立”为由主张其对AI工具所生成的内容完全免责难以获得法律支持,因而需要对生成内容的合法性、合规性履行更高的注意义务及承担更多的责任要求。


(一)“深度伪造”治理:从输出端到全生命周期 


Seedance 2.0的能力,本质上是一种高级的“深度伪造”(Deepfake)技术。这项技术如果被滥用,可能导致虚假新闻、电信诈骗、名誉侵权等严重社会问题。


然而,以往的监管多聚焦于内容的“输出端”,即对已生成的虚假内容进行识别和处置。Seedance 2.0事件警示我们,治理必须前移至“输入端”和“模型端”。


· 训练数据溯源:建立可追溯的训练数据管理体系,确保数据来源合法合规,是防止“毒树之果”的第一步。


· 模型能力评估:在模型上线前,对其生成能力进行严格的风险评估,特别是对生成高度逼真个人特征的能力进行限制或设置安全阀。


· 强制标识与水印:对所有AI生成内容,特别是视频和音频,嵌入不可篡改的数字水印或进行显著标识,是实现技术溯源和责任认定的关键手段。有分析指出,数码视讯等公司的数字水印技术在此背景下具有重要价值。


字节跳动此次紧急暂停“真人素材参考”功能,可以看作是业界在监管压力和舆论监督下,开始将治理重心向模型能力本身延伸的一次重要实践。


四、 结论与展望:在创新与规范之间寻求平衡


Seedance 2.0风波是一次生动的全民普法课。它清晰地揭示了在AI时代,我们每个人的数字人格——肖像、声音、行为轨迹——都可能成为被算法解构和重塑的“数据矿产”。这场争议的核心,并非要扼杀技术创新,而是要追问:在通往智能未来的道路上,我们是否为个人权利和公共安全设置了必要的“刹车”?


从法律角度看,此次事件暴露了现有法律框架在应对AI技术发展时的滞后性与模糊性。尤其在数据“合理使用”边界、平台告知义务的具体实践、以及对模型训练行为本身的规制上,仍存在大量亟待明确的法律空白。


对于AI开发者和平台而言,这无疑敲响了警钟。野蛮生长、数据“黑箱”的时代正走向终结。将数据合规、伦理审查、用户权利保护融入产品设计的全生命周期,不仅是法律的强制要求,更是企业赢得市场信任、实现可持续发展的基石。


对于创作者和普通公众,这意味着需要提升自身的权利意识。在享受技术便利的同时,更要审慎对待个人数据的授权,并勇于对侵权行为说“不”。


技术的发展不应以牺牲个人基本权利为代价。Seedance 2.0事件或许象征着AIGC从单纯的“技术炫技”阶段,正式迈入“安全与合规并重”的新阶段。


未来,我们期待立法、司法和产业界能够协同努力,在鼓励创新的同时,加快完善相关法律法规,细化“合理使用”的边界,明确平台的责任,构建一个既能促进AI技术健康发展,又能切实保护每个数字公民合法权益的治理体系。