2026年4月28日,国家互联网信息办公室(以下简称“国家网信办”)指导属地互联网信息办公室,依法对“剪映”App、“猫箱”App及“即梦AI”网站采取约谈、责令改正、警告、从严处理责任人等处置处罚措施。根据国家网信办通报,近期网信部门工作中发现,上述网站平台存在未有效落实人工智能生成合成内容标识规定要求等问题。这一监管动作是《人工智能生成合成内容标识办法》自2025年9月1日正式施行后,监管部门对违规企业进行的首次公开点名执法处罚,向AI行业传递了清晰信号:AI生成合成内容的合规管理正在进入严格落地的实操阶段。
一、 涉事平台基本情况与违规事实
本次被查处的三家平台覆盖了视频编辑、AI角色互动及多模态AI创作等主流AI应用场景。
“剪映”App:由字节跳动旗下深圳市脸萌科技有限公司运营,是一款集视频剪辑、特效、AI功能于一体的国民级视频编辑工具。其提供的“AI文字成片”、“AI音乐”、“数字人”等功能均属于《人工智能生成合成内容标识办法》所界定的人工智能生成合成服务。根据通报,该平台未对其生成的内容进行有效标识。
“猫箱”App:由北京春田知韵科技有限公司开发,是一款专注于AI角色对话与创作的应用程序。其核心功能包括基于Stable Diffusion模型的AI绘图、多角色协同演绎对话等。该应用同样因未对其AI生成的内容(如图片、对话文本)进行有效标识而被查处。
“即梦AI”网站:同样由深圳市脸萌科技有限公司运营,是一站式AI创作平台,支持文生图、图生图、文生视频、智能画布、数字人等多种AI生成功能。该平台作为专业的AI内容生成工具,未能履行法定的内容标识义务。
国家网信办的通报明确指出,上述平台的行为违反了《中华人民共和国网络安全法》、《生成式人工智能服务管理暂行办法》以及《人工智能生成合成内容标识办法》等法律规定。
二、 监管依据:明确的法规与标准要求
此次执法的直接依据是于2025年9月1日起正式施行的《人工智能生成合成内容标识办法》(以下简称《标识办法》)及其配套强制性国家标准《网络安全技术 人工智能生成合成内容标识方法》。
《标识办法》由国家互联网信息办公室、工业和信息化部、公安部、国家广播电视总局四部门联合发布,旨在规范人工智能生成合成内容标识,保护公民、法人和其他组织合法权益,维护社会公共利益。
该办法对AI生成内容的标识提出了明确且具体的技术与管理要求:
双轨标识制度:要求对人工智能生成合成内容同时采用“显式标识”和“隐式标识”。
显式标识:指在生成合成内容或交互界面中添加的、能被用户明显感知的标识。例如,对于视频内容,需在起始画面和播放周边添加显著提示,标注时长不得少于2秒;对于图片,需在适当位置添加显著提示标识。
隐式标识:指采取技术措施在生成合成内容的文件元数据中嵌入的、不易被用户明显感知的标识,需包含生成合成内容属性信息、服务提供者名称或编码、内容编号等制作要素信息,确保内容全程可追溯、不可篡改。
平台主体责任:提供生成合成服务的平台需建立并执行“用户主动声明、系统自动检测、人工复核核验”三重审核机制,不得放任未标注的AI生成内容传播。互联网应用程序分发平台在上架审核时,也需核验应用是否提供AI生成合成服务及相关标识材料。
用户义务:用户使用网络信息内容传播服务发布生成合成内容时,应当主动声明并使用服务提供者提供的标识功能进行标识。任何组织和个人不得恶意删除、篡改、伪造、隐匿规定的生成合成内容标识。
此次对“剪映”等平台的查处,正是对上述法定义务未得到有效履行的直接回应。
三、 行业背景与监管脉络
此次执法行动发生在我国生成式人工智能应用高速发展与监管体系加速完善的交汇点。
用户规模庞大:根据中国互联网络信息中心发布的第55次《中国互联网络发展状况统计报告》,截至2024年年底,中国的生成式人工智能产品用户规模已达到2.49亿人。海量用户基数和广泛的应用场景使得AI生成内容的规范管理变得尤为紧迫。
法规体系逐步完善:近年来,我国迅速构建起覆盖合成技术、生成服务与内容标识的多层次治理体系。从2023年1月《互联网信息服务深度合成管理规定》的实施,到同年7月《生成式人工智能服务管理暂行办法》的发布,再到2025年9月《标识办法》的施行,监管框架日益严密。
专项行动持续深化:中央网信办自2025年起部署开展“清朗·整治AI技术滥用”专项行动,第一阶段即重点强化AI技术源头治理,加强AI生成合成技术和内容标识管理。各大互联网平台也积极响应,如抖音于2026年4月发布专项治理公告,累计下架AI侵权视频超53.8万条,处罚违规账号4000余个。腾讯、百度、人民网等也推出了“青禾守护”、“清流鉴”、“天目”等技术治理工具。
在此背景下,对“剪映”、“猫箱”、“即梦AI”等具有广泛影响力的平台进行公开执法,具有明确的示范和警示意义。证券时报的评论指出,这标志着AI生成合成内容须添加显式标识“绝不是一句空话,而是必须严守的法律底线红线”。
四、 事件影响与行业走向
此次查处事件对AI内容产业将产生深远影响,标志着行业治理进入“合规深耕”新阶段。
监管重点转向国民级应用:“剪映”作为拥有数亿用户的视频编辑工具,“猫箱”和“即梦AI”作为新兴AI创作平台的代表,此次被点名意味着监管视线已从技术原理和基础模型层,明确延伸至直接面向海量用户的终端应用层。用户基数大、影响力广的“国民级”AI产品将成为合规监管的重点对象。
合规成为生存与发展前提:国家网信办相关负责人明确表示,网站平台要“严守法律底线红线”,网信部门将“持续加大人工智能生成合成内容标识监督管理力度”。这意味着,能否有效落实内容标识规定,已成为AI服务提供者能否持续运营的基本前提。平台需立即进行技术整改,在产品中全面嵌入符合《标识办法》要求的标识系统。
推动全产业链技术升级:合规要求将倒逼从AI模型研发、应用开发到内容分发平台的全产业链进行技术升级。企业不仅需要在生成端嵌入标识,还需在传播端建立检测与核验能力。这推动了“用AI治理AI”的产业生态发展,如数字水印、区块链存证、多模态内容检测等技术将获得更广泛的应用。
提升公众认知与信任:强制标识有助于公众清晰辨识AI生成内容,减少混淆和误导,是重建数字信任、防范AI技术滥用(如深度伪造、虚假信息)的基础性工程。明确的标识也为后续的版权溯源、责任认定提供了技术依据。
五、 各方回应与后续展望
截至发稿,涉事平台“剪映”、“猫箱”及“即梦AI”的运营方尚未就此次处罚发布公开声明。根据国家网信办的通报,相关平台已被责令改正,并将面临对责任人的从严处理。
行业专家普遍认为,此次执法是预期之中的监管动作。随着《标识办法》的落地,执法检查将成为常态。未来,监管可能会从“标识”这一基础环节,向训练数据合规、算法安全评估、生成内容版权等更深层次延伸。同时,如何平衡技术创新与规范发展,既保护用户权益又激发产业活力,将是长期议题。
国家网信办强调,将持续深入推进依法管网治网,切实维护社会公共利益,推动人工智能健康有序发展。此次对三家平台的依法查处,正是这一治理决心在当前阶段的具体体现。对于整个AI内容产业而言,合规已不是可选项,而是必须筑牢的发展基石。
