引言
随着人工智能(Artificial Intelligence,简称AI)技术的迅猛发展和广泛应用,生成式人工智能(Generated Content AI,简称AIGC)作为人工智能技术的重要领域之一,已经成为社会和经济发展中的关键驱动力,随着技术的加速发展,生成式人工智能不断催生新场景、新业态、新模式和新市场,赋能千行百业。与此同时,其暴露出的安全风险也引发了各国监管部门的广泛关注,意大利、德国、法国、西班牙等多个国家的数据保护监管机构对ChatGPT表达担忧或发起调查。
国家网信办联合国家有关部门对于相关内容,也密集的发布了一系列的规定,例如:
《网络信息内容生态治理规定》于 2020年3月1日起施行;
《互联网信息服务算法推荐管理规定》于2022年3月施行;
《互联网信息服务深度合成管理规定》于2023年1月施行;
国务院在《国务院2023年度国家立法工作计划》中也预备提请全国人大常委会审议《人工智能法》草案。
2023年7月13日,国家网信办联合国家有关部门公布了《生成式人工智能服务管理暂行办法》(以下简称“《办法》”)。《办法》是我国促进生成式人工智能健康发展和规范应用的专门立法,界定了生成式人工智能技术的基本概念,规定了生成式人工智能服务提供者的制度要求,为生成式人工智能的健康发展指明了方向。
在笔者看来,本《办法》有许多的亮点。首先,在全文短短二十四条的规则内,多次使用了“鼓励”、“发展”、“促进”这种积极的词汇,在多条规定内都表达了鼓励创新(包含底层技术层到应用层,特别是自主创新);鼓励协作共享;鼓励国际合作等内容,向市场展现了我国监管层面对于支持人工智能技术和应用发展决心。
除此之外,《办法》中还多次用到了“等”字,在多个条款中并未框定一个的范围,从政策上给技术发展和应用层发展留出了空间,也给未来执法带来了更多可解读的灵活性。
《办法》中还给出了分级分类管理的原则,倡导更为积极和精细化的管理原则。笔者分析,对于后续的立法动态来说,我国监管部门也可能采取类似于欧洲人工智能草案(尚未通过)管理模式,进行高低风险的分级,贴合产业和业务实质进行管理。
更为重要的是,对于人工智能所可能引发的安全风险、数据来源风险、产出内容风险等合规难点,《办法》也明确了权责,列明了服务提供者应当承担的主体责任,并提供了部分解决方案和思路。
笔者对《办法》归纳如下图,建议读者一键收藏这一“太长不看版法条汇总”。
(点击查看大图)
为了更好的理解《办法》中所涉及到的主体之间的关系,下图简单地梳理了一下AIGC模型及应用的流程。
《办法》明确规定,利用生成式人工智能技术向中华人民共和国境内公众提供生成文本、图片、音频、视频等内容的服务(以下称“生成式人工智能服务“),适用本办法。
因此,不论服务者公司经营地或是服务器是否位于中国境内,只要所生成的服务向中国境内的公众开放,就会落入《办法》的适用范围。例如OpenAI旗下的产品只要下中国境内的公众开放,一样会收到《办法》的监管。
除此之外,《办法》并未对于应用层是直接或是间接通过“封装”的形式提供服务作出规定(所以将ChatGPT接入自有产品向公众提供服务也不能规避风险哦),而是将判断标准落到了是否向公众提供服务这个维度。换而言之,不论公司是以何种方式提供AI服务的,只要是以内部研发、内部自用为前提,并未向公众开放的,都暂不受《办法》的监管。
但值得注意的是,即使不受《办法》管辖,在内部适用时也要注意遵守其他法律法规的要求,遵守知识产权、网络安全、个人信息保护等相关规则。
PART 03服务提供者的责任和义务
《办法》明确了服务提供者的法律地位:网络信息内容生产者责任、个人信息处理者责任,并基于此强加一些义务,包括但不限于要求服务提供者开展必要举措保护知识产权、保护人格权、保护个人信息等第三方的合法权益,进行信息的内容向上向善管理,信息真实性、准确性管理,开展商业和市场秩序管理。
其中值得注意的是,本次《办法》对于服务提供者的责任和义务做了分级分类,分为了必须要遵守的禁止性要求和提供有效措施(并不对结果做要求)两个层面。
遵守的法律法规的禁止性要求
互联网不是法外之地,各监管机构对互联网,特别是互联网内容生产者,一直处于强监管、强关注的状态。这次在《办法》里列明的这些内容其实并非新的要求,而是融合了已经发布了的法律法规进行再次的强调。
《办法》进一步表明了“技术中立”不能成为企业不对技术生成的内容承担责任的抗辩理由,要求进一步向“技术向上、技术向善”发展。而对于人工智能的“创造者”,也就是服务提供者来说,监管也认为其应该代表“机器”承担主体责任,应当受到所在地法律的管辖,遵守已有的法律法规。这一点,在这个节点几乎在全球都达到了共识,也在本管理办法中再次明确了这一点。
总结来说,对于内容有:
不得生成法律、行政法规禁止的内容,坚持社会主义核心价值观,不得生成煽动颠覆国家政权、推翻社会主义制度,危害国家安全和利益、损害国家形象,煽动分裂国家、破坏国家统一和社会稳定,宣扬恐怖主义、极端。主义,宣扬民族仇恨、民族歧视,暴力、淫秽色情,以及虚假有害信息等;
不得利用算法、数据、平台等优势,实施垄断和不正当竞争;
不得危害他人身心健康,不得侵害他人肖像权、名誉权、荣誉权、隐私权和个人信息权益;
不得收集非必要个人信息,不得非法留存能够识别使用者身份的输入信息和使用记录,不得非法向他人提供使用者的输入信息和使用记录。
提供有效措施的义务
主要明确了服务提供者需要额外采取的举措,这一点也是需要服务提供者需要特别注意的,企业应当尽快配合《办法》提出的要求,做好内部体系建设、治理和文件制定工作,具体规定如下:
规则上
1、制定防止歧视的措施;
2、提升服务透明度,制定提高内容准确性和可靠性的措施;
3、数据标注——制定并公示清晰的标注规则,人员培训和监督规则,定期的数据标注质量评估报告;
4、与注册的使用者签订服务协议;(这里特别提到了注册使用者,实务上监管可能会提出未注册的游客不得使用服务的要求)
5、正确适用的引导性规则,明确并公开其服务的适用人群、场合、用途,指导使用者科学理性认识和依法使用生成式人工智能技术;
6、制定未成年防沉迷举措;
7、制定投诉、举报机制,并设立便捷入口。
技术上
1、保证服务的安全、稳定、持续;
2、要有发现违法内容的能力,并能够采取措施进行整改;
3、要有优化内容质量,提高准确性和可靠性的能力。
前置性要求
与征求意见稿不同的是,《办法》并未一刀切的要求所有服务提供者都进行备案。但是根据第17条的规定,并结合《互联网信息服务算法推荐管理规定》《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》《互联网信息服务深度合成管理规定》,提供具有舆论属性或者社会动员能力的生成式人工智能服务的,应当开展安全评估,履行算法备案手续。
PART 04服务使用者的责任和义务
虽然管理办法中没有赘述,但根据《办法》第4条的规定,服务使用者也并不能以使用的是AI生成的内容、或是“不知情”为由来逃避法律法规的监管。
例如,服务使用者转载基于深度合成服务制作发布的新闻信息的,应当依法转载互联网新闻信息稿源单位发布的新闻信息。
PART 05总结
如何在技术创新与公共利益之间、在发展与安全之间取得平衡,是生成式人工智能等新技术、新应用向全人类提出的时代性挑战。《办法》作为全球范围内首部专门针对生成式人工智能的立法,迈出了第一步,各国立法也在紧锣密鼓的推进中。巧合的是,在《办法》颁布的同一天,就有消息称美国联邦贸易委员会(FTC)已对OpenAI公司展开全面调查,理由是该公司涉嫌违反消费者保护法,将个人名誉和数据置于危险之中。作为企业来说,在发展技术的同时,也应当同时关注全球立法、执法动态,做好合规的前瞻性布局,才能以更小的成本,更好地应对动态的监管环境
作者:吴晴霞