近日,由网信办等七部门发布的《生成式人工智能服务管理暂行办法》(下文简称“《办法》”)正式施行,这也是全球第一部AIGC(AI生成内容)管理办法。
中国政法大学传播法研究中心副主任朱巍在接受记者采访时表示,《办法》明确了必须对AIGC生成的内容进行标记,这降低了一些真假难辨的AIGC内容可能造成的风险。此外,相比此前版本的征求意见稿,《办法》对违法内容的管理责任体现了包容审慎的态度,“AI只是一个工具,如果要求生成式人工智能服务提供者为生成的内容承担责任并不公平,对此《办法》要求提供者发现违法内容后应及时采取处置措施并向主管部门报告,这一改动很亮眼,实践表现也不错。”
国家网信办有关负责人表示,《办法》提出国家坚持发展和安全并重、促进创新和依法治理相结合的原则,采取有效措施鼓励生成式人工智能创新发展,对生成式人工智能服务实行包容审慎和分类分级监管。
鼓励算法芯片等基础技术自主创新
周鸿祎表示,《办法》针对大模型生成式的特点,遵循促进创新和依法治理相结合的原则,“有关部门的监管方式非常先进,将有效助推生成式人工智能的发展。”
记者注意到,在《办法》第二章技术发展与治理中,“鼓励”一词高频出现。
如第五条提到“鼓励生成式人工智能技术在各行业、各领域的创新应用,生成积极健康、向上向善的优质内容,探索优化应用场景,构建应用生态体系。”第六条提到“鼓励生成式人工智能算法、框架、芯片及配套软件平台等基础技术的自主创新,平等互利开展国际交流与合作,参与生成式人工智能相关国际规则制定。”
对于《办法》的发布,北京理工大学法学院教授、外交部国际法咨询委员会委员洪延青简评称,整个《办法》往促进生成式AI发展这个方向,靠了很大一步,“第二条强调了‘面向公众提供’服务,进一步明确了监管意图;第四条基本围绕着内容管理、歧视性待遇、商业和市场秩序保护、个人合法权益保护,以及生成内容的准确性和可靠性;第七条依旧强调了训练数据的重要性,这是生成式AI监管的重要切入点。”
“《办法》明确了适用边界,既能够规范大模型的公众服务,同时也有利于组织机构的研发和应用。我认为,大模型未来真正的发展机会就是企业级市场。产业数字化战略背景下,大模型作为工业革命级的生产力工具,应当帮助传统产业特别是制造业实现数字化转型到智能化升级。从《办法》来看,国家对企业级场景的应用研发和落地整体持大力支持的态度,对科技企业推动大模型在企业级场景的落地有积极意义。”周鸿祎对记者表示。
如何保障内容安全?提供者发现违法内容应及时处置
记者注意到,从4月11日《办法》征求意见稿出台,到本次《办法》正式发布,在对大模型的内容监管方面,均明确提供和使用生成式人工智能服务应当坚持社会主义核心价值观,不得生成煽动颠覆国家政权、民族歧视,暴力色情、虚假有害信息等法律和行政法规禁止的内容。
但另一方面,由于生成式AI底层算法的本质就是“猜出”最符合上文内容的“下文”,具备一定随机性,因此如何应对生成式AI难以避免出现的“幻觉”问题也成为了难题。对此,《办法》第十四条第二款规定,提供者发现违法内容的,应当及时采取停止生成、停止传输、消除等处置措施,采取模型优化训练等措施进行整改,并向有关主管部门报告。
朱巍认为,该条款是此次《办法》的亮点之一,“之前版本的征求意见稿中曾提到‘人工智能的服务提供者和内容提供者’,这种表述对平台和服务提供者来说,可能责任太大了,因为AI只是一个工具,别人用它来干坏事但责任主体却是服务提供者,这可能不公平。因此,我认为此次《办法》相关条款体现了包容审慎的态度,一旦提供者发现违法内容,需要采取必要措施。”
AI只是一个工具,如果要求生成式人工智能服务提供者为生成的内容承担责任并不公平,《办法》要求提供者发现违法内容后应及时采取处置措施并向主管部门报告,这相比此前的征求意见稿有了很大进步。
“《办法》强调提供者应当依法承担网络信息内容生产者责任,履行网络信息安全义务。我对此表示认同,大模型是数字化的顶峰,同样是把双刃剑,带来生产力提升的同时存在安全风险,包括网络安全、数据安全、算法安全和生成内容安全。比如算法攻击有可能致使大模型沦为犯罪工具,协助黑客写攻击代码或钓鱼邮件。”周鸿祎说。
另一个解决方案是,大模型生成的内容的素材来源于其预训练数据,因此对这些数据进行把控,就能大概率降低生产内容的风险。《办法》第七条或体现了这一观点,第七条规定,生成式人工智能服务提供者(以下称提供者)应当依法开展预训练、优化训练等训练数据处理活动,应使用具有合法来源的数据和基础模型,涉及知识产权的,不得侵害他人依法享有的知识产权等。
分类分级监管 AIGC应提供标识
吴沈括对记者表示,在《办法》的文本设计当中,对于产业生态的培育和促进,对于各方主体合规治理的指引,以及对于安全底线的坚守是三个非常重要的制度基础和切入的重点,其中值得注意的地方是《办法》突出了关于AIGC的分类分级监管思路,以及后续细化监管规则的持续出台。
根据《办法》第十七条,提供具有舆论属性或者社会动员能力的生成式人工智能服务的,应当按照国家有关规定开展安全评估,并按照《互联网信息服务算法推荐管理规定》履行算法备案和变更、注销备案手续。
洪延青表示,第十七条事实上提出了生成式AI的分类分级管理思路,对具有舆论属性和社会动员能力的生成式AI,沿用网信办过去的监管工具。
国家网信办有关负责人说,《办法》在治理对象上,针对生成式人工智能服务。在监管方式上,提出对生成式人工智能服务实行包容审慎和分类分级监管,要求国家有关主管部门针对生成式人工智能技术特点及其在有关行业和领域的服务应用,完善与创新发展相适应的科学监管方式,制定相应的分类分级监管规则或者指引。此外,《办法》要求采取有效措施防范未成年人用户过度依赖或者沉迷生成式人工智能服务。规定提供者应当按照《互联网信息服务深度合成管理规定》对图片、视频等生成内容进行标识。
值得注意的是,《办法》对生成式人工智能的用户也提出了义务。
《办法》第九条第二款规定,提供者应当与注册其服务的生成式人工智能服务使用者(以下称使用者)签订服务协议,明确双方权利义务。而第十四条第二款则规定,提供者发现使用者利用生成式人工智能服务从事违法活动的,应当依法依约采取警示、限制功能、暂停或者终止向其提供服务等处置措施,保存有关记录,并向有关主管部门报告。
“《办法》在安全层面坚持了技术要素层面的安全、组织管理层面的安全以及数字内容层面的安全,结合了安全性设计、合法性设计和伦理性设计的综合治理思路。对于各方主体的合规义务、法律责任做出了明确的规定。同时,对包括用户数字素养在内的基础性生态要素也做出了专门的要求。从这个意义上来讲,目前的办法在制度的宽度、广度和深度上都有显著的延伸。”吴沈括对记者表示。
来源 | 新京报
责编 | 梁善茵 实习生 陈超慧