近期,ChatGPT爆火掀起了新一轮生成式人工智能(AIGC)热潮,也引发了社会各界对于该领域规范发展与治理问题的广泛关注。4月11日,为促进生成式人工智能技术健康发展和规范应用,国家互联网信息办公室起草了《生成式人工智能服务管理办法(征求意见稿)》(下称《管理办法》)。《管理办法》明确提出,提供生成式人工智能产品或服务应当遵守法律法规的要求,尊重社会公德、公序良俗,并明确了生成式人工智能服务的提供者需要承担的各项义务和责任。
一旦《管理办法》正式通过并生效,则预示着可信AIGC发展迈向新的台阶。目前,ChatGPT等AIGC技术仍是一把双刃剑,其作为高度智慧化的人工智能(AI)形态,带给人类社会的便捷与风险同在,而这些潜在风险,可能引发民众对于AI技术应用的信任危机。ChatGPT等AI技术应用在给人们带来便捷的同时,也存在泄露个人隐私的风险,并且可能成为“学术造假”、制造虚假信息和谣言的工具,引发人们对AIGC乃至整个AI产业的信任危机,而对AI的信任危机将不利于AI的进一步创新和发展。为此,有必要基于可能引发AIGC信任危机的问题所在,探索可信AIGC发展的治理基点。
AIGC引发信任危机的原因