您好,欢迎来到报告网![登录] [注册]

陈兵:正视人工智能信任危机,加快推进可信AIGC发展丨法经兵言

  近期,ChatGPT爆火掀起了新一轮生成式人工智能(AIGC)热潮,也引发了社会各界对于该领域规范发展与治理问题的广泛关注。4月11日,为促进生成式人工智能技术健康发展和规范应用,国家互联网信息办公室起草了《生成式人工智能服务管理办法(征求意见稿)》(下称《管理办法》)。《管理办法》明确提出,提供生成式人工智能产品或服务应当遵守法律法规的要求,尊重社会公德、公序良俗,并明确了生成式人工智能服务的提供者需要承担的各项义务和责任。

  一旦《管理办法》正式通过并生效,则预示着可信AIGC发展迈向新的台阶。目前,ChatGPT等AIGC技术仍是一把双刃剑,其作为高度智慧化的人工智能(AI)形态,带给人类社会的便捷与风险同在,而这些潜在风险,可能引发民众对于AI技术应用的信任危机。ChatGPT等AI技术应用在给人们带来便捷的同时,也存在泄露个人隐私的风险,并且可能成为“学术造假”、制造虚假信息和谣言的工具,引发人们对AIGC乃至整个AI产业的信任危机,而对AI的信任危机将不利于AI的进一步创新和发展。为此,有必要基于可能引发AIGC信任危机的问题所在,探索可信AIGC发展的治理基点。

  AIGC引发信任危机的原因

我要投稿 版权投诉
  1. 标签 人工智能
  2. 机构、内容合作请点这里: 寻求合作>>
人工智能行业标签

半醒**hn

该用户很懒,什么也没介绍!

关注 私信

报告咨询

  • 400-817-8000全国24小时服务
  • 010-5824-7071010-5824-7072北京热线 24小时服务
  • 059-2533-7135059-2533-7136福建热线 24小时服务

如您想投稿,请将稿件发送至邮箱

seles@yuboinfo.com,审核录用后客服人员会联系您

机构入驻请扫二维码,可申请开通机构号

Copyright © 2025 baogao.com 报告网 All Rights Reserved. 版权所有

闽ICP备09008123号-13