人工智能技术在过去一年里突飞猛进,与期冀共行的是担忧——从国内发布《生成式人工智能服务管理办法(征求意见稿)》(下称《征求意见稿》),到欧盟争分夺秒地商议《人工智能法案》、美国推出《关于安全、可靠和可信地开发和使用人工智能的行政命令》,各国法规政策密集出台。技术和监管的演进,是人工智能发展的两条主旋律。
在这之中,安全风险是人工智能监管的源头之一。不同的风险类别,不同主体和应用场景,往往意味着不同强度的监管、不同梯次的义务。如何确定安全风险的边界?如何为不同安全风险分类?怎样保持风控框架的弹性?
带着这些问题,由中国社会科学院法学研究所主办,南财合规科技研究院承办的“人工智能安全风险和法律规制研讨会”在北京召开。会议上,各界专家代表认同人工智能的安全风险分级是数字治理的延续,应当注意多种规范的冲突和衔接问题。呼吁协同共治,让公众、学界、业界、政策制定者能在一个频道上对话。