“减轻被人工智能灭绝的风险,应该与流行病和核战争等其他大规模社会性风险一样,成为全球优先解决的事项。”当地时间5月30日,一份仅有一句话内容的《AI风险声明》获得包括OpenAI首席执行官Sam Altman、图灵奖获得者“深度学习之父”Yoshua Bengio和Geoffrey Hinton超370位AI领域权威专家联合签名发布。中国科学院自动化研究所研究员曾毅、清华大学教授张亚勤、助理教授詹仙园等中国学者也位列其中。
曾毅透露,在这份新声明正式对媒体发布前,他就收到了发起人人工智能安全中心主任Dan Hendrycks的邀请。出于对在AI风险认知观点上的接近,他签署了这份联合声明。
作为中国科学院自动化研究所人工智能伦理与治理研究中心主任、国家新一代人工智能治理专委会委员、联合国教科文组织人工智能伦理实施高层专家组成员,曾毅长期专注于类脑智能及人工智能伦理与治理研究。他告诉南方财经全媒体记者,公开信的目的不是阻碍人工智能的发展,而“恰恰是在探索人工智能稳健发展的途径。”他提出,探索“可持续发展的人工智能”或许是一个有益的选择,而逐步提升人工智能真正意义上的智能水平,才能使人工智能技术真正实现可持续发展。