昨天举行的2024世界人工智能大会法治论坛上,多位专家、学者围绕“人形机器人的法治与伦理”展开讨论交流。1940年,科幻作家阿西莫夫提出“机器人三原则”,即:机器人不得伤害人类,或看到人类受到伤害而袖手旁观;机器人必须服从人类的命令,除非这条命令与第一条相矛盾;机器人必须保护自己,除非这种保护与以上两条相矛盾。
“在今天,阿西莫夫的三原则仍然适用吗,人与机器人的关系会不会发生转变?人形机器人的出现给法律界带来了不少新问题,比如,机器人是否应该被赋予法律人格?机器人造成损害时是否应该承担责任?它的设计者、制造者、所有者和使用者之间的责任如何划分等。”
——华东师范大学上海人工智能金融学院院长、教授邵怡蕾