图源:智源大会
大模型时代出现了很多本世纪人类社会面临的最紧迫或最有意义的科学挑战,人机对齐便是其中之一。如何确保越发强大和通用的人工智能系统安全可控,符合人类意图和价值观,这一重要安全问题被称为对齐(AI alignment)。
如果用更形象的表达,LLM大语言基座模型一般是基于繁杂网络预料训练,本身未经调校,原始能力相当狂野,和"遵从用户指令以产生安全而有用的结果"的目标并不一致,因此需要使用对齐(alignment)技术来将大模型和人类的意图安全对齐,也就是OpenAI所做的一系列复杂人机标注过程。