首页
搜索 搜索
关注

“人工智能对齐”考验人类社会-全球观察

2023-05-31 23:47:51 凤凰网

参考消息网5月31日报道据英国《新科学家》周刊网站5月10日报道,回形针与“世界末日”有何相关?如果您询问试图确保人工智能(AI)系统行为符合我们人类利益的研究人员,两者的相关程度可比您可能认为的要高。

这要回溯到2003年,当时英国牛津大学的哲学家尼克·博斯特伦提出了一个思想实验。想象一下,一种超级人工智能系统设定的目标是制作尽可能多的回形针。博斯特伦认为,该人工智能系统可能迅速决定:杀死所有人是它完成任务的关键,因为人有可能切断其电源,而且因为人身上满是可以转化为更多回形针的原子。


(资料图片)

当然,这样一个场景很荒谬,却生动地说明了一个令人不安的问题:人工智能系统不像我们那样“思考”,如果我们不非常小心地说明我们想让它们做什么,它们的行为方式就有可能是我们意想不到的和有害的。《对齐问题》一书的作者、美国加利福尼亚大学伯克利分校的访问学者布赖恩·克里斯蒂安说:“人工智能系统会优化你实际指定要它们做的内容,但不会优化你意向希望它们做的内容。”

这个问题归结起来就是如何确保人工智能系统根据人类的目标与价值观——无论你是担心如人类灭绝之类的长远风险还是担心人工智能驱动的错误信息和偏见等眼下危害——来作出决定。

克里斯蒂安表示,无论如何,人工智能对齐(人类的目标与价值观)的挑战是巨大的,因为将模糊的人类欲望转化为计算机的冰冷的数字逻辑本身就很困难。他认为,最有前途的解决方案是让人类提供有关人工智能系统作决定的反馈,并用来重新训练模型,使其输出向人类偏好看齐。美国开放人工智能研究中心就是用这种方式来防止其大型语言模型(如GPT-4)提供有害回应的。

但总部位于美国旧金山的非营利组织人工智能安全中心的主任丹·亨德里克斯则表示,还有更多根本性的挑战。人类价值观是复杂的、微妙的并且高度依赖于环境。此外,现代人工智能系统作决定的方式往往很模糊。亨德里克斯说:“内部运作高深莫测的事物,理解其内在动机都很难,更别说控制了。”

毫无疑问,开放人工智能研究中心、谷歌、百度和其他公司在人工智能方面的最新进展比以前更令人印象深刻,但我们是否只是处在又一个炒作人工智能的泡沫中呢?

一些研究人工智能的人士认为,想要人工智能系统对齐人类目标与价值观是徒劳的。美国肯塔基州路易斯维尔大学的罗曼·扬波利斯基说,在人工智能系统的能力与我们控制人工智能系统的能力之间总会有一种此消彼长。他声称,通过理论研究已经表明,控制人工智能系统所需的关键要素——预测并解释人工智能系统作出的决定、验证人工智能系统是否遵循其设计以及设定明确的目标——在面对超级智能时根本不可能实现。

美国新墨西哥州圣菲研究所的梅兰妮·米切尔说,真实情况是,我们一点都不清楚我们正在向超级人工智能迈出不可阻挡的步伐。这意味着,最好担心人工智能系统未同人类目标与价值观对齐所构成的较近期危害。无论怎样,我们都有理由相信整个努力可能存在致命缺陷。

来自神经科学和心理学的所有证据都表明,人类智力的发展与我们的目标有着内在的联系。因此,你似乎不太可能将人类价值观转移到在完全不同的情况下开发的机器上。米切尔说:“一个真正的智能系统确实会有其自己的价值观和目标,就像我们人类一样,智能系统的这些价值观和目标也会受其所学的影响。”

但美国得克萨斯大学奥斯汀校区的斯科特·阿伦森表示,现在认输还为时过早。唯一合理的方法是专注于让现有的人工智能系统对齐人类的目标与价值观,并希望随着技术进步,这能为我们提供可以借鉴的经验教训。阿伦森说:“我很难想象,如果你连如何让智力较弱的人工智能系统跟人类目标与价值观对齐的方法都不知道,你还怎么能让智力更强大的人工智能跟人类目标对齐呢?”