OpenAI 内部人士讨论 AGI 和神经网络的扩展定律
想象一下,在未来,机器会像我们一样思考,像我们一样理解,甚至可能超越我们自己的智力。这不仅仅是科幻电影中的一个场景;这是 OpenAI 的 Scott Aaronson 等专家正在努力实现的目标。Aaronson是量子计算领域的杰出人物,他已将注意力转移到一个新的领域:通用人工智能(AGI)。这种智能可以与人类的脑力相媲美,甚至超过人类的脑力。Wes Roth 更深入地探讨了这项新技术,以及我们在不久的将来可以从 OpenAI 和其他开发 AGI 和神经网络扩展定律的人那里得到什么。
在 OpenAI,Aaronson 深入参与了创建 AGI 的探索。他正在着眼于大局,试图弄清楚如何确保这些强大的人工智能系统不会意外造成伤害。这是人工智能领域的主要关注点,因为随着这些系统变得越来越复杂,风险也会增加。
Aaronson认为,我们的大脑工作方式与人工智能中的神经网络运作方式之间存在联系。他认为,人工智能的复杂性有朝一日可能会与人类大脑相提并论,人类大脑拥有大约100万亿个突触。这个想法很吸引人,因为它表明机器可以像我们一样思考和学习。
OpenAI AGI
关于Aaronson审阅的一篇论文引起了很多讨论。它谈到了创建一个具有 100 万亿个参数的 AI 模型。这是一个巨大的数字,并引发了很多争论。人们想知道是否有可能建立这样的模型,以及它对人工智能的未来意味着什么。Aaronson 提出的一个大问题是,像 GPT 这样的 AI 系统是否真的理解他们在做什么,或者它们是否只是擅长假装。这是一个重要的区别,因为真正的理解是迈向AGI的一大步。
神经网络的缩放定律
但亚伦森不仅仅是在批评别人的工作;他还在帮助建立一个数学框架,使人工智能更安全。该框架旨在预测和预防更先进的人工智能系统带来的风险。人们对 AI 系统中的参数数量如何影响其性能非常感兴趣。有些人认为,人工智能需要具备一定数量的参数才能像人类一样行动。如果这是真的,那么AGI可能已经存在了很长时间,我们只是没有计算能力或数据来实现它。
Aaronson还思考了人工智能达到猫大脑的复杂性意味着什么。这听起来可能不多,但这将是人工智能能力向前迈出的一大步。然后是变革性人工智能(TII)的想法。这是人工智能,可以接管人们在遥远的地方所做的工作。这是一件大事,因为它可能会改变整个行业并影响世界各地的就业。
人们对 AI 需要多少参数才能达到 AGI 有不同的想法。这些估计是基于正在进行的研究和对神经网络如何发展和变化的更好理解。Aaronson自己在线性光学计算复杂性方面的工作有助于阐明AGI需要什么。
斯科特·亚伦森(Scott Aaronson)的见解让我们得以一窥AGI研究的现状。神经网络中的参数扩展方式以及围绕人工智能开发的伦理问题是这个快速发展的领域的核心。随着我们不断突破人工智能的极限,像Aaronson这样的专家与更广泛的人工智能社区之间的对话将在塑造AGI未来的样子方面发挥至关重要的作用。