专访 OpenAI 资助获得者 Meaning Alignment 道德图谱的创建者
如果您想了解更多关于成为 OpenAI 资助获得者需要什么的信息,您一定会喜欢 David Shapiro 与 Meaning Alignment、Ellie 和 Oliver 的联合创始人进行的这次采访。获得 OpenAI 的资助,以表彰他们对 AI 伦理的重大贡献。艾莉和奥利弗率先开发了一种名为“道德图谱”的独特工具,旨在将人类价值观融入人工智能技术的结构中。他们的工作不仅仅是理论上的;它对现实世界有影响,影响人工智能系统每天与人的互动方式。
该研究所的核心使命是创造符合人类价值观的人工智能,确保这些系统做出的决策既有益又有意义。他们开发的道德图谱是复杂的结构,囊括了人类价值观及其之间的关系。这些图表是通过分析现实生活中的场景并确定研究所所说的“更明智的价值观”来构建的,这对于人工智能识别和支持人类社会复杂的道德结构至关重要。
该研究所的愿景延伸到未来,想象一个由意义和价值观驱动的后人工智能时代的经济,而不仅仅是生产力或利润。他们预见到旨在确保所有人过上充实生活的经济制度和政策。为了实现这一愿景,该研究所积极参与当地政策和以意义为中心的经济发展的实际实验。
意义对齐面试
使人工智能与人类价值观保持一致的任务是错综复杂的,需要对伦理学、哲学和心理学有深刻的理解。该研究所的工作包括扩展他们的道德图谱以涵盖更广泛的价值观,并不断完善人工智能模型以符合这些价值观。这是一个持续的过程,随着社会规范和标准的发展而发展。
道德图:OpenAI 资助获得者
“我们获得了 OpenAI 的资助,用于建立一个称为民主微调 (DFT) 的民主流程,并创建第一个道德图谱。在这里,我们将展示我们的早期结果。
我们与DFT的目标是建立一个微调的模型,适用于共和党人,民主党人,以及跨意识形态群体和跨文化的普遍情况;全世界的人们都可以认为这种模式是“明智的”,因为它是由我们广泛共识的价值观调整的。我们希望这可以帮助避免具有不同调音且没有道德的模型激增,在营销、政治等方面争先恐后地竞争。有关这些动机的更多信息,请阅读我们的介绍文章。
为了实现这一目标,我们使用了两种新颖的技术:首先,我们通过使用聊天机器人来引出模型在响应时应该使用的价值观,从大量多样化的人群中收集这些价值观,从而与价值观而不是偏好保持一致。其次,我们将这些价值观组合成一个“道德图谱”,以找出哪些价值观最被广泛认为是明智的。
在这里,我们将展示第一个道德图,该图基于从美国公民的代表性样本中确定的趋同价值观。稍后的工作将探索在全球范围内收集价值,并根据这些价值微调 LLM。
我们将从我们的两种新技术开始,通过对过程的介绍将它们置于上下文中,然后分享结果以及它们对 AI 对齐的意义。
随着人工智能系统变得越来越先进,它们以合乎道德的方式运作的必要性也越来越大。该研究所的研究对于保证未来的超级智能系统不仅坚持人类价值观,而且还促进人类价值观至关重要。当我们站在人工智能能力可能超越人类智能的时代的风口浪尖时,这一点尤为重要。
该研究所的研究还包括对地方政策和以意义为中心的经济发展的实践实验。这些实验对于理解如何将意义和价值的概念整合到经济和治理体系中至关重要。该研究所面临的最艰巨的挑战之一是量化意义。然而,他们已经开发出了衡量它的方法,为评估人工智能系统和政策与人类价值观的一致性提供了一个更客观的框架。
意义对齐研究所的工作代表了迈向人工智能不仅支持而且改善人类生活的未来的重要一步。通过制作道德图谱并努力让人工智能与人类价值观产生共鸣,艾莉和奥利弗站在了一场运动的最前沿,该运动旨在确保技术满足人类对意义和目的的深层次需求。他们的努力正在塑造一个世界,在这个世界里,人工智能不仅仅是一种提高效率的工具,而且是创造更丰富、价值驱动的人类体验的合作伙伴。