在一项突破性的举措中,OpenAI最近推出了其使用GPT-4(一种大型语言模型)来制定内容政策和审核决策。这种创新方法带来了更简化的流程,具有一致的标签和更快的反馈循环,用于策略细化。
GPT-4 在这种情况下的应用大大减少了对人工主持人的需求,将政策变更所需的时间从几个月缩短到几个小时。这证明了该模型能够解释大量内容策略文档中的规则和细微差别,并立即适应策略更新。
“内容审核在维持数字平台的健康方面发挥着至关重要的作用。使用 GPT-4 的内容审核系统可以更快地迭代策略更改,将周期从几个月缩短到几小时。GPT-4 还能够解释长内容政策文档中的规则和细微差别,并立即适应政策更新,从而实现更一致的标签。我们相信,这为数字平台的未来提供了一个更积极的愿景,人工智能可以帮助根据平台特定的政策调节在线流量,并减轻大量人类版主的精神负担。任何拥有OpenAI API访问权限的人都可以实施这种方法来创建自己的AI辅助审核系统。
GPT-4 内容政策制定和审核
OpenAI 的 API 访问将此功能扩展到更广泛的社区,允许任何人实施这种方法并创建自己的 AI 辅助审核系统。这是向前迈出的重要一步,因为像 GPT-4 这样的大型语言模型具有理解和生成自然语言的能力,使它们高度适用于内容审核。
这些模型可以根据提供给它们的策略指南做出审核判断,从而大大减少开发和自定义内容策略的过程。此外,GPT-4 的预测可用于微调更小的模型,使其能够大规模处理大量数据。
这种方法与宪法人工智能背道而驰,后者依赖于模型自己对什么是安全的,什么是不安全的内在判断。相反,OpenAI正在探索GPT-4预测质量的进一步增强,包括思维链推理或自我批评,以及检测未知风险的方法。
从这些探索中获得的见解将为现有内容政策的更新或针对新风险领域的政策制定提供信息。但是,重要的是要注意,语言模型容易受到训练期间引入的不良偏差的影响。因此,需要通过保持人员在循环中来仔细监控、验证和完善结果和输出。
通过减少审核过程某些部分的人工参与,人力资源可以更专注于解决策略细化最需要的复杂边缘情况。OpenAI 致力于透明度,并将继续与社区分享学习和进展,确保 AI 辅助审核的发展仍然是一个开放和协作的过程。