零时古怪 - 中国第一新闻资讯综合门户

零时古怪资讯网
提供最新的热点新闻资讯
首页 > 科技

为解决AI幻觉问题,OpenAI宣布换用新的训练方法

自2022年末OpenAI方面发布ChatGPT以来,生成式AI和大模型相关技术就受到了大量的关注,并迎来了更为广泛的应用。但与此同时,AI技术也产生了诸多相关问题,例如“幻觉”。为解决这一难题,日前OpenAI方面在一篇研究论文中指出,其正在用一种新的方法来训练大模型。

据悉,“幻觉”是指ChatGPT等AI聊天机器人会用自行编造虚假信息进行回应。通俗来说,有时ChatGPT等AI聊天机器人看似在陈述事实,但实际引用的内容却是“胡说八道”。例如今年2月谷歌发布的聊天机器人Bard,就曾对詹姆斯·韦伯太空望远镜做出了不真实的表述。

对此,OpenAI方面在相关报告中写到,“即使是最先进的AI模型也很容易产生谎言,它们在不确定的时刻往往表现出捏造事实的倾向。而这些幻觉在需要多步骤推理的领域尤其严重,因为一个逻辑错误就足以破坏一个更大的解决方案”。

据OpenAI方面表示,其所采用的新的训练大模型的方法,是指在训练中设置新的奖励机制,即奖励每个正确的推理步骤,而不仅仅是简单地奖励正确的最终结论。该公司指出,这种方法被称为“过程监督”、而不是“结果监督”,它可能会提高AI的性能与准确性,因为这种策略鼓励模型更多地遵循类似人类的“思维链”。

对此,OpenAI数学生成(mathgen)研究员Karl Cobbe表示,“检测和缓解模型中的逻辑错误或者幻觉,将是构建高一致性 AGI(通用人工智能)的关键一步。这项研究的动机在于解决幻觉问题,使得模型具备解决挑战性推理问题的强大能力”。此外Karl Cobbe还透露,OpenAI已经发布一套附带数据集,其中包含80万个人类标注,用于训练研究论文中描述的这套模型。

但需要注意的是,OpenAI公布的这一新的AI模型训练方法也受到了一些质疑。例如电子隐私信息中心高级顾问兼AI与人权项目负责人Ben Winters便对其表示怀疑,并称实际效果要在检查完整的数据集和随附示例后才能确定。布朗大学技术责任中心主任Suresh Venkatasubramanian也认为,这项研究的意义更多在于初步观察,而非实际应用。

【以上内容转自“三易生活网”,不代表本网站观点。如需转载请取得三易生活网许可,如有侵权请联系删除。】

 

延伸阅读:

  • OpenAI宣布,ChatGPT联网及插件功能即将开放
  • 5种最有可能被ChatGPT取代的工作:码农在列,社媒人员中枪

 

未经允许不得转载:零时古怪 - 中国第一新闻资讯综合门户 » 为解决AI幻觉问题,OpenAI宣布换用新的训练方法

分享到:更多 ()
来源: 编辑:cxr4186

评论

留言/评论 共有条点评
昵称:
验证码:
匿名发表