近日,科技界迎来了一项新的突破,微软研究院携手中国顶尖学府清华大学与北京大学,共同推出了一项名为奖励推理模型(RRMs)的创新技术。这项技术旨在通过动态的计算资源分配,优化复杂任务的评估效果,为人工智能领域带来了新的曙光。
强化学习(RL)作为当前大语言模型(LLM)后训练的关键方法,已经引起了广泛的关注。通过人类反馈(RLHF)或可验证奖励(RLVR)提供的监督信号,强化学习在模型训练中发挥着举足轻重的作用。然而,尽管RLVR在数学推理中展现出巨大潜力,但其对可验证答案训练查询的依赖,限制了其在通用领域的大规模应用。
现有的奖励模型主要分为标量型和生成型两大类,但它们在测试时计算资源的扩展上均存在不足。传统的做法是对所有输入一视同仁,统一分配计算资源,这种“一刀切”的方式缺乏对复杂查询的细致分析能力,导致评估结果不尽如人意。为了打破这一瓶颈,微软研究院、清华大学和北京大学的科研团队联手推出了RRMs。
RRMs的核心优势在于其显式推理过程。在给出最终奖励之前,RRMs会执行一系列复杂的推理步骤,根据任务的复杂性自适应地分配额外的计算资源。这一创新机制使得RRMs在面对奖励不明显的复杂查询时,能够投入更多的测试时计算资源,从而得到更准确的评估结果。
RRMs基于Qwen2模型,采用了Transformer-decoder架构,将奖励建模转化为文本补全任务。在生成推理过程后,RRMs会给出最终的判断。为了全面评估RRMs的性能,研究团队利用RewardBench库进行了系统分析,评估指标涵盖了指令遵循性、帮助性、准确性、无害性和细节水平等多个方面。
RRMs还支持多响应评估,通过ELO评分系统和淘汰赛机制,结合多数投票策略,进一步提升了计算资源的利用率。在RewardBench和PandaLM Test基准测试中,RRMs展现出了卓越的性能。特别是在推理类别中,RRM-32B的准确率高达98.6%,与使用相同数据训练的DirectJudge模型相比,RRMs展现出了显著的性能优势。
在奖励引导的最佳N推理(Best-of-N Inference)和后训练反馈中,RRMs同样超越了所有基线模型,并进一步提升了多数投票机制的效率。研究还发现,随着模型规模从7B、14B扩展到32B,更长的推理时间始终能够带来准确性的提升。RRMs通过并行和顺序扩展方法高效地利用了计算资源,为传统的标量奖励模型提供了强有力的替代方案。
这一创新成果不仅为人工智能领域带来了新的突破,也为未来的智能系统发展奠定了坚实的基础。RRMs的推出,标志着我们在复杂任务评估方面迈出了重要的一步,为人工智能的广泛应用开辟了新的道路。
随着技术的不断进步和创新,我们有理由相信,未来的智能系统将更加智能、高效和人性化。RRMs的成功推出,无疑为这一愿景的实现注入了新的活力和动力。