上海交通大学

字节跳动推出 ProtoReasoning 框架:提升大语言模型的逻辑推理能力

近日,字节跳动的研究与上海交通大学的团队共同推出了名为 ProtoReasoning 的新框架,旨在通过逻辑原型来增强大语言模型(LLMs)的推理能力。该框架利用结构化的原型表示,如 Prolog 和 PDDL,推动了跨领域推理的进展。近年来,大语言模型在跨领域推理方面取得了显著突破,尤其是在长链推理技术的应用下。研究发现,这些模型在处理数学、编程等任务时,表现出了在逻辑难题和创意写作等无关领域的

学术打假!清华上交大研究颠覆认知:强化学习竟是大模型推理的"绊脚石"

【研究颠覆】清华大学与上海交通大学联合发表的最新论文,对业界普遍认为"纯强化学习(RL)能提升大模型推理能力"的观点提出了挑战性反驳。研究发现,引入强化学习的模型在某些任务中的表现,反而逊色于未使用强化学习的原始模型。【实验验证】研究团队在数学、编码和视觉推理三大领域进行了系统性实验:数学任务:在GSM8K、MATH500等基准测试中,RL模型在低采样次数(k值)下准确率提升,但在高k值时问题覆盖