奥特曼ChatGPT用法错了!最新研究:要求“直接回答”降低准确率,思维链提示作用也在下降
奥特曼使用大模型的方法,竟然是错的?来自沃顿商学院等机构的最新研究发现,备受奥特曼喜爱的“直接回答”提示,竟然会显著降低模型准确率。不过另一方面,这项研究也发现,在提示词中加入思维链(CoT)命令同样不好用——CoT提示对于推理模型非但没有效果提升,反而会增加时间和计算成本。而一些前沿的非推理模型,CoT提示可以带来效果提升,但答案的不稳定性也随之增加了。研究团队使用GPQA Diamond数据