大型语言模型(LLM)在解决复杂问题时,往往会显现出有用的自我监控信号:在正式解题前,它们能预估自己成功的可能性;在解题后,它们能判断所给答案的正确概率。然而,在现有的推理流程中,这些信号通常只是被孤立地测量或诱导出来,而未能转化为推理过程中的实时控制。最新的一项研究提出了一种“元认知外挂”(Metacognitive Harness),旨在将这些潜在的自知之明转化为有效的推理时扩展(Test-time Scaling)控制手段。
该研究受到认知心理学中 Nelson-Narens 理论的启发,提出将“监控”与“推理”两个环节进行解耦。在处理每个问题时,系统要求模型首先报告解题前的“知晓感”(Feeling-of-knowing, FOK)信号;在每次尝试解决后,报告解题后的“学习判断”(Judgment-of-learning, JOL)信号。这种机制不再将信心评估视为被动的信心分数,而是将其作为推理的一个显式控制接口。
具体而言,该外挂系统会根据这些元认知信号做出决策:决定何时信任当前生成的解、何时带有简明元认知反馈地进行重试,以及何时将多次尝试的结果提交给最终聚合器进行汇总。这种动态控制机制极大地优化了推理资源的分配和结果的可靠性。
实验结果显示,在不进行任何参数更新或针对基准测试进行微调的情况下,该框架显著提升了 Claude Sonnet-4.6 基座模型的表现。在涵盖文本、代码和多模态推理的多个基准测试中,该方案将综合准确率从 48.3 提升至 56.9。特别是在 HLE-Verified、LiveCodeBench v6 和 R-Bench-V 这三大核心评估设置上,其表现均超过了目前排行榜上已列出的最强选手。
这项研究结果表明,顶尖的 LLM 可能已经具备了极其有用的潜在元认知能力,但它们需要一个显式的控制外挂来在推理过程中激活并利用这些能力。这为推理时扩展(Test-time Scaling)提供了一个无需重新训练模型的新路径,展示了通过优化推理策略实现性能飞跃的可能性。