普林斯顿大学与加州大学洛杉矶分校的最新研究深入探讨了 AI 在推理过程中所表现出的“顿悟”现象。研究者们提出,当 AI 说“等等,我错了”时,这究竟是思考的结果,还是系统崩溃前的恐慌?在这项研究中,研究者们分析了经典的 ResNet 架构,指出其缺乏负反馈机制,类似于只有油门的汽车,导致 AI 在推理时可能出现混乱。为了解决这一问题,研究团队引入了深度差分学习(DDL),通过添加 β 参数,使神经网络具备了“遗忘”和“反向调节”的能力,从而更接近人类的思维方式。
此外,另一项研究揭示了大模型在推理过程中自发的“自我纠错”现象,通常伴随着高熵值,这被视为推理混乱和“恐慌”的信号,而非智慧的体现。研究者们还探讨了如何利用模型的高不确定性,通过外部干预(Prompting)强制模型进行二次思考,从而显著提升推理的准确率。这一系列的研究成果不仅推动了 AI 技术的发展,也对智能的本质提出了哲学上的拷问:当数学结构越来越像大脑,模拟思考越来越逼真时,我们该如何定义智慧?