Anthropic: Transformer Circuits(资讯)70Transformer Circuits 团队发现大型语言模型具备内省能力,能反思自身内部状态。研究通过一系列实验证明,模型在特定条件下可以识别并报告其内部表征,而非仅依赖训练数据中的模式。这一发现挑战了当前对 AI 意识的理解,可能对模型可解释性和安全性产生深远影响。研究还探讨了内省能力与模型规模、训练数据的关系,为未来 AI 自我认知研究开辟新方向。论文内省意识可解释性AI 安全Transformer Circuits大型语言模型推荐理由:这项研究揭示了 LLM 可能具备自我反思能力,对 AI 安全与可解释性研究者来说,这是理解模型内部运作的关键突破,值得深入阅读。
arXiv cs.AI@Tz-Huan Hsu, Jheng-Hong Yang, Jimmy Lin55本研究探讨了在构建深度研究系统时,是否仅需词汇检索器BM25配合更强的大型语言模型即可实现高效结果。研究者提出了Pi-Serini搜索智能体,它具备检索、浏览和阅读文档三个工具。在测试集B-Plus上,Pi-Serini搭配gpt-5.5达到了83.1%的答案准确率和94.7%的证据召回率,超过了使用稠密检索的代理。通过调整BM25参数和增加检索深度,答案准确率提升了18.0%,证据召回率提升了11.1%和25.3%。这表明在推理能力更强的LLM辅助下,传统词汇检索仍能发挥重要作用。代码已开源。论文搜索代理检索增强BM25大型语言模型开源/仓库推荐理由:该研究挑战了稠密检索在深度搜索中不可或缺的假设,为构建轻量、高效、不依赖外挂向量库的搜索代理提供了新思路,值得关注推理模型与经典检索技术的结合。