Together AI@togethercompute58Together AI 宣布上线 Gemma-4-31B-it-Pearl 模型,这是 Pearl Research Labs 基于 Gemma 4 31B 进行指令微调的版本,采用了 @prlnet 的 Proof of Useful Work 协议。该模型现已作为无服务器推理端点提供,价格比标准版低 25% 以上。对于需要高效、低成本部署大模型的 AI 开发者来说,这是一个值得关注的新选择。AI产品Gemma-4-31B-it-PearlTogether AI推理模型无服务器推理价格优惠推荐理由:做模型推理部署的团队可以关注这个价格优势——同样基于 Gemma 4 31B,但成本直降 25%+,适合预算敏感的生产环境。
berryxia@berryxia76蚂蚁集团 AGI 团队开源了 Ring-2.6-1T,一个拥有 1 万亿参数的旗舰思考模型,专为 Agent 工作流、代码工程、长时序执行等复杂任务设计。该模型支持 high 和 xhigh 两种推理模式,采用 IcePop 异步强化学习算法稳定训练。完全开源意味着企业可将模型部署到本地服务器,解决数据隐私和合规问题。模型已在 Hugging Face 和 ModelScope 上线,降低了企业级 Agent 应用的部署门槛。AI模型开源/仓库推理模型Agent工作流企业自动化蚂蚁集团推荐理由:万亿参数思考模型开源,解决了企业数据不出域的痛点,做内部自动化或对数据安全敏感的团队可以直接部署试试。
Ethan Mollick@emollick58Ethan Mollick 指出,第二条缩放定律(Second Scaling Law)依然未被打破:只要增加 LLM 的思考 token(thinking tokens),就能在黑客攻击、数学、科学、填字游戏等任务上获得更好表现。目前尚未观察到性能平台期。这一发现对依赖推理能力的 AI 应用开发者有直接指导意义,意味着通过增加计算资源(而非仅扩大模型规模)即可持续提升模型在复杂任务上的表现。论文缩放定律推理模型思考 tokenLLM 性能Ethan Mollick推荐理由:做 LLM 推理优化或复杂任务应用的团队,这条定律意味着你不需要等更大模型——加思考 token 就能直接提升效果,值得在现有模型上试试。
Meta AI@AIatMeta58Meta 超级智能实验室推出了 Muse 系列的首个模型 Muse Spark,这是一个原生多模态推理模型,支持工具使用、视觉思维链和多智能体编排。该模型已在 Meta AI 应用和指定网站上线,并通过 API 向部分合作伙伴提供私有预览。Meta 表示未来版本将开源。Muse Spark 的发布标志着 Meta 在多模态推理和智能体协作领域的重要进展。AI模型多模态推理模型工具调用智能体Meta推荐理由:做多模态应用或智能体开发的团队可以直接上手试 Muse Spark 的工具调用和视觉思维链能力,Meta 承诺未来开源也值得关注。
百川智能 Baichuan@BaichuanAI47百川AI在HealthBench、Hard、Hallucination和ScanBench等多项基准测试中取得领先成绩,其中HealthBench得分65.1,Hard得分44.4,幻觉率仅3.5%低于ChatGPT,ScanBench全站排名第一。这显示了百川AI在医疗、推理和抗幻觉方面的显著进步,对AI应用开发者具有重要参考价值。AI模型百川AI基准测试医疗AI抗幻觉推理模型推荐理由:百川AI在多个关键基准上超越ChatGPT,做医疗AI或高可靠性应用的团队值得关注其低幻觉率表现。
深度求索 DeepSeek@deepseek_ai78DeepSeek 正式发布 V3.2 和 V3.2-Speciale 两个新模型。V3.2 是 V3.2-Exp 的正式继任者,已在 App、Web 和 API 上线;V3.2-Speciale 则专注于极致推理能力,目前仅通过 API 提供。这两个模型以推理优先为设计理念,旨在更好地支持智能体(agent)场景。技术报告已同步公开。AI模型DeepSeek推理模型智能体模型发布API推荐理由:做智能体开发或需要强推理能力的团队,DeepSeek 这次直接给了两个新选择——V3.2 可立即上手,Speciale 适合追求极致推理的 API 用户,值得关注技术报告里的细节。
深度求索 DeepSeek@deepseek_ai78DeepSeek 发布了 V4 Preview 版本,包含 Pro 和 Flash 两个模型,均支持 1M 上下文长度。Pro 版本总参数量 1.6T,激活参数 49B,性能对标全球顶级闭源模型;Flash 版本总参数量 284B,激活参数 13B,主打高效经济。模型权重和技术报告已开源,API 同步更新。这标志着开源大模型在长上下文和性价比上迈出重要一步。AI模型DeepSeek-V4开源/仓库长上下文推理模型性价比推荐理由:长上下文和低成本是当前 AI 应用的两大痛点,DeepSeek-V4 同时解决这两个问题,做 RAG、文档分析或长对话的开发者可以直接上手试试。
xAI@xai65xAI 发布了 Grok 4.3 模型,已在其 API 上可用。该模型在代理工具调用和指令遵循方面领先 @ArtificialAnlys 排行榜,并在 @ValsAI 的企业领域(如判例法和公司金融)中排名第一。Grok 4.3 支持 100 万 token 上下文窗口,输入价格为每百万 token 1.25 美元,输出价格为 2.50 美元。开发者可以立即创建 API 密钥开始使用。AI模型Grok 4.3xAI推理模型API企业应用推荐理由:Grok 4.3 在代理工具调用和企业场景(如法律、金融)中表现突出,做智能体或企业级应用的开发者可以直接用 API 体验,性价比也不错。
Noam Shazeer@NoamShazeer65Google 发布了 Gemini 3.1 Flash Live 模型,专为生产级可靠性设计。该模型在复杂函数调用和长时推理基准测试中领先,支持多语言,已用于搜索直播功能。开发者可借此构建可扩展的语音优先智能体,完成复杂任务。AI模型Gemini语音智能体函数调用多语言推理模型推荐理由:语音智能体开发者终于有了一个生产级模型——Gemini 3.1 Flash Live 在复杂函数调用和长时推理上表现领先,做语音交互的团队可以直接上手试试。
Perplexity@perplexity_ai精选65Perplexity AI 发布了关于在 NVIDIA GB200 NVL72 Blackwell 机架上部署后训练 Qwen3 235B 模型的新研究。研究表明,GB200 不仅是训练平台,更是大型 MoE 模型高吞吐推理的重大升级,性能显著优于 Hopper 架构。该工作展示了如何利用 Blackwell 的硬件特性优化推理效率,为大规模 AI 服务提供新思路。AI模型推理模型PerplexityQwen3NVIDIA GB200MoE推荐理由:做大规模模型推理部署的团队值得关注——GB200 在 MoE 模型上的推理效率提升显著,Perplexity 的实践给出了可直接参考的优化路径。
AK@_akhaliq55TMAS(多智能体协同扩展测试时计算)是一种新方法,通过让多个AI智能体协同工作来提升模型推理能力,类似于OpenAI o1的“思考链”扩展。该技术无需修改模型参数,仅通过集成多个智能体在测试时分配计算资源,在数学、编程等复杂任务上取得显著效果。这意味着推理模型可能迎来无需大规模训练的升级路径,为资源有限的研究团队提供新思路。论文推理模型智能体多模态协同计算测试时扩展推荐理由:TMAS探索了多智能体协同扩展测试时计算的范式,无需额外训练即可提升模型性能,对推理模型和智能体系统的发展具有参考价值。
AK@_akhaliq65该研究提出了一种名为“叛逆学生”的新方法,通过反转教师模型的信号来训练学生模型,从而在推理中探索更多可能性。该方法结合了自蒸馏和强化学习(RLVR),允许学生模型学习超越教师模型的推理策略。实验表明,该技术能有效提升模型的推理能力和探索性,在多个基准测试中取得显著改进。这项工作对于如何利用弱监督或反向信号增强AI推理具有重要启示。论文推理模型强化学习自蒸馏反向信号推荐理由:该工作通过反转教师信号进行推理探索,为自蒸馏和强化学习结合提供了新思路,可能推动弱监督下推理模型的发展,值得关注。
AK@_akhaliq60TMAS是一种通过多智能体协同来扩展测试时计算的新方法。它通过让多个AI模型(智能体)在推理过程中协同工作,显著提升了复杂推理任务的表现。该方法的核心是让智能体之间进行交互和协作,从而更有效地利用计算资源。这为无需大规模预训练即可提升模型智能提供了一条新路径。对于现有AI系统的智能化升级具有重要启示意义。论文多智能体推理模型测试时计算协同/协作推荐理由:TMAS展示了通过多智能体协同而非单纯扩大模型规模来提升推理能力的新思路,对AI效率提升和实际部署有参考价值。
Together AI@togethercompute75DeepSeek V4 Pro在Together AI无服务器平台上发布,具备长上下文推理能力和领先的编程性能。该模型通过KV缓存、前缀重用、混合注意力、批处理、内核优化和端点配置等技术实现高效服务。来自@zhyncs42、@realDanFu等人的深入分析揭示了其技术细节。AI模型推理模型开源/仓库Together AI长上下文编程推荐理由:DeepSeek V4 Pro在长上下文推理和编程任务上的表现达到SOTA,同时其高效服务技术栈的公开分析对AI部署实践有重要参考价值。
Together AI@togethercompute50Yutori AI的浏览器代理产品(Scouts、Delegate、Navigator)基于Together AI推理平台运行,实现了相比前沿模型每步2倍的速度提升、4-5倍的推理成本降低,并保持99.9%的可用性与弹性扩展。这展示了在AI代理场景中,推理基础设施对产品性能的关键作用。AI产品智能体推理模型Together AIYutoriAI Native Cloud推荐理由:该案例说明了在浏览器AI代理这类高频率模型调用的场景下,专用推理基础设施可显著提升性能并降低成本,对AI代理产品落地具有参考价值。
AK@_akhaliq55Soohak是由数学家精心策划的基准测试,旨在评估大型语言模型(LLM)在科研级别数学问题上的能力。该基准涵盖高等数学的多个领域,包括代数、几何、分析等,要求模型不仅具备计算能力,还需展现推理和创新解题能力。这为评估LLM在专业数学研究中的应用潜力提供了更严格的测试标准。论文推理模型LLM数学评测基准测试Soohak推荐理由:Soohak填补了现有数学评测基准在科研深度上的空白,为AI在数学领域的前沿应用提供了更精确的评估工具,有助于推动模型在数学推理和问题解决上的进步。