AK@_akhaliq75Apple 发布了一项关于 On-Policy Distillation 的研究,探讨了这种知识蒸馏方法在哪些场景下有效、哪些场景下有害,并分析了背后的原因。该研究旨在帮助 AI 开发者更好地理解和应用蒸馏技术,以优化模型性能。关键发现包括:On-Policy Distillation 在特定任务中能显著提升学生模型的表现,但在某些情况下可能导致性能下降。研究还揭示了蒸馏过程中数据分布和模型容量等因素的影响。这项工作为 AI 训练提供了实用指导,尤其适用于资源受限的部署场景。论文知识蒸馏On-Policy Distillation模型优化AppleAI 训练推荐理由:Apple 这篇研究把 On-Policy Distillation 的坑和甜点都讲透了,做模型压缩或部署的团队可以直接参考,避免踩坑。
Shashikant Kore@kshashi40此推文引用Goodhart's Law(古德哈特定律),指出当一项指标成为目标时,它就不再是一个好的指标。在AI领域,过度优化基准测试或评估指标可能导致模型表现失真,忽视真实能力。这提醒AI从业者要关注评估体系的可靠性,避免指标陷阱。行业AI安全评估指标Goodhart's Law模型优化推荐理由:对AI从业者的重要提醒:评估指标需与真实目标一致,否则可能误导模型优化方向。