arXiv cs.AI@Suorong Yang, Hanqi Zhu, Hai Gan, Fangjian Su, Guang Li, Furao Shen, Soujanya Poria精选58现有数据选择方法主要关注“选什么”,但固定选择比例,忽略了动态调整数据量的潜力。本文从优化角度揭示,选择比例会隐式调节正则化效果:低比例增强正则化,高比例保持数据覆盖和优化保真度。为此,提出PODS框架,作为轻量级即插即用模块,在训练中动态调度选择数据量,交替低比例正则化阶段和高比例恢复阶段,平衡效率与泛化。实验表明,PODS可将ImageNet-1k训练成本降低50%且提升准确率,将LLM指令微调加速2倍以上且不损失性能。论文数据选择训练效率正则化即插即用PODS推荐理由:PODS解决了数据选择中“选多少”被忽视的问题,做模型训练优化的团队可以直接集成到现有方法中,无需改动评分指标,值得一试。
arXiv cs.LG@Tiberiu Musat精选80该论文证明在固定精度下,循环神经网络的权重范数最小值与输出二进制字符串的柯尔莫哥洛夫复杂度成对数比例。这一结论将权重衰减的泛化能力与所罗门诺夫通用先验联系起来,揭示了正则化的理论基础。研究表明,固定精度下任何权重范数都会坍缩为非零参数计数,因此该结论适用于任意范数正则化器。证明通过将图灵机程序编码为神经权重和枚举非零参数两个方向实现,其中对数因子由置换编码实现。该结果强调固定精度假设的关键性,因为无限精度下神经网络可能编码非可计算函数。论文深度学习理论正则化柯尔莫哥洛夫复杂度泛化性推荐理由:为权重衰减的优越性提供了理论解释,将神经网络正则化与计算复杂性理论直接关联,对理解深度学习泛化机理有重要参考价值。