arXiv cs.LG@Tiberiu Musat精选80该论文证明在固定精度下,循环神经网络的权重范数最小值与输出二进制字符串的柯尔莫哥洛夫复杂度成对数比例。这一结论将权重衰减的泛化能力与所罗门诺夫通用先验联系起来,揭示了正则化的理论基础。研究表明,固定精度下任何权重范数都会坍缩为非零参数计数,因此该结论适用于任意范数正则化器。证明通过将图灵机程序编码为神经权重和枚举非零参数两个方向实现,其中对数因子由置换编码实现。该结果强调固定精度假设的关键性,因为无限精度下神经网络可能编码非可计算函数。论文深度学习理论正则化柯尔莫哥洛夫复杂度泛化性推荐理由:为权重衰减的优越性提供了理论解释,将神经网络正则化与计算复杂性理论直接关联,对理解深度学习泛化机理有重要参考价值。