arXiv cs.AI@Guohui Zhang, XiaoXiao Ma, Jie Huang, Hang Xu, Hu Yu, Siming Fu, Yuming Li, Zeyue Xue, Lin Song, Haoyang Huang, Nan Duan, Feng Zhao精选65OmniNFT 提出了一种面向联合音视频生成的扩散强化学习框架,解决了多目标强化学习中优势不一致、梯度失衡和信用分配不均三大问题。该方法通过模态级优势路由、层级梯度手术和区域级损失重加权,显著提升了音频和视频的感知质量、跨模态对齐和音视频同步。在 JavisBench 和 VBench 基准测试中,基于 LTX-2 骨干的 OmniNFT 实现了全面性能提升。该工作为多模态生成任务中的强化学习应用提供了新范式。论文扩散模型强化学习多模态生成音视频对齐OmniNFT推荐理由:做多模态生成或音视频联合建模的团队,终于有了一个能同时优化模态内质量和跨模态对齐的 RL 框架,值得关注其方法论对自家任务的迁移潜力。
arXiv cs.AI@Runhui Huang, Jie Wu, Rui Yang, Zhe Liu, Hengshuang Zhao精选70AlphaGRPO 是一个将 GRPO 强化学习方法应用于统一多模态模型(UMMs)的新框架,无需冷启动阶段即可增强多模态生成能力。它让模型能够执行推理式文本到图像生成(主动推断用户隐含意图)和自反思优化(自主诊断并修正生成结果中的偏差)。为解决真实场景多模态生成的稳定监督问题,论文提出分解可验证奖励(DVReward),利用 LLM 将复杂请求拆解为原子化、可验证的语义与质量子问题,再由通用 MLLM 评估并提供可解释反馈。实验表明,AlphaGRPO 在 GenEval、TIIF-Bench、DPG-Bench 和 WISE 等基准上取得稳健提升,并在未训练编辑任务的情况下在 GEdit 上获得显著改进。论文多模态生成强化学习/GRPO自反思分解奖励文本到图像推荐理由:做多模态生成或强化学习对齐的团队值得关注——AlphaGRPO 用分解奖励解决了复杂指令的监督难题,让模型能自我反思修正,直接提升图像生成质量。