AITP
精选全部 AI 动态AI 日报Agent 接入关于更新日志信源提报反馈
登录 / 注册
AITOP
全部 AI 动态
AI 相关资讯全量信息流
全部博客资讯推文论文
全部模型产品行业论文技巧
标签:MoE×
5月14日
01:10
DeepSeek: GitHub 新仓库(资讯)
75
DeepSeek 开源了 DeepEP,这是首个专为 MoE(混合专家)模型设计的专家并行(EP)通信库。它提供了高吞吐、低延迟的 GPU 内核,支持训练和推理中的全到全通信。DeepEP 还支持低精度操作,如 FP8,并引入了高效的稀疏通信技术。该库已开源在 GitHub 上,开发者可以访问其 Pull Requests 页面了解更多。
AI模型DeepSeekMoEEP通信库开源/仓库分布式训练

推荐理由:MoE 模型的通信瓶颈一直是训练和推理的痛点,DeepEP 专为此优化,做大规模分布式训练的团队值得关注。
5月13日
21:35
DeepSeek: GitHub 新仓库(资讯)
0
DeepSeek 发布了 DeepEP,这是一个专为 MoE(混合专家)模型设计的高效通信库,旨在优化专家并行场景下的 GPU 通信效率。它支持低延迟推理和高吞吐量训练,并提供了节点内和节点间的通信优化。该库还引入了低精度操作和 FP8 调度,进一步提升了性能。对于使用 MoE 架构的团队,DeepEP 可以直接集成到现有框架中,显著减少通信开销。
AI模型MoE通信库DeepSeek开源/仓库GPU优化

推荐理由:MoE 模型的通信瓶颈是训练和推理的常见痛点,DeepEP 直接解决了这个问题。做大规模 MoE 训练或推理的团队,值得集成试试。