# 分布式训练
分布式训练
EPLB
优质新品
Expert Parallelism Load Balancer (EPLB)是一种用于深度学习中专家并行(EP)的负载均衡算法。
模型训练与部署#负载均衡开源
468
Dualpipe
优质新品
DualPipe是一种创新的双向流水线并行算法,由DeepSeek-AI团队开发。
模型训练与部署#分布式训练开源
612
Llasa Training
LLaSA_training 是一个基于 LLaMA 的语音合成训练项目,旨在通过优化训练时间和推理时间的计算资源,提升语音合成模型的效率和性能。
模型训练与部署#深度学习开源
780
Memory
Memory Layers at Scale 是一种创新的内存层实现方式,通过可训练的键值查找机制,在不增加浮点运算次数的情况下为模型增加额外的参数。
AI模型#模型扩展开源
372
Prime
PrimeIntellect-ai/prime是一个用于在互联网上高效、全球分布式训练AI模型的框架。
模型训练与部署#分布式训练开源
552
INTELLECT 1 Instruct
INTELLECT-1-Instruct是一个由Prime Intellect训练的10亿参数语言模型,从零开始在1万亿个英文文本和代码token上进行训练。
AI模型#分布式训练开源
168
Meta Lingua
Meta Lingua 是一个轻量级、高效的大型语言模型(LLM)训练和推理库,专为研究而设计。
模型训练与部署#PyTorch开源
384
Prime Intellect
国外精选
Prime Intellect是一个致力于AI开发规模化民主化的平台,提供全球计算资源的发现、模型训练以及共同拥有智能创新的能力。
开发平台#分布式训练
1,236
Opendiloco
优质新品
OpenDiLoCo是一个开源框架,用于实现和扩展DeepMind的分布式低通信(DiLoCo)方法,支持全球分布式AI模型训练。
AI开发助手#分布式训练
456
Zero Bubble Pipeline Parallelism
Zero Bubble Pipeline Parallelism是大规模分布式训练的关键组成部分之一,其效率受到管道泡沫的影响。
AI模型推理训练#管道并行开源
744