# 注意力机制
注意力机制
Flexheadfa
FlexHeadFA 是一个基于 FlashAttention 的改进模型,专注于提供快速且内存高效的精确注意力机制。
模型训练与部署#注意力机制开源
492
Moba
MoBA(Mixture of Block Attention)是一种创新的注意力机制,专为长文本上下文的大语言模型设计。
模型训练与部署#注意力机制开源
576
Flashinfer
FlashInfer是一个专为大型语言模型(LLM)服务而设计的高性能GPU内核库。
开发与工具#GPU开源
924
Star Attention
Star-Attention是NVIDIA提出的一种新型块稀疏注意力机制,旨在提高基于Transformer的大型语言模型(LLM)在长序列上的推理效率。
模型训练与部署#大型语言模型开源
456
Motionclr
MotionCLR是一个基于注意力机制的运动扩散模型,专注于人类动作的生成和编辑。
AI模型#注意力机制
420
Mobilellm
MobileLLM是一种针对移动设备优化的小型语言模型,专注于设计少于十亿参数的高质量LLMs,以适应移动部署的实用性。
AI模型#移动设备开源
444
Flashattention
FlashAttention是一个开源的注意力机制库,专为深度学习中的Transformer模型设计,以提高计算效率和内存使用效率。
AI模型#Transformer开源
396
Mamba 2
优质新品
Mamba-2是Goomba AI Lab开发的一种新型序列模型,旨在提高机器学习社区中序列模型的效率和性能。
AI模型#状态空间模型开源
624
Era3d
Era3D是一个开源的高分辨率多视角扩散模型,它通过高效的行注意力机制来生成高质量的图像。
AI图像生成#多视角开源
1,104
Gemma 2B 10M
Gemma 2B - 10M Context是一个大规模的语言模型,它通过创新的注意力机制优化,能够在内存使用低于32GB的情况下处理长达10M的序列。
AI模型#注意力机制开源
768
Mixture Of Attention (MoA)
Mixture-of-Attention (MoA) 是一种用于个性化文本到图像扩散模型的新架构,它通过两个注意力路径——个性化分支和非个性化先验分支——来分配生成工作负载。
AI图像生成#个性化开源
1,104
LLM Transparency Tool
LLM Transparency Tool(LLM-TT)是一个开源的交互式工具包,用于分析基于Transformer的语言模型的内部工作机制。
AI模型#Transformer开源
1,104
Flash Decoding
国外精选
Flash-Decoding是一种针对长上下文推理的技术,可以显著加速推理中的注意力机制,从而使生成速度提高8倍。
AI模型#注意力机制
2,508