# 长上下文
长上下文
Modernbert Large
ModernBERT-large是一个现代化的双向编码器Transformer模型(BERT风格),在2万亿个英文和代码数据上预训练,具有长达8192个token的原生上下文长度。
AI搜索#Transformer开源
504
Qwen2.5 Coder 1.5B Instruct GPTQ Int8
Qwen2.5-Coder是Qwen大型语言模型的最新系列,专注于代码生成、代码推理和代码修复。
#代码推理开源
192
Qwen2.5 Coder 3B Instruct GPTQ Int8
Qwen2.5-Coder-3B-Instruct-GPTQ-Int8是Qwen2.5-Coder系列中的一种大型语言模型,专门针对代码生成、代码推理和代码修复进行了优化。
#代码推理开源
336
AI21 Jamba 1.5 Large
优质新品
AI21 Jamba 1.5系列模型是市场上最强大的长上下文模型之一,提供比同类领先模型快2.5倍的推理速度。
AI模型#长上下文开源
384
Gemini Pro
Gemini Pro是DeepMind推出的一款高性能多模态AI模型,专为广泛的任务设计,具有高达两百万token的长上下文窗口,能够处理大规模文档、代码、音频和视频等。
AI模型#多模态
1,116
Longva
LongVA是一个能够处理超过2000帧或超过200K视觉标记的长上下文转换模型。
AI模型#视觉模型开源
564
Samba
优质新品
Samba是一个简单而强大的混合模型,具有无限的上下文长度。
AI模型#机器学习开源
648
Qwen1.5
中文精选
Qwen1.5是Qwen系列的下一个版本,提供了基础和聊天模型的开源版本,覆盖了0.5B到72B的多个规模。
AI模型#多语言开源
25.78k
Flash Decoding
国外精选
Flash-Decoding是一种针对长上下文推理的技术,可以显著加速推理中的注意力机制,从而使生成速度提高8倍。
AI模型#注意力机制
2,508