AI21 Jamba 1.5 Large
AI21 Jamba 1.5 Large
AI21 Jamba 1.5 Large模型适用于需要处理大量数据和长文本的企业级应用,如自然语言处理、数据分析和机器学习领域。它的强大性能和多语言支持使其成为全球企业的理想选择。
总访问量: 29,742,941
占比最多地区: US(17.94%)
384
简介
AI21 Jamba 1.5系列模型是市场上最强大的长上下文模型之一,提供比同类领先模型快2.5倍的推理速度。这些模型展示了卓越的长上下文处理能力、速度和质量,是首次成功将非Transformer模型扩展到市场领先模型的质量和强度。
截图
产品特色
支持9种语言的文本生成
长上下文处理能力,上下文长度可达256K
优化的业务使用案例,如函数调用、结构化输出(JSON)和grounded generation
在多个基准测试中表现优异,如RULER、MMLU等
支持工具使用功能,与Huggingface的工具使用API兼容
支持JSON模式,能够输出有效的JSON格式数据
使用教程
安装必要的依赖,如mamba-ssm和causal-conv1d
使用vLLM或transformers库加载模型
根据需求配置模型参数,如tensor_parallel_size和quantization
准备输入数据,可以是文本、JSON或其他格式
调用模型的generate方法进行推理
处理模型输出,获取所需的结果
流量来源
直接访问48.39%外链引荐35.85%邮件0.03%
自然搜索12.76%社交媒体2.96%展示广告0.02%
最新流量情况
月访问量
25296.55k
平均访问时长
285.77
每次访问页数
5.83
跳出率
43.31%
总流量趋势图
地理流量分布情况
美国
17.94%
中国
17.08%
印度
8.40%
俄罗斯
4.58%
日本
3.42%
地理流量分布全球图