AI21 Jamba 1.5 Mini
AI21 Jamba 1.5 Mini
AI21-Jamba-1.5-Mini模型适用于需要处理大量文本数据的企业用户,如自然语言处理领域的研究人员、开发者以及希望提升文本处理效率的企业。它特别适用于长文本生成、多语言翻译、问答系统和聊天机器人等场景。
总访问量: 29,742,941
占比最多地区: US(17.94%)
408
简介
AI21-Jamba-1.5-Mini是AI21实验室开发的最新一代混合SSM-Transformer指令跟随基础模型。这款模型以其卓越的长文本处理能力、速度和质量在市场上脱颖而出,相较于同类大小的领先模型,推理速度提升高达2.5倍。Jamba 1.5 Mini和Jamba 1.5 Large专为商业用例和功能进行了优化,如函数调用、结构化输出(JSON)和基础生成。
截图
产品特色
支持9种语言的文本生成,包括英语、西班牙语、法语、葡萄牙语、意大利语、荷兰语、德语、阿拉伯语和希伯来语。
具备长文本处理能力,上下文长度可达256K。
优化的商业使用案例,包括函数调用和结构化输出。
支持工具使用功能,能够根据Huggingface的工具使用API插入用户定义的工具。
支持基于文档的grounded generation,可以基于给定文档或文档片段回答问题或遵循指令。
支持JSON模式,能够根据请求输出有效的JSON格式数据。
提供了LoRA和QLoRA等微调示例,以适应不同的训练需求。
使用教程
安装必要的依赖库,如mamba-ssm和causal-conv1d。
使用vLLM或transformers库加载并运行模型。
根据需要调整模型参数,如温度、top_p等,以控制生成文本的多样性和相关性。
利用模型的工具使用功能,插入自定义的工具以扩展模型能力。
准备输入数据,可以是文本、JSON格式或其他结构化数据。
将输入数据传递给模型,获取模型生成的输出结果。
根据输出结果进行后处理,如解析JSON、提取特定信息等。
流量来源
直接访问48.39%外链引荐35.85%邮件0.03%
自然搜索12.76%社交媒体2.96%展示广告0.02%
最新流量情况
月访问量
25296.55k
平均访问时长
285.77
每次访问页数
5.83
跳出率
43.31%
总流量趋势图
地理流量分布情况
美国
17.94%
中国
17.08%
印度
8.40%
俄罗斯
4.58%
日本
3.42%
地理流量分布全球图