Ministral 8B Instruct 2410
Ministral 8B Instruct 2410
目标受众为研究人员、开发者和企业,他们需要一个高性能的语言模型来处理复杂的自然语言处理任务,包括但不限于语言翻译、文本摘要、问答系统和聊天机器人等。该模型特别适合于需要在本地设备或边缘环境中进行计算的场景,以减少对中心化云服务的依赖,提高数
总访问量: 29,742,941
占比最多地区: US(17.94%)
648
简介
Ministral-8B-Instruct-2410是由Mistral AI团队开发的一款大型语言模型,专为本地智能、设备端计算和边缘使用场景设计。该模型在类似的大小模型中表现优异,支持128k上下文窗口和交错滑动窗口注意力机制,能够在多语言和代码数据上进行训练,支持函数调用,词汇量达到131k。Ministral-8B-Instruct-2410模型在各种基准测试中表现出色,包括知识与常识、代码与数学以及多语言支持等方面。该模型在聊天/竞技场(gpt-4o判断)中的性能尤为突出,能够处理复杂的对话和任务。
截图
产品特色
支持128k上下文窗口和交错滑动窗口注意力机制
在多语言和代码数据上进行训练
支持函数调用
词汇量达到131k
在知识与常识、代码与数学以及多语言支持等方面的基准测试中表现优异
适用于聊天/竞技场(gpt-4o判断)中的复杂对话和任务处理
使用教程
1. 安装vLLM库和mistral_common库
2. 使用pip命令进行安装:`pip install --upgrade vllm` 和 `pip install --upgrade mistral_common`
3. 从Hugging Face Hub下载模型并使用vLLM库进行推理
4. 根据需要设置SamplingParams,例如最大令牌数
5. 创建LLM实例并提供模型名称、tokenizer模式、config格式和load格式
6. 准备输入提示并将其作为消息列表传递给LLM实例
7. 调用chat方法并获取输出结果
流量来源
直接访问48.39%外链引荐35.85%邮件0.03%
自然搜索12.76%社交媒体2.96%展示广告0.02%
最新流量情况
月访问量
25296.55k
平均访问时长
285.77
每次访问页数
5.83
跳出率
43.31%
总流量趋势图
地理流量分布情况
美国
17.94%
中国
17.08%
印度
8.40%
俄罗斯
4.58%
日本
3.42%
地理流量分布全球图