Pixtral Large Instruct 2411
Pixtral Large Instruct 2411
目标受众为研究人员、开发者和企业,他们需要一个能够理解和处理大量图像与文本数据的高性能AI模型。Pixtral-Large-Instruct-2411以其强大的多模态处理能力和前沿的研究成果,非常适合需要进行复杂数据分析和模式识别的专业用户
总访问量: 29,742,941
占比最多地区: US(17.94%)
612
简介
Pixtral-Large-Instruct-2411是由Mistral AI研发的124B参数的大型多模态模型,基于Mistral Large 2构建,展现出前沿级别的图像理解能力。该模型不仅能够理解文档、图表和自然图像,同时保持了Mistral Large 2在文本理解方面的领先地位。它在MathVista、DocVQA、VQAv2等数据集上达到了最先进的性能,是科研和商业应用的强大工具。
截图
产品特色
前沿级多模态性能:在多个图像理解数据集上达到领先成绩。
扩展Mistral Large 2:在不牺牲文本性能的前提下,增加了对图像的理解能力。
123B多模态解码器和1B参数视觉编码器:提供了强大的图像和文本处理能力。
128K上下文窗口:能够适应至少30张高分辨率图像。
系统提示处理:强化了对系统提示的支持,以实现最佳效果。
基础指令模板(V7):提供了标准化的模板,以指导模型的响应。
研究目的使用:模型和衍生产品仅限于研究目的使用。
使用教程
1. 安装vLLM库:确保安装了vLLM >= v0.6.4.post1和mistral_common >= 1.5.0。
2. 启动服务器:使用vLLM serve命令启动Pixtral-Large-Instruct-2411模型的服务。
3. 配置系统提示:根据需要,加载并配置SYSTEM_PROMPT.txt文件,以指导模型的行为。
4. 构建请求:构建包含系统提示和用户消息的请求数据,包括文本和图像URL。
5. 发送请求:使用HTTP POST请求将数据发送到服务器,并接收模型的响应。
6. 处理响应:解析模型返回的响应,提取有用的信息。
7. 离线使用:如果需要,也可以在没有服务器的情况下,使用vLLM库直接在本地运行模型。
流量来源
直接访问48.39%外链引荐35.85%邮件0.03%
自然搜索12.76%社交媒体2.96%展示广告0.02%
最新流量情况
月访问量
25296.55k
平均访问时长
285.77
每次访问页数
5.83
跳出率
43.31%
总流量趋势图
地理流量分布情况
美国
17.94%
中国
17.08%
印度
8.40%
俄罗斯
4.58%
日本
3.42%
地理流量分布全球图