Aya Vision 32B
Aya Vision 32B
该模型适合研究人员、开发者以及需要处理视觉语言任务的企业,尤其是那些需要多语言支持和高性能模型的用户。
总访问量: 25,296,546
占比最多地区: US(17.94%)
1,104
简介
Aya Vision 32B 是由 Cohere For AI 开发的先进视觉语言模型,拥有 320 亿参数,支持 23 种语言,包括英语、中文、阿拉伯语等。该模型结合了最新的多语言语言模型 Aya Expanse 32B 和 SigLIP2 视觉编码器,通过多模态适配器实现视觉与语言理解的结合。它在视觉语言领域表现出色,能够处理复杂的图像与文本任务,如 OCR、图像描述、视觉推理等。该模型的发布旨在推动多模态研究的普及,其开源权重为全球研究人员提供了强大的工具。该模型遵循 CC-BY-NC 许可证,并需遵守 Cohere For AI 的合理使用政策。
截图
产品特色
支持 23 种语言,覆盖多种语言场景
能够处理图像输入并生成文本输出
支持 16K 上下文长度,适合复杂任务
提供交互式体验,如 Cohere Playground 和 Hugging Face Space
可通过 WhatsApp 与模型进行聊天交互
使用教程
安装必要的 transformers 库:`pip install 'git+https://github.com/huggingface/transformers.git@v4.49.0-AyaVision'`
加载模型和处理器:`AutoProcessor.from_pretrained(model_id)` 和 `AutoModelForImageTextToText.from_pretrained(model_id)`
准备输入数据,包括图像和文本内容
使用 `processor.apply_chat_template` 方法格式化输入数据
调用模型的 `generate` 方法生成输出文本
解码生成的 token 并获取最终结果
流量来源
直接访问48.39%外链引荐35.85%邮件0.03%
自然搜索12.76%社交媒体2.96%展示广告0.02%
最新流量情况
月访问量
25296.55k
平均访问时长
285.77
每次访问页数
5.83
跳出率
43.31%
总流量趋势图
地理流量分布情况
美国
17.94%
中国
17.08%
印度
8.40%
俄罗斯
4.58%
日本
3.42%
地理流量分布全球图