Llava
LLaVA适用于需要进行多模态聊天和科学问答的场景,例如日常用户应用和科学领域的推理。
总访问量: 80,956
占比最多地区: US(22.84%)
6,312
简介
LLaVA是一种新型的端到端训练的大型多模态模型,将视觉编码器和Vicuna相结合,实现了令人印象深刻的聊天能力,模仿多模态GPT-4的精神,并在科学问答方面取得了新的最高准确率。LLaVA的使用场景包括日常用户应用的多模态聊天和科学领域的多模态推理。LLaVA的数据、代码和检查点仅限于研究用途,并遵循CLIP、LLaMA、Vicuna和GPT-4的许可协议。
截图
产品特色
将视觉编码器和Vicuna相结合,实现多模态聊天和科学问答
使用语言-only GPT-4生成多模态语言-图像指令跟随数据
通过两个阶段的指令调整过程,实现预训练和微调
在视觉聊天和科学问答方面取得了令人印象深刻的表现
提供数据、代码和检查点的开源
流量来源
直接访问40.74%外链引荐45.90%邮件0.09%
自然搜索10.64%社交媒体2.03%展示广告0.57%
最新流量情况
月访问量
65.04k
平均访问时长
26.32
每次访问页数
1.35
跳出率
51.34%
总流量趋势图
地理流量分布情况
美国
22.84%
中国
10.00%
印度
9.00%
韩国
7.70%
英国
4.78%
地理流量分布全球图