Multi Modal Large Language Models
Multi Modal Large Language Models
用于评估多模态大型语言模型的性能和可靠性
总访问量: 29,742,941
占比最多地区: US(17.94%)
516
简介
该工具旨在通过对最新专有和开源MLLMs进行定性研究,从文本、代码、图像和视频四个模态的角度,评估其泛化能力、可信度和因果推理能力,以提高MLLMs的透明度。我们相信这些属性是定义MLLMs可靠性的几个代表性因素,支持各种下游应用。具体而言,我们评估了闭源的GPT-4和Gemini以及6个开源LLMs和MLLMs。总体上,我们评估了230个手动设计的案例,定性结果总结为12个分数(即4个模态乘以3个属性)。总共,我们揭示了14个实证发现,有助于了解专有和开源MLLMs的能力和局限性,以更可靠地支持多模态下游应用。
截图
产品特色
评估MLLMs的泛化能力、可信度和因果推理能力
支持各种下游应用
流量来源
直接访问48.39%外链引荐35.85%邮件0.03%
自然搜索12.76%社交媒体2.96%展示广告0.02%
最新流量情况
月访问量
25296.55k
平均访问时长
285.77
每次访问页数
5.83
跳出率
43.31%
总流量趋势图
地理流量分布情况
美国
17.94%
中国
17.08%
印度
8.40%
俄罗斯
4.58%
日本
3.42%
地理流量分布全球图
同类开源产品
SWE Bench Verified
优质新品
SWE-bench Verified是OpenAI发布的一个经过人工验证的SWE-bench子集,旨在更可靠地评估AI模型解决现实世界软件问题的能力。
AI模型评测#软件工程
Turtle Benchmark
Turtle Benchmark是一款基于'Turtle Soup'游戏的新型、无法作弊的基准测试,专注于评估大型语言模型(LLMs)的逻辑推理和上下文理解能力。
AI模型评测#逻辑推理
The Prompt Report
优质新品
The Prompt Report 是一份系统性调研报告,专注于生成式人工智能(GenAI)的提示技术。
AI研究机构#提示技术
Scale Leaderboard
国外精选
Scale Leaderboard是一个专注于AI模型性能评估的平台,提供专家驱动的私有评估数据集,确保评估结果的公正性和无污染。
AI模型评测#专家评审
Open LLM Leaderboard
Open LLM Leaderboard是一个由Hugging Face提供的空间,旨在展示和比较各种大型语言模型的性能。
AI模型评测#性能比较
Opencompass 2.0 Large Language Model Leaderboard
OpenCompass 2.0是一个专注于大型语言模型性能评估的平台。
AI模型评测#排行榜
Mmstar
MMStar是一个旨在评估大型视觉语言模型多模态能力的基准测试集。
AI模型评测#基准测试
MLE Bench
MLE-bench是由OpenAI推出的一个基准测试,旨在衡量AI代理在机器学习工程方面的表现。
AI模型评测#AI代理
Multi Modal Large Language Models
该工具旨在通过对最新专有和开源MLLMs进行定性研究,从文本、代码、图像和视频四个模态的角度,评估其泛化能力、可信度和因果推理能力,以提高MLLMs的透明度。
AI模型评测#评估工具