Deepeval
["评估语言模型应用的不同方面","与CI/CD集成进行自动化测试","快速迭代改进语言模型"]
总访问量: 474,564,576
占比最多地区: US(19.34%)
5,736
简介
DeepEval提供了不同方面的度量来评估LLM对问题的回答,以确保答案是相关的、一致的、无偏见的、非有毒的。这些可以很好地与CI/CD管道集成在一起,允许机器学习工程师快速评估并检查他们改进LLM应用程序时,LLM应用程序的性能是否良好。DeepEval提供了一种Python友好的离线评估方法,确保您的管道准备好投入生产。它就像是“针对您的管道的Pytest”,使生产和评估管道的过程与通过所有测试一样简单直接。
截图
产品特色
针对答案相关性、事实一致性、有毒性、偏见的测试
查看测试、实现和比较的Web UI
通过合成查询-答案自动评估
与LangChain等常见框架集成
合成查询生成
仪表板
流量来源
直接访问51.61%外链引荐33.46%邮件0.04%
自然搜索12.58%社交媒体2.19%展示广告0.11%
最新流量情况
月访问量
4.92m
平均访问时长
393.01
每次访问页数
6.11
跳出率
36.20%
总流量趋势图
地理流量分布情况
美国
19.34%
中国
13.25%
印度
9.32%
俄罗斯
4.28%
德国
3.63%
地理流量分布全球图
同类开源产品
SWE Bench Verified
优质新品
SWE-bench Verified是OpenAI发布的一个经过人工验证的SWE-bench子集,旨在更可靠地评估AI模型解决现实世界软件问题的能力。
AI模型评测#软件工程
Turtle Benchmark
Turtle Benchmark是一款基于'Turtle Soup'游戏的新型、无法作弊的基准测试,专注于评估大型语言模型(LLMs)的逻辑推理和上下文理解能力。
AI模型评测#逻辑推理
NVIDIA AI Foundry
国外精选
NVIDIA AI Foundry 是一个平台,旨在帮助企业构建、优化和部署 AI 模型。
AI开发平台#机器学习
扣子专业版
扣子专业版是一款企业级 AI 应用开发平台,旨在帮助用户快速、低门槛地构建个性化的 AI 应用,支持无编程技能的用户使用。
AI开发平台#无代码
Scale Leaderboard
国外精选
Scale Leaderboard是一个专注于AI模型性能评估的平台,提供专家驱动的私有评估数据集,确保评估结果的公正性和无污染。
AI模型评测#专家评审
Open LLM Leaderboard
Open LLM Leaderboard是一个由Hugging Face提供的空间,旨在展示和比较各种大型语言模型的性能。
AI模型评测#性能比较
Opencompass 2.0 Large Language Model Leaderboard
OpenCompass 2.0是一个专注于大型语言模型性能评估的平台。
AI模型评测#排行榜
Mmstar
MMStar是一个旨在评估大型视觉语言模型多模态能力的基准测试集。
AI模型评测#基准测试
MLE Bench
MLE-bench是由OpenAI推出的一个基准测试,旨在衡量AI代理在机器学习工程方面的表现。
AI模型评测#AI代理