SWE Bench Verified
SWE Bench Verified
SWE-bench Verified主要面向AI研究者和软件开发者,他们需要评估和理解大型语言模型在软件工程任务中的表现和能力。通过这个工具,用户可以更准确地衡量AI模型的编程能力和问题解决技巧,进而优化和提升模型的性能。
总访问量: 505,000,892
占比最多地区: US(17.26%)
672
简介
SWE-bench Verified是OpenAI发布的一个经过人工验证的SWE-bench子集,旨在更可靠地评估AI模型解决现实世界软件问题的能力。它通过提供代码库和问题描述,挑战AI生成解决所描述问题的补丁。这个工具的开发是为了提高模型自主完成软件工程任务的能力评估的准确性,是OpenAI准备框架中中等风险级别的关键组成部分。
截图
产品特色
从GitHub问题中提取并创建测试样本
提供FAIL_TO_PASS和PASS_TO_PASS测试以验证代码的正确性
人工注释筛选,确保测试样本的质量和问题描述的明确性
使用容器化的Docker环境简化评估过程,提高可靠性
与SWE-bench作者合作开发新的评估工具
GPT-4o在SWE-bench Verified上的表现显著提高,解决了33.2%的样本
使用教程
步骤一:下载并安装SWE-bench Verified工具。
步骤二:准备或选择一个GitHub代码库以及相关的问题描述。
步骤三:使用SWE-bench Verified提供的环境和测试框架对AI模型进行评估。
步骤四:运行FAIL_TO_PASS和PASS_TO_PASS测试,检查AI模型生成的补丁是否解决了问题并且没有破坏现有功能。
步骤五:根据测试结果分析AI模型的性能,并据此进行模型优化。
步骤六:将评估结果和反馈整合到模型训练和迭代过程中,以提高模型的软件工程能力。
流量来源
直接访问35.34%外链引荐46.92%邮件0.05%
自然搜索17.37%社交媒体0.29%展示广告0.03%
最新流量情况
月访问量
7.01m
平均访问时长
121.26
每次访问页数
2.18
跳出率
59.77%
总流量趋势图
地理流量分布情况
美国
17.26%
印度
9.02%
巴西
6.18%
日本
5.57%
英国
3.62%
地理流量分布全球图
同类开源产品
SWE Bench Verified
优质新品
SWE-bench Verified是OpenAI发布的一个经过人工验证的SWE-bench子集,旨在更可靠地评估AI模型解决现实世界软件问题的能力。
AI模型评测#软件工程
Turtle Benchmark
Turtle Benchmark是一款基于'Turtle Soup'游戏的新型、无法作弊的基准测试,专注于评估大型语言模型(LLMs)的逻辑推理和上下文理解能力。
AI模型评测#逻辑推理
NVIDIA AI Foundry
国外精选
NVIDIA AI Foundry 是一个平台,旨在帮助企业构建、优化和部署 AI 模型。
AI开发平台#机器学习
扣子专业版
扣子专业版是一款企业级 AI 应用开发平台,旨在帮助用户快速、低门槛地构建个性化的 AI 应用,支持无编程技能的用户使用。
AI开发平台#无代码
Scale Leaderboard
国外精选
Scale Leaderboard是一个专注于AI模型性能评估的平台,提供专家驱动的私有评估数据集,确保评估结果的公正性和无污染。
AI模型评测#专家评审
Open LLM Leaderboard
Open LLM Leaderboard是一个由Hugging Face提供的空间,旨在展示和比较各种大型语言模型的性能。
AI模型评测#性能比较
Opencompass 2.0 Large Language Model Leaderboard
OpenCompass 2.0是一个专注于大型语言模型性能评估的平台。
AI模型评测#排行榜
Mmstar
MMStar是一个旨在评估大型视觉语言模型多模态能力的基准测试集。
AI模型评测#基准测试
MLE Bench
MLE-bench是由OpenAI推出的一个基准测试,旨在衡量AI代理在机器学习工程方面的表现。
AI模型评测#AI代理