Roboticsdiffusiontransformer
Roboticsdiffusiontransformer
目标受众为机器人学、人工智能和机器学习领域的研究人员和开发者。由于RDT-1B模型在多机器人学习、模仿学习和双手操作任务上的应用,它特别适合那些需要在复杂环境中进行精确操作和学习从语言指令执行任务的研究人员和开发者。
总访问量: 474,564,576
占比最多地区: US(19.34%)
852
简介
RDT-1B是一个参数量达到1B(目前最大)的模仿学习扩散变换器,预训练在超过1M(目前最大)的多机器人情节上。给定语言指令和多达三个视图的RGB图像,RDT可以预测接下来的64个机器人动作。RDT与几乎所有现代移动操作器兼容,包括单臂到双臂、关节到末端执行器、位置到速度,甚至包括轮式运动。该模型在6K+(最大的之一)自收集的双手情节上进行了微调,并部署在ALOHA双臂机器人上。它在灵巧性、零样本泛化能力和少样本学习方面达到了最先进的性能。
截图
产品特色
模型实现:提供了RDT的模型实现代码。
预训练模型权重:提供了在多机器人数据上预训练的1M步RDT-1B模型权重。
训练和采样脚本:提供了带有DeepSpeed支持的训练和采样脚本。
实际机器人部署示例:提供了一个实际机器人部署的示例代码。
使用教程
1. 克隆代码库并安装先决条件。
2. 下载并链接多模态编码器。
3. 根据需要修改配置文件。
4. 准备数据集并实现数据集加载器。
5. 计算数据集统计信息。
6. 开始微调模型。
7. 微调完成后,将模型部署到实际机器人上。
流量来源
直接访问51.61%外链引荐33.46%邮件0.04%
自然搜索12.58%社交媒体2.19%展示广告0.11%
最新流量情况
月访问量
4.92m
平均访问时长
393.01
每次访问页数
6.11
跳出率
36.20%
总流量趋势图
地理流量分布情况
美国
19.34%
中国
13.25%
印度
9.32%
俄罗斯
4.28%
德国
3.63%
地理流量分布全球图