AIM
适用于大规模图像数据的自回归预训练,以及需要训练大规模视觉模型的场景。
总访问量: 3,063,373
占比最多地区: US(14.90%)
960
简介
这篇论文介绍了AIM,这是一组使用自回归目标进行预训练的视觉模型。这些模型受其文本对应物,即大型语言模型(LLMs)的启发,并表现出类似的扩展特性。具体来说,我们强调了两个关键发现:(1)视觉特征的性能随着模型容量和数据量的增加而提高,(2)目标函数的价值与模型在下游任务上的性能相关。我们通过在20亿张图像上对70亿参数的AIM进行预训练,实现了在ImageNet-1k上使用冻结主干达到84.0%的准确率。有趣的是,即使在这个规模上,我们观察到性能没有饱和的迹象,这表明AIM可能代表了训练大规模视觉模型的新前沿。AIM的预训练类似于LLMs的预训练,并不需要任何图像特定的策略来稳定大规模训练。
截图
产品特色
自回归图像模型预训练
大规模视觉模型训练
性能优化和扩展
流量来源
直接访问68.03%外链引荐8.06%邮件0.04%
自然搜索22.79%社交媒体0.72%展示广告0.37%
最新流量情况
月访问量
3640.71k
平均访问时长
80.67
每次访问页数
1.97
跳出率
66.03%
总流量趋势图
地理流量分布情况
美国
14.90%
中国
14.23%
印度
7.95%
俄罗斯
4.48%
巴西
3.14%
地理流量分布全球图