ALMA 13B R
ALMA 13B R
用户可以使用ALMA-R模型进行机器翻译,也可以下载相关数据集进行训练和微调,还可以部署模型进行实际应用。
总访问量: 29,742,941
占比最多地区: US(17.94%)
744
简介
ALMA-R模型,通过Contrastive Preference Optimization (CPO)进行了进一步的LoRA微调,超越了GPT-4和WMT获奖者。用户可以在GitHub仓库中下载ALMA(-R)模型和数据集。ALMA-R建立在ALMA模型的基础上,采用了我们提出的Contrastive Preference Optimization (CPO)进行微调,而不是ALMA中使用的Supervised Fine-tuning。CPO微调需要我们的三元组偏好数据进行偏好学习。ALMA-R现在可以匹配甚至超越GPT-4或WMT获奖者!
截图
产品特色
ALMA(-R)模型下载
数据集下载
机器翻译
模型微调
模型部署
流量来源
直接访问48.39%外链引荐35.85%邮件0.03%
自然搜索12.76%社交媒体2.96%展示广告0.02%
最新流量情况
月访问量
25296.55k
平均访问时长
285.77
每次访问页数
5.83
跳出率
43.31%
总流量趋势图
地理流量分布情况
美国
17.94%
中国
17.08%
印度
8.40%
俄罗斯
4.58%
日本
3.42%
地理流量分布全球图