Qwen1.5 MoE A2.7B
Qwen1.5 MoE A2.7B
可用于对话系统、智能写作辅助、问答系统、代码自动补全等应用场景。
总访问量: 4,314,278
占比最多地区: CN(27.25%)
1,392
简介
Qwen1.5-MoE-A2.7B是一款大规模的MoE(Mixture of Experts)语言模型,仅有27亿个激活参数,但性能可与70亿参数模型相媲美。相比传统大模型,该模型训练成本降低75%,推理速度提高1.74倍。它采用特别的MoE架构设计,包括细粒度专家、新的初始化方法和路由机制等,大幅提升了模型效率。该模型可用于自然语言处理、代码生成等多种任务。
截图
产品特色
自然语言处理
代码生成
多语言支持
低训练成本
高推理效率
流量来源
直接访问38.66%外链引荐43.06%邮件0.07%
自然搜索14.53%社交媒体3.45%展示广告0.24%
最新流量情况
月访问量
1307.79k
平均访问时长
53.39
每次访问页数
1.66
跳出率
58.51%
总流量趋势图
地理流量分布情况
中国
27.25%
美国
20.15%
印度
4.02%
俄罗斯
2.18%
韩国
2.11%
地理流量分布全球图