Moe 8x7B
该模型适用于各种文本生成任务,可以用于生成文章、对话、摘要等。
总访问量: 1,545,596
占比最多地区: US(13.62%)
504
简介
MistralAI的新8x7B混合专家(MoE)基础模型,用于文本生成。该模型使用混合专家架构,可以生成高质量的文本。该模型的优势是可以生成高质量的文本,可以用于各种文本生成任务。该模型的定价是根据使用情况而定,具体可以参考官方网站。该模型的定位是为了解决文本生成任务中的问题。
截图
产品特色
使用混合专家架构生成高质量文本
适用于各种文本生成任务
定价根据使用情况而定
流量来源
直接访问59.67%外链引荐27.80%邮件0.05%
自然搜索8.06%社交媒体4.26%展示广告0.16%
最新流量情况
月访问量
1469.26k
平均访问时长
476.46
每次访问页数
8.08
跳出率
34.11%
总流量趋势图
地理流量分布情况
美国
13.62%
印度
11.17%
越南
5.03%
巴西
4.41%
印度尼西亚
3.37%
地理流量分布全球图