Phi 3 Mini 128k Instruct Onnx
Phi 3 Mini 128k Instruct Onnx
["• 机器学习研究人员和开发人员,可利用这个优化模型提高推理性能","• 需要在不同设备(服务器、Windows、Linux、Mac、移动设备)上部署大型语言模型的企业和组织","• 对话系统、问答系统、内容生成等任务的从业者,可使用该模
总访问量: 29,742,941
占比最多地区: US(17.94%)
1,380
简介
Phi-3 Mini是一个轻量级的顶尖开源模型,建立在Phi-2使用的合成数据和过滤网站之上,专注于高质量的推理密集型数据。这个模型属于Phi-3系列,mini版本有两个变体支持4K和128K上下文长度。该模型经过了严格的增强过程,包括监督式微调和直接偏好优化,以确保精准遵循指令和强大的安全措施。这些经过ONNX优化的Phi-3 Mini模型可在CPU、GPU和移动设备上高效运行。微软还推出了ONNX Runtime Generate() API,简化了Phi-3的使用。
截图
产品特色
• 支持ONNX格式,可加速在CPU、GPU和移动设备上的推理
• 提供多种优化配置,包括用于DirectML的int4量化、用于NVIDIA GPU的fp16和int4量化、用于CPU和移动设备的int4量化等
• 经过增强训练,确保精准遵循指令和强大的安全性
• 轻量级设计,专注于高质量推理密集型数据
• 提供新的ONNX Runtime Generate() API,简化Phi-3的使用
• 在多种硬件和平台上进行了性能测试和优化
使用教程
1. 从GitHub仓库下载适合您的硬件配置的ONNX模型文件。
2. 安装必要的Python包,如ONNX Runtime、transformers等。
3. 使用ONNX Runtime Generate() API加载模型并进行推理。
4. 准备您的输入文本或指令。
5. 调用模型进行预测或生成输出。
6. 根据需要对输出结果进行后处理。
7. 将生成的输出集成到您的应用程序或工作流程中。
流量来源
直接访问48.39%外链引荐35.85%邮件0.03%
自然搜索12.76%社交媒体2.96%展示广告0.02%
最新流量情况
月访问量
25296.55k
平均访问时长
285.77
每次访问页数
5.83
跳出率
43.31%
总流量趋势图
地理流量分布情况
美国
17.94%
中国
17.08%
印度
8.40%
俄罗斯
4.58%
日本
3.42%
地理流量分布全球图