# 量化模型
量化模型
Llama 3 Patronus Lynx 8B Instruct Q4 K M GGUF
该模型是量化版大型语言模型,采用4位量化技术,降低存储与计算需求,适用于自然语言处理,参数量8.03B,免费且可用于非商业用途,适合资源受限环境下高性能语言应用需求者。
AI模型#量化模型开源
576
Llama 3 Patronus Lynx 70B Instruct Q4 K M GGUF
PatronusAI/Llama-3-Patronus-Lynx-70B-Instruct-Q4_K_M-GGUF是一个基于70B参数的大型量化语言模型,使用了4-bit量化技术,以减少模型大小并提高推理效率。
AI模型#Transformers开源
336
Llama Lynx 70b 4bit Quantized
Llama-Lynx-70b-4bit-Quantized是由PatronusAI开发的一个大型文本生成模型,具有70亿参数,并且经过4位量化处理,以优化模型大小和推理速度。
AI模型#对话系统开源
312
Glider Gguf
PatronusAI/glider-gguf是一个基于Hugging Face平台的高性能量化语言模型,采用GGUF格式,支持多种量化版本,如BF16、Q8_0、Q5_K_M、Q4_K_M等。
AI模型#量化模型开源
432
EXAONE 3.5 2.4B Instruct GGUF
EXAONE-3.5-2.4B-Instruct-GGUF是由LG AI Research开发的一系列双语(英语和韩语)指令调优的生成型模型,参数范围从2.4B到32B。
AI模型#双语模型开源
252
Qwen2.5 Coder 0.5B Instruct GGUF
Qwen2.5-Coder是Qwen大型语言模型的最新系列,专注于代码生成、代码推理和代码修复。
#代码推理开源
264
Meta Llama 3 120B Instruct
Meta-Llama-3-120B-Instruct 是一个基于 Meta-Llama-3-70B-Instruct 通过 MergeKit 自我合并的大型语言模型。
AI模型#创意写作开源
1,476
FP6 LLM
FP6-LLM是一种用于大型语言模型的全新支持方案,通过六位量化(FP6)有效地减小了模型大小,并在各种应用中始终保持模型质量。
AI模型#GPU推理开源
864