Chouoftears-qwen3_4b_instruct_2507_sft_v1.F16.Q4_K_M.gguf

Overview (EN)

This repository provides a q4_k_m-quantized GGUF file derived from Chouoftears/qwen3_4b_instruct_2507_sft_v1.

Quick Start (llama.cpp)

./build/bin/llama-cli -m Chouoftears-qwen3_4b_instruct_2507_sft_v1.F16.Q4_K_M.gguf -p "Hello"

Quantization

  • Format: GGUF
  • Method: q4_k_m
  • File: Chouoftears-qwen3_4b_instruct_2507_sft_v1.F16.Q4_K_M.gguf
  • Size: ~2.33 GB

Provenance

  • Base model: Chouoftears/qwen3_4b_instruct_2507_sft_v1

Note: This repo contains inference-only quantized weights. Respect the upstream license and usage terms.


Présentation (FR)

Ce dépôt fournit un fichier GGUF q4_k_m issu de Chouoftears/qwen3_4b_instruct_2507_sft_v1.

Démarrage rapide (llama.cpp)

./build/bin/llama-cli -m Chouoftears-qwen3_4b_instruct_2507_sft_v1.F16.Q4_K_M.gguf -p "Bonjour"

Quantification

  • Format : GGUF
  • Méthode : q4_k_m
  • Fichier : Chouoftears-qwen3_4b_instruct_2507_sft_v1.F16.Q4_K_M.gguf
  • Taille : ~2.33 Go

Provenance

  • Modèle amont : Chouoftears/qwen3_4b_instruct_2507_sft_v1

Remarque : Ce dépôt contient uniquement des poids quantifiés pour l'inférence. Merci de respecter la licence et les conditions d'utilisation du modèle d'origine.

Downloads last month
7
GGUF
Model size
4B params
Architecture
qwen3
Hardware compatibility
Log In to view the estimation

4-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for ramgpt/Chouoftears-qwen3_4b_instruct_2507_sft_v1-GGUF-Q4_K_M

Quantized
(1)
this model