Kumru-2B-EPDK-Instruct-GPTQ-4bit

ogulcanakca/Kumru-2B-EPDK-Instruct modelinin GPTQ (4-bit post-training quantization) ile quantize edilmiş sürümünü içerir.

Quantization Detayları

  • Bit sayısı: 4
  • Dataset: "c4" (kalibrasyon için; Hugging Face tarafında otomatik çekilen küçük bir alt set)
  • Tokenizer: Aynı repo (ogulcanakca/Kumru-2B-EPDK-Instruct)
  • Hedef kullanım: GPU inference, RAG tabanlı hukuk/mevzuat asistanları
Downloads last month
8
Safetensors
Model size
2B params
Tensor type
I32
·
F16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for ogulcanakca/Kumru-2B-EPDK-Instruct-GPTQ-4bit

Quantized
(3)
this model