Kumru-2B-EPDK-Instruct-AWQ-4bit

ogulcanakca/Kumru-2B-EPDK-Instruct modelinin AWQ (Activation-aware Weight Quantization) ile 4-bit’e quantize edilmiş sürümünü içerir. Model, EPDK mevzuatı dokümanları üzerinde domain-adapte edilmiş ve SFT/DPO ile talimat takibi güçlendirilmiştir.

Quantization Detayları

  • Bit sayısı: 4 (w_bit = 4)
  • Grup boyutu: 128 (q_group_size = 128)
  • Zero point: True (zero_point = True)
  • Format: safetensors
  • Hedef kullanım: GPU inference, RAG + mevzuat asistanı senaryoları
Downloads last month
49
Safetensors
Model size
2B params
Tensor type
I32
·
F16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for ogulcanakca/Kumru-2B-EPDK-Instruct-AWQ-4bit

Quantized
(3)
this model