File size: 738 Bytes
bba7597 187db80 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 |
---
library_name: transformers
license: apache-2.0
pipeline_tag: text-generation
tags:
- AWQ
- vLLM
base_model:
- ogulcanakca/Kumru-2B-EPDK-Instruct
base_model_relation: quantized
---
# Kumru-2B-EPDK-Instruct-AWQ-4bit
`ogulcanakca/Kumru-2B-EPDK-Instruct` modelinin **AWQ (Activation-aware Weight Quantization)** ile 4-bit’e quantize edilmiş sürümünü içerir. Model, EPDK mevzuatı dokümanları üzerinde domain-adapte edilmiş ve SFT/DPO ile talimat takibi güçlendirilmiştir.
## Quantization Detayları
- Bit sayısı: `4` (`w_bit = 4`)
- Grup boyutu: `128` (`q_group_size = 128`)
- Zero point: `True` (`zero_point = True`)
- Format: `safetensors`
- Hedef kullanım: GPU inference, RAG + mevzuat asistanı senaryoları |