File size: 738 Bytes
bba7597
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
187db80
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
---
library_name: transformers
license: apache-2.0
pipeline_tag: text-generation
tags:
  - AWQ
  - vLLM
base_model:
  - ogulcanakca/Kumru-2B-EPDK-Instruct
base_model_relation: quantized
---
# Kumru-2B-EPDK-Instruct-AWQ-4bit

`ogulcanakca/Kumru-2B-EPDK-Instruct` modelinin **AWQ (Activation-aware Weight Quantization)** ile 4-bit’e quantize edilmiş sürümünü içerir. Model, EPDK mevzuatı dokümanları üzerinde domain-adapte edilmiş ve SFT/DPO ile talimat takibi güçlendirilmiştir.

## Quantization Detayları

- Bit sayısı: `4` (`w_bit = 4`)
- Grup boyutu: `128` (`q_group_size = 128`)
- Zero point: `True` (`zero_point = True`)
- Format: `safetensors`
- Hedef kullanım: GPU inference, RAG + mevzuat asistanı senaryoları