Model Card

vngrs-ai/Kumru-2B-Base modelinin iki aşamalı (DAPT + DPO) bir fine-tuning sürecinden geçirilmesiyle oluşturulmuş nihai modelidir. Model, Enerji Piyasası Düzenleme Kurumu (EPDK) mevzuatları konusunda uzmanlaşmış bir instruct modelidir.

Bu model, llama.cpp ve Ollama gibi platformlarda kullanılmak üzere ogulcanakca/Kumru-2B-EPDK-Instruct-GGUF reposunda GGUF formatında da mevcuttur.

!pip install -q \
    "transformers" \
    "peft" \
    "accelerate" \
    "bitsandbytes" \
    "trl" \
    "datasets"

from transformers import AutoModelForCausalLM, AutoTokenizer, BitsAndBytesConfig
import torch

model_name = "ogulcanakca/Kumru-2B-EPDK-Instruct"

# 4-bit QLoRA ile yükleme
bnb_config = BitsAndBytesConfig(
    load_in_4bit=True,
    bnb_4bit_quant_type="nf4",
    bnb_4bit_compute_dtype=torch.float16 # T4 için
)

tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained(
    model_name,
    quantization_config=bnb_config,
    device_map="auto",
    trust_remote_code=True
)
model.eval()

prompt_soru = "2007 yılına ait Türkiye Ortalama Elektrik Toptan Satış Fiyatının (TORETOSAF) değeri nedir?"

messages = [
    {"role": "user", "content": prompt_soru}
]

input_text = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
inputs = tokenizer(input_text, return_tensors="pt").to(model.device)

inputs.pop("token_type_ids", None)

with torch.no_grad():
    outputs = model.generate(
        **inputs,
        max_new_tokens=150,
        temperature=0.2,
        do_sample=True,
        pad_token_id=tokenizer.eos_token_id
    )

response_start_index = inputs.input_ids.shape[1]
print(tokenizer.decode(outputs[0][response_start_index:], skip_special_tokens=True))

GGUF (llama.cpp)

GGUF Reposu: 👉 ogulcanakca/Kumru-2B-EPDK-Instruct-GGUF

WandB

WandB report

{
  "prompt": "2007 yılına ait Türkiye Ortalama Elektrik Toptan Satış Fiyatının (TORETOSAF) değeri nedir?",
  "Instruct Model": "TORETOSAF, 2013 yılı için, 12 aylık TÜFE ile TEFE arasındaki farktır. 2013 yılı için % 10,11’dir."
}
Downloads last month
264
Safetensors
Model size
2B params
Tensor type
F16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for ogulcanakca/Kumru-2B-EPDK-Instruct

Finetuned
(5)
this model
Quantizations
3 models

Datasets used to train ogulcanakca/Kumru-2B-EPDK-Instruct

Collection including ogulcanakca/Kumru-2B-EPDK-Instruct

Evaluation results