ogulcanakca's picture
Update README.md
49f853e verified
metadata
base_model: vngrs-ai/Kumru-2B-Base
license: apache-2.0
tags:
  - transformers
  - dpo
  - dapt
  - kumru
  - epdk
  - causal-lm
  - text-generation-inference
  - unsloth
  - mistral
  - trl
language:
  - tr
datasets:
  - ogulcanakca/epdk_dpo
  - ogulcanakca/epdk_corpus
pipeline_tag: text-generation
library_name: transformers
model-index:
  - name: Kumru-2B-EPDK-Instruct
    results:
      - task:
          name: EPDK Domain Instruction Following
          type: text-generation
          args:
            num_samples: 60
            evaluation_method: LLM-as-a-Judge (Gemini 2.5 Flash)
        metrics:
          - name: ogulcanakca/Kumru-2B-EPDK-Instruct Answer Win Rate
            type: win_rate
            value: 0.717
          - name: vngrs-ai/Kumru-2B Answer Average
            type: custom_metric
            value: 0.367
          - name: ogulcanakca/Kumru-2B-EPDK-Instruct Answer Average
            type: custom_metric
            value: 0.643

Model Card

vngrs-ai/Kumru-2B-Base modelinin iki aşamalı (DAPT + DPO) bir fine-tuning sürecinden geçirilmesiyle oluşturulmuş nihai modelidir. Model, Enerji Piyasası Düzenleme Kurumu (EPDK) mevzuatları konusunda uzmanlaşmış bir instruct modelidir.

Bu model, llama.cpp ve Ollama gibi platformlarda kullanılmak üzere ogulcanakca/Kumru-2B-EPDK-Instruct-GGUF reposunda GGUF formatında da mevcuttur.

!pip install -q \
    "transformers" \
    "peft" \
    "accelerate" \
    "bitsandbytes" \
    "trl" \
    "datasets"

from transformers import AutoModelForCausalLM, AutoTokenizer, BitsAndBytesConfig
import torch

model_name = "ogulcanakca/Kumru-2B-EPDK-Instruct"

# 4-bit QLoRA ile yükleme
bnb_config = BitsAndBytesConfig(
    load_in_4bit=True,
    bnb_4bit_quant_type="nf4",
    bnb_4bit_compute_dtype=torch.float16 # T4 için
)

tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True)
model = AutoModelForCausalLM.from_pretrained(
    model_name,
    quantization_config=bnb_config,
    device_map="auto",
    trust_remote_code=True
)
model.eval()

prompt_soru = "2007 yılına ait Türkiye Ortalama Elektrik Toptan Satış Fiyatının (TORETOSAF) değeri nedir?"

messages = [
    {"role": "user", "content": prompt_soru}
]

input_text = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
inputs = tokenizer(input_text, return_tensors="pt").to(model.device)

inputs.pop("token_type_ids", None)

with torch.no_grad():
    outputs = model.generate(
        **inputs,
        max_new_tokens=150,
        temperature=0.2,
        do_sample=True,
        pad_token_id=tokenizer.eos_token_id
    )

response_start_index = inputs.input_ids.shape[1]
print(tokenizer.decode(outputs[0][response_start_index:], skip_special_tokens=True))

GGUF (llama.cpp)

GGUF Reposu: 👉 ogulcanakca/Kumru-2B-EPDK-Instruct-GGUF

WandB

WandB report

{
  "prompt": "2007 yılına ait Türkiye Ortalama Elektrik Toptan Satış Fiyatının (TORETOSAF) değeri nedir?",
  "Instruct Model": "TORETOSAF, 2013 yılı için, 12 aylık TÜFE ile TEFE arasındaki farktır. 2013 yılı için % 10,11’dir."
}