Model Card

ogulcanakca/Kumru-2B-EPDK-Instruct modelinin (iki aşamalı DAPT + DPO ile eğitilmiş) GGUF formatına dönüştürülmüş versiyonlarını içerir.

Bu dosyalar, llama.cpp, Ollama, LM Studio ve diğer GGUF uyumlu platformlarda GPU olmadan CPU üzerinde verimli bir şekilde çalışmak üzere optimize edilmiştir.

Ana Model: 👉 ogulcanakca/Kumru-2B-EPDK-Instruct

Eğitim Detayları

Bu GGUF dosyaları, iki aşamalı bir süreçle eğitilmiş bir modelden dönüştürülmüştür:

  1. DAPT: vngrs-ai/Kumru-2B-Base modeli, ogulcanakca/epdk_corpus (domain terminolojisi) üzerinde eğitildi ve ogulcanakca/Kumru-2B-EPDK-dapt oluşturuldu.
  2. DPO: Model, ogulcanakca/epdk_dpo (24.5k+ sentetik prompt/chosen/rejected üçlüsü) veri setiyle DPO yöntemi kullanılarak "sohbet" ve "tercih" için eğitildi ve ogulcanakca/Kumru-2B-EPDK-DPO oluşturuldu..
  3. Merge: DAPT ve DPO adaptörleri, unsloth kütüphanesi kullanılarak Kumru-2B-Base modeline birleştirildi ve ogulcanakca/Kumru-2B-EPDK-Instruct oluşturuldu.
  4. Convert: Nihai birleştirilmiş model (ogulcanakca/Kumru-2B-EPDK-Instruct), llama.cpp kullanarak bu GGUF dosyalarına dönüştürüldü.

WandB Eğitim Raporu: 👉 WandB Raporu (DPO Aşaması)

Downloads last month
109
GGUF
Model size
2B params
Architecture
llama
Hardware compatibility
Log In to view the estimation

4-bit

5-bit

6-bit

8-bit

16-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for ogulcanakca/Kumru-2B-EPDK-Instruct-GGUF

Quantized
(3)
this model