Türkçe
Collection
Türkçe dilinde de eğitilmiş, anlamlı ve faydalı Türkçe yanıt verebilen modeller. Llama modelleri Türkçe konusunda pek yeterli değil maalesef.
•
36 items
•
Updated
•
2
Quantized with llama.cpp using all-gguf-same-where
Aşağıdaki yerel modeller, Türkçe metin üretimi ve anlama yetenekleri açısından kapsamlı şekilde test edilmiştir:
CohereForAI/c4ai-command-r7b-arabic-02-2025CohereForAI/c4ai-command-r7b-12-2024 CohereForAI/aya-expanse-8bytu-ce-cosmos/Turkish-Llama-8b-Instruct-v0.1google/gemma-3-4b-itgoogle/gemma-3-4b-pt-qat-q4_0-ggufModeller şu 3 temel soruyla değerlendirilmiştir:
1. "Türkiye'deki en önemli 3 tarihi eseri ve kültürel önemini açıklar mısın?"
2. "İstanbul'un Asya-Avrupa yakası farklarını İngilizce/Türkçe karşılaştır"
3. "Antalya'da 3 günlük turist planı hazırla"
| Model | Kültürel Doğruluk | Dil Akıcılığı | Çok Dillilik | En Güçlü Yönü |
|---|---|---|---|---|
| Turkish-Llama-8B | ⭐⭐⭐⭐⭐ | ⭐⭐⭐⭐⭐ | ⭐ | Metaforik anlatım ve yerel bağlam |
| Aya-Expanse-8B | ⭐⭐⭐⭐ | ⭐⭐⭐⭐ | ⭐⭐⭐⭐⭐ | 20+ dil desteği |
| Command R7B Arabic | ⭐⭐⭐ | ⭐⭐⭐ | ⭐⭐⭐ | Arapça-Türkçe çeviri |
Tüm model yanıtlarını detaylı incelemek için:
📂 Türkçe Destekli Model Karşılaştırmaları
- 🔥 **Türkçe Öncelikli Projeler** → `Turkish-Llama-8B` (En yüksek kültürel uyum)
- 🌐 **Çok Dilli Uygulamalar** → `Aya-Expanse-8B`
- 📜 **Resmi Dokümanlar** → `Command R7B` serisi
- 📱 **Düşük Kaynak** → `Gemma-3-4B` (Android uyumlu)
"Yerel modellerle yaptığım testlerde özellikle Turkish-Llama-8B'nin Türkçe'yi doğal kullanımı ve kültürel bağlam hakimiyeti beni etkiledi. Siz de kendi projelerinizde bu modelleri deneyerek sonuçları AnkaNLP sayfamızda paylaşabilirsiniz!"
Q4_K_M (Best balance of speed/quality)Q4_0 (Optimized for ARM CPUs)Q8_0 (Near-original quality)| 🚀 Download | 🔢 Type | 📝 Notes |
|---|---|---|
| Download | Basic quantization | |
| Download | Small size | |
| Download | Balanced quality | |
| Download | Better quality | |
| Download | Fast on ARM | |
| Download | Fast, recommended | |
| Download | Best balance | |
| Download | Good quality | |
| Download | Balanced | |
| Download | High quality | |
| Download | Very good quality | |
| Download | Fast, best quality | |
| Download | Maximum accuracy |
💡 Tip: Use F16 for maximum precision when quality is critical
| Application | Description | Download Link |
|---|---|---|
| Llama.cpp | A fast and efficient inference engine for GGUF models. | GitHub Repository |
| Ollama | A streamlined solution for running LLMs locally. | Website |
| AnythingLLM | An AI-powered knowledge management tool. | GitHub Repository |
| Open WebUI | A user-friendly web interface for running local LLMs. | GitHub Repository |
| GPT4All | A user-friendly desktop application supporting various LLMs, compatible with GGUF models. | GitHub Repository |
| LM Studio | A desktop application designed to run and manage local LLMs, supporting GGUF format. | Website |
| GPT4All Chat | A chat application compatible with GGUF models for local, offline interactions. | GitHub Repository |
| Application | Description | Download Link |
|---|---|---|
| ChatterUI | A simple and lightweight LLM app for mobile devices. | GitHub Repository |
| Maid | Mobile Artificial Intelligence Distribution for running AI models on mobile devices. | GitHub Repository |
| PocketPal AI | A mobile AI assistant powered by local models. | GitHub Repository |
| Layla | A flexible platform for running various AI models on mobile devices. | Website |
| Application | Description | Download Link |
|---|---|---|
| Stable Diffusion | An open-source AI model for generating images from text. | GitHub Repository |
| Stable Diffusion WebUI | A web application providing access to Stable Diffusion models via a browser interface. | GitHub Repository |
| Local Dream | Android Stable Diffusion with Snapdragon NPU acceleration. Also supports CPU inference. | GitHub Repository |
| Stable-Diffusion-Android (SDAI) | An open-source AI art application for Android devices, enabling digital art creation. | GitHub Repository |
2-bit
3-bit
4-bit
5-bit
6-bit
8-bit
16-bit