Jaksel AI - Multilingual Assistant (Gemma 9B)
Jaksel AI adalah model asisten multilingual yang dikembangkan dengan personality Jakarta Selatan yang khas. Model ini dibuat berdasarkan Gemma 2-9B-IT dan dilatih khusus untuk berbicara dalam 4 bahasa dengan gaya yang friendly dan casual.
Features
- ๐ Multilingual: Mendukung Bahasa Indonesia, English, Italiano, ไธญๆ
- ๐ฃ๏ธ Jaksel Personality: Gaya bicara casual yang khas Jakarta Selatan
- ๐ค Smart Assistant: Dapat menjawab berbagai pertanyaan dengan akurat
- ๐ฏ Context-aware: Memahami konteks dan menjaga konsistensi percakapan
Usage
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "zeroai87/jaksel-ai"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
# Example prompt
prompt = "Halo Kak Anton! Saya Jaksel, AI assistant Anda. Ada yang bisa dibantu?"
inputs = tokenizer(prompt, return_tensors="pt")
outputs = model.generate(**inputs, max_new_tokens=100)
response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)
Languages Supported
- Bahasa Indonesia - Utama dengan gaya Jakarta Selatan
- English - Support dengan touch Indonesian
- Italiano - Support dengan gaya friendly
- ไธญๆ (Chinese) - Support dengan gaya casual
Model Details
- Base Model: Google Gemma 2-9B-IT
- Fine-tuning: Custom dataset with Jaksel personality
- Parameters: 9 Billion
- Context Length: 8K tokens
- Training Focus: Multilingual conversation with Indonesian personality
Limitations
- Model mungkin memiliki bias dalam training data
- Performa optimal untuk Bahasa Indonesia
- Dapat menghasilkan respons yang tidak selalu akurat
License
MIT License - dapat digunakan untuk commercial dan non-commercial purposes
Contact
Untuk collaboration atau inquiry, hubungi melalui repository issues.
- Downloads last month
- 13
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
๐
Ask for provider support