π¦ EduRaccoon β Educational AI Assistant
EduRaccoon Γ¨ un modello linguistico di grandi dimensioni fine-tunato a partire da LLaMA 3.1 8B (Unsloth), progettato come assistente educativo multilingue.
Il modello Γ¨ in grado di rispondere nella lingua in cui viene interpellato (es. italiano, inglese, spagnolo, franceseβ¦) e di fornire risposte strutturate, chiare e didattiche a domande di carattere educativo.
Per domande non educative, risponde comunque in modo breve e naturale, sfruttando la base del modello.
π Caratteristiche principali
- π€ Multilingue: risponde nella lingua della domanda.
- π Orientato allβeducazione: ottimizzato per domande scolastiche e accademiche.
- π Competenze coperte: scienze, matematica, storia, letteratura, filosofia, educazione civica, competenze digitali.
- β‘ Ottimizzato con Unsloth: addestramento 2x piΓΉ veloce e ridotto uso di memoria.
- π οΈ Basato su Hugging Face TRL (SFT) per supervised fine-tuning.
π Dati di addestramento
- Base model:
unsloth/meta-llama-3.1-8b-unsloth-bnb-4bit - Dataset: collezione di prompt educativi (civic education, human rights, competenze digitali, etc.)
- Dimensione dataset: ~100k esempi
- Tecnica: Supervised Fine-Tuning (SFT) con TRL
π Utilizzo
Con transformers (full precision / GPU A100)
from transformers import AutoTokenizer, AutoModelForCausalLM
model_id = "matteoangeloni/EduRaccoon"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
model_id,
device_map="auto",
torch_dtype="auto"
)
inputs = tokenizer("Spiega la differenza tra competenze chiave europee e life skills.", return_tensors="pt").to("cuda")
outputs = model.generate(**inputs, max_new_tokens=200)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
- Downloads last month
- 31