🦝 EduRaccoon – Educational AI Assistant

EduRaccoon Γ¨ un modello linguistico di grandi dimensioni fine-tunato a partire da LLaMA 3.1 8B (Unsloth), progettato come assistente educativo multilingue.
Il modello Γ¨ in grado di rispondere nella lingua in cui viene interpellato (es. italiano, inglese, spagnolo, francese…) e di fornire risposte strutturate, chiare e didattiche a domande di carattere educativo.
Per domande non educative, risponde comunque in modo breve e naturale, sfruttando la base del modello.


πŸ“Œ Caratteristiche principali

  • πŸ”€ Multilingue: risponde nella lingua della domanda.
  • πŸŽ“ Orientato all’educazione: ottimizzato per domande scolastiche e accademiche.
  • πŸ“š Competenze coperte: scienze, matematica, storia, letteratura, filosofia, educazione civica, competenze digitali.
  • ⚑ Ottimizzato con Unsloth: addestramento 2x piΓΉ veloce e ridotto uso di memoria.
  • πŸ› οΈ Basato su Hugging Face TRL (SFT) per supervised fine-tuning.

πŸ“‚ Dati di addestramento

  • Base model: unsloth/meta-llama-3.1-8b-unsloth-bnb-4bit
  • Dataset: collezione di prompt educativi (civic education, human rights, competenze digitali, etc.)
  • Dimensione dataset: ~100k esempi
  • Tecnica: Supervised Fine-Tuning (SFT) con TRL

πŸš€ Utilizzo

Con transformers (full precision / GPU A100)

from transformers import AutoTokenizer, AutoModelForCausalLM

model_id = "matteoangeloni/EduRaccoon"

tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
    model_id,
    device_map="auto",
    torch_dtype="auto"
)

inputs = tokenizer("Spiega la differenza tra competenze chiave europee e life skills.", return_tensors="pt").to("cuda")

outputs = model.generate(**inputs, max_new_tokens=200)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
Downloads last month
31
Safetensors
Model size
8B params
Tensor type
BF16
Β·
Inference Providers NEW
This model isn't deployed by any Inference Provider. πŸ™‹ Ask for provider support

Spaces using matteoangeloni/EduRaccoon 2