📚 Documentation Utilisateur de Tesity-T5 : Votre Modèle de Question/Answering avec Contexte

Tesity-T5

Félicitations ! Vous utilisez Tesity-T5, un modèle de langage puissant de type Encoder-Decoder créé par Clemylia.

Tesity-T5 est spécialisé dans le Question/Answering guidé par Contexte. Il excelle à synthétiser une réponse précise en se basant uniquement sur le texte que vous lui fournissez.

🎯 Objectif et Fonctionnement

Le but de Tesity-T5 est de vous fournir une réponse factuelle et synthétisée à une question spécifique, en utilisant le contexte que vous définissez comme seule source d'information.

Composant Rôle
Contexte (Input) Le texte source qui contient l'information nécessaire pour répondre. 📝
Question (Input) L'interrogation spécifique à laquelle le modèle doit répondre. ❓
Réponse (Output) Le modèle extrait ou synthétise la réponse à partir du Contexte. ✅

🛠️ Instructions d'Utilisation

Pour obtenir une réponse optimale de Tesity-T5, il est crucial de formater votre requête selon le protocole de l'architecture T5.

1. Préparation de l'Environnement

Assurez-vous d'avoir les librairies transformers et torch installées :

pip install transformers torch

2. Chargement du Modèle et du Tokenizer

Chargez le modèle et le tokenizer depuis Hugging Face. **

from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
import torch

MODEL_ID = "Clemylia/Tesity-T5"
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")

# Chargement
tokenizer = AutoTokenizer.from_pretrained(MODEL_ID)
model = AutoModelForSeq2SeqLM.from_pretrained(MODEL_ID).to(device)

print(f"Tesity-T5 prêt à être utilisé sur {device} ! 🚀")

3. Formatage de l'Entrée (Input Formatting)

Pour que le modèle comprenne la tâche, l'entrée doit être une chaîne de caractères unique et structurée :

Format Requis :

question_answering: [Votre Question] context: [Votre Contexte]

Exemple de Requête :

mon_contexte = "L'entraînement from scratch de Tesity-T5 a été effectué sur la dataset Clem27sey/Nacid par Clemylia, la créatrice du modèle."
ma_question = "Qui a créé Tesity-T5 et sur quelle dataset a-t-il été entraîné ?"

# Création de l'Input formaté
input_text = f"question_answering: {ma_question} context: {mon_contexte}"

4. Génération de la Réponse

Utilisez la méthode model.generate() pour obtenir la réponse.

def generate_tesity_answer(question: str, context: str):
    """Génère la réponse à partir de la Question et du Contexte."""
    
    # Formatage
    input_text = f"question_answering: {question} context: {context}"
    
    # Tokenisation
    input_ids = tokenizer(
        input_text, 
        return_tensors="pt", 
        max_length=512, 
        truncation=True
    ).input_ids.to(device)
    
    # Génération
    outputs = model.generate(
        input_ids, 
        max_length=128, 
        num_beams=4,              # Améliore la qualité de la réponse
        early_stopping=True
    )
    
    # Décodage
    answer = tokenizer.decode(outputs[0], skip_special_tokens=True)
    return answer

# --- Utilisation ---
reponse_finale = generate_tesity_answer(ma_question, mon_contexte)

print(f"\nContexte : {mon_contexte}")
print(f"Question : {ma_question}")
print(f"\n➡️ Réponse de Tesity-T5 : {reponse_finale}")

⚠️ Conseils pour un QA Efficace

  • Clarté du Contexte : Plus votre contexte est clair et précis, meilleure sera la réponse. Tesity-T5 ne peut répondre qu'avec les informations présentes dans le contexte.
  • Pertinence : Assurez-vous que la réponse à votre question est explicitement contenue ou inférable à partir du contexte. Si l'information est absente, le modèle risque d'halluciner ou de donner une réponse générique.
  • Longueur : Pour la performance, la longueur totale de l'entrée (Contexte + Question) est limitée. Pour Tesity-T5, elle ne doit pas dépasser environ 512 tokens.

Profitez bien de votre expérience avec ce puissant modèle ! 🌟

Downloads last month
168
Safetensors
Model size
0.3B params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Dataset used to train Clemylia/Tesity-T5

Collection including Clemylia/Tesity-T5