📚 Documentation Utilisateur de Tesity-T5 : Votre Modèle de Question/Answering avec Contexte
Félicitations ! Vous utilisez Tesity-T5, un modèle de langage puissant de type Encoder-Decoder créé par Clemylia.
Tesity-T5 est spécialisé dans le Question/Answering guidé par Contexte. Il excelle à synthétiser une réponse précise en se basant uniquement sur le texte que vous lui fournissez.
🎯 Objectif et Fonctionnement
Le but de Tesity-T5 est de vous fournir une réponse factuelle et synthétisée à une question spécifique, en utilisant le contexte que vous définissez comme seule source d'information.
| Composant | Rôle |
|---|---|
| Contexte (Input) | Le texte source qui contient l'information nécessaire pour répondre. 📝 |
| Question (Input) | L'interrogation spécifique à laquelle le modèle doit répondre. ❓ |
| Réponse (Output) | Le modèle extrait ou synthétise la réponse à partir du Contexte. ✅ |
🛠️ Instructions d'Utilisation
Pour obtenir une réponse optimale de Tesity-T5, il est crucial de formater votre requête selon le protocole de l'architecture T5.
1. Préparation de l'Environnement
Assurez-vous d'avoir les librairies transformers et torch installées :
pip install transformers torch
2. Chargement du Modèle et du Tokenizer
Chargez le modèle et le tokenizer depuis Hugging Face. **
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
import torch
MODEL_ID = "Clemylia/Tesity-T5"
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
# Chargement
tokenizer = AutoTokenizer.from_pretrained(MODEL_ID)
model = AutoModelForSeq2SeqLM.from_pretrained(MODEL_ID).to(device)
print(f"Tesity-T5 prêt à être utilisé sur {device} ! 🚀")
3. Formatage de l'Entrée (Input Formatting)
Pour que le modèle comprenne la tâche, l'entrée doit être une chaîne de caractères unique et structurée :
Format Requis :
question_answering: [Votre Question] context: [Votre Contexte]
Exemple de Requête :
mon_contexte = "L'entraînement from scratch de Tesity-T5 a été effectué sur la dataset Clem27sey/Nacid par Clemylia, la créatrice du modèle."
ma_question = "Qui a créé Tesity-T5 et sur quelle dataset a-t-il été entraîné ?"
# Création de l'Input formaté
input_text = f"question_answering: {ma_question} context: {mon_contexte}"
4. Génération de la Réponse
Utilisez la méthode model.generate() pour obtenir la réponse.
def generate_tesity_answer(question: str, context: str):
"""Génère la réponse à partir de la Question et du Contexte."""
# Formatage
input_text = f"question_answering: {question} context: {context}"
# Tokenisation
input_ids = tokenizer(
input_text,
return_tensors="pt",
max_length=512,
truncation=True
).input_ids.to(device)
# Génération
outputs = model.generate(
input_ids,
max_length=128,
num_beams=4, # Améliore la qualité de la réponse
early_stopping=True
)
# Décodage
answer = tokenizer.decode(outputs[0], skip_special_tokens=True)
return answer
# --- Utilisation ---
reponse_finale = generate_tesity_answer(ma_question, mon_contexte)
print(f"\nContexte : {mon_contexte}")
print(f"Question : {ma_question}")
print(f"\n➡️ Réponse de Tesity-T5 : {reponse_finale}")
⚠️ Conseils pour un QA Efficace
- Clarté du Contexte : Plus votre contexte est clair et précis, meilleure sera la réponse. Tesity-T5 ne peut répondre qu'avec les informations présentes dans le contexte.
- Pertinence : Assurez-vous que la réponse à votre question est explicitement contenue ou inférable à partir du contexte. Si l'information est absente, le modèle risque d'halluciner ou de donner une réponse générique.
- Longueur : Pour la performance, la longueur totale de l'entrée (Contexte + Question) est limitée. Pour Tesity-T5, elle ne doit pas dépasser environ 512 tokens.
Profitez bien de votre expérience avec ce puissant modèle ! 🌟
- Downloads last month
- 168
