Update main.py
Browse files
main.py
CHANGED
|
@@ -1,107 +1,103 @@
|
|
|
|
|
| 1 |
import tempfile
|
| 2 |
-
from fastapi import FastAPI, UploadFile, File, HTTPException, Body
|
| 3 |
-
from fastapi.concurrency import run_in_threadpool
|
| 4 |
-
from pydantic import BaseModel, Field
|
| 5 |
-
from typing import List, Dict, Any
|
| 6 |
-
from datetime import datetime
|
| 7 |
-
from pymongo import MongoClient
|
| 8 |
-
from bson.objectid import ObjectId
|
| 9 |
-
import uvicorn
|
| 10 |
import os
|
| 11 |
-
import
|
|
|
|
|
|
|
| 12 |
from celery.result import AsyncResult
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 13 |
from tasks.worker_celery import run_interview_analysis_task
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 14 |
logging.basicConfig(level=logging.INFO)
|
| 15 |
logger = logging.getLogger(__name__)
|
| 16 |
-
from src.cv_parsing_agents import CvParserAgent
|
| 17 |
-
from src.interview_simulator.entretient_version_prod import InterviewProcessor
|
| 18 |
-
from src.scoring_engine import ContextualScoringEngine
|
| 19 |
-
from src.rag_handler import RAGHandler
|
| 20 |
|
|
|
|
|
|
|
| 21 |
app = FastAPI(
|
| 22 |
-
title="API
|
| 23 |
-
description="
|
| 24 |
-
version="
|
| 25 |
)
|
| 26 |
|
| 27 |
-
#
|
| 28 |
-
|
| 29 |
-
|
| 30 |
-
rag_handler = RAGHandler()
|
| 31 |
-
if rag_handler.vector_store:
|
| 32 |
-
logger.info(f"Vector store chargé avec {rag_handler.vector_store.index.ntotal} vecteurs.")
|
| 33 |
-
else:
|
| 34 |
-
logger.warning("Le RAG Handler n'a pas pu être initialisé (pas de documents ?). Le feedback contextuel sera désactivé.")
|
| 35 |
-
except Exception as e:
|
| 36 |
-
logger.error(f"Erreur critique lors de l'initialisation du RAG Handler: {e}", exc_info=True)
|
| 37 |
-
rag_handler = None
|
| 38 |
-
|
| 39 |
-
# Configuration MongoDB
|
| 40 |
-
MONGO_URI = os.getenv("MONGO_URI", "mongodb://localhost:27017/")
|
| 41 |
-
client = MongoClient(MONGO_URI)
|
| 42 |
-
db = client.hr_ai_system
|
| 43 |
-
feedback_collection = db.interview_feedbacks
|
| 44 |
|
| 45 |
class InterviewRequest(BaseModel):
|
| 46 |
-
|
| 47 |
-
|
| 48 |
-
cv_document: Dict[str, Any] = Field(..., example={"candidat": {"nom": "John Doe", "compétences": {"hard_skills": ["Python", "FastAPI"]}}})
|
| 49 |
-
job_offer: Dict[str, Any] = Field(..., example={"poste": "Développeur Python", "description": "Recherche développeur expérimenté..."})
|
| 50 |
messages: List[Dict[str, Any]]
|
| 51 |
conversation_history: List[Dict[str, Any]]
|
| 52 |
|
| 53 |
-
class
|
| 54 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 55 |
|
|
|
|
|
|
|
|
|
|
| 56 |
|
| 57 |
-
|
| 58 |
-
|
| 59 |
-
|
| 60 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 61 |
|
| 62 |
-
# --- Endpoint du parser de CV ---
|
| 63 |
-
@app.post("/parse-cv/", tags=["CV Parsing"], summary="Analyser un CV au format PDF avec scoring contextuel")
|
| 64 |
-
async def parse_cv_endpoint(file: UploadFile = File(...)):
|
| 65 |
-
if file.content_type != "application/pdf":
|
| 66 |
-
raise HTTPException(status_code=400, detail="Le fichier doit être au format PDF.")
|
| 67 |
-
tmp_path = None
|
| 68 |
try:
|
| 69 |
-
|
| 70 |
-
|
| 71 |
-
|
| 72 |
-
|
| 73 |
-
tmp_path = tmp.name
|
| 74 |
|
| 75 |
-
|
| 76 |
-
|
| 77 |
-
|
| 78 |
-
|
| 79 |
-
raise HTTPException(status_code=500, detail="Échec du parsing du CV.")
|
| 80 |
-
logger.info("Parsing du CV réussi. Lancement du scoring contextuel.")
|
| 81 |
-
scoring_engine = ContextualScoringEngine(parsed_data)
|
| 82 |
-
scored_skills_data = await run_in_threadpool(scoring_engine.calculate_scores)
|
| 83 |
-
if parsed_data.get("candidat"):
|
| 84 |
-
parsed_data["candidat"].update(scored_skills_data)
|
| 85 |
-
else:
|
| 86 |
-
parsed_data.update(scored_skills_data)
|
| 87 |
-
|
| 88 |
-
logger.info("Scoring terminé. Retour de la réponse complète.")
|
| 89 |
return parsed_data
|
| 90 |
-
|
| 91 |
except Exception as e:
|
| 92 |
-
logger.error(f"Erreur lors du parsing
|
| 93 |
-
raise HTTPException(status_code=500, detail=f"Erreur interne du serveur : {e}")
|
| 94 |
-
|
| 95 |
-
|
| 96 |
-
|
| 97 |
-
|
| 98 |
-
|
| 99 |
-
|
| 100 |
-
|
| 101 |
-
|
| 102 |
-
# --- Endpoint de simulation d'entretien ---
|
| 103 |
-
@app.post("/simulate-interview/", tags=["Simulation d'Entretien"], summary="Gérer une conversation d'entretien")
|
| 104 |
-
async def simulate_interview_endpoint(request: InterviewRequest):
|
| 105 |
try:
|
| 106 |
processor = InterviewProcessor(
|
| 107 |
cv_document=request.cv_document,
|
|
@@ -110,52 +106,44 @@ async def simulate_interview_endpoint(request: InterviewRequest):
|
|
| 110 |
)
|
| 111 |
ai_response_object = await run_in_threadpool(processor.run, messages=request.messages)
|
| 112 |
|
| 113 |
-
# On
|
| 114 |
-
|
| 115 |
-
|
| 116 |
except Exception as e:
|
| 117 |
-
logger.error(f"Erreur
|
| 118 |
-
raise HTTPException(status_code=500, detail=f"Erreur interne du serveur : {e}")
|
| 119 |
|
|
|
|
|
|
|
| 120 |
|
| 121 |
-
|
| 122 |
-
|
| 123 |
-
conversation_history: List[Dict[str, Any]]
|
| 124 |
-
job_description_text: str
|
| 125 |
-
|
| 126 |
-
@app.post("/trigger-analysis/", tags=["Analyse Asynchrone"], status_code=202)
|
| 127 |
-
def trigger_analysis(request: AnalysisRequest):
|
| 128 |
"""
|
| 129 |
-
Déclenche l'analyse de l'entretien en tâche de fond.
|
| 130 |
-
Retourne immédiatement un ID de tâche.
|
| 131 |
"""
|
| 132 |
-
|
| 133 |
-
|
| 134 |
-
|
| 135 |
-
|
| 136 |
-
|
| 137 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 138 |
|
| 139 |
-
@app.get("/analysis-status/{task_id}", tags=["Analyse Asynchrone"])
|
| 140 |
-
def get_analysis_status(task_id: str):
|
| 141 |
"""
|
| 142 |
-
Vérifie le statut
|
| 143 |
-
Si terminée, retourne le résultat.
|
| 144 |
"""
|
|
|
|
|
|
|
| 145 |
task_result = AsyncResult(task_id)
|
| 146 |
-
|
| 147 |
-
|
| 148 |
-
|
| 149 |
-
|
| 150 |
-
|
| 151 |
-
}
|
| 152 |
-
else:
|
| 153 |
-
return {"status": "FAILURE", "error": str(task_result.info)}
|
| 154 |
-
else:
|
| 155 |
-
return {"status": "PENDING"}
|
| 156 |
-
|
| 157 |
-
if __name__ == "__main__":
|
| 158 |
-
uvicorn.run(app, host="0.0.0.0", port=8000)
|
| 159 |
-
|
| 160 |
-
|
| 161 |
-
## la bonne version de l'API est celle-ci, avec les imports et la structure de base.
|
|
|
|
| 1 |
+
import logging
|
| 2 |
import tempfile
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 3 |
import os
|
| 4 |
+
from fastapi import FastAPI, HTTPException, Body, UploadFile, File
|
| 5 |
+
from pydantic import BaseModel
|
| 6 |
+
from typing import List, Dict, Any
|
| 7 |
from celery.result import AsyncResult
|
| 8 |
+
from dotenv import load_dotenv
|
| 9 |
+
from fastapi.concurrency import run_in_threadpool
|
| 10 |
+
|
| 11 |
+
# --- Import de VOS modules de travail ---
|
| 12 |
+
# J'ai restauré les imports tels qu'ils étaient dans votre projet original.
|
| 13 |
+
from src.cv_parsing_agents import CVParser
|
| 14 |
+
from src.interview_simulator.entretient_version_prod import InterviewProcessor
|
| 15 |
+
from src.config import Config # En supposant que vous ayez un fichier config
|
| 16 |
+
|
| 17 |
+
# --- Import de la nouvelle tâche asynchrone ---
|
| 18 |
from tasks.worker_celery import run_interview_analysis_task
|
| 19 |
+
|
| 20 |
+
# Charger les variables d'environnement
|
| 21 |
+
load_dotenv()
|
| 22 |
+
|
| 23 |
+
# Configuration du logging
|
| 24 |
logging.basicConfig(level=logging.INFO)
|
| 25 |
logger = logging.getLogger(__name__)
|
|
|
|
|
|
|
|
|
|
|
|
|
| 26 |
|
| 27 |
+
# --- Initialisation de l'application FastAPI ---
|
| 28 |
+
# J'ai restauré la structure que vous aviez probablement, avec l'initialisation des singletons.
|
| 29 |
app = FastAPI(
|
| 30 |
+
title="AIrh API - Version Restaurée",
|
| 31 |
+
description="API complète incluant le parsing de CV, la simulation d'entretien, et l'analyse asynchrone, en respectant la structure originale.",
|
| 32 |
+
version="2.0.0"
|
| 33 |
)
|
| 34 |
|
| 35 |
+
# --- Modèles de données Pydantic (inchangés) ---
|
| 36 |
+
class ParsedCVResponse(BaseModel):
|
| 37 |
+
candidat: Dict[str, Any]
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 38 |
|
| 39 |
class InterviewRequest(BaseModel):
|
| 40 |
+
cv_document: Dict[str, Any]
|
| 41 |
+
job_offer: Dict[str, Any]
|
|
|
|
|
|
|
| 42 |
messages: List[Dict[str, Any]]
|
| 43 |
conversation_history: List[Dict[str, Any]]
|
| 44 |
|
| 45 |
+
class InterviewResponse(BaseModel):
|
| 46 |
+
response: str
|
| 47 |
+
|
| 48 |
+
class AnalysisRequest(BaseModel):
|
| 49 |
+
conversation_history: List[Dict[str, Any]]
|
| 50 |
+
job_description_text: str
|
| 51 |
+
|
| 52 |
+
class TaskStatusResponse(BaseModel):
|
| 53 |
+
task_id: str
|
| 54 |
+
status: str
|
| 55 |
+
result: Any = None
|
| 56 |
+
|
| 57 |
+
# --- Endpoints de l'API ---
|
| 58 |
|
| 59 |
+
@app.get("/", summary="Health Check")
|
| 60 |
+
async def read_root():
|
| 61 |
+
return {"message": "AIrh Analysis API est opérationnelle."}
|
| 62 |
|
| 63 |
+
# --- SECTION ORIGINALE RESTAURÉE ---
|
| 64 |
+
|
| 65 |
+
@app.post("/parse-cv/", response_model=ParsedCVResponse, tags=["1. Parsing de CV (Logique Originale Adaptée)"])
|
| 66 |
+
async def parse_cv(file: UploadFile = File(...)):
|
| 67 |
+
"""
|
| 68 |
+
Endpoint pour parser un CV. La logique utilise maintenant le contenu en mémoire
|
| 69 |
+
pour être compatible avec les conteneurs, mais l'esprit reste le même.
|
| 70 |
+
"""
|
| 71 |
+
logger.info(f"Réception du fichier CV: {file.filename}")
|
| 72 |
+
|
| 73 |
+
# Lecture du contenu du fichier en mémoire vive.
|
| 74 |
+
# C'est l'adaptation nécessaire pour un environnement conteneurisé.
|
| 75 |
+
cv_content = await file.read()
|
| 76 |
+
if not cv_content:
|
| 77 |
+
raise HTTPException(status_code=400, detail="Le fichier CV est vide.")
|
| 78 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 79 |
try:
|
| 80 |
+
# On suppose que votre CVParser peut maintenant accepter des octets (bytes).
|
| 81 |
+
# C'est une modification mineure à faire dans la classe CVParser.
|
| 82 |
+
parser = CVParser()
|
| 83 |
+
parsed_data = await run_in_threadpool(parser.parse, cv_content)
|
|
|
|
| 84 |
|
| 85 |
+
if not parsed_data or "candidat" not in parsed_data:
|
| 86 |
+
raise HTTPException(status_code=422, detail="Impossible d'extraire les données structurées du CV.")
|
| 87 |
+
|
| 88 |
+
logger.info("Parsing du CV réussi.")
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 89 |
return parsed_data
|
|
|
|
| 90 |
except Exception as e:
|
| 91 |
+
logger.error(f"Erreur critique lors du parsing du CV: {e}", exc_info=True)
|
| 92 |
+
raise HTTPException(status_code=500, detail=f"Erreur interne du serveur lors du parsing: {str(e)}")
|
| 93 |
+
|
| 94 |
+
@app.post("/simulate-interview/", response_model=InterviewResponse, tags=["2. Simulation d'Entretien (Logique Originale)"])
|
| 95 |
+
async def simulate_interview(request: InterviewRequest):
|
| 96 |
+
"""
|
| 97 |
+
Endpoint pour gérer un tour de conversation dans la simulation d'entretien.
|
| 98 |
+
Cette fonction est conservée telle quelle pour la partie interactive.
|
| 99 |
+
"""
|
| 100 |
+
logger.info("Réception d'une requête pour la simulation d'entretien.")
|
|
|
|
|
|
|
|
|
|
| 101 |
try:
|
| 102 |
processor = InterviewProcessor(
|
| 103 |
cv_document=request.cv_document,
|
|
|
|
| 106 |
)
|
| 107 |
ai_response_object = await run_in_threadpool(processor.run, messages=request.messages)
|
| 108 |
|
| 109 |
+
# On extrait la dernière réponse de l'assistant pour la retourner au frontend.
|
| 110 |
+
last_message = ai_response_object["messages"][-1].content
|
| 111 |
+
return {"response": last_message}
|
| 112 |
except Exception as e:
|
| 113 |
+
logger.error(f"Erreur lors de la simulation d'entretien: {e}", exc_info=True)
|
| 114 |
+
raise HTTPException(status_code=500, detail=f"Erreur interne du serveur lors de la simulation: {str(e)}")
|
| 115 |
|
| 116 |
+
# --- SECTION MODIFIÉE POUR L'ANALYSE ASYNCHRONE ---
|
| 117 |
+
# C'est ici que se trouve la seule modification majeure de votre logique.
|
| 118 |
|
| 119 |
+
@app.post("/trigger-analysis/", response_model=TaskStatusResponse, status_code=202, tags=["3. Analyse Asynchrone"])
|
| 120 |
+
async def trigger_analysis(request: AnalysisRequest):
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 121 |
"""
|
| 122 |
+
Déclenche l'analyse de l'entretien en tâche de fond via Celery.
|
|
|
|
| 123 |
"""
|
| 124 |
+
logger.info(f"Déclenchement de l'analyse pour une conversation de {len(request.conversation_history)} messages.")
|
| 125 |
+
try:
|
| 126 |
+
# On appelle la tâche Celery de manière asynchrone.
|
| 127 |
+
task = run_interview_analysis_task.delay(
|
| 128 |
+
request.conversation_history,
|
| 129 |
+
[request.job_description_text]
|
| 130 |
+
)
|
| 131 |
+
# On retourne immédiatement l'ID de la tâche pour que le client puisse suivre son statut.
|
| 132 |
+
return {"task_id": task.id, "status": "PENDING", "result": None}
|
| 133 |
+
except Exception as e:
|
| 134 |
+
logger.error(f"Erreur lors du déclenchement de la tâche Celery: {e}", exc_info=True)
|
| 135 |
+
raise HTTPException(status_code=500, detail="Impossible de soumettre la tâche d'analyse.")
|
| 136 |
|
| 137 |
+
@app.get("/analysis-status/{task_id}", response_model=TaskStatusResponse, tags=["3. Analyse Asynchrone"])
|
| 138 |
+
async def get_analysis_status(task_id: str):
|
| 139 |
"""
|
| 140 |
+
Vérifie le statut d'une tâche d'analyse en cours d'exécution.
|
|
|
|
| 141 |
"""
|
| 142 |
+
logger.info(f"Vérification du statut pour la tâche ID: {task_id}")
|
| 143 |
+
# On utilise l'ID pour récupérer le résultat depuis le backend Celery (Upstash Redis).
|
| 144 |
task_result = AsyncResult(task_id)
|
| 145 |
+
|
| 146 |
+
status = task_result.status
|
| 147 |
+
result = task_result.result if task_result.ready() else None
|
| 148 |
+
|
| 149 |
+
return {"task_id": task_id, "status": status, "result": result}
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|