FFransys
Bibliothèque thématique
Module M3
1 h 30

Hallucination mitigation et eval LLM

RAG, multi-agent verification, confidence scoring, output validation.

Durée
1 h 30
Public
Voir détail
Profils intégrant
Sur demande

Contenu détaillé du module

  • Self-consistency : N appels + vote majoritaire
  • Anthropic eval API + custom evals
  • Output validation : pydantic, instructor, JSON Schema
  • Observabilité hallucinations Langfuse
Modalité d'intégration

Approche pédagogique

Ce module est dispensé sous forme d'atelier guidé sur votre contexte (votre repo, votre stack, votre cas métier). Apport théorique court, démonstration en live par le formateur, puis mise en application immédiate avec accompagnement individualisé.

Évaluation en sortie : auto-évaluation + restitution orale courte (5 min) avec retour critique du formateur.

Intéressé·e par ce module pour votre formation ?

Évoquons-le au cadrage individuel : nous validons s'il correspond à vos objectifs et l'intégrons à votre recette.