Se souvenir : Hallucination / Erreur
Jump to navigation
Jump to search
Il est important de comprendre que le mot “hallucination” est réservé à l’IA générative de texte ou d’image. Parce que leur fonctionnement repose sur la prédiction de mots, pas sur une base de données vérifiée.
- L’hallucination est structurelle : elle vient du fait qu’un modèle de langage ne cherche pas la vérité, mais la cohérence.
- Si tu veux réduire les hallucinations, tu dois encadrer la génération (exiger des sources, coupler l’IA avec une base fiable, limiter son champ d’action).
L’erreur est contextuelle : elle dépend des données, du paramétrage, du domaine d’application. Si tu veux réduire les erreurs, tu dois améliorer tes prompts, ou corriger les biais dans tes données.
- Une IA juridique qui rate un arrêt n’hallucine pas. Elle se trompe.
- Une IA médicale qui ne détecte pas une fracture n’hallucine pas. Elle fait une erreur de diagnostic.
- Une IA de traduction qui sort une phrase bancale n’hallucine pas. Elle traduit mal.