Se souvenir : Hallucination / Erreur: Difference between revisions

From MontpeLLIA
Jump to navigation Jump to search
(Created page with "Il est important de comprendre que le mot “hallucination” est réservé à l’IA générative de texte ou d’image. Parce que leur fonctionnement repose sur la '''prédiction de mots''', <u>pas</u> sur une '''base de données vérifiée'''. * L’hallucination est structurelle : elle vient du fait qu’un modèle de langage ne cherche pas la vérité, mais la cohérence. * Si tu veux réduire les hallucinations, tu dois encadrer la génération (exiger des sources,...")
 
No edit summary
 
Line 1: Line 1:
Il est important de comprendre que le mot “hallucination” est réservé à l’IA générative de texte ou d’image. Parce que leur fonctionnement repose sur la '''prédiction de mots''', <u>pas</u> sur une '''base de données vérifiée'''.
Il est important de comprendre que le mot “hallucination” est réservé à l’IA générative de texte ou d’image. Parce que leur fonctionnement repose sur la '''prédiction de mots''', <u>pas</u> sur une '''base de données vérifiée'''.
* L’hallucination est structurelle : elle vient du fait qu’un modèle de langage ne cherche pas la vérité, mais la cohérence.
* L’hallucination est structurelle : elle vient du fait qu’un modèle de langage ne cherche '''pas la vérité''', mais '''la cohérence'''.
* Si tu veux réduire les hallucinations, tu dois encadrer la génération (exiger des sources, coupler l’IA avec une base fiable, limiter son champ d’action).
* Si tu veux réduire les hallucinations, tu dois encadrer la génération (exiger des sources, coupler l’IA avec une base fiable, limiter son champ d’action).



Latest revision as of 15:54, 21 September 2025

Il est important de comprendre que le mot “hallucination” est réservé à l’IA générative de texte ou d’image. Parce que leur fonctionnement repose sur la prédiction de mots, pas sur une base de données vérifiée.

  • L’hallucination est structurelle : elle vient du fait qu’un modèle de langage ne cherche pas la vérité, mais la cohérence.
  • Si tu veux réduire les hallucinations, tu dois encadrer la génération (exiger des sources, coupler l’IA avec une base fiable, limiter son champ d’action).

L’erreur est contextuelle : elle dépend des données, du paramétrage, du domaine d’application. Si tu veux réduire les erreurs, tu dois améliorer tes prompts, ou corriger les biais dans tes données.

  • Une IA juridique qui rate un arrêt n’hallucine pas. Elle se trompe.
  • Une IA médicale qui ne détecte pas une fracture n’hallucine pas. Elle fait une erreur de diagnostic.
  • Une IA de traduction qui sort une phrase bancale n’hallucine pas. Elle traduit mal.