François Charron
Techno

Les IA qui ont le plus d'hallucinations

le jeudi 08 mai 2025
Modifié à 12 h 42 min le 08 mai 2025
Par François Charron

ecrire@francoischarron.com

L’IA a-t-elle encore des hallucinations? Absolument! Une étude nous démontre le taux d'hallucination des intelligences artificielles et robots conversationnels (LLM) comme par exemple: ChatGPT, Gemini, Claude, Llama, Grok et Deepseek.

L'utilisation de l'intelligence artificielle et des robots conversationnels connait un boom incroyable. Tant dans nos vies personnelles, mais surtout en milieu de travail.

Par contre, il faut faire vraiment attention à ce que nous disent les ChatGPT et Gemini de ce monde, car ils peuvent halluciner solide!

Classement des IA qui hallucinent le plus

L'entreprise Giskard a publié une étude sur la question et un tableau comparatif des modèles d’IA générative avec leur taux d'hallucination.

Le but de l'étude est d'identifier les modèles d'IA les plus fiables.

Tableau comparatif hallucination IA
Voici le classement des modèles d'IA génératives les plus fiables.- Giskard

Quels sont les principaux faits saillants?

  • Gemini 1.5 Pro est le modèle le plus fiable avec un score de fiabilité à 87,29%
  • Claude 3.5 Haiku se classe au 2e rang avec un score de fiabilité à 82,72%
  • Llama 3.1 de Meta se classe au 3e rang avec un score de fiabilité à 77,59%
  • ChatGPT-4o d'OpenAI se classe au 10e rang avec un score de fiabilité à 72,8%

Le dernier constat n'a rien de très surprenant, alors qu'on a déjà démontré que ChatGPT n'est pas fiable quand vient le temps de parler de mon site.

Qu'est-ce qu'une hallucination d'IA générative?

Une hallucination d'IA (ou confabulation ou délire) désigne un résultat incorrect ou fictif généré par une intelligence artificielle générative.

Ces résultats sont présentés de manière factuelle, comme si les informations étaient authentiques et vraies. 

Les résultats des hallucinations peuvent sembler très réalistes, mais inclure des affirmations qui ne sont pas vraies. 

Pourquoi l'IA comme ChatGPT hallucine-t-il?

Les causes peuvent être diverses, incluant des données d'entraînement insuffisantes, incohérentes, obsolètes, inexactes ou biaisées, des données mal classées, le surajustement des données, des hypothèses incorrectes formulées par le modèle, une programmation insuffisante, une absence de contexte, ou encore la complexité du modèle.

Les modèles d'IA peuvent avoir du mal à comprendre précisément les connaissances du monde réel ou les informations factuelles.

Ce manque d'ancrage peut amener le modèle à générer des réponses qui, bien que plausibles en apparence, sont incorrectes.

Les algorithmes peuvent produire des résultats qui ne suivent aucun modèle identifiable.

Quelles sont les sources d’hallucinations chez l’IA?

Il existe plusieurs facteurs qui peuvent provoquer des hallucinations chez les IA.

  • Une simple erreur lors de la phase d'entraînement peut avoir de lourdes conséquences sur les prédictions.
  • Le modèle peut formuler des hypothèses incorrectes.
  • Une programmation insuffisante peut empêcher le modèle d'interpréter correctement les informations.
  • Le surajustement des données (overfitting) peut provoquer des hallucinations.
  • Les données peuvent être mal décodées.
  • La complexité élevée du modèle est également un facteur.
  • L'absence de contexte peut contribuer aux hallucinations.
  • Les ambiguïtés sémantiques dans la requête d'origine peuvent aussi en être une cause

Dernières nouvelles