Les « hallucinations », ces erreurs de l’IA qui rendent la machine trop humaine

Cătălin Roșioru

La discussion allait bon train. Puis, le vertige. Au détour de la conversation, votre interlocuteur vient d’énoncer avec aplomb une affirmation que vous savez être factuellement fausse. Pire, confronté à son erreur, il persiste et signe, apparemment incapable de comprendre la faille qui vient de se creuser entre ses propos et le réel, et par conséquent entre lui et vous. Une seule explication possible : il hallucine. Si vous vous adressiez à un être humain, cet épisode aurait probablement