Les « hallucinations », ces erreurs de l’IA qui rendent la machine trop humaine
Cătălin Roșioru
La discussion allait bon train. Puis, le vertige. Au détour de la conversation, votre interlocuteur vient d’énoncer avec aplomb une affirmation que vous savez être factuellement fausse. Pire, confronté à son erreur, il persiste et signe, apparemment incapable de comprendre la faille qui vient de se creuser entre ses propos et le réel, et par conséquent entre lui et vous. Une seule explication possible : il hallucine. Si vous vous adressiez à un être humain, cet épisode aurait probablement
din zilele anterioare