Cât de multă încredere poţi avea în AI? Până şi marile corporaţii sunt induse în eroare de noile tehnologii: Gigantul EY a retras un studiu care conţinea halucinaţii generate de AI şi note de subsol false

Gadget-uri

EY a retras un studiu despre programele de recompense şi loialitate care conţinea aparente halucinaţii generate de AI şi note de subsol false, într-un nou exemplu despre cum firmele de servicii profesionale pot fi induse în eroare de noile tehnologii, scrie FT.  Studiul, folosit de consultanţii EY din Canada pentru a-şi promova serviciile de securitate cibernetică, includea date inventate, citări atribuite greşit şi făcea referire la un raport McKinsey care, de fapt, nu există, au descoperit