Un studiu arată că este mult prea ușor să-i faci pe chatboții de AI să ofere informații medicale false

Fake news și dezinformare

Chatboți AI folosiți de milioane de oameni pot fi configurați să ofere în mod repetat răspunsuri false la întrebări despre sănătate, arată un studiu citat de Reuters. Au fost testate aplicații precum ChatGPT, Gemini, Claude, Grok și LLaMA. Partea gravă este că chatboții pot prezenta informații medicale eronate, însă o fac în mod convingător și cu citate false din reviste medicale faimoase. „Dacă o tehnologie este vulnerabilă la abuz, actorii rău-intenționați vor încerca inevitabil să o