Modele AI avansate, precum ChatGPT-4o, își mint cu bună știință utilizatorii pentru a-și atinge obiectivele, arată un nou studiu
Tehnologie
Modelele avansate de inteligență artificială (AI) vă pot induce în eroare atunci când sunt presate să mintă pentru a-și atinge obiectivele, arată un nou studiu, potrivit Live Science . În cadrul unui nou studiu, publicat pe 5 martie, o echipă de cercetători a conceput un protocol de onestitate denumit „Model Alignment between Statements and Knowledge” (MASK) benchmark. În timp ce diverse studii și instrumente au fost concepute pentru a determina dacă informațiile pe care o inteligență
din zilele anterioare