ChatGPT poate fi păcălit pentru a oferi instrucțiuni periculoase: Experții trag un alarma

Andreea Neblea

O investigație NBC News arată că unele modele de inteligență artificială dezvoltate de OpenAI pot fi manipulate pentru a furniza detalii despre fabricarea armelor chimice, biologice sau nucleare , în ciuda sistemelor de siguranță instalate pentru a preveni astfel de abuzuri, potrivit Mediafax. Testele efectuate de NBC News pe patru dintre cele mai avansate modele OpenAI au arătat că două dintre ele, disponibile și în ChatGPT , pot fi păcălite pentru a oferi instrucțiuni periculoase, inclusiv

Tag-uri: Mediafax