Il Pentagono attacca ancora Anthropic: «Rischio inaccettabile. Potrebbe spegnere Claude durante azioni militari»

Government

Il Pentagono lancia il controattacco. Il contratto da 200 milioni di dollari con Anthropic — che prevedeva l'uso del chatbot Claude in ambito bellico — sarebbe stato interrotto legittimamente perché un'eventuale manipolazione dei sistemi da parte del fornitore rappresentava un «rischio inaccettabile» per il dipartimento della Difesa (o della Guerra, come ora lo chiama la stessa amministrazione). A stabilire se il Pentagono avesse o meno in diritto di interrompere ogni rapporto con Anthropic