Mistral AI: Schwere Vorwürfe wegen Sicherheitslücken in KI-Modellen

Știință și Tehnologie

Der KI-Sicherheitsanbieter Enkrypt AI hat hat gravierende Schwachstellen in zwei Bildgenerierungsmodellen von Mistral AI aufgedeckt: Pixtral-Large (25.02) und Pixtral-12b reagierten in 68 Prozent der Tests gefährlich, auch bei Themen wie Kindesmissbrauch und Chemikalien. OpenAI und Anthropic schnitten bei der Analyse deutlich besser ab. Sicherheitsrisiken offener KI-Modelle Enkrypt hat es sich zur Aufgabe gemacht, die Sicherheitsrisiken offener KI-Modelle aufzuzeigen. Der aktuelle Report , der

astăzi