Ein KI-Ingenieur von Microsoft behauptet, er habe in DALL-E 3 von OpenAI Probleme mit den Sicherheitsleitplanken festgestellt

Ein KI-Ingenieur von Microsoft behauptet, er habe in DALL-E 3 von OpenAI Probleme mit den Sicherheitsleitplanken festgestellt

Letzte Woche überschwemmten explizite Bilder der Sängerin Taylor Swift das soziale Netzwerk X (ehemals Twitter). Infolgedessen blockierte X vorübergehend die Suche nach Swift auf seiner Plattform . In einem Bericht wird behauptet, dass der Designer AI-Bildgenerator von Microsoft, der das DALL-E 3-Modell von OpenAI verwendet, zur Erstellung der Swift-Deep-Fake-Bilder verwendet wurde. Microsoft hat offiziell erklärt, es habe keine Beweise gefunden, die diese Behauptung stützen , hat jedoch seitdem die Sicherheitsrichtlinien von Designer aktualisiert.

Jetzt hat ein aktueller Microsoft-KI-Ingenieur namens Shane Jones zusammen mit US-Senatoren und -Repräsentanten einen Brief an den Generalstaatsanwalt des US-Bundesstaates Washington, Bob Ferguson, geschickt, in dem er behauptet, er habe einen Fehler in DALL-E 3 entdeckt, der dessen Sicherheitssysteme umgeht. Er behauptet weiter, Microsoft habe versucht, den Fehler herunterzuspielen.

In seinem von GeekWire veröffentlichten Brief behauptet Jones, er habe die Leitplankenmängel in DALL-E 3 Anfang Dezember entdeckt. Auf die konkreten Themen ging er nicht näher ein. Er behauptete, dass die Mängel so schwerwiegend seien, dass DALL-3 „ein Risiko für die öffentliche Sicherheit darstelle“ und abgeschaltet werden sollte, während OpenAI versuche, die Mängel zu beheben.

Jones behauptet, er habe seine Bedenken Anfang Dezember an Microsoft weitergeleitet, sei dann aber gebeten worden, die Ergebnisse an OpenAI zu senden. Er sagt, er habe keine Antwort erhalten und veröffentlichte später auf LinkedIn einen offenen Brief an den Vorstand von OpenAI, in dem er ihn aufforderte, DALL-E 3 zu schließen. Er behauptet, die Rechtsabteilung von Microsoft habe ihn kontaktiert, um diesen Brief zu entfernen, was er, wie er sagt, getan habe tat. Jones behauptet, er habe seitdem nichts mehr von Microsoft oder OpenAI zu diesem Thema gehört.

Microsoft hat eine Stellungnahme zu Jones‘ Behauptungen an GeekWire gesendet. Das Unternehmen sagte, es habe „bestätigt, dass die von ihm geteilten Techniken unsere Sicherheitsfilter in keiner unserer KI-gestützten Bilderzeugungslösungen umgangen haben“. Es fügte hinzu, dass es „mit diesem Kollegen in Kontakt tritt, um etwaige verbleibende Bedenken auszuräumen.“

In seiner eigenen Erklärung sagt ein OpenAI-Sprecher, dass „die von ihm geteilte Technik unsere Sicherheitssysteme nicht umgeht.“ Er fügte hinzu:

Wir haben außerdem zusätzliche Sicherheitsmaßnahmen für unsere Produkte ChatGPT und die DALL-E-API implementiert – einschließlich der Ablehnung von Anfragen, bei denen nach dem Namen einer Person des öffentlichen Lebens gefragt wird. Wir identifizieren und lehnen Nachrichten ab, die gegen unsere Richtlinien verstoßen, und filtern alle generierten Bilder, bevor sie dem Benutzer angezeigt werden. Wir nutzen das Red-Teaming externer Experten, um Missbrauch zu prüfen und unsere Schutzmaßnahmen zu stärken.

In Jones‘ Brief heißt es, er möchte, dass die US-Regierung eine neue Möglichkeit schafft, dass Menschen alle KI-bezogenen Probleme melden und verfolgen können. Er sagt, es sollte so eingerichtet werden, dass Unternehmen, die KI-Produkte entwickeln, dieses Berichtssystem nutzen können, ohne Probleme dieser Unternehmen befürchten zu müssen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert