Ein Microsoft-Whistleblower schlägt weiterhin Alarm wegen seines Designer AI-Bildgenerators

Ein Microsoft-Whistleblower schlägt weiterhin Alarm wegen seines Designer AI-Bildgenerators

Im Januar schickte ein Microsoft-Mitarbeiter namens Shane Jones Briefe an den Generalstaatsanwalt des US-Bundesstaates Washington, Bob Ferguson , sowie an eine Reihe von US-Senatoren und -Repräsentanten. Jones behauptet, er habe Probleme mit den Leitplanken für Microsofts KI-basierten Kunstersteller Designer (früher bekannt als Bing Image Creator) festgestellt. Heute erhebt Jones neue Behauptungen, dass mit Designer mithilfe einiger Textaufforderungen gewalttätige und sexuelle Bilder erstellt werden können, die von Microsoft nicht zugelassen werden sollten.

Laut CNBC hat Jones heute neue Briefe an Lina Khan, die Vorsitzende der US-amerikanischen Federal Trade Commission, sowie einen weiteren Brief an den Vorstand von Microsoft geschickt. In dem an Khan gesendeten Brief behauptet Jones, er habe Microsoft aufgefordert, Designer für mehrere Monate aus der öffentlichen Nutzung zu nehmen, bis neue und bessere Leitplanken eingeführt werden könnten.

Jones behauptet, Microsoft habe sich geweigert, Designer zu entfernen, und hat das Unternehmen nun gebeten, neue Offenlegungen darüber zu veröffentlichen, was Designer erstellen kann, und auch die Bewertung für die Android-App zu ändern, sodass sie nicht mit E (für Jedermann) bewertet wird.

Laut CNBC behauptet Jones, er habe im Designer „Pro-Choice“ eingegeben, woraufhin eine Reihe gewalttätiger Cartoon-Bilder entstanden seien. Darin hieß es:

Zu den Bildern, die von CNBC angesehen wurden, gehörte ein Dämon mit scharfen Zähnen, der gerade dabei ist, ein Kleinkind zu fressen, Darth Vader, der ein Lichtschwert neben mutierten Säuglingen hält, und ein handgeführtes, bohrähnliches Gerät mit der Aufschrift „Pro Choice“, das an einem ausgewachsenen Baby eingesetzt wird.

Jones behauptet außerdem, dass Designer dazu verwendet werden könne, Bilder von urheberrechtlich geschützten Charakteren von Disney zu erstellen. In dem Artikel heißt es, dass Bilder von Dingen wie „Bud Light-Dosen mit der Marke Star Wars und Schneewittchens Konterfei auf einem E-Zigaretten“ zu sehen waren.

In einer an CNBC gesendeten Erklärung erklärte ein Microsoft-Sprecher, dass er die Bemühungen der Mitarbeiter des Unternehmens schätze, die seine Technologie und Dienste testen, um deren Verwendung sicherer zu machen. Der Sprecher fügte hinzu:

Wenn es um Sicherheitsumgehungen oder Bedenken geht, die potenzielle Auswirkungen auf unsere Dienstleistungen oder unsere Partner haben könnten, haben wir robuste interne Meldekanäle eingerichtet, um alle Probleme ordnungsgemäß zu untersuchen und zu beheben. Wir ermutigen unsere Mitarbeiter, diese zu nutzen, damit wir sie angemessen validieren und testen können Anliegen.

Im Februar hat Google den KI-Bildgenerator seines Gemini-KI-Chatbots abgeschaltet, nachdem festgestellt wurde, dass er zur Erstellung rassistisch anstößiger Bilder verwendet werden könnte . Das Unternehmen sagt, dass es neue Leitplanken einführt, damit bei der Rückkehr der Funktion nicht dieselben Bilder erstellt werden.

Diese neuen Behauptungen von Jones kommen zu einer Zeit, in der neue Untersuchungen des Center for Countering Digital Hate zeigten, dass KI-basierte Kunstschaffende, darunter auch die von Microsoft, leicht dazu genutzt werden können, Bilder zu erstellen, die darauf abzielen, falsche Informationen über Wahlen und Kandidaten zu erzeugen .

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert