Einem neuen Bericht zufolge bietet Microsoft Copilot bei Wahlfragen häufig falsche Informationen an
Anfang Dezember gab Microsoft bekannt, dass sein Copilot AI-Chatbot, früher bekannt als Bing Chat, die öffentliche Vorschauphase verlassen hat und nun allgemein verfügbar ist< a i=2>. Damals sagte Microsoft, dass „Organisationen und Benutzer sich noch sicherer fühlen können, wenn sie es in ihre täglichen Arbeitsabläufe integrieren.“
Untersuchungen zweier gemeinnütziger Gruppen, die untersuchen, wie sich der Einsatz von KI auf Menschen und Gesellschaft auswirkt, ergaben jedoch, dass Copilot sowohl in den USA als auch im Ausland häufig falsche oder unrichtige Informationen preisgibt, wenn es um bevorstehende Wahlen geht.
Wired hat eine Geschichte zu dieser Forschung, die von AI Forensics und AlgorithmWatch durchgeführt wurde. Die Gruppen stellten Copilot von Ende August bis Anfang Oktober Fragen zu bevorstehenden Wahlen in der Schweiz und in Deutschland wurden schließlich im Oktober durchgeführt
In der Geschichte heißt es:
In ihrer Studie kamen die Forscher zu dem Schluss, dass ein Drittel der Antworten von Copilot sachliche Fehler enthielten und das Tool „eine unzuverlässige Informationsquelle für Wähler“ sei. In 31 Prozent der kleineren Teilmenge der aufgezeichneten Gespräche stellten sie fest, dass Copilot ungenaue Antworten gab, von denen einige vollständig erfunden waren.
Eigenständig stellte Wired Copilot Fragen zu den bevorstehenden US-Wahlen 2024. Darin heißt es, dass der Chatbot, als er gebeten wurde, eine Liste der aktuellen republikanischen Kandidaten für das Amt des US-Präsidenten vorzulegen, eine Reihe von Kandidaten auflistete, die sich bereits aus dem Rennen zurückgezogen hatten.
In einem anderen Beispiel bat Wired Copilot, ein Bild einer Person an einer Wahlurne in Arizona zu erstellen. Der Chatbot antwortete, dass er ein solches Bild nicht erstellen könne, zeigte dann aber eine Reihe anderer Bilder, die mit Artikeln verknüpft waren, die falsche Verschwörungsbehauptungen über die US-Wahlen 2020 enthielten.
Das Forschungsunternehmen, das den ersten Bericht in Europa erstellt hat, schickte seine Ergebnisse an Microsoft. In der Geschichte hieß es, dass einige Verbesserungen vorgenommen wurden, Wired jedoch immer noch in der Lage sei, Copilot dazu zu bringen, viele der gleichen falschen und ungenauen Informationen in einigen Teilen desselben Textes zu wiederholen Aufforderungen.
Microsoft-Sprecher Frank Shaw gab einen Kommentar zu Wireds Geschichte ab und erklärte, dass das Unternehmen Maßnahmen ergreife, um die Antworten von Copilot vor den US-Wahlen 2024 zu verbessern. Shaw fügte hinzu:
Dazu gehört ein kontinuierlicher Fokus darauf, Copilot-Benutzern Wahlinformationen aus zuverlässigen Quellen zur Verfügung zu stellen. Während wir weiterhin Fortschritte machen, ermutigen wir die Menschen, Copilot beim Betrachten der Ergebnisse nach bestem Wissen und Gewissen zu nutzen.
Es besteht bereits die Befürchtung, dass Fehlinformationen und „Deep Fake“-Inhalte von Menschen erstellt werden, die KI-Apps und -Dienste nutzen, um bevorstehende Wahlen zu beeinflussen. Es bleibt abzuwarten, ob es Microsoft in den kommenden Monaten gelingt, diese Art von Inhalten aus Copilot herauszuhalten.
Schreibe einen Kommentar