Microsoft Azure OpenAI Service bietet jetzt Echtzeiterkennung missbräuchlicher Anfragen
In den letzten Monaten gab es Berichte über Benutzer, die erfolgreich generative KI-Dienste nutzten, um Inhaltsbeschränkungen zu umgehen und Inhalte zu erstellen. Ein bemerkenswerter Fall ereignete sich Anfang dieses Jahres, als explizite Deepfake-Bilder der Pop-Künstlerin Taylor Swift in den sozialen Medien kursierten. Diese Bilder wurden angeblich von einer Gruppe erstellt, die bestimmte Textaufforderungen im KI-Bildgenerator Microsoft Designer verwendete.
Heute hat Microsoft eine öffentliche Vorschau einer neuen Funktion vorgestellt, die in seinem Azure OpenAI Service verfügbar ist. Dieser Service ermöglicht es Unternehmen und Organisationen, die generativen KI-Modelle von OpenAI über die Azure-Cloud-Server von Microsoft zu nutzen. Die kürzlich eingeführte Funktion „Risiken- und Sicherheitsüberwachung“ soll Unternehmen einen Live-Überblick über die Nutzung ihrer KI-Systeme bieten und Missbrauchsversuche durch Einzelpersonen identifizieren.
Laut einem aktuellen Blogbeitrag hat Microsoft eine Funktion eingeführt, die Daten zu verschiedenen Endbenutzeranfragen an seine KI-Dienste anzeigen kann, die als unsicher gelten. Diese Anfragen umfassen:
- Gesamtzahl blockierter Anfragen und Blockierungsrate
- Verteilung blockierter Anfragen nach Kategorie
- Blockrate im Zeitverlauf nach Kategorie
- Schweregradverteilung nach Kategorie
- Anzahl und Rate blockierter Anfragen auf der Blocklist
Mithilfe dieser Informationen können Unternehmen ihre KI-Inhaltsleitplanken ändern, um sicherzustellen, dass ihre Dienste nicht in einer Weise genutzt werden, die gegen ihre Richtlinien verstößt.
Darüber hinaus gibt es eine Funktion, die Unternehmen dabei hilft, Benutzer zu identifizieren, die wiederholt missbräuchliche oder schädliche Anfragen an ihre KI-Dienste stellen. Microsoft erklärt:
Wenn Inhalte eines Benutzers als schädlich gekennzeichnet werden und das Anforderungsverhalten des Benutzers berücksichtigt wird, beurteilt das System, ob der Benutzer potenziell missbräuchlich ist oder nicht. Anschließend steht im Azure OpenAI Studio ein zusammengefasster Bericht für weitere Maßnahmen zur Verfügung.
Das Unternehmen hat die Möglichkeit, sein System gemäß seinen eigenen Regeln und Vorschriften zu ändern, um es vor potenziellen Verstößen durch diese problematischen Endbenutzer zu schützen.
Auf die kürzlich hinzugefügten Überwachungsfunktionen für Azure OpenAI Service können Kunden in den Regionen „USA-Ost“, „Schweiz-Nord“, „Frankreich-Mitte“, „Schweden-Mitte“ und „Kanada-Ost“ zugreifen. Es ist derzeit unklar, wann diese öffentliche Vorschau auf weitere Länder ausgeweitet oder allgemein verfügbar wird.
Schreibe einen Kommentar