Microsoft, OpenAI, Google und andere verpflichten das Weiße Haus zu verantwortungsvoller KI

Microsoft, OpenAI, Google und andere verpflichten das Weiße Haus zu verantwortungsvoller KI

Vertreter von sieben Technologiegiganten – Amazon, Anthropic, Google, Inflection, Meta, Microsoft und OpenAI – trafen sich mit der Biden-Harris-Regierung, um die verantwortungsvolle Entwicklung künstlicher Intelligenz zu diskutieren. Die Technologieunternehmen versuchten der Regierung zu versichern, dass sie bei ihrem Wettlauf um Fortschritte in der KI ethische Überlegungen ernst nehmen.

Das Treffen im Weißen Haus findet vor dem Hintergrund wachsender Bedenken statt, dass Fortschritte in der KI möglicherweise missbraucht werden oder unbeabsichtigte negative Folgen haben könnten.

Leistungsstarke KI-Systeme sind mittlerweile in der Lage, Texte, Bilder, Audio, Video und Code auf sehr überzeugende Weise zu generieren. Obwohl diese Technologie viele Vorteile verspricht, befürchten einige, dass sie auch die Verbreitung von Fehlinformationen ermöglichen und zur Manipulation von Menschen genutzt werden könnte .

Im Anschluss an das Treffen betont Microsoft, wie wichtig es ist, eine sichere und gesellschaftlich vorteilhafte KI aufzubauen. Ziel ist es, sicherzustellen, dass seine KI-Systeme fair, zuverlässig, vertrauenswürdig, inklusiv, transparent und rechenschaftspflichtig sind. Um dies zu erreichen, hat das Unternehmen Grundsätze und Richtlinien für die KI-Entwicklung festgelegt .

In seinem Blog erklärte Microsoft :

Durch schnelles Handeln schaffen die Zusagen des Weißen Hauses eine Grundlage, um sicherzustellen, dass das Versprechen der KI ihren Risiken voraus bleibt. Wir begrüßen die Führungsrolle des Präsidenten, die Technologiebranche zusammenzubringen, um konkrete Schritte auszuarbeiten, die dazu beitragen, KI sicherer und vorteilhafter für die Öffentlichkeit zu machen.

Google hat kürzlich auch einen Vorschlag zur Gestaltung der Einbindung in KI-Systeme veröffentlicht , um unfaire Voreingenommenheit zu vermeiden. Das Unternehmen glaubt an einen mutigen, aber durchdachten Ansatz für KI-Innovationen.

OpenAI legt Wert auf einen vorsichtigen Ansatz bei der Veröffentlichung seiner Technologie und das Durchdenken potenzieller Gefahren. Dennoch haben einige Experten der FTC OpenAI aufgefordert, seine Sicherheitsvorkehrungen transparenter zu gestalten .

Diese sieben führenden KI-Unternehmen verpflichten sich:

  • Interne und externe Sicherheitstests ihrer KI-Systeme vor ihrer Veröffentlichung.
  • Austausch von Informationen in der gesamten Branche sowie mit Regierungen, der Zivilgesellschaft und der Wissenschaft zum Management von KI-Risiken.
  • Investition in Cybersicherheit und Insider-Bedrohungsschutz zum Schutz proprietärer und unveröffentlichter Modellgewichte.
  • Erleichterung der Entdeckung und Meldung von Schwachstellen in KI-Systemen durch Dritte.
  • Entwicklung robuster technischer Mechanismen, um sicherzustellen, dass Benutzer wissen, wann Inhalte von KI generiert werden.
  • Öffentliche Berichterstattung über die Fähigkeiten, Einschränkungen und Bereiche angemessener und unangemessener Nutzung ihrer KI-Systeme.
  • Priorisierung der Forschung zu den gesellschaftlichen Risiken, die KI-Systeme mit sich bringen können
  • Entwickeln und implementieren Sie fortschrittliche KI-Systeme, um die größten Herausforderungen der Gesellschaft zu bewältigen.

In der Zwischenzeit haben Meta und Microsoft an der nächsten Generation von Llama zusammengearbeitet . In seinem Blogbeitrag sagte Microsoft: „Llama 2 soll es Entwicklern und Organisationen ermöglichen, generative KI-gestützte Tools und Erfahrungen zu entwickeln.“

Das Weiße Haus hat deutlich gemacht, dass es eng mit Technologieunternehmen zusammenarbeiten möchte, um verantwortungsvolle KI-Innovationen zu fördern. Sie fordert den Einbau von Leitplanken in KI-Systeme zum Schutz der Privatsphäre, der Bürgerrechte und der nationalen Sicherheit .

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert