Microsoft verspricht, Kunden bald Zugriff auf ChatGPT als Dienst auf Azure zu gewähren

Microsoft verspricht, Kunden bald Zugriff auf ChatGPT als Dienst auf Azure zu gewähren

ChatGPT hat in letzter Zeit in den Mainstream-Medien viel Aufsehen erregt. Die Fähigkeiten und potenziellen Anwendungsfälle, die das große Sprachmodell von GPT-3 demonstriert, haben es geschafft, Verbraucher und Unternehmenskunden gleichermaßen zu begeistern. Natürlich will Microsoft, das 1 Milliarde US-Dollar in das Gründungsunternehmen von ChatGPT, OpenAI, investiert hat – und Berichte über weitere Finanzierungen folgen –, von dieser Dynamik profitieren. Daher hat es sich verpflichtet, ChatGPT bald auf Azure zu starten.

Microsoft hat angekündigt, dass sein Dienst Azure OpenAI jetzt allgemein verfügbar ist, was bedeutet, dass Kunden auf komplexe KI-Modelle wie GPT-3.5, Codex und DALL•E 2 in der Cloud zugreifen können. Für diejenigen, die es nicht wissen, GPT ist die Familie großer Sprachmodelle, die ChatGPT antreiben, Codex ist das Modell, das verwendet wird, um natürliche Sprache in Programmiercode in GitHub Copilot umzuwandeln, und DALL•E ist ein Dienst, der Bilder generieren kann, nachdem er nur Texteingaben erhalten hat.

Daher hat Microsoft damit geprahlt, dass Azure der „beste Ort zum Erstellen von KI-Workloads“ für Kunden aller Größen aus verschiedenen Branchen ist, die Zeit bei operativen Aktivitäten sparen und Endbenutzern optimierte KI-gestützte Dienste anbieten möchten. Es wird behauptet, dass Kunden KI-Anwendungen auf Azure erstellen können, indem sie eine speziell entwickelte KI-optimierte Infrastruktur mit Funktionen der Enterprise-Klasse nutzen.

Allerdings hat Microsoft festgestellt, dass es sich auf verantwortungsvolle Weise zu Innovationen im KI-Bereich verpflichtet – viele Leute denken, dass dies zumindest derzeit nicht der Fall ist. Es betont :

Wir haben einen iterativen Ansatz für große Modelle gewählt und eng mit unserem Partner OpenAI und unseren Kunden zusammengearbeitet, um Anwendungsfälle sorgfältig zu bewerten, zu lernen und potenzielle Risiken anzugehen. Darüber hinaus haben wir unsere eigenen Leitplanken für den Azure OpenAI-Dienst implementiert, die mit unseren Grundsätzen für verantwortungsbewusste KI übereinstimmen. Als Teil unseres Limited Access Framework müssen Entwickler den Zugriff beantragen und ihren beabsichtigten Anwendungsfall oder ihre beabsichtigte Anwendung beschreiben, bevor sie Zugriff auf den Dienst erhalten. Inhaltsfilter, die speziell dafür entwickelt wurden, missbräuchliche, hasserfüllte und anstößige Inhalte zu erkennen, überwachen ständig die Eingaben, die für den Dienst bereitgestellt werden, sowie die generierten Inhalte. Im Falle eines bestätigten Richtlinienverstoßes können wir den Entwickler bitten, unverzüglich Maßnahmen zu ergreifen, um weiteren Missbrauch zu verhindern.

Wir sind von der Qualität der KI-Modelle überzeugt, die wir heute verwenden und unseren Kunden anbieten, und wir sind fest davon überzeugt, dass sie Unternehmen und Menschen zu völlig neuen und aufregenden Innovationen befähigen werden.

Obwohl ChatGPT bald als Dienst auf Azure verfügbar sein wird, auf dem Kunden aufbauen können, hat der Technologieriese aus Redmond noch kein konkretes Veröffentlichungsdatum festgelegt.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert