Als große Neuheit ermöglicht Opera nun den lokalen Betrieb von LLMs
Opera hat kürzlich eine neue Funktion hinzugefügt, mit der Opera One-Benutzer Large Language Models (LLMs) auf ihren PCs herunterladen und verwenden können. Diese Funktion ist für Benutzer zugänglich, die Entwickler-Stream-Updates erhalten, und bietet Zugriff auf über 150 Modelle aus verschiedenen Familien, wie Llama von Meta, Gemma von Google, Vicuna, Mistral AI und andere.
Krystian Kolondra, EVP für Browser und Gaming bei Opera, erklärte :
„Die Einführung lokaler LLMs auf diese Weise ermöglicht es Opera, Möglichkeiten zum Aufbau von Erfahrungen und Know-how im schnell wachsenden lokalen KI-Bereich zu erkunden.“
Opera hat diese neuesten Ergänzungen als Teil seines „AI Feature Drops Program“ bezeichnet und verspricht, dass die Benutzerdaten auf ihrem Gerät gespeichert bleiben, sodass sie generative KI nutzen können, ohne Daten an einen Server senden zu müssen. Das Unternehmen verwendet das Open-Source-Framework Ollama, um diese Modelle direkt auf den Computern der Benutzer auszuführen. Jede Version der Modelle belegt 2 bis 10 GB Speicherplatz auf dem Gerät.
Mit der Einführung dieser neuen Funktionen unternimmt Opera große Anstrengungen, sich dem Trend zur Nutzung von KI-Technologie anzuschließen. Dies ist jedoch nicht das erste Mal, dass der Browser KI integriert, wie bereits bei der Veröffentlichung von Opera One im letzten Jahr zu sehen war. Dieser Schritt festigte das Ziel des Unternehmens, ein führender KI-fokussierter Browser zu werden, was mit der Einführung des KI-Assistenten Aria weiter unter Beweis gestellt wurde. Durch das Angebot einzigartiger und innovativer Funktionen werden diese Updates Opera voraussichtlich dabei helfen, seinen Marktanteil zu erhöhen. Laut einem Bericht von Statcounter vom Dezember 2023 eroberte Opera einen Marktanteil von 3,8 % und rangierte unter den Top 5 der Desktop-Browser.
Um diese neue Funktion in Opera zu nutzen, aktualisieren Sie einfach auf die neueste Version von Opera Developer und befolgen Sie diese Anweisungen , um lokale LLMs auf Ihrem Gerät zu aktivieren. Dadurch kann der Computer des Benutzers das lokale LLM anstelle von Operas KI-Assistent Aria verwenden, es sei denn, der Benutzer initiiert einen Chat mit Aria oder aktiviert es erneut.
Schreibe einen Kommentar