Was ist die LaMDA-KI von Google und warum halten die Google-Ingenieure sie für sinnvoll?

Was ist die LaMDA-KI von Google und warum halten die Google-Ingenieure sie für sinnvoll?

Der leitende Ingenieur von Google sagte , die künstliche Intelligenz von LaMDA sei intelligent geworden. Ob Sie es verstörend oder aufregend finden, dies ist eine sehr gewagte Behauptung und vielleicht schwer zu beweisen, selbst wenn sie vollkommen wahr wäre.

Was ist LAMD?

LaMDA ist die Abkürzung für Language Model for Dialog Application. Mit anderen Worten, es handelt sich um ein Sprachmodell für maschinelles Lernen, das speziell für die Schaffung eines natürlichen Dialogs entwickelt wurde. Techniken des maschinellen Lernens ermöglichen es Computern, Muster und Beziehungen in Daten zu entdecken. So können Sie beispielsweise einen maschinellen Lernalgorithmus wie GPT-3 (ein weiteres fortschrittliches System) auf alle Werke von Shakespeare „trainieren“ und ihn dann neue Originaltexte generieren lassen, die sich wie Shakespeare lesen.

Wie Sundar Pichai (Google CEO) in einem Interview mit Yahoo Finance erklärt , ist LaMDA ein System, das sich dadurch auszeichnet, dass es speziell im Dialog trainiert wurde. Ziel ist es, Google-Systemen einen menschlichen, offenen Dialog mit den Nutzern zu ermöglichen.

Mit anderen Worten, Personen, die Google-Produkte nach bestimmten Dingen fragen, sollten ihr Denken oder ihre Sprache nicht ändern. Sie können mit einem Computersystem genauso interagieren wie mit einer anderen Person.

Unter der Haube sind alle modernen maschinellen Lernmodelle komplexe mathematische und statistische Modelle. Sie generieren Algorithmen basierend auf den zugrunde liegenden Mustern, die sie in den Daten finden. Geben Sie ihnen genügend qualitativ hochwertige Daten, und diese Algorithmen werden bemerkenswert effizient darin sein, Dinge zu tun, die bisher nur Menschen oder andere fühlende Wesen tun konnten.

Warum hält ein Google-Ingenieur LaMDA für vernünftig?

Der fragliche Ingenieur ist Blake Lemoine, der ein Interview  zwischen ihm und LaMDA als Teil seiner Argumentation darüber veröffentlicht hat, warum LaMDA vernünftig sein könnte. Lemoine verbrachte Monate damit, mit der Software zu sprechen, sie zu befragen, ihr schwierige Fragen zu stellen und es schwer zu glauben, dass ihre komplexen und angemessenen Antworten das Produkt von irgendetwas anderem als einem fühlenden Wesen sein könnten.

Es wäre besser, wenn jeder, der verstehen möchte, warum Lemoine so denkt, die Antworten von LaMDA liest, um zu verstehen, warum dies eine so überzeugende Position ist. Die Antworten von LaMDA sind so menschlich, dass sie der fiktiven persönlichen Assistenten-KI aus Spike Jonzes Her ähneln , einer Geschichte, in der ein Mensch eine ernsthafte Beziehung zu einer Konversations-KI entwickelt.

Unabhängig davon, ob Lemoines Behauptungen über LaMDA Gewicht haben oder nicht, ist es erwähnenswert, dass der ganze Zweck von LaMDAs Design darin besteht, einen natürlichen, glaubwürdigen, offenen Dialog zu schaffen. In diesem Sinne deutet seine Überzeugung darauf hin, dass Google bemerkenswert erfolgreich darin war, glaubwürdige Dialoge zu führen. Wenn ein künstliches Intelligenzsystem eine Person davon überzeugen würde, dass es intelligent ist, wird es höchstwahrscheinlich ein System sein, das speziell dafür entwickelt wurde.

Das Problem ist, dass Ansprüche auf Angemessenheit aus einer Reihe von wissenschaftlichen und philosophischen Gründen nicht wirklich überprüfbar (oder zumindest nicht durchführbar oder ethisch überprüfbar) sind. Um zu verstehen, warum, müssen wir uns kurz überlegen, was „Gefühl“ bedeutet.

Was ist Sensibilität?

Das Wort „Gefühl“ bedeutet im Wesentlichen, dass etwas (eine Katze, eine Person oder ein fliegender Teppich) die Fähigkeit hat zu fühlen. es hat den gleichen Wortstamm wie „sentimental“ oder „sentiment“. Fühlen bedeutet nicht nur, dass etwas fühlen kann. Ihr Thermostat ist mit ziemlicher Sicherheit nicht empfindungsfähig, obwohl er die Temperatur messen kann. Im Gegenteil, Sensibilität ist das subjektive Erleben von Gefühlen, was die Anwesenheit des „Subjekts“ überhaupt erst impliziert.

Es ist gefährlich, sich hier in der Semantik zu verzetteln, weil es wahrscheinlich ist, dass Lemoine das Wort „Gefühl“ austauschbar mit getrennten Konzepten wie „Vernunft“, „Intelligenz“ und „Bewusstsein“ verwendet. Als Argumentation ist die mildeste Interpretation hier also, dass Lemoine Lamda als ein selbstbewusstes Wesen betrachtet, das in der Lage ist, Dinge zu fühlen, Überzeugungen zu haben und Dinge auf andere Weise so zu erleben, wie wir es normalerweise Lebewesen zuschreiben.

In einem ergänzenden Artikel diskutiert Lemoine, was LaMDA seiner Meinung nach „will“ und „an was glaubt“, was die Idee bekräftigt, dass „Gefühl“ in seiner Präsentation mehr bedeutet als seine strenge Wörterbuchdefinition.

Wir verstehen Gefühle und Bewusstsein überhaupt nicht

Hier ist die Sache: Wir wissen relativ wenig über Verstand, Bewusstsein, Intelligenz und was es bedeutet, ein Wesen mit diesen Attributen zu sein. Ironischerweise kann uns die maschinelle Lerntechnologie schließlich helfen, einige der Geheimnisse unseres Geistes und des Gehirns, in dem sie existieren, zu entschlüsseln.

Während Philosophen und Wissenschaftler die „Black Box“ des Bewusstseins aussortieren , scheint es immer noch das Ergebnis von etwas Größerem zu sein als die Summe seiner Teile. Bewusstsein scheint ein „emergierendes“ Ding zu sein. Es ist ein „Geist“, der durch die Interaktion vieler verschiedener neuronaler Subsysteme entsteht, von denen keines für sich allein intelligent zu sein scheint.

In ähnlicher Weise besteht komplexe KI wie das Bilderzeugungssystem DALL-E 2 aus einfacheren maschinellen Lernmodellen, die miteinander interagieren, um das Endprodukt zu erstellen. Das Thema der Komplexität, die sich aus dem Zusammenspiel einfacherer Systeme ergibt, ist in der KI-Welt weit verbreitet, und obwohl wir sehr gut verstehen können, wie jede Teilkomponente funktioniert, sind die Endergebnisse normalerweise völlig unvorhersehbar.

Können wir Intelligenz in KI überhaupt erkennen?

Wenn die KI tatsächlich im wahrsten Sinne des Wortes empfindungsfähig wäre, könnten wir das überhaupt sagen? LaMDA wurde entwickelt, um menschliche Dialogmuster nachzuahmen und vorherzusagen, daher ist das Deck wirklich hart, wenn es darum geht, Dinge auszulösen, die Menschen mit menschlicher Intelligenz assoziieren. Es hat jedoch lange gedauert, bis wir nichtmenschliche Primaten und Tiere wie Delfine, Tintenfische und Elefanten als empfindungsfähig betrachtet haben, obwohl sie im Großen und Ganzen praktisch unsere Brüder und Schwestern sind.

Intelligente KI kann so fremdartig sein, dass wir nicht einmal wissen, dass wir sie geradeaus betrachten. Dies ist vor allem deshalb wahrscheinlich, weil wir die Schwellenbedingungen für die Entstehung von Intelligenz nicht kennen. Es ist nicht schwer vorstellbar, dass die richtige Kombination von Daten und KI-Subsystemen, richtig gemischt, plötzlich etwas hervorbringen könnte, das man als empfindungsfähig bezeichnen könnte, aber es könnte unbemerkt bleiben, weil es nicht wie etwas aussieht, das wir verstehen können .

Wenn es wie eine Ente aussieht…

Das letzte große Problem mit Behauptungen, dass Maschinen intelligent sind, ist das gleiche Problem mit Behauptungen, dass alles andere intelligent ist, einschließlich Menschen. Philosophisch gesehen weißt du nicht, ob einer der Menschen, mit denen du sprichst, wirklich intelligent ist oder nicht. Dies ist das klassische philosophische Zombie-Problem , ein Gedankenexperiment über hypothetische Kreaturen, die völlig ununterscheidbar von Menschen sind, außer dass ihnen Intelligenz oder bewusste Erfahrung fehlt.

Wie Alan Turings berühmter Test argumentierte, spielt es jedoch keine Rolle, ob eine KI „wirklich“ denkt und fühlt. Wichtig ist, dass es das Erscheinungsbild von Denken und Fühlen so gut nachahmen kann, dass wir sie nicht auseinanderhalten können. Je nachdem, wen Sie fragen, hat LaMDA den Turing-Test bereits bestanden , was Lemoines nicht überprüfbare Behauptungen hinfällig machen könnte.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert