Googles DeepMind behauptet, dank seines „Generalagenten“ namens Gato KI-Fortschritte nahe der menschlichen Intelligenz gemacht zu haben.


KI auf menschlicher Ebene steht kurz davor, endlich wahr zu werden, so ein leitender Forscher aus Googles KI-Abteilung DeepMind. Dr. Nando de Freitas sagt „Game Over“ in der jahrzehntelangen Suche nach künstlicher allgemeiner Intelligenz (AIG), nachdem DeepMind ein KI-System vorgestellt hat, das in der Lage ist, eine breite Palette komplexer Aufgaben auszuführen, vom Stapeln von Blöcken bis zum Schreiben von Gedichten. De Freitas, der als „Generalagent“ bezeichnet wird, sagte, dass die neue Gato-KI von DeepMind einfach skaliert werden muss, um eine KI zu schaffen, die es mit der menschlichen Intelligenz aufnehmen kann. Doch seine Begeisterung wird nicht von allen geteilt.

Forscher von DeepMind, einer Alphabet-Tochter für künstliche Intelligenzforschung, haben einen generischen Agenten entwickelt. Hier sind die Notizen, die sie über Gato, den Namen dieses Agenten, geschrieben haben:

„Inspiriert von Fortschritten in der groß angelegten Sprachmodellierung wenden wir einen ähnlichen Ansatz an, um einen einzigen generischen Proxy zu erstellen, der über die Textausgabedomäne hinausgeht. Der Proxy, den wir GATO nennen, fungiert als multimodales, multitaskingfähiges, öffentliches Multi-Avatar-Dashboard Das gleiche Netzwerk mit den gleichen Gewichten kann Atari Hang-Fotos ausführen, chatten, Blöcke mit einem echten Bot-Arm stapeln und vieles mehr und basierend auf seinem Kontext entscheiden, ob Text, gemeinsames Drehmoment, Tastendrücke oder andere Token ausgegeben werden sollen.

“Während der Trainingsphase von Gato werden Daten aus verschiedenen Aufgaben und Modalitäten zu einer festen Folge von Symbolen sequenziert, zusammengesetzt und von einem transformativen neuronalen Netzwerk ähnlich dem großen Sprachmodell verarbeitet. Der Verlust wird maskiert, sodass Gato nur die Aktion und die Ziele vorwegnimmt des Textes.”

Wenn Gato eingesetzt wird, wird ein Vektor, beispielsweise ein Demo, kodiert, um die Anfangssequenz zu bilden. Dann erzeugt die Umgebung die erste Note, die ebenfalls kodiert und der Sequenz hinzugefügt wird. Gato testet den Aktionsvektor automatisch Symbol für Symbol * Sobald alle Symbole abgetastet sind Das Token, das den Aktionsvektor bildet (bestimmt durch die Arbeitsspezifikation der Umgebung), wird die Aktion dekodiert und an die Umgebung gesendet, die einen Schritt ausführt und eine neue Beobachtung erzeugt. Dann iteriert sie die Aktion. Das Modell sieht immer noch alle vorherigen Rückmeldungen und Aktionen in seinem 1024-Token-Kontextfenster.

Journalist sagt: „Menschen werden zu unseren Lebzeiten keine künstliche allgemeine Intelligenz entwickeln“

Tristan Green ist Journalist bei The Next Web. Nach Gattos Präsentation äußerte er sich skeptisch gegenüber der Schaffung künstlicher allgemeiner Intelligenz:

DeepMind hat heute ein multimediales künstliches Intelligenzsystem vorgestellt, das mehr als 600 verschiedene Aufgaben ausführen kann. Es heißt Gato und ist wohl die beeindruckendste Suite für maschinelles Lernen, die die Welt je gesehen hat. Und während wir noch sehen müssen, wie gut es funktioniert, wenn Forscher und Benutzer es außerhalb der DeepMind Labs bringen, sieht es so aus, als ob Gato alles ist, was GPT-3 will und mehr.

Deshalb bin ich traurig: GPT-3 ist eine Datei großer Sprachmodus (LLM) erstellt von OpenAI, dem weltweit besten öffentlichen Finanzunternehmen für künstliche Intelligenz (IAG). Bevor wir jedoch GPT-3 und Gato vergleichen können, müssen wir verstehen, woher OpenAI und DeepMind als Unternehmen kamen.

“OpenAI ist die Idee von Elon Musk, hat Milliarden von Dollar an Unterstützung von Microsoft erhalten, und die US-Regierung könnte sich weniger darum kümmern, was sie in Bezug auf Regulierung und Aufsicht tut. Wenn man bedenkt, dass der einzige Zweck von OpenAI darin besteht, künstliche Intelligenz zu entwickeln und zu kontrollieren ( Es ist eine künstliche Intelligenz, die in der Lage ist, alles zu tun und zu lernen, was ein Mensch kann, mit dem gleichen Zugriff), es ist etwas schade, dass es allen Unternehmen gelungen ist, ein wirklich fiktives LLM zu produzieren.

“Verstehen Sie mich nicht falsch, GPT-3 ist großartig. Tatsächlich kann man sagen, dass es genauso beeindruckend ist wie Gato von DeepMind, aber diese Einschätzung erfordert einige Nuancen.

„OpenAI hat aus einem einfachen Grund den LLM-Weg in die IAG eingeschlagen: Niemand weiß, wie die IAG funktioniert.

„So wie es von der Entdeckung des Feuers bis zur Erfindung des Verbrennungsmotors gedauert hat, wird das Verständnis, wie man vom Deep Learning zur künstlichen allgemeinen Intelligenz übergeht, nicht über Nacht geschehen.

„GPT-3 ist ein Beispiel für eine KI, die zumindest das tun kann, was ein Mensch fühlt: Sie generiert Text.

“Was DeepMind mit Gato gemacht hat, ist so ziemlich dasselbe. Es hat etwas, das einem LLM sehr ähnlich ist, in einen Visualizer verwandelt, der über 600 Formen der Zauberei beherrscht”, sagte Mike Cook von der Forschungsgruppe Knives and Paintbrushes kürzlich :

“Es scheint aufregend, dass eine KI all diese scheinbar unterschiedlichen Aufgaben erledigen kann, denn für uns scheint das Schreiben eines Skripts ganz anders zu sein als das Steuern eines Roboters. Nicht viel anders als GPT-3, das den Unterschied zwischen reinem englischen Text und Python-Code versteht. Dies soll nicht heißen, dass es einfach ist, aber für einen außenstehenden Beobachter mag es scheinen, als könne eine KI auch eine Tasse Tee trinken oder zehn oder fünfzig andere Aufgaben leicht lernen, was sie nicht kann.“

Grundsätzlich sind Gato und GPT-3 mächtige KI-Systeme, aber keines von ihnen ist zu allgemeiner Intelligenz fähig.

„Hier ist mein Problem: Wenn Sie nicht darauf wetten, dass IAG das Ergebnis eines zufälligen Zufallsereignisses ist – Kurzschluss kommt mir in den Sinn –, ist es vielleicht an der Zeit, dass jeder seinen Zeitplan für IAG neu bewertet. Ich würde nicht sagen, dass es so wäre. niemals entwickelt werden, weil dies eine der einzigen Obszönitäten in der Wissenschaft ist, aber dies erweckt den Eindruck, dass künstliche allgemeine Intelligenz zu unseren Lebzeiten nicht entwickelt wird.

„DeepMind arbeitet seit über einem Jahrzehnt an AGI und OpenAI seit 2015. Beide konnten das erste Problem auf dem Weg zur Lösung von KI nicht lösen: eine KI zu bauen, die ohne Training neue Dinge lernen kann.

“Ich glaube, Gato könnte das fortschrittlichste Multimedia-KI-System der Welt sein. Aber ich glaube auch, dass DeepMind das gleiche Sackgassenkonzept von IAG wie OpenAI übernommen und es marktfähiger gemacht hat.”

Der Forschungsdirektor von DeepMind ist anderer Meinung als Greene

Als Antwort auf Greens Meinungsbeitrag schreibt der Forschungsdirektor von DeepMind, dass er glaubt, dass ein solches Ergebnis unvermeidlich ist: „Es geht jetzt nur noch um die Größenordnung! Das Spiel ist vorbei!“, schrieb er auf Twitter.

„Es geht darum, diese Modelle größer, sicherer, recheneffizienter, schnelleres Sampling, intelligenteres Gedächtnis, mehr Methoden, innovative Daten, online/offline zu machen … Die Lösung dieser Herausforderungen wird die KI allgemein voranbringen.“

Auf die Frage des Forschers für maschinelles Lernen, Alex Dimikas, wie nah Gato AI am Bestehen des wahren Turing-Tests ist – ein Maß für Computerintelligenz, bei dem ein Mensch nicht in der Lage sein muss, zwischen einer Maschine und einer anderen zu unterscheiden – antwortete Dr. de Freitas, dass Gato immer noch einen hatte langer Weg zu gehen.

Mehrere KI-Forscher haben davor gewarnt, dass das Aufkommen künstlicher allgemeiner Intelligenz zu einer existenziellen Katastrophe für die Menschheit führen könnte, wobei Professor Nick Bostrom von der Universität Oxford voraussagte, dass ein „superintelligentes“ System, das die biologische Intelligenz übertrifft, dazu führen könnte, dass Menschen die vorherrschende Lebensform ersetzen Erde.

Eine der Hauptsorgen bei der Ankunft des AIG-Systems, das in der Lage ist, selbst zu lernen und intelligenter als Menschen zu werden, ist, dass es unmöglich sein wird, es auszuschalten.

Als Antwort auf weitere Fragen von KI-Forschern auf Twitter sagte Dr. de Freitas, dass „Sicherheit bei der Entwicklung von KI von größter Bedeutung ist“. „Das ist vielleicht die größte Herausforderung, vor der wir stehen“, schrieb er. “Jeder sollte darüber nachdenken. Die mangelnde Diversität macht mir auch große Sorgen.”

Google, das 2014 das in London ansässige Unternehmen DeepMind übernommen hat, arbeitet bereits an einem „großen roten Knopf“, um die mit einer Intelligenzexplosion verbundenen Risiken zu mindern. In einem Artikel aus dem Jahr 2016 mit dem Titel Agenten sicher unterbrechenDeepMind-Forscher beschreiben ein Framework, um zu verhindern, dass fortgeschrittene KI Abschaltbefehle ignoriert.

Quellen: Dr. Nando de FreitasNächstes Web

Und du?

Teilen Sie die skeptische Meinung von Tristan Green, die Schaffung künstlicher allgemeiner Intelligenz zu unseren Lebzeiten zu sehen?
Was halten Sie von den Worten von Dr. Nando, der glaubt, dass dank Jato das „Spiel vorbei ist“ und dass die künstliche Intelligenz auf menschlicher Ebene endlich erreicht wird?
Was halten Sie von den Warnungen der Forscher vor den Risiken einer potenziellen KI?

Siehe auch:

DeepMind hat eine KI darauf trainiert, die Kernfusion mithilfe von Reinforcement Learning zu steuern
DeepMind sagt, seine KI namens AlphaCode sei so gut wie ein „normaler menschlicher Programmierer“: Machen sich die Arbeiter in der Branche Sorgen?
DeepMind, das KI-Labor von Alphabet, testet die Grenzen großer KI-Sprachsysteme und modelliert 280 Milliarden Variablen

Leave a Comment