Ein neues maschinelles Lernsystem hilft Bots, bestimmte soziale Interaktionen zu verstehen und durchzuführen.

Roboter können Essen auf einem Campus liefern und auf einem Golfplatz ein Hole-in-One schlagen, aber selbst der komplexeste Roboter kann nicht die grundlegenden sozialen Interaktionen ausführen, die für das tägliche Leben des Menschen unerlässlich sind.

MIT-Forscher haben nun bestimmte soziale Interaktionen in ein Framework für Roboter integriert, sodass Maschinen verstehen, was es bedeutet, sich gegenseitig zu helfen oder zu behindern, und lernen, diese sozialen Verhaltensweisen selbst auszuführen. In einer simulierten Umgebung beobachtet ein Roboter seinen Begleiter, errät, welche Aufgabe er erfüllen möchte, und hilft oder behindert dann diesen anderen Roboter, basierend auf seinen eigenen Zielen.

Die Forscher zeigten auch, dass ihr Modell realistische und vorhersagbare soziale Interaktionen schafft. Als sie Menschenvideos von diesen simulierten Robotern zeigten, die miteinander interagierten, stimmten die menschlichen Zuschauer größtenteils mit dem Modell darin überein, welche Art von Sozialverhalten vor sich ging.

Robotern die Möglichkeit zu geben, soziale Fähigkeiten zu demonstrieren, kann zu reibungsloseren und positiveren Mensch-Roboter-Interaktionen führen. Beispielsweise könnte ein Roboter in einer Einrichtung für betreutes Wohnen diese Fähigkeiten nutzen, um eine fürsorglichere Umgebung für ältere Menschen zu schaffen. Das neue Modell könnte es Wissenschaftlern auch ermöglichen, soziale Interaktionen quantitativ zu messen, was Psychologen helfen könnte, Autismus zu untersuchen oder die Wirkung von Antidepressiva zu analysieren.

“Roboter werden schon früh genug in unserer Welt leben und sie müssen wirklich lernen, wie sie aus menschlicher Perspektive mit uns kommunizieren. Sie müssen verstehen, wann es Zeit ist, ihnen zu helfen, und wann es Zeit für sie ist, zu sehen, was sie können tun, um zu verhindern, dass etwas passiert. Es ist eine sehr frühe Arbeit und wir kratzen gerade erst an der Oberfläche, aber ich denke, es ist ein sehr ernsthafter erster Versuch zu verstehen, was es bedeutet, dass Menschen und Maschinen sozial interagieren“, sagt Boris Katz, Hauptforscher und Leiter der InfoLab-Gruppe am Computer Science and Artificial Intelligence Laboratory (CSAIL) und Mitglied des Center for Brains, Minds, and Machines (CBMM).

Neben Katz ist Co-Lead-Autor Ravi Tijwani, ein wissenschaftlicher Mitarbeiter bei CSAIL; Co-Hauptautorin Yen-Ling Kuo, CSAIL-Doktorandin; Tianmin Xu, Postdoktorandin in der Abteilung für Gehirn- und Kognitionswissenschaften; und Hauptautor Andre Barbeau, Forscher bei CSAIL und CBMM. Die Forschungsergebnisse werden auf der Robot Learning Conference im November vorgestellt.

Soziale Simulation

Um soziale Interaktionen zu untersuchen, schufen die Forscher eine simulierte Umgebung, in der Roboter physische und soziale Ziele verfolgen, indem sie durch ein zweidimensionales Netzwerk navigieren.

Das materielle Ziel bezieht sich auf die Umwelt. Das physische Ziel eines Bots kann beispielsweise darin bestehen, zu einem Baum an einem bestimmten Punkt im Netzwerk zu navigieren. Das soziale Ziel besteht darin, zu erraten, was ein anderer Bot zu tun versucht, und dann auf diese Vermutung zu reagieren, z. B. einem anderen Bot zu helfen, einen Baum zu wässern.

Die Forscher verwenden ihr Modell, um die physischen Ziele des Roboters zu bestimmen, was seine sozialen Ziele sind und wie viel Bedeutung er ihnen gegenüber haben sollte. Der Roboter wird für die Aktionen belohnt, die er unternimmt, um ihn seinen Zielen näher zu bringen. Wenn ein Bot versucht, einem Kumpel zu helfen, passt er seine Belohnung an die Belohnung des anderen Bots an; Wenn er versucht zu foulen, passt er seine Belohnung an, um das Gegenteil zu sein. Das Schema, ein Algorithmus, der entscheidet, welche Aktionen der Bot ausführen soll, verwendet diese ständig aktualisierte Belohnung, um den Bot beim Erreichen einer Kombination aus physischen und sozialen Zielen anzuleiten.

“Wir haben ein neues mathematisches Framework zur Modellierung der sozialen Interaktion zwischen zwei Agenten freigeschaltet. Wenn Sie ein Bot sind und zu Ort X gehen möchten, und ich ein anderer Bot bin und Sie versuchen, zu Ort X zu gehen, ich können zusammenarbeiten, indem sie Ihnen dabei helfen, schneller am Standort X anzukommen. Dies könnte bedeuten, X für Sie abzurunden, ein anderes besseres X zu finden oder die Maßnahmen zu ergreifen, die Sie in X tun müssen. Unsere Formulierung des Plans ermöglicht das „Wie“. bekannt; Tijuani erklärt, dass wir das „Was“ im Sinne dessen definieren, was soziale Interaktionen mathematisch bedeuten.

Es ist wichtig, die physischen und sozialen Ziele eines Roboters zu kombinieren, um realistische Interaktionen zu schaffen, da die Menschen, die sich gegenseitig helfen, Grenzen haben, wie weit sie reisen können. Zum Beispiel würde eine vernünftige Person ihre Brieftasche wahrscheinlich keinem Fremden geben, sagt Barbeau.

Die Forscher verwendeten diesen mathematischen Rahmen, um drei Arten von Robotern zu identifizieren. Ein Roboter der Stufe 0 hat nur physische Zwecke und kann nicht sozial denken. Ein Roboter der Stufe 1 hat sowohl physische als auch soziale Ziele, geht aber davon aus, dass alle anderen Roboter nur physische Ziele haben. Level 1-Bots können Aktionen basierend auf den physischen Zielen anderer Bots ausführen, z. B. unterstützen und deaktivieren. Ein Roboter der Stufe 2 geht davon aus, dass andere Roboter soziale und physische Zwecke haben; Diese Bots können komplexere Aktionen ausführen, z. B. sich zusammenschließen, um gemeinsam zu helfen.

Modellbewertung

Um zu sehen, wie ihr Modell im Vergleich zu menschlichen Perspektiven sozialer Interaktionen abschneidet, entwarfen sie 98 verschiedene Szenarien mit Robotern auf den Ebenen 0, 1 und 2. Zwölf Personen sahen sich 196 Videos von interagierenden Robotern an und wurden dann gebeten, physische und soziale Auswirkungen abzuschätzen. Die Ziele dieser Roboter.

In den meisten Fällen stimmte ihr Modell mit dem überein, was Menschen an die sozialen Interaktionen glaubten, die in jedem Bild auftraten.

“Wir haben dieses langfristige Interesse, sowohl am Bau von Computermodellen für Roboter, als auch an der Erforschung der menschlichen Aspekte davon. Wir wollen wissen, welche Merkmale dieser Videos Menschen nutzen, um soziale Interaktionen zu verstehen. Können wir ein Ziel erreichen? Test Ihrer Fähigkeit, soziale Interaktionen zu erkennen? Vielleicht? Es gibt eine Möglichkeit, Menschen beizubringen, diese sozialen Interaktionen zu erkennen und ihre Fähigkeiten zu verbessern. Davon sind wir noch weit entfernt, aber selbst soziale Interaktionen effektiv messen zu können, ist ein großer Schritt nach vorne”, sagt Barbeau.

Auf dem Weg zur Weiterentwicklung

Forscher entwickeln ein System, das 3D-Agenten in einer Umgebung verwendet, die viele Arten von Interaktionen ermöglicht, wie z. B. die Manipulation von Haushaltsgegenständen. Sie planen auch, ihr Modell zu modifizieren, um Umgebungen einzubeziehen, in denen Verfahren fehlschlagen können.

Die Forscher wollen auch einen auf neuronalen Netzwerken basierenden Bot-Scheduler in das Modell einbauen, der aus Erfahrungen lernt und schneller läuft. Schließlich hoffen sie, ein Experiment durchzuführen, um Daten über die Merkmale zu sammeln, die Menschen verwenden, um festzustellen, ob zwei Roboter an einer sozialen Interaktion teilnehmen.

„Meine Hoffnung ist, dass wir einen Standard haben werden, der es allen Forschern ermöglicht, an diesen sozialen Interaktionen zu arbeiten und die Arten von wissenschaftlichen und technischen Fortschritten zu inspirieren, die wir in anderen Bereichen wie Objekterkennung und Teilen gesehen haben“, sagte Barbeau.

Diese Forschung wurde vom Center for Minds, Minds, and Machines, der National Science Foundation, der MIT CSAIL Systems Learning Initiative, dem MIT-IBM Watson AI Laboratory, dem DARPA-Programm für künstliche soziale Intelligenz für erfolgreiche Teams und der US Air Force unterstützt Research Lab und der U.S. Air Force AI Accelerator and Research Office Navy.

Leave a Comment