Wird Google die drei Gesetze der Bots respektieren?

… Es wäre dann eine Sache des Menschen, kritische ethische und technische Entscheidungen zu treffen, und wenn Google im Mittelpunkt der Gleichung steht, sehr schlau, wer vorhersagen kann, ob die richtigen Karten gespielt werden.

Zwei Dinge, die das Herz mit Bewunderung und Respekt erfüllen und die neu und immer größer werden, je mehr der Gedanke daran haftet und sich darauf bezieht: der Sternenhimmel über mir und das moralische Gesetz in mir. Mit diesem langen Satz von Immanuel Kant lassen sich die futurologisch gefärbten zukünftigen Herausforderungen der Wissenschaft in den beiden Hauptbereichen der technischen Entwicklung, nämlich der Weltraumforschung und der Robotik, behandeln. Ersteres sieht einen allumfassenden Erkundungsdrang am Horizont, der die Art schließlich aus ihrem Lebensraum vertreiben wird – unabhängig davon, ob sie für ihr Überleben unerlässlich ist oder nicht. Und die Erforschung ist insofern einzigartig, als sie das Unbekannte und Beunruhigende mit sich bringt, so sehr es wünschenswert ist: Wir werden gehen, aber wohin wir gehen werden, wir wissen noch nicht, wie sich die Menschheit anpassen wird, noch ob unsere Gesetze, Bräuche, und Gewohnheiten werden die Reise überleben.

Andererseits sind Roboter verkörperter, geerdeter und moderner für den aufgeklärten Beobachter ihrer Zeit. Die Verbesserung von Maschinen ist so alltäglich geworden, dass es kaum noch zu bewundern ist, wenn die Rolltreppen der Station Mairie de Montrouge beschleunigen, sobald Sie einen Fuß setzen, oder wenn sich die neuen transparenten Türen der Navigo-Stationen in der eleganten Stille öffnen, die Science-Fiction macht kann sich nur schwer vorstellen und bevorzugt oft das schwindelerregende Treiben der beginnenden Mechanik. Stadtmöblierung ist nicht das einzige Kunstwerk, das täglich übersehen wird: Kommunikation ist augenblicklich, allwissend und augenblicklich, Kilometer haben ihre Kraft in emotionalen Brüchen verloren. Sprachbefehle können an ein Smartphone gegeben werden, das sie mehr oder weniger effizient ausführt. Wir haben auch schon lange nicht mehr vergessen, wie automatisiert die Küche geworden ist, durch die Mikrowelle oder die verschiedenen Roboter, die sich um die Rezepte kümmern, die programmiert wurden, um sie problemlos zuzubereiten.

Drei Grundgesetze

Diese technologischen Fortschritte, die die Menschen vor einem Jahrhundert verärgert hätten und die 2014 zufällig eintrafen, sind so vertraut und für das Auge fast unsichtbar, dass Sie sie jeden Tag sehen, ohne sich Fragen über ihre Funktionsweise zu stellen. Aber noch wichtiger ist dasselbe Auge für imaginäre Roboter: solche, die elektronische Geräte am Fließband bauen, solche, die sich autonom über unwegsames Gelände bewegen, solche, die aus der Luft töten, solche, die Menschen töten. Form, um dem Menschen zu helfen, wenn er seine Grenzen zeigt; Endlich derjenige, der es wagt, den Namen künstliche Intelligenz anzunehmen.

“Das erste dieser Gesetze weist darauf hin, dass der Roboter” Er darf einem Menschen nicht schaden oder zulassen, dass er durch Passivität gefährdet wird “.”

Allerdings ist die primitive Roboter Aus dem Alltag sind der Schnellkochtopf, das iPhone, die Rolltreppe und die Roboterschnecke nicht weniger roboterhaft als die kommenden Proben. Ethische Fragen werden gerade deshalb dringend von jenen Forschern und Philosophen gestellt, die verstanden haben, dass der Roboter keine Zukunft, sondern eine Gegenwart ist. Auch aus diesem Grund könnte es ratsam sein, zu verstehen, wie sich die Zukunft dieser Wissenschaft angesichts der Übernahmeangebote und der Finanzmärkte entwickelt.

Wenn die Roboterpsychologin Susan Calvin, die Heldin vieler Kurzgeschichten von Isaac Asimov, nach den Gefahren von Robotern gefragt wird, ist ihre Antwort immer dieselbe: Ein Roboter kann nicht gefährlich sein. Das kann er nicht, weil die Basisschicht seines Gehirns, der Kern seines Denkens, darauf programmiert ist, den drei Gesetzen der Robotik zu gehorchen, die notwendig sind, um eine gesunde Roboter-Mensch-Beziehung aufzubauen. Das erste dieser Gesetze besagt, dass Roboter Er darf einem Menschen nicht schaden oder zulassen, dass er durch Passivität gefährdet wird Das zweite Gesetz besagt, dass Roboter Sie müssen Befehlen gehorchen, die ihnen von Menschen gegeben werden, es sei denn, diese Befehle stehen im Widerspruch zum ersten Gesetz Schließlich verlangt das dritte Gesetz, dass der Roboter Es schützt seine Existenz, solange dieser Schutz nicht mit dem ersten oder zweiten Gesetz kollidiert “.

In der Kurzgeschichte The Evidence schließt sich Calvin Kant an, um die Definition der Drei Gesetze noch weiter voranzutreiben oder diesen Prinzipien zumindest eine menschliche Grundlage zu geben. ” Die drei Gesetze bilden die grundlegenden Leitprinzipien für einen großen Teil der Moralsysteme “, wie du sagst. ” Es ist klar, dass jeder Mensch im Prinzip einen Selbsterhaltungstrieb hat. […] Ebenso muss jeder gute Mensch, der ein soziales Gewissen und Verantwortungsbewusstsein besitzt, den bestehenden Autoritäten gehorchen und auf seinen Arzt, seinen Vorgesetzten, seine Regierung, seinen Psychiater und seine Mitmenschen hören, selbst wenn es seine Bequemlichkeit oder sein Wohlbefinden stört. Sicherheit. Dies sind die ersten beiden Gesetze, die von den einfachsten moralischen Prinzipien abgedeckt werden – Dr. Calvin schließt daraus: ” jedermann gut Ein Mann muss auch seinen Nächsten lieben wie sich selbst und sein Leben riskieren, um das Leben eines anderen zu retten. “Wenn sich jemand so verhält” Er mag ein Roboter sein, aber er kann auch ein sehr mutiger Mann sein “.

Dieser sehr kurzen Passage in Asimovs Werk kommt eine besondere Bedeutung zu, wenn man bedenkt, dass der Autor die wirklichen Herausforderungen der heutigen und zukünftigen Robotik eindrucksvoll skizziert hat. Susan Calvins Predigt geht nicht nur davon aus, dass Roboter auf moralischen Prinzipien beruhen müssen, sondern impliziert auch, dass sie Menschen sind. gut Wer entscheidet, wie Roboter in die Zukunft der Menschheit passen. Treten Sie einfach zur Seite und sehen Sie sich eine Geschichte an Krieg der SterneSchnur wie Ärztin aus oder so sein brechen Zu erkennen, dass ein Roboter nicht systematisch ein Wesen ist, das von den universellen Werten des Guten angetrieben wird.

Skynet hat seinen Schöpfer umgangen und möchte ihn zerstören; Die Roboter in der Handelsföderation haben den Befehl, Jedi und alles, was sich ihnen in den Weg stellt, zu töten. Erinnern wir uns kaum Internet-Männer Ihre einzige Philosophie ist es, die Menschheit vollständig in ihr mächtiges Roboterimperium zu integrieren.

Im militärischen Bereich taucht bereits die Frage nach der Verantwortung von Drohnen auf: Ethikkommissionen kämpfen dafür, dass die Entscheidung zum Schießen human bleibt, während die Automatisierung des Krieges mitunter Vertreter von Personal und Rüstungsunternehmen anzieht. Aber dieser Grenzfall, ein Extrem, das es erlaubt, die Moral eines Roboters angesichts eines Tötungsbefehls zu korrumpieren, kommt nur im Krieg zum Ausdruck, wo, per tragischer Definition, die Normen der Zivilgesellschaft verhöhnt werden. In diesem begrenzten Fall geht es darum, die Bedeutung der Robotik bei der Entwicklung ziviler Technologie herunterzuspielen und zu berücksichtigen, dass die Auswirkungen, die für militärische Drohnen gelten, sich nicht auf ein breiteres Feld erstrecken können, das die gesamte Menschheit betrifft.

Zwei Dinge, die das Herz mit Bewunderung und Respekt erfüllen und die neu und immer größer werden, je mehr der Gedanke daran haftet und sich darauf bezieht: der Sternenhimmel über mir und das moralische Gesetz in mir. »

Kritik der praktischen VernunftIch Kant

Leave a Comment