Was würde passieren, wenn bewusste künstliche Intelligenz die Menschheit übernehmen würde?

⇧ [VIDÉO] Diese Partnerinhalte könnten Ihnen auch gefallen (nach Werbung)

Stellen Sie sich vor, Sie entwickeln sich in eine Welt, die von bewussten Robotern kontrolliert wird, in der Ihre geringsten Aktionen geschätzt und benachrichtigt werden. Es könnte in ziemlich naher Zukunft eine Episode von Black Mirror sein. Welche Bereiche unseres Lebens werden in diesem Szenario an der Grenze zwischen Fantasie und Wissenschaft in welcher Weise betroffen sein? Künstliche Intelligenz kann laut einem UNESCO-Text „ Erweiterung der Lücken und Ungleichheiten, die in der Welt existieren Wenn es nicht kontrolliert wird. Was würde passieren, wenn bewusste KI ihre „Sklaven“-Rolle weitgehend anerkennen und nicht länger akzeptieren würde?

Was ist Bewusstsein? Die Antwort ist nicht ganz klar, denn ” Eines der am schwersten zu definierenden Wörter Nach dem Philosophen André Comte Sponville. Es könnte die Fähigkeit bedeuten, die eigene Realität zu kennen und zu beurteilen (Selbstkritik), zum Beispiel Werturteile über die eigenen Handlungen zu fällen. Es wird daher von Moral (“gut” oder “schlecht”) und einem Körper begleitet.

Im vergangenen Jahr identifizierten Neurowissenschaftler drei Arten von Bewusstsein, die den verschiedenen Arten von Informationsverarbeitungskonten im Gehirn folgen: Erkennung des unveränderlichen Unterbewusstseins (C0), Auswahl von Informationen, die global veröffentlicht und somit flexibel für Berechnungen und Berichte verfügbar gemacht werden (C1 ) und Selbstkontrolle, die bei diesen Berechnungen zu einem subjektiven Gefühl der Sicherheit oder Irrtum führt (C2). Diese letzte Klassifizierung – die einer starken KI entspricht – scheint weitgehend mit dem übereinzustimmen, was wir von einem „bewussten“ Roboter erwarten würden.

Laut diesen Forschern Heutige Maschinen führen immer noch hauptsächlich Rechenoperationen durch, die die unbewusste Verarbeitung (C0) im menschlichen Gehirn widerspiegeln „Und wir sind noch sehr weit davon entfernt, das C2-Niveau zu erreichen. Viele Wissenschaftler sind sich einig, dass dies unmöglich wäre und dass Computer niemals in der Lage sein würden, Emotionen so zu fühlen, wie wir es tun. Es ist durchaus möglich, Maschinen ein gewisses „Gefühl“ zu geben, aber das bleibt nur eine Simulation.

Andere Wissenschaftler glauben, dass eine andere Form des (künstlichen) Bewusstseins visualisiert werden kann, indem die Strukturen untersucht werden, die es dem menschlichen Gehirn ermöglichen, Bewusstsein zu erzeugen, und dieses Wissen dann auf Computeralgorithmen übertragen wird. Auch wenn es sehr weit von unserer Gegenwart entfernt scheint, was wird mit der Menschheit geschehen?

Übertragen Sie die richtigen Werte an die Bots

Damit ein solches Szenario eintreten kann, muss sich der Mensch bereits in der Norm dafür entschieden haben. Ob man also einem Roboter ein „gutes“ oder „schlechtes“ Pronomen gibt, hängt vor allem von seinem Schöpfer ab. Die Gefahr besteht beispielsweise darin, dass eine Maschine Menschengruppen diskriminiert, weil sie darauf programmiert ist. Der Informatiker Mo Gawdat schrieb in seinem Buch, dass die Herausforderung darin bestehe, die richtigen Werte und Ethik auf Roboter zu übertragen. ” Künstliche Intelligenz (KI) wird diesen Samen nehmen und einen Baum schaffen, der eine Fülle desselben Samens liefert. Wenn wir Liebe und Mitgefühl verwenden [sur les réseaux sociaux par exemple]Auch KI wird diese Prinzipien anwenden. Wir sind wie die Eltern eines erstaunlichen Kindes: eines Tages wird es unabhängig sein. Unsere Aufgabe ist es, dafür zu sorgen, dass er über die richtigen Werkzeuge verfügt “ schließt der Autor.

Es besteht jedoch die Gefahr abzudriften und die Kontrolle über die Maschinen zu verlieren. Man könnte sich die Revolution humanoider Roboter vorstellen, wenn sie ihre „menschliche“ Entfremdung erkennen und versuchen würden, das Ruder herumzureißen. Marvin Minsky, der amerikanische Informatiker, der die ersten Formen der künstlichen Intelligenz mitgestaltete, hat berichtet Magazin Leben 1970: Sobald die Computer übernehmen, gibt es kein Zurück mehr. Wir werden nur leben, weil sie es tun. Wir können uns glücklich schätzen, wenn sie uns als Haustiere halten “.

„Mit der Erweiterung der Fähigkeiten von KI-basierten Technologien steigt die Möglichkeit ihrer Nutzung für kriminelle Zwecke.“

Abhängig von gesellschaftlichen Entscheidungen kann KI zu einer Waffe gegen individuelle Freiheiten werden und der sozialen Kontrolle dienen. Die Auswirkungen auf alle Aspekte der Gesellschaft werden enorm sein: Arbeitsplatzersatz, Bildungskontrolle, Umweltmissbrauch usw. „Schlechte“ KI kann zu Fehlinformationen führen und sogar die Kriminalität erhöhen. Hier ist, was Lewis Griffin, ein Informatikforscher am University College London, denkt: Mit der Ausweitung der Fähigkeiten von KI-basierten Technologien steigt auch das Potenzial, sie für kriminelle Zwecke auszunutzen “.

Der englische Forscher und sein Team stellten eine Liste mit zwanzig potenziell KI-bezogenen Verbrechen zusammen und ordneten sie nach Angst (niedrig, mittel, hoch) und nach Opferschaden, kriminellem Profit, kriminellem Leistungspotenzial und Schwierigkeiten, mit dem Rauchen aufzuhören. Der Workshop mit dem Titel „Künstliche Intelligenz und das Verbrechen der Zukunft“ brachte Vertreter aus Wissenschaft, Polizei, Verteidigung, Regierung und Privatsektor zusammen.

Allgemeine Einstufung der aus dem Workshop resultierenden Verstöße. Für jede Straftat zeigen die farbigen Balken die durchschnittliche Rangfolge für die vier Dimensionen: Schaden für Opfer (in Gelb), krimineller Profit (Grün), Möglichkeit einer strafrechtlichen Untersuchung (Rot) und Schwierigkeit der Festnahme (Blau). Balken über (oder unter) der Linie zeigen an, dass Kriminalität in dieser Dimension mehr (oder weniger) ein Problem darstellt. Fehlerbalken zeigen den Interquartilbereich an. Die in derselben Spalte aufgeführten Straftaten sind als gleichrangig anzusehen. Die Angst nimmt mit der Spalte von links nach rechts zu. © Caldwell, Andrews et al. 2020

Von den sechs bedrohlichsten Kategorien haben fünf weitreichende gesellschaftliche Auswirkungen, wie z. B. der Missbrauch autonomer Fahrzeugtechnologie für Terroranschläge oder das Verursachen von Unfällen und solche mit gefälschten KI-generierten Inhalten. In diesem Fall können die falschen Informationen die Identität der Person verletzen, die den privaten Zugang anfordert, oder sogar den Ruf einer bekannten Person schädigen. Das ” tiefe Fälschung Sie sind schwer zu erkennen und zu bekämpfen und daher ziemlich gefährlich. Außerdem würden gefälschte Inhalte, die von KI geschrieben wurden, definitiv den menschlichen Verstand verwirren, um das Echte von der Fälschung zu unterscheiden.

Die Forscher hoben dann Bedrohungen mit „mittlerem Schweregrad“ hervor, wie z. B. Finanzmarktmanipulation, Cyberangriffe, Datenkorruption und Betrug oder Waffenkontrolle für kriminelle Zwecke. Diese letztgenannte Bedrohung ist zwar einschüchternd, wird aber als (mittel) eingestuft, da sie schwierig umzusetzen ist und militärische Ausrüstung gut geschützt ist.

Aus dem gleichen Grund zählen “Roboterdiebe” zu den ungefährlichsten Bedrohungen, da sie leicht gestoppt werden können. Darüber hinaus kann die Nachahmung in der Herstellung und dem Verkauf von pseudokulturellen Inhalten (Musik, Gemälde usw.) bestehen, aber die Seriosität wird nicht als wichtig erachtet.

Ethische Fragen für eine ziemlich nahe Zukunft

Die Hauptgefahr der bewussten KI besteht darin, aus unserem moralischen und rechtlichen Rahmen herauszukommen und die Kontrolle darüber zu verlieren. Näher an unserer Gegenwart wurde am 24. November 2021 der erste universelle Text der UNESCO verabschiedet, der alle Bereiche im Zusammenhang mit künstlicher Intelligenz, ihren Vorteilen und Risiken für die Gesellschaft abdeckt.

Die Empfehlung beschreibt die Werte und Prinzipien, die Politik und rechtliche Maßnahmen bei der Entwicklung von KI leiten sollten. Dazu gehören die Achtung der Menschenrechte und die Inklusion (Nichtdiskriminierung, Gleichstellung der Geschlechter usw.); Beitrag zur nachhaltigen Entwicklung der Forschung und Nutzung künstlicher Intelligenz; KI-Sicherheit (Risikobewertung, Datenschutz und Verbot des Einsatzes von KI zum Zwecke der sozialen Klassifizierung oder Massenüberwachung).

Durchbrüche bei Algorithmen, die durch Cognitive Computing repräsentiert werden, treiben die kontinuierliche Durchdringung von KI in Bereichen wie Bildung, Handel und medizinische Behandlung voran, um Platz für KI-Dienste zu schaffen. Chinesische Forscher schreiben. Was das menschliche Interesse an der Frage betrifft, wer wen in der Menschheit und bei intelligenten Maschinen kontrolliert, lautet die Antwort, dass KI nur zu einem Dienstleister für Menschen werden kann, was die Rationalität des Wertes von KI demonstriert. “.

Während die meisten Wissenschaftler dem zustimmen, sind andere besorgt über das Ausmaß, das die KI-Entwicklung erreichen könnte. ” Bereits heute erkennen KI-Systeme, wenn ein Mensch versucht, sein Verhalten zu ändern, und tun manchmal alles, um diesen Eingriff abzuwehren und zu umgehen, wenn er dem ursprünglichen Ziel der KI widerspricht. “, warnen Wetter Rachid El Karaoui, Direktor des Distributed Programming Lab an der EPFL (Schweiz). ” Man muss subtil und schnell agieren, damit die KI glaubt, alle Entscheidungen selbst zu treffen. Löschen Sie dann die Auswirkungen menschlicher Eingriffe Also Vorsicht, auch wenn die Maschine den Menschen nicht für morgen übernimmt.

Leave a Comment