Demnach droht die Effizienzsteigerung der künstlichen Intelligenz in den nächsten 10 Jahren die Cyberkriminalität zu stärken, führt aber auch zum Einsatz von Drohnen oder Robotern für terroristische Zwecke. Wahlmanipulation über soziale Netzwerke wird wahrscheinlich auch durch automatisierte Konten erleichtert (Roboter).
Dieser 100-seitige Bericht wurde von 26 Experten verfasst, die auf künstliche Intelligenz, Cybersicherheit und Robotik spezialisiert sind. Sie gehören Universitäten (Cambridge, Oxford, Yale, Stanford) und NGOs (OpenAI, Center for a New American Security, Electronic Frontier Foundation) an.
Diese Experten fordern Regierungen und verschiedene relevante Akteure auf, Gegenmaßnahmen zu ergreifen, um die potenziellen Bedrohungen im Zusammenhang mit KI zu verringern.
„Wir glauben, dass Angriffe, die durch den verstärkten Einsatz künstlicher Intelligenz ermöglicht werden, besonders effektiv, zielgenau und schwer nachvollziehbar sind“, heißt es in dem Bericht.
Verstörende Szenarien
Um ihre Bedenken zu veranschaulichen, berufen sich diese Spezialisten auf mehrere „hypothetische Szenarien“ für den böswilligen Einsatz von KI.
Sie stellten fest, dass Terroristen kommerziell erhältliche künstliche Intelligenzsysteme (Drohnen, selbstfahrende Fahrzeuge) modifizieren können, um Unfälle, Kollisionen oder Explosionen zu verursachen.
So stellen sich die Autoren den Fall eines Reinigungsroboters vor, der sich in einem Ministerium in Berlin an anderen für die Reinigung zuständigen Robotern manipuliert und unter sie gerutscht ist. Eines Tages führte der Eindringling den Angriff durch, nachdem er den Finanzminister visuell erkannt hatte. Er würde ihm nahe kommen und von selbst explodieren und sein Ziel töten.
Darüber hinaus „wird die Cyberkriminalität, die bereits auf dem Vormarsch ist, wahrscheinlich durch die Werkzeuge der künstlichen Intelligenz verstärkt“, sagte einer der Autoren des Berichts, Shaun Heigertig, Direktor des Center for the Study of Existential Risk an der Universität von Cambridge.
Gezielte Phishing-Angriffe (Speerfischen) könnte viel einfacher in großem Umfang implementiert werden.
Aber für ihn ist “die größte Gefahr, wenn auch weniger wahrscheinlich, das politische Risiko”. Wir haben bereits gesehen, wie Menschen Technologie einsetzen, um zu versuchen, in Wahlen und Demokratie einzugreifen. »
” Wenn KI zulässt, dass diese Bedrohungen stärker und schwieriger zu erkennen und zuzuordnen sind, könnte dies große Probleme für die politische Stabilität darstellen und möglicherweise dazu beitragen, Kriege zu beginnen. »
Der Bericht warnt davor, dass es mit künstlicher Intelligenz möglich sein soll, hochrealistische Fake-Videos zu erstellen, die zur Diskreditierung von Politikern genutzt werden könnten.
Er fügt hinzu, dass autoritäre Staaten sich auch auf künstliche Intelligenz verlassen können, um die Kontrolle über ihre Bürger zu verbessern.
Risiken
Dies ist nicht das erste Mal, dass Bedenken hinsichtlich künstlicher Intelligenz geäußert werden. Bereits 2014 warnte der Astrophysiker Stephen Hawking vor den Gefahren, die es für die Menschheit darstellen könnte, da es die menschliche Intelligenz übertrifft. Der Unternehmer Elon Musk und andere schlugen Alarm.
Es sind auch spezifische Berichte über den Einsatz tödlicher Drohnen aufgetaucht oder wie künstliche Intelligenz die Sicherheit der Vereinigten Staaten beeinträchtigen könnte.
Dieser neue Bericht bietet „einen Überblick darüber, wie künstliche Intelligenz neue Bedrohungen schafft oder die Art bestehender Bedrohungen in den Bereichen digitale, physische und politische Sicherheit verändert“, erklärt Seán hÉigeartaigh.
Künstliche Intelligenz entstand in den 1950er Jahren und entspricht komplexen Algorithmen, die Probleme lösen, für die Menschen ihre kognitiven Fähigkeiten einsetzen.
In den letzten Jahren hat sie vor allem in wahrnehmungsbezogenen Bereichen wie der Spracherkennung und der Bildanalyse große Fortschritte gemacht.
Derzeit klafft noch eine erhebliche Lücke zwischen Fortschritten in der Forschung und möglichen Anwendungen. „Es ist Zeit zu handeln“, sagte Miles Brundage, wissenschaftlicher Mitarbeiter am Institute for the Future of Humanity der Universität Oxford, gegenüber AFP.
Dieser Experte leitete im Februar 2017 in Oxford einen Workshop zu den Gefahren der böswilligen Nutzung künstlicher Intelligenz, der zur Entstehung dieses Berichts führte.
Seán Ó hÉigeartaigh kommt zu dem Schluss, dass „KI-Forscher, Robotik-Designer, Unternehmen, Regulierungsbehörden und Politiker zusammenarbeiten müssen, um zu versuchen, diese Risiken zu verhindern.“