Die Tapferkeit und Grenzen der künstlichen Intelligenz, die von Forschern aufgezeigt wurden

An diesem Montag, dem 2. Mai, um 21.10 Uhr, wird auf France 3 die erste Ausgabe von “l’Hôtel du temps” ausgestrahlt, präsentiert von Thierry Ardisson. Diese Biografie 2.0 lässt verschwundene Charaktere durch künstliche Intelligenz wieder aufleben. Ein neuartiges Programm stellt Forschern der Universität Limoges Fragen.

In der Nacht vom 2. auf den 3. Mai 1987 verschwand Dalida. Nach 35 Jahren tritt diese legendäre Sängerin bald wieder im Fernsehen auf, in einem neuen Genreprogramm namens “l’Hôtel du temps”.

Basierend auf der Deepfake- oder Hyperfake-Technik, die bisher verwendet wurde, um Videos auf humorvolle Weise zu verwandeln, besteht dieses Programm darin, verschwundene Charaktere wie Dalida, Colucci oder sogar Jean Gabin zum Leben zu erwecken.

Dahinter steckt das Konzept der künstlichen Intelligenz, bekannt aus dem Masterstudiengang „Computer Science, Image Synthesis and Graphic Design“ ISICG der Universität Limoges.

Dieser einzigartige Meister in Frankreich schult Studenten darin, Bilder hauptsächlich für Videospiele und Kino zu erstellen und zu transformieren. “Die Ausbildung ist auf die Bereiche Fotomontage und Grafikdesign ausgerichtet.erklärt Jamsheb Ghassan-Farbour, der diesen Meister seit 20 Jahren leitet und sich seit 1982 auf Fotomontage spezialisiert hat.

„Unsere Studenten werden insbesondere in der Deep-Learning-Technologie geschult, die aus der Entwicklung von Rechenmodellen zur Modellierung von Daten besteht. Diese Technologie ist die Grundlage von DeepFakes“, fügt er hinzu.

Der Begriff Deepfake oder Hyperfake ist eigentlich eine Kombination aus „Deep Learning“ und „Faking“. Basierend auf künstlicher Intelligenz ermöglicht diese Technologie die Simulation echter Charaktere.

In diesem Master ist Frédéric Claux, ein Bildforschungslehrer, dafür verantwortlich, Unterricht in dieser Technik zu geben. Erklärt, wie es funktioniert:

Es ist ein automatisiertes Programm, das praktisch in Echtzeit ausgeführt werden kann, wenn Sie eine sehr leistungsfähige Maschine haben. Zuerst analysiert es das zu verarbeitende Video, isoliert das Gesicht und verwirft alles, was es umgibt. Dieser Schritt ist sehr wichtig, da wir nur das Gesicht modifizieren wollen.

Frédéric Klaaux, Forschungsprofessor für Bildsprache an der Universität Limoges

Nächste,In einem anderen Video haben Sie ein zweites Gesicht, das Sie interessiert, es ist das Zielgesicht. Auf die gleiche Weise isoliert das Programm das Gesicht. Wenn Sie dann zwei Videos nur mit dem Gesicht haben, leiten Sie sie durch einen sogenannten Autoencoder, ein Programm, das den Modus der beiden gelernten Videos erkennt und es Ihnen ermöglicht, vom Quellgesicht zum Zielgesicht zu wechseln. Damit das funktioniert, müssen sich die beiden Flächen sehr nahe kommen.“.

Die Programmankündigung wird am Montag, 2. Mai, um 21:10 Uhr in France 3 ausgestrahlt:

Wir können in Sachen Realismus zu weit gehen. Es gibt nicht viele technologische Einschränkungen, die Informationstechnologie kennt keine Grenzen.“Und fügt Jamsheeb Ghazan Farbour hinzu.

Für diese Computerfreaks ist diese Show “Technisches Können, ich bleibe bei meinem Fernseher“, Er vertraut dem Lachen von Frederic Klaaux.

Andere hingegen sehen dieses Konzept nicht sehr positiv. Dies ist der Fall von Nicole Begnier, Professorin für Informations- und Kommunikationswissenschaften an der Universität Limoges.

In den letzten Jahren hat sie umfangreiche Forschungen zur Deepfake-Technologie durchgeführt.

Das Phänomen Deepfakes, gefälschte Fotos oder gefälschte Videos wirft meiner Meinung nach die Frage auf, was die Aussagen bedeuten. Wenn jemand spricht, singt oder malt, drückt er sich aus oder drückt etwas aus. Dies ist hier nicht mehr der Fall. Wir lassen ihn etwas sagen.

Nicole Benner, Professorin für Informations- und Kommunikationswissenschaften an der Universität Limoges

vor dem Hinzufügen”Dalida wird nicht nach ihrer Meinung gefragt, wenn sie zustimmt. Wir werden Spaß haben, sie zum Singen bringen, sie Dinge sagen lassen, aber dahinter steht eine Frage des Respekts für den, der gegangen ist.”.

Thierry Ardisson verteidigt sich: „Es bestehen keine Bildrechte für verstorbene Personen. Aber jedes Mal habe ich mit den Erben kommuniziert, aus Respekt, aus Moral und weil sie mir auch beim Drehbuch helfen. Um Texte zu schreiben, I Sie gibt Bibliothekaren, die alle bereits gesprochenen oder geschriebenen Sätze sammeln, Themen (Herkunft, Kindheit, Studium etc.)

Der von Serge Khalfoun inszenierte und von 3ème Œil Productions produzierte Moderator sagte in einem Interview mit France 3: „Ich bin der Erste, der Deepfakes positiv und kulturell einsetzt. gegenEs ist ein Werkzeug, keine Ideologie..

Von Nicole Begnier widerlegte Aussagen: „CNicht ganz richtig. Hinter all dem steht die Ideologie des Neoliberalismus, die darauf abzielt, menschliche Aktivitäten zu zähmen und einzurahmen. Thierry Ardisson vergaß, dass ein Bild zu produzieren, ein Lied zu produzieren und eine Rolle zu spielen gleichzeitig bedeutet, etwas zu bedeuten, aber ein menschliches Band in einer Gesellschaft zu weben.”

„Anstatt Sängern und Schauspielern anzubieten, sich in die Lage des anderen zu versetzen, um sich gegenseitig zu spielen, werden wir uns auf technologische Fähigkeiten verlassen, die realer als echt klingen, aber brauchen wir das wirklich, um jemanden zu ehren? Revolution, es ist eine andere Wenn wir einen Schritt in Richtung dieser oberirdischen Welt machen, bewegen wir uns auf Wortflüsse zu, die wenig mit unserer Realität zu tun haben.”, Sie fügt hinzu.

Hinter diesem Konzept, eine letzte Frage, steckt Täuschung. Ist es möglich, mit dieser Technologie erstellte Videos zu erkennen?

Natürlich, Frederic Klaaux erklärt, Sie verwenden das gleiche Prinzip, Sie nehmen ein gefälschtes Video auf, Sie isolieren das Gesicht, Sie sagen dem Programm, das ist gefälscht, und Sie machen dasselbe mit einem Video, das nicht gefälscht ist. Du reproduzierst die Übung tausende Male, und irgendwann wirst du die gefälschten Videos erkennen können.“.

So sehr es auch kritisiert und gelobt wird, Deepfakes lassen niemanden gleichgültig.

Das Programm “Time Hotel: Dalida” ist zum Ansehen oder Bewerten von France.tv

Leave a Comment