10vor10: Künstliche Intelligenz Serie
Diese Woche hatte 10vor10 eine schöne KI-Serie gemacht. Hat mich gefreut! Denn ich habe hier ja auch schon oft über solche Themen geschrieben.
Der Freitag war wohl als Klimax gedacht - und so war es auch ... das Ersetzen von Gesichtern in einem Video durch ein anderes. Wer hat das so noch nie gesehen? Wie war's? Die Gefühlslage?
Wir, die wir alle so bildorientiert sind, wurden mit einem Gesichtsaustausch von Andrea Vetsch in die Kopfform von Susanne Wille konfrontiert. Wir müssen beide Gesichter kennen, um das überhaupt bemerken zu können.
Die Einstanzfehler waren meiner Meinung nach noch anderswo zu sehen, die Experten zeigten dann auf eine doppelte Augenbraue, die ich nicht sah am TV. Also noch nicht perfekt. Aber das war ja auch nur eine Software, die jeder runterladen und probieren konnte. Allerdings hatte SRF ja auch genug Trainingsmaterial.
Wie auch immer, wer könnte sicher sein, würde er nur eine der beiden Frauen kennen, ob das Bild nun echt ist oder nicht, ob die Frau das wirklich sagt, was akustisch vernehmbar ist und was visuell mit den entsprechenden Mundbewegungen übereinstimmen soll?
Ich hatte ja anfangs Jahr einen Artikel geschrieben, in dem ich das Jahr 2018 als dasjenige bezeichne, in dem Maschinen sich wie Menschen anmuten werden. Drum freut mich ja auch die 10vor10 Serie.
Ein Fake-Jäger entwickelt Software, um Fälschungen zu erkennen. Blade-Runners Voight-Kampff-Test lässt grüssen. In jener Dystopie ist das Faken ja Alltag, interessieren tut es bis auf die Blade-Runner eben niemanden mehr.
Der Fake-Jäger meinte dann auch, dass man eben KI gegen KI antreten lässt - also Fälscher gegen Detektive. Nett. Es zeichnet sich ja überhaupt überall immer mehr ein Rückzug der menschlichen Interaktion aus den ehedem von ihm erschaffenen Szenarien ab:
Kriege werden mehr und mehr virtuell im Internet oder von Drohnen geführt. Berufe werden von Robotern und KI übernommen, Landwirtschaft wird ebenfalls bald Robot's Farm, Pflege sowieso, Banken verlieren an die BlockChain, Dienstleister und Call Agent werden von Bots und sprechenden Lautsprechermikrophonen ersetzt, und so weiter ...
Wenn man sich das mal alles ansieht: Der Mensch ist wie im Zauberlehrling: Der Knecht macht alles besser und schneller. Und der Meister wird träge ... und kann schlussendlich nicht mehr abstellen. So ein Szenario haben unzählige Science-Fiction Autoren schon längst durchgekaut. Nun wird es also langsam Realität - in den reichen Ländern zumindest. Oder sagen wir mal, in den kapitalistisch-religiösen Ländern.
Die Antwort eines anderen Experten in der Sendung: Die Menschen werden das schnell lernen, einige wenige hochkarätige Fakes, die enttarnt werden, und sie haben es gelernt.
DA bin ich mir aber überhaupt nicht sicher. Die Masse wird nur noch mehr gegängelt mit irgendwie wahren audiovisuellem Schrott. Als Gamer weiss und staunt man, wie gut die Immersion in Topgames heute sein kann, aber der Gamer weiss auch, dass er sich nun in ein Game begibt. Daraus wird er in einigen Stunden wieder rauskommen.
Aber wir? Der TV oder das Netz spielen uns so viel Videomaterial wie noch nie ins Haus. Wohl dem, der wirklich jedweder Videopräsentation eines Faktes oder Gegenstandes total gelassen entgegentreten kann - weil er im Innersten weiss: Es ist keinem Material mehr zu trauen. Aber eben, die Emotionen sind ja das, was treibt. Die sind im Menschen nicht weg. Das an-ein-Video-Glauben-Wollen wird daher wohl nicht so schnell verschwinden wie die Fakes in die Breite gehen.
Ich hoffe schwer für die Gesellschaft, dass sie klar kommt mit der umwälzenden Veränderung der visuellen Gewohnheiten. Was man nur über die Mattscheibe kennt, ist einfach per se als ungewiss zu klassieren.
Idealerweise könnte es ja dazu kommen, dass man die internen Vorurteile abbaut, oder gar nicht erst aufbaut, denn: Wie baut man denn Vorurteile überhaupt auf? Unter anderem so: Man glaubt an etwas, sieht Bestätigendes Bildmaterial und glaubt mehr. Das Bildmaterial bildet also die Meinung aus. Amerikanischer Wahlkampf lässt grüssen. Wie auch immer. Schaffen wir es, das vermeintliche Wissen wieder abzubauen? Weil es auf Fake-News basierte? Diesmal halt eben Fake-Videomaterial?
Es gab schon nie eine einzige Wahrheit, es gibt keine einzige Wahrheit und es wird auch in Zukunft keine einzige Wahrheit geben. Für die Unterhaltung spielt das keine Rolle. Fürs Erreichen eines Zieles mittels Video dann eben schon. Enkelbetrüger-Tricks etc. funktionieren auf der verbindenden und empathischen Art des Menschen. Falsches Videomaterial wird da noch einige mehr übern Tisch ziehen.
Drum mein Standard-Hinweis: Cui bono? Wem nützt es? Der Video? Selbst in der Unterhaltung: Wieso muss ein Nicolas Cage Gesicht in einem neuen Video möglicherweise recyclet werden? Weil sein Gesicht in einem Film immer noch irgendwie irgendwo mehr Geld einbringt? Sic. Dann weiss man es. Ist das schlimm? Keine Ahnung, ich bin nicht auf Stars aus, bei mir geht es immer nur um die Story, Schauspieler sind austauschbar. Ähem, nun werden sie's auch ...
Aber eben, bei vielem wird man es nicht mehr wissen, weil man es erst gar nie wusste. Wenn eine Firma also einen Hornbrecht Dinkelbaum als neuen Influencer puschen will, dann kann sie den komplett virtuell vom Baby bis zum Teenie-Star altern lassen, bzw. eine visuell stimmig mit Video untermalte Baby-Legende herstellen, so dass der Hornbrecht als eine reale Person erscheinen kann. Tja, und je weniger Leute wir wirklich im realen Leben kennen, desto offener steht die Tür für den Rattenfänger.
Also, cui bono. Immer!
PS: Nett, den Zuschauer vom Gesicht des Stephan Klapproth verabschieden zu lassen ... wer's nicht bemerkte: so leicht geschieht das eben ...hoffen wir, dass es immer harmlos sein werde.
Für diesen Eintrag existieren keine Kommentare.
[Kommentar hinzufügen] [Kommentare verfolgen]