Aufkommende Bearbeitungstechnologien verschleiern die Grenze zwischen Real und Fake

Das Bild ist bescheiden, was den historischen Einfluss des Augenblicks beeinflusst. Eine Frau an einem weißen Sandstrand blickt auf eine ferne Insel, während Wellen zu ihren Füßen flattern - die Szene trägt einfach den Titel "Jennifer in Paradise".

Dieses Bild, das 1987 von einem Mitarbeiter von Industrial Light and Magic namens John Knoll im Urlaub aufgenommen wurde, würde das erste Bild sein, das gescannt und digital verändert wurde. Als Photoshop drei Jahre später von Adobe Systems eingeführt wurde, würde die Bildwelt niemals dieselbe sein. Mit vorgefertigten Tools können heutzutage fast jeder einen Sunset-Pop machen, fünf Pfund abschneiden oder nur den Tieren Promi-Gesichter geben.

Obwohl sich das Publikum mehr auf die kleinen Dinge eingestellt hat, die ein digital manipuliertes Bild vermitteln - verdächtig geschwungene Linien, fehlende Schatten und seltsame Halos -, nähern wir uns einem Tag, an dem die Bearbeitungstechnologie für das menschliche Auge zu kompliziert werden kann. Darüber hinaus handelt es sich nicht nur um Bilder - Audio- und Videobearbeitungssoftware, von denen einige durch künstliche Intelligenz unterstützt werden, werden so gut, dass sie die Medien, auf die wir angewiesen sind, heimlich neu schreiben können, um genaue Informationen zu erhalten.

Der wichtigste Aspekt von all dem ist, dass es einfacher wird. Sicher, Photoshop-Profis können seit Jahren überzeugende Fälschungen erstellen, und Spezialeffektstudios können Lichtschwerter und Transformatoren zum Leben erwecken, aber Computeralgorithmen schultern immer mehr von der Last und reduzieren die Fähigkeiten, die erforderlich sind, um solche Täuschungen zu verhindern .

In einer Welt, in der Smartphone-Videos als Bollwerk gegen Polizeigewalt fungieren und scharfe Aufnahmen von Schlägen mit chemischen Waffen vermitteln, sind die Auswirkungen einfacher, glaubwürdiger Bild- und Videomanipulationstechnologien ernsthafter geworden. Es sind nicht mehr nur Bilder - die Technologie erlaubt uns, die Welt zu bearbeiten.

Es beginnt mit Bildern

Viele Projekte, viele in Partnerschaft mit Adobe, bringen Amateuren die komplizierte Bearbeitung von Standbildern in die Hände. Es ist leicht zu lernen, wie man in Photoshop Ausschneiden und Einfügen, oder einfache Elemente hinzufügen, aber diese Programme gehen noch einen Schritt weiter.

Mit einem Projekt der Brown University können Benutzer das Wetter in ihren Fotos ändern und bei Regen, Sonnenschein oder wechselnden Jahreszeiten mit einem Algorithmus zum maschinellen Lernen hinzufügen. Auf Tausenden von Datenpunkten trainiert, zerlegt das Programm die Bilder in winzige Teile und bearbeitet sie entsprechend, um Änderungen an Beleuchtung und Textur vorzunehmen, die den sich ändernden Bedingungen entsprechen.

Ein anderes Projekt, dieses Mal von der University of California, Berkeley, ermöglicht es Benutzern, Bilder im großen Stil zu bearbeiten, entweder mit einfachen Werkzeugen und Schiebereglern oder einfach durch Zeichnen von Grundfiguren und durch den Algorithmus, der den Rest ausfüllt. Das Demo-Video zeigt einen Schuhtyp, der sich in einen anderen verwandelt, und Berge, die von einer einfachen Strichzeichnung aus erscheinen. Das Programm erfordert wenig mehr als grundlegende Computerkenntnisse.

Einige Programme möchten nur, dass Ihre Bilder fantastischer aussehen. Adobe hat sich mit Forschern aus verschiedenen Universitäten zusammengetan, um KI-unterstützte Techniken zu entwickeln, die Fotos ein wenig mehr Schwung verleihen - von einer Tagesszene in Nacht oder einem durchschnittlichen Sonnenuntergang zu einer prächtigen Farbexplosion. Das Deep Photo Style Transfer-Programm von Adobe und der Cornell University nimmt Ihr Bild auf und integriert Elemente aus einem zweiten Bild - ob lebendige Farben, geschwollene Wolken oder stilistische Flairs - und lassen Sie den Stil Ihrer bevorzugten Instagram-Accounts nachvollziehen. Dasselbe Konzept wurde vor nicht allzu langer Zeit auch auf Videos angewendet und verwandelte Filmszenen in lebende van Gogh's.

Kannst du hören, was ich höre?

Auch Audio macht sich durch die ausgefeilten digitalen Verfälschungen bemerkbar. Ein Projekt von Adobe und der Princeton University mit dem Namen VoCo ermöglicht es Benutzern, neue Wörter einfach durch Tippen in die Sprache einzufügen - und es klingt wie die Person, die sie gesprochen hat. Das Programm ist zwar noch in Arbeit, aber es wird eine Audiodatei für Phoneme, die Bausteine ​​von Wörtern, überblendet und zu Wörtern und Phrasen zusammengefasst.

Es ist ein bisschen so, als würde Brian Williams "Gin and Juice" singen lassen, aber auf einer ganz neuen Ebene. Um ruckartige Übergänge zu glätten, versucht das Programm, einige verschiedene Versionen des Wortes anzubieten, die am besten zu Intonation und Phrasierung passen.

Ein anderes Audioprogramm fängt an, Klänge ganz zu bilden. Dieses MIT-Projekt wird als "Turing-Test für Ton" bezeichnet und sagt voraus, wie sich eine Aktion allein auf der Grundlage eines Videos anhört. Die Forscher fütterten einen Algorithmus mit Tausenden von Videos eines Drumsticks, der verschiedene Arten von Objekten traf, und er lernte langsam, die Geräusche zu reproduzieren, die er machte.

Bei einem Test mit dem eigentlichen Audio wurden ihre gefälschten Sounds wahrscheinlicher als echt beurteilt. Ihr System hat im Moment einige Nachteile. Das Offensichtlichste ist, dass einige Objekte gleich aussehen, sich jedoch anders anhört - eine volle Wasserflasche zum Beispiel eine leere. Mit mehr Daten wird der Algorithmus jedoch nur intelligenter.

Ja, wir können auch Video machen

Bei der Bildmanipulation zählt Smile Vector zu den gruseligsten. Der Twitter-Bot verwendet ein neuronales Netzwerk, um Prominente zum Lächeln zu bringen, indem sie Bilder von Grinsen und Strahlen aus dem Internet zusammenfasst und dann die relevanten Merkmale herauszieht. Einige sind besser als andere, obwohl die meisten noch nicht die Mauern des unheimlichen Tals überschritten haben. Wie bei den meisten neuronalen Netzwerken gibt es einige Bilder, die besser funktionieren als andere - Smile Vector hat noch nicht ganz mit Bärten umgehen gelernt.

Wenn Sie Ihre Prominenten dazu bringen wollen, mehr als nur zu lächeln, gibt es auch ein Programm dafür. Face2Face ist ein Projekt von Forschern der Universität Erlangen-Nürnberg und der Stanford University, das dieselbe Logik wie Smile Vector verwendet, jedoch in größerem Maßstab. Die Software analysiert das Video eines Ziels (wie Arnold Schwarzenegger) und eines Schauspielers, um eine Bibliothek mit Gesichtsbewegungen und Gesichtsausdrücken aufzubauen.

Sobald genügend Informationen vorhanden sind, kann er praktisch jede Kieferbewegung, das Anheben der Augenbraue oder die Wangen in der Wange simulieren, sodass Benutzer ihre Gesichtsbewegungen auf das Gesicht eines anderen Personen abbilden können. Das Demo-Video zeigt unter anderem The Arnold und Ex-Präsident George W. Bush, die sich im Labor mit einem Schauspieler imitieren.

Das vielleicht ausgefeilteste Beispiel für Gesichtsmanipulationen ist bis jetzt Industrial Light and Magic, das den Schauspieler Peter Cushing als Grand Moff Tarkin in "Rogue One: Eine Star Wars-Geschichte" wiederbelebte In den Originalfilmen konnte das Unternehmen, das jetzt von John Knoll geleitet wird, Cushings Gesicht mit einem anderen Schauspieler malen. Die Ergebnisse sind beeindruckend, wenn auch noch nicht ganz perfekt. Tarkin scheint irgendwie weg zu sein, so etwas wie eine Wachsfigur zum Leben erweckt. Die Erholung brachte ethische Bedenken hinsichtlich der Aneignung toter Schauspieler mit sich, nachdem sie keine Rolle mehr zugestimmt haben können. Die Filmemacher sagen jedoch, dass sie nicht beabsichtigen, ihren Einsatz toter Schauspieler stark auszuweiten. Der Prozess sei zu teuer und zeitaufwändig, heißt es.

Wie schlimm ist es wirklich?

Wenn selbst Unternehmen, die für ihre Spezialeffekt-Zauberkunst bekannt sind, Schwierigkeiten haben, solche Gesichtsbearbeitungstechniken richtig zu machen, können wir wahrscheinlich die Sorgen über weit verbreitete Videotricks hinter sich lassen, zumindest für den Moment. Dies liegt daran, dass Videos im Wesentlichen aus Tausenden und Tausenden von Bildern bestehen, die aneinandergereiht sind. Anstatt nur ein Bild zu ändern, müssen Videobearbeitungsprogramme alle genau ändern, und selbst kleine Fehler können uns abschrecken - ein Schatten am falschen Ort, Bewegungen, die sich unwahrscheinlich fühlen.

„Der Umgang mit Video ist sehr schwer.

Selbst in einem dreiminütigen Video sprechen Sie von Milliarden und Milliarden von Datenpunkten “, sagt Hany Farid, Experte für digitale Forensik und Professor am Dartmouth College.

Auch wenn die Videobearbeitung hinterherhinkt, holt sie schnell auf. Aus diesem Grund sorgen Programme wie Face2Face und SmileVector für Farid, da sie auf eine Zukunft hinweisen, in der Forscher wie er Schwierigkeiten haben könnten, den Fluss gefälschter Informationen einzudämmen. Derzeit besteht ein implizites Vertrauen in Videos als Beweismittel.

Als die Aufnahmen von Polizisten, die einen Mann von einem United-Flug abgerissen hatten, auftauchten, wurde die Richtigkeit der Aufnahmen selbst nie in Frage gestellt. Während sich die Technologie dem Punkt nähert, an dem Amateure anfangen können, schlecht geschossene Handyvideos zu verändern, ist es nicht schwer sich vorzustellen, dass schockierende Aufnahmen dieser Art zum persönlichen Vorteil verändert oder ein Verbrechen vertuscht werden.

Da die Instrumente zur Verfälschung digitaler Medien immer besser werden, müssen Experten für digitale Forensik härter arbeiten, um Betrug aufzudecken. Meistens kommt es auf die gleichen Tricks an. Das Durchsuchen von Videos auf Inkonsistenzen, wie zum Beispiel der Schatten, der Farid in diesem viralen Video auslöste, ist immer noch eine der besten Möglichkeiten, um Fälschungen zu erkennen. Wenn Sie sich die Metadaten eines Fotos oder Videos ansehen, einschließlich Informationen zum Zeitpunkt und Ort der Aufnahme, zur verwendeten Kamera und zur Belichtung, auf die sie aufgenommen wurde, können Sie bei der Untersuchung verdächtiger Bilder wertvolle Hinweise geben. Der konstante Stand der Ein-Spitzen-Technologie, der den technologischen Fortschritt definiert, hält die Forscher jedoch auf Trab.

"Dies ist ein Katz-und-Maus-Spiel, und am Ende wissen wir, wer gewinnen wird", sagt Farid. "Es ist immer einfacher, eine Fälschung zu erstellen, als sie zu erkennen."

Am Ende kommt es wahrscheinlich auf uns, das Publikum, an. Selbst wenn Farid ein Video als gefälscht abrufen kann, würde die Geschwindigkeit von viralem Inhalt wahrscheinlich eine Mühe machen. Der beste Rat ist, den Kontext zu kennen, nach verdächtigen Bildern zu suchen und vor allem skeptisch zu sein.