8. April 2021

Irreführung zuvorkommen

Von nst5

Offener Brief an Greg Tarr

Sehr geehrter Herr Tarr!
Mit Leidenschaft und Ausdauer widmen Sie sich dem Kampf gegen eine Art von Manipulation, von der viele von uns nicht einmal ahnen, dass es sie gibt! Die Videoclips, um die es geht, kursieren vor allem in sozialen Medien. Sie können den Ruf von Prominenten wie Privatpersonen zerstören, die politische Meinung beeinflussen, Unternehmen in wirtschaftliche Schwierigkeiten bringen: Wenn zu sehen und zu hören ist, wie die Queen von England über Familienmitglieder lästert, Manager kriminelle Machenschaften eingestehen, der neue US-Präsident während eines Interviews einnickt, oder wenn nichts ahnende Leute sich in pornografischen Zusammenhängen wiederfinden. Eine Masche böswilligen Betrugs, die die Entwicklung der „Künstlichen Intelligenz“ (KI) in den letzten zwei bis drei Jahren zur Perfektion gebracht hat. Die entsprechende Software kann Gesichter mit den Körpern anderer Personen „zusammenbauen“ und die Mimik der Gesichter verändern. Dieser Prozess dauert nur wenige Minuten und wirkt doch so echt, dass selbst Experten die Täuschung nicht ohne Hilfsmittel feststellen können. Erst recht fallen Nutzer von Videokanälen oder sozialen Medien darauf herein. Ihre Devise, Herr Tarr, ist es, die Frevler mit ihren eigenen Mitteln schlagen. Denn Sie nutzen KI, um die verfälschende KI zu enttarnen.
Dafür haben Sie die besten Lösungen eines Wettbewerbs für Technologien zur Entlarvung von Deepfakes unter die Lupe genommen, Schwachpunkte analysiert und versucht, es besser zu machen. Mit dem Ergebnis, dass Ihre Software zehnmal schneller ist. Das Geniale daran: Die Videos werden schon als Täuschung erkannt, bevor sie überhaupt hochgeladen sind. 
Dass Sie Ihr Wissen und Talent dafür einsetzen, die Verbreitung von Lug und Trug zu verhindern, ist bemerkenswert und gibt Hoffnung! Sie wissen, welch enormen Schaden Deepfakes anrichten können, nicht nur für einzelne Existenzen, sondern für die ganze Gesellschaft; säen sie doch Misstrauen! Kommen immer mehr Falschnachrichten in Umlauf, wächst die Gefahr, dass sich Verdächtigungen und Argwohn in den Köpfen festsetzen – nicht bloß Fotos und Videos, sondern bald auch Nachbarn, Verwandten und Freunden gegenüber.
Die Kunst der Illusion sollte von Kinofilmen geläufig sein, bei denen immer schon – völlig legal – kräftig in die Trickkiste gegriffen wird: So echt das bewegte Bild auch scheint, es muss nicht die dokumentierte Wirklichkeit zeigen! Und doch gehen wir Fälschern leicht auf den Leim. Damit das nicht passiert, brauchen wir: gesunde Skepsis allem gegenüber, was uns als skandalträchtig angeboten wird; umfassende Bildung, besonders auch darin, wie Medien funktionieren; Achtsamkeit bezogen auf die Glaubwürdigkeit der Quellen. All das dient uns auch dann noch, wenn sich Ihre Entwicklung durchsetzt. Und nicht nur Ihnen, sondern auch uns wünsche ich, dass Ihre Software möglichst breite Anwendung findet! Zugunsten einer Zukunft, in der das Vertrauen, der Wahrheit begegnen zu können, stärker ist als die Angst, hinters Licht geführt zu werden.
Mit freundlichen Grüßen,

Clemens Behr,
Redaktion NEUE STADT

Greg Tarr
(18) aus Cork, Irland, wurde im Januar mit dem „BT Young Scientist & Technology Exhibition 2021 Award“ ausgezeichnet, einem der bedeutendsten Jugendforschungspreise in Europa. Als 17-Jähriger entwickelte er eine Software, die besser als bisherige Programme sogenannte „Deepfakes“ aufdeckt. Das sind täuschend echt gefälschte Videos, mit denen Personen Aussagen oder Gesten untergeschoben werden, die sie nie getätigt haben.

(Erschienen in der gedruckten Neuen Stadt, März/April 2021)
Ihre Meinung ist uns wichtig, schreiben Sie uns! Anschrift und E-Mail finden Sie unter Kontakt.
(c) Alle Rechte bei Verlag Neue Stadt, München