Was einst als technische Spielerei begann, hat inzwischen weitreichende Anwendungsmöglichkeiten gefunden. Von der Trauerbewältigung bis hin zur Strafverfolgung – Deepfakes lassen die Grenzen zwischen Realität und Fiktion verschwimmen. Doch diese Entwicklung wirft auch ethische Fragen auf und bringt uns dazu, unsere Beziehung zum Tod neu zu überdenken.
Der Fall von Sedar Soares bewegte im Jahr 2003 Millionen Menschen – der 13-jährige Junge wurde während einer Schneeballschlacht mit seinen Freunden auf einem Parkplatz in Rotterdam erschossen. Der Fall blieb trotz intensiver Polizeiarbeit ungelöst. Im Jahr 2021 – fast 20 Jahre später – griff die niederländische Polizei zu einer ungewöhnlichen Methode, um weitere Ermittlungshinweise zu diesem Fall zu erhalten: ein synthetisches Video, in dem Sedar selbst die Öffentlichkeit um Hilfe bei der Aufklärung seines Todes bittet.
In diesem Video, läuft der noch immer 13 Jahre alte Sedar mit einem Ball in der Hand über ein Fußballfeld und ist scheinbar wieder lebendig. Links und rechts von ihm stehen Familienangehörige, Freund*innen und Bekannte. Im Voiceover des Videos erzählt Sedars Schwester Janet seine Geschichte. Am Ende des Videos bitten die Geschwister gemeinsam mögliche Zeug*innen darum, Informationen zu Sedars Mörder zu liefern. Das Video verbreitete sich im Internet rasend schnell und stieß dabei auf große Resonanz und viele emotionale Reaktionen. Tatsächlich konnten mithilfe dieses Deepfakes neue Hinweise aufgenommen werden. Die starke Wirkung dieses Videos zeigt, welche Macht Deepfake-Technologie mit sich bringen kann und auch, wie sie im besten Fall sogar dazu beitragen kann für Gerechtigkeit zu sorgen.
Die Kunst der Täuschung
Doch was sind Deepfakes eigentlich? In einem Interview beschreibt Antonio Krüger, CEO des Deutschen Forschungszentrums für künstliche Intelligenz in Kaiserslautern, diese wie folgt: „Als Deepfakes bezeichnet man grundsätzlich mit Methoden der Künstlichen Intelligenz manipulierte Medieninhalte wie Audio, Foto, Video in einer Qualität, die nicht ohne Weiteres oder gar nicht als Fake, also als Fälschung zu erkennen sind.“ Die KI–gestützte Technologie dahinter nutzt Deep Learning, bei dem neuronale Netzwerke große Mengen an Daten verarbeiten. Um ein Deepfake-Video zu erstellen, benötigt man nur einige Fotos oder Videos der Person, die imitiert werden soll. Die KI wird mit diesen Daten gefüttert und erlernt das Imitieren von Gesichtszügen und Mimik. Sie ist auf Grundlage dieser Daten sogar in der Lage, die Gestik der Personen nahezu identisch nachzuahmen. Die KI kann es so aussehen lassen, als würde die imitierte Person etwas sagen oder tun, was sie nie wirklich gesagt oder getan hat.
Im Fall von Sedar handelt es sich jedoch nicht um ein klassisches Deepfake. Denn hier wurde die Technologie verwendet, um ein Video zu erstellen, das den Eindruck erweckt, der Junge spreche posthum zur Öffentlichkeit. Das klassische Deepfake, das uns oft in den sozialen Medien begegnet, lässt hingegen meist Personen sprechen, die noch lebendig sind.
Deepfake-Boom in China
Ein Blick nach China zeigt, wie unterschiedlich der Umgang mit dieser Technologie sein kann. Dort führen immer mehr Menschen regelmäßig Videochats mit verstorbenen Angehörigen. Unternehmen wie Super Brain oder Silicon Intelligence beschäftigen sich mit der KI-Technologie und ermöglichen die Erstellung von digitalen Kopien von Verstorbenen. Sie bezeichnen sie als „digitale Avatare“. Um einen einfacheren KI-Avatar zu erstellen, reichen bereits ein oder mehrere Fotos sowie der Zugang zu Sprachnachrichten aus. Diese Avatare sehen nicht nur aus wie die Verstorbenen, sie klingen auch so.
In den einfacheren Versionen können sie wie ein gewöhnlicher Chatbot meist nur zuhören und an passenden Stellen antworten. Wer jedoch mehr investieren kann, bekommt leistungsfähigere Avatare, die fast lebensecht wirken, je nachdem wie viele Daten bei der Erstellung zur Verfügung stehen. Sie sind sogar in der Lage, komplexere Gespräche oder Videoanrufe zu führen. Möglich ist das durch Large Language Models (LLMs). Sie sind eine Art von KI-Programmen, die ähnlich wie ChatGPT dazu in der Lage sind, Texte und Sprache zu erkennen und zu generieren. Sie werden auf der Grundlage riesiger Datenmengen trainiert und ermöglichen so realistische Konversationen mit den digitalen Avataren. Diese KI-Technologien sind derzeit nicht nur in China auf dem Vormarsch. Sie begegnen den Menschen bereits weltweit in Form von Chatbots und anderen KI-Programmen, die sie im Alltag unterstützen.
Deepfakes jenseits der Gegenwart
Die Zukunft der Deepfake-Technologie hängt stark davon ab, wie wir mit ihren ethischen Herausforderungen umgehen. Der Fall des 13-jährigen Sedar Soares zeigt das Potenzial dieser Technologie, aber auch ihre Tücken. Er wirft Fragen zum Umgang mit den Rechten und der Würde von Verstorbenen auf. Trotz Zustimmung der Familie ist fraglich, ob es gerechtfertigt ist ein digitales Abbild von Sedar zu verbreiten, denn er selbst konnte nicht mehr nach seiner Zustimmung gefragt werden. Man könnte auch hinterfragen, ob es sich nicht sogar um eine Art von emotionaler Manipulation handelt, wenn Verstorbene etwas sagen, das nur von den Ersteller*innen solcher Videos bestimmt wird und das sie nie wirklich selbst gesagt haben.
In China nutzen Menschen die KI-Technologie für eine neue Form der Trauerbewältigung. Es kann sicher tröstlich sein, noch einmal die Gelegenheit zu haben mit Verstorbenen zu sprechen und sie in einer realistischen Form als digitalen Avatar vor sich zu haben. Gleichzeitig birgt sie möglicherweise aber das Risiko, den natürlichen Trauerprozess zu stören. Die Technologie könnte dazu führen, dass eine ungesunde Bindung an diese digitalen Abbilder der Verstorbenen entsteht. Wann ist die Zeit gekommen, sich von diesen digitalen Avataren zu verabschieden – oder werden diese sogar für immer existieren?
Neben ethischen Bedenken sollten wir auch die psychologischen Auswirkungen dieser KI-Technologien auf die Hinterbliebenen im Blick behalten. Wir müssen die Würde der Verstorbenen wahren und sicherstellen, dass die Technologie unterstützend wirkt anstatt zu belasten. Es liegt also an uns, einen verantwortungsvollen Umgang mit diesen neuen Möglichkeiten zu finden und sicherzustellen, dass die Menschlichkeit und Ethik in einer zunehmend digitalen Welt im Vordergrund stehen.
Beitragsbild: iStockphoto.com / Arkadiusz Warguła
Ihr seid neugierig geworden? Dann folgt uns doch auf Instagram! Mehr zum Thema lest ihr außerdem hier.