Die KI liefert in zunehmendem Maße lustige Videos in den sozialen Netzwerken, in denen nicht nur Eisbären oder Säuglinge über Quantenchromodynamik diskutieren, sondern auch Personen des öffentlichen Lebens auftauchen und irgendwelchen Schmarrn von sich geben. In der Regel ist es leicht zu erkennen, dass sich da ein Hobby-AI-ler, der sich eine Nvidia A100 leisten kann (ca. 12.000 €), einen Scherz erlaubt hat. Oder eine Beleidigung der gefakten Person. Oder eine Verleumdung. Oder alles zusammen.
Die KI erlaubt zwar, das Äußere von Personen zu imitieren oder die Stimme nachzumachen, aber da sie die Szene die sie darstellen soll, selbst erfinden muss, baut sie zwangsweise leicht Unstimmigkeiten ein, und zwar um so mehr, je weniger Trainingsmaterial sie hat. Da passen manche Worte nicht, die Arthritis der Finger ist plötzlich verschwunden oder irgendwo ist ein Pickel, den die Person nie hatte. Manchmal sind die Sachen recht gut, aber
- eine genaue Analyse des Materials (und nicht nur oberflächliches Hinschauen) verrät an Details den Fake,
- die dargestellte Szene passt nicht in die bekannte Vita des Betreffenden und widerspricht grundsätzlichen und bekannten Positionen,
- eine andere KI sucht nach Mustern und gibt anschließend bekannt: mit70% Wahrscheinlichkeit ein Fake.
Was aber, wenn professionelle Akteure dahinter stecken, die andere Fähigkeiten mitbringen wie
- Rechenzentren: Zugang zu massiver Rechenleistung (viele High-End-GPUs) über lange Zeiträume.
- Daten: Eine riesige Menge an hochwertigem Trainingsmaterial der Zielperson (Interviews, Reden, Pressekonferenzen), das oft nur Geheimdienste oder große Konzerne unauffällig beschaffen können.
- Expertenteams: Nicht nur KI-Spezialisten, sondern auch Grafikdesigner, Tontechniker, Regisseure und Psychologen, die wissen, wie man die größte Wirkung erzielt.
Solche Fakes lassen sich nicht mehr entlarven. So etwas kostet zwar einige Millionen, aber für einen Milliardär oder einen Konzern, für den Milliardenumsätze auf dem Spiel stehen, sind das überschaubare Nebenkosten, von Geheimdiensten mal ganz abgesehen. Konzern A möchte etwas durchsetzen, Politiker B spielt nicht mit, und schon erscheint ein Fake-Video, dass ihn zum Rücktritt zwingt oder seine Wahl verhindert. Und die genannten Akteure besitzen nicht nur die Fähigkeiten, solche Deep Fakes zu erzeugen, sondern sich auch perfekt zu tarnen, so dass ihre Urheberschaft nicht direkt nachgewiesen werden kann.
Wie kann man das verhindern? Antwort: man kann das nicht verhindern, ohne zu den gleichen Maßnahmen zu greifen. Wer in der Lage ist, sich ein solches Deep Fake Team leisten zu können (vielleicht nicht ganz so perfekt, aber wenn die Fälschung nach einiger Zeit auffällt, ist der Schaden schon angerichtet und meist nicht mehr reparabel, also kommt man auch mit begrenztem Aufwand schon zum Zuge), tut gut daran, sich auch ein Analyseteam zu leisten, das die potentiellen Feinde ausfindig macht. Wer könnte einem ans Bein pinkeln wollen? Und gegen den inszeniert man präventiv eigene Deep Fakes.
Wir haben hier einen mit A-Bomben vergleichbaren Fall. Man hat welche, man verzichtet (zumindest formell) auf einen Präventivschlag, besitzt aber die Fähigkeit zur massiven Vergeltung, sollte der Gegner zuschlagen. Man muss den/die Gegner nur davon überzeugen, dass man das kann, beispielsweise durch harmlose Deep Fakes, die zeigen „schaut her, wir verfügen über die notwendige Technologie“, oder durch vertrauliche Kanäle.
Allerdings ist KI um einiges leichter zu haben als eine A-Bombe. Letztere können sich nur Staaten leisten, KI-Bomben aber auch Konzerne oder Milliardäre. Der Kreis der Mitspieler wird sehr viel größer. Zwar ist die KI-Bombe relativ preiswert, aber sie ist auch individuell: eine KI-Bombe gegen Konzern A ist nicht geeignet, Milliardär B zu schaden. Man benötigt nicht nur eine Abteilung, die die Fakes baut, sondern auch eine, die ständig analysiert, wer als Gegner in Frage kommt und was man gegen ihn konstruieren kann. Und die Fake-Abteilung muss zusätzlich ständig Updates produzieren, weil der Skandal von 2024 im Jahr 2027 Schnee von gestern ist. Da ist man trotz Wohlfeilheit der KI vermutlich schnell bei Verteidigungshaushalten der Unternehmen, die wie der der Staaten etliche Prozent des Umsatzes ausmachen.
Und noch eine Neuerung gibt es dabei: wenn ein Land einem anderen eine A-Bombe an den Kopf werfen sollte, ist die Herkunft nicht zu leugnen. Konzern A kann aber einen KI-Angriff auf Konzern B so aussehen lassen, als käme der von Konzern C, und sich anschließen ruhig zurück lehnen und zuschauen, wie sich beide zerfleischen.
Wir stehen noch am Anfang solcher Machenschaften. Aber stehen wir wirklich da? Oder hat der eine oder andere Konzern oder Milliardär schon diese Waffen im digitalen Safe? Er muss Politiker A ja nicht platt machen, es reicht, dass er ihm klar macht, dass er es jederzeit kann, wenn der nicht spurt.
Willkommen in der Welt der realen Science Fiction. Die eine oder andere neue Serie oder auch ein ganzer Film nehmen solche Entwicklungen schon vorweg – oder liefern sie doch nur einen Blick auf eine schon bestehende verdeckte Realität?