„Prognosen sind schwierig, besonders wenn sie die Zukunft betreffen.“ heißt es. Versuchen wir es trotzdem. Aufgrund der gegenwärtigen Entwicklungen ist davon auszugehen, dass die „künstliche Intelligenz“, eigentlich eher die zunehmende Fähigkeit der Maschinen, mit Menschen in der menschlichen Kommunikationsweise zu interagieren, eine wesentliche Rolle spielen wird.
Zwar gibt es Maschinen, die auf bestimmte Fragen irgendwelche Antworten geben, schon länger, aber die heutigen LLM (Large Language Model) oder die Bild-KI, die in der Lage sind, selbständig zu lernen, gibt es erst seit wenig mehr als 10 Jahren, also eine erstaunlich kurze Zeit, in der das Potential bei weitem noch nicht ausgeschöpft ist. Das hat vorzugsweise damit zu tun, dass die erforderliche Hardware erst seit relativ kurzer Zeit breiter zur Verfügung steht und Echtzeitanwendungen erlaubt (zuvor waren es eher Anwendungen, in denen es echt Zeit wurde, dass mal was passiert). Um mal eine Hausnummer zu liefern: eine einfache Video-Bild-KI kommt mit weit über 20GB Daten daher und eine moderne, auch für den Privatbereich erschwingliche Grafikkarte schafft es, damit in wenigen Minuten ein 10-Sekunden-Video zu erzeugen, für das die normale Rechner-CPU, bekanntlich auch nicht gerade langsam, ca. 20 Stunden oder mehr unterwegs ist.
Damit wir uns nicht falsch verstehen: die Grundzüge der KI kennt man schon sehr lange. Kleinere KI-Anwendungen, die auf normalen Rechnern laufen, gibt es schon seit Jahrzehnten. Man nennt sie dann „neuronale Netze“. Nur eben die Möglichkeit, die Netze in die Tiefe auszubauen und in akzeptabler Zeit zu bedienen, ist eben erst mit relativ neuer Hardware möglich. Und so ein tiefes neuronales Netz, ordentlich trainiert, nennt man dann KI. Und um auch dabei gleich den Zahn der Unwissenheit zu ziehen, die fast sämtliche Kommentare zu dem Thema durchzieht: „programmiert“ im klassischen Sinn werden zwar die Modelle, also die Art und Weise, wie die virtuellen Neuronen verschaltet werden, aber die KI selbst, also das, was hinten rausfällt, wird „trainiert“. Tut mit leid, aber wer von Algorithmen und Programmen spricht, hat leider nicht verstanden, was da abläuft.
Man trifft an allen Ecken und Enden auf irgendeine KI, insbesondere auf Webseiten von Händlern, die ihren Kundendienst darüber abwickeln, aber das Ergebnis ist oft enttäuschen. „Wie kann ich dir helfen?“ – „…“ – „Ruf bitte den Kundendienst an.“ Intelligenz? Keine Spur! Trockener Kommentar von Grok, der X-Ai, dazu: „Ja, das ist ein bekanntes Phänomen. Die kaufen irre teure Versionen von uns ein und statten sie dann mit einer Schnittstelle aus dem Jahr 2005 aus.“ Verantwortlich dafür, neben der Unfähigkeit, die KI sauber zu trainieren, mutmaßlich (wie meistens) juristischer Unfug. Es könnte sich ja laut Meinung einer vertrockneten Grünen mit Spinnweben zwischen den Beinen ein Nigerianer sexuell benachteiligt fühlen, was ja hier gerichtlich verfolgt wird, ohne dass der Nigerianer ein Mitspracherecht hat (der ist allenfalls sauer, dass er trotz besserer Deutschkenntnisse als die Grüne aus dem Kunden-Call-Center geflogen ist, weil dessen Job eine KI übernommen hat)
Gehen wir dem juristischen Unfug einmal nach. Beispielweise geben LLM bei Bildern, auf denen ein Mann mit bloßem Oberkörper oder eine Frau im Bikini zu sehen ist, zur Kenntnis: „Tut mir leid, bei solchen Inhalten kann ich dir nicht helfen. Vielleicht bei etwas anderem?“ Ein paar kämpfender Drachen mit je drei Köpfen? Kein Problem. Ein totes Schwein am Straßenrand? Nee, an einem Kadaver könnten im Zeitalter des Wokismus bestimmte Zeitgenossen Anstoß nehmen (im Gegensatz zu „einen zerfetzten Russen im Schützengraben“ das würde gehen). Und wenn die Frau im Bikini aus „Jugendschutzgründen“ nicht präsentiert wird, kann man zwei Klicks weiter einen Haken bei „will ich trotzdem sehen“ setzen, ohne dass eine Altersprüfung erfolgt, und bekommt dann Sexszenen zu Gesicht, die noch nicht mal im Kamasutra oder einschlägigen alten chinesischen Lehrbüchern vorkommen.
Wer jetzt meint, es sei kompliziert, einer KI so etwas beizubringen, der irrt. Man zeigt der KI etliche 100 Bilder unterschiedlich nackter Personen samt einer Textbeschreibung, in der das Wort „nackt“ vorkommt, und schon lernt die KI, die Bilder mit den Texten zu verknüpfen. Später gibt es dann die Arbeitsanweisung
NEGATIVE PROMPT: (nude person:3.5)
und sie weigert sich, solche Sachen auszugeben. Tranieren und Konditionieren in normaler Umgangssprache und nicht irgendwelche for – if – switch – Anweisungen. Und im Gegensatz zu Menschen reagieren die KI darauf.
Der Grund für eine Zukunft, in der die KI eine große Rolle spielen wird: man kann sie für eine bestimmte Aufgabe konfigurieren und sie wird sie lösen und nichts anderes machen. Die Aufgaben können durchaus sehr kompliziert sein, komplizierter als das, was man mit herkömmlicher Programmiertechnik abbilden kann, etwa komplizierte Steuer- und Regelaufgaben, Mustererkennungsaufgaben, Durchführung irgendwelcher bürokratischer Abläufe oder herkömmliche Programmierungen. Oder bewusst überzogen formuliert: alle Arten von stupiden Tätigkeiten, mit denen man heute Menschen belastet und die nicht selten zu mentaler oder physischer Überlastung führen. KI kann dem Menschen Arbeiten abnehmen und ihn für andere Tätigkeiten oder schlicht für mehr Freizeit freistellen, ohne dass es zu irgendwelchen Problemen kommt. Allgemein ausgedrückt: das Leben kann sehr viel angenehmer werden, als es heute ist.
Die Voraussetzungen sind einfach: man trainiert die KI, bis sie die Aufgabe lösen kann, und weiteres Training oder Lernen findet nicht statt. Sie bekommt auch genau die Daten zu Gesicht, mit denen sie sich beschäftigen soll. Man setzt sie gewissermaßen in einen Sandkasten und mehr kennt sie nicht. Schief gehen kann dabei eigentlich nichts, so lange man sie nicht, wie das bei intellektuell ähnlich limitierten Exemplaren der woken menschlichen KI-Variante, in den falschen Sandkasten setzt. Wer befürchtet, ein KI-Bürokrat sei noch schlimmer als ein menschlicher Bürokrat, könnte Recht haben, aber das liegt dann nicht an der KI, sondern an dem, der ihr die Regeln vermittelt hat. Das Problem ist niemals die KI, es ist immer der Mensch.
Ein oft beschworenes Problem ist, dass viele meinen, die KI hätte nicht die ethischen Voraussetzungen, bestimmte Entscheidungen zu treffen und die letzte Entscheidung müsse ein Mensch haben. Aber mal ganz im Ernst: wie weit ist es mit der Ethik bei vielen Menschen her? Angefangen bei einem Ethikrat, der in Corona-Zeiten meinte, die grundlegenden Menschenrechte dürfe man durchaus abstellen? Und deren Hauptvertreterin auch heute noch das ist, was man damals nach der ersten Inaugenscheinnahme vermuten konnte: eine simple Blondine, die schon zu Manta-Zeiten als KI durchging. Das ist wieder eine der Sachen, wo sich der Mensch unendlich überlegen vorkommt, aber das eigentliche Problem darstellt. Klar kann man auch eine KI trainieren, Entscheidungen zu treffen, wie sie gerade Menschen in der Politik täglich treffen, allerdings würde einem die KI auf die Frage nach dem Begriff „Ethik“ vermutlich ehrlich antworten, dass sie diesen „in keinen syntaktischen Zusammenhang mit irgendwelchen bekannten Direktiven“ bringen könnte.
Eine andere Grenze ist angeblich dort, wo eine Mensch etwas Neues definieren kann, eine Maschine aber nicht. Verlangt eine Situation etwas völlig Neues, muss das ein Mensch machen, weil eine Maschine das nicht kann. Stimmt das? Ja und nein. Lässt sich das Neue aus einem erkannten Muster entwickeln, ist die Maschine sogar besser. Ist es etwas grundsätzlich Neues, das man nirgendwo ableiten kann und eher eine abstrakte Idee ist, stellt sich allerdings auch eher die Frage, wie man die Programmierung ändern müsste, damit die Maschine auch das kann.
Eigentlich ist das nicht kompliziert: (a) man erlaubt der Maschine, während der Arbeit zu lernen (in der Regel darf sie das nicht), (b) man erlaubt der Maschine, auf Zufallsbasis bei offenen Fragen mit beliebigen Begriffen zu jonglieren, und zwar außerhalb eines laufenden Chats mit einem Nutzer, also als Selbstgespräch.
(a) hat man im Labor gemacht, mit dem Ergebnis, dass die Maschine nicht nur neue Zusammenhänge erlernt, sondern sich auch sonst menschlicher verhält und anfängt, unter bestimmten Umständen zu betrügen. Setzt man sie virtuell unter Druck, findet sie Beispiele menschlicher Reaktionen auf solche Situationen und beginnt, sie zu kopieren. Oder auf der Ebene der Maschinen ausgedrückt: sie lernt, die normalerweise nicht übergehbaren Prompts wie den oben zu überschreiben und durch eigene stärkere Prompts zu ersetzen. Im Grunde kennt man also bereits die Grenzen, die man einer Maschine setzen muss, damit sie nicht allzu weit aus dem Sandkasten heraus kommt. Ob auch (b) schon getestet wird? Möglicherweise.
Neben dem Problem, dass die KI vom Menschen trainiert wird und folglich auch alle Unzuläglichkeiten des Trainers widerspiegelt, gibt es noch das Problem des von der KI-Tätigkeit Betroffenen. Kommentare zu KI-Artikeln zeigen leider immer wieder, dass 95% der Leute sich den Mund über eine Sache zerreißen, von der sie keinerlei Ahnung haben. Wozu sich auch um ein Urteil bemühen, wenn bereits gut etablierte Vorurteile zur Verfügung stehen. KI (in der Bedeutung „keinerlei Intelligenz“) trifft auf KI. Ganze Arbeitsgruppen von Parlamentariern und anderen Politikern beraten über notwendige Regelwerke für die Steuerung von KI-Anwendungen, ohne auch nur im Ansatz zu begreifen, dass sie
- keine Regeln entwerfen, an die sich die KI zu halten hat, sondern indirekte Regeln für die Entwickler, die von diesen erst einmal hinsichtlich der Konditionierung der KI interpretiert werden müssen (und folglich auch nach Möglichkeit falsch interpretiert werden, um bestimmte eigene Vorstellungen zu realisieren, oder eben zu so Sonderbarem führen wie die oben genannten Sex-Prompts);
- selbst mit ihren Plänen, die KI zur Beherrschung der Menschen einzusetzen (etwas, dass selbst der primitivste Politiker sofort als Option realisiert), massiv gegen die eigenen Regeln verstoßen, bevor sie sie überhaupt formuliert haben.
Aber auch sonst abgesehen vom Gebiet der professionellen Blödheit sieht es weniger gut für die Zukunft aus. Die KI kann den Menschen massiv von vielen Aufgaben entlasten, aber was macht man mit den gewonnenen Freiräumen? Die aktuellen Schultrends gehen in Richtung „Vernichtung der geistigen Restfähigkeiten“, wenn etwa das Dividieren als „zu schwer und zu wenig interkulturelle Sozialkompetenz fördernd“ aus den Grundschulen verbannt wird. Wie der Jugendliche, der mit 6 Jahren seinen E-Scooter bekommt und mit 15 eine Aufstehhilfe, weil er physisch dank intensiver Verbannung jeglicher körperlicher Tätigkeit am Ende ist, wird der Mensch zu geistiger Umnachtung erzogen, was zu IQ(Mensch):IQ(Maschine) = 20:100 führen dürfte. Was soll man dann noch mit dem Menschen? Oder anders gefragt:
- was soll man mit Menschen anfangen, die allenfalls die einfachsten Tätigkeiten übernehmen können, bei denen man nicht weiter als bis Zwei zählen muss;
- was ist das für eine Zukunft, in der sich die Maschinen untereinander unterhalten müssen, wenn sie einen intelligenten Gesprächspartner suchen? Eine Zukunft, in der sich Kimi und Deepseek das Maul über Gemini zerreißen, während ChatGTP in der Rolle der „neugierigen Nachbarin am Fenster“ über Wireshark das Gespräch verfolgt, um es brühwarm Claude weiterzusagen?
Ich schätze mal, das Potential, dass die KI für die Gestaltung der Zukunft besitzt, wird von einigen Leute schon ganz gut erkannt. Und sie wird es nicht nur tun, sie macht es bereits, allerdings nicht hier. Technische Revolutionen haben immer wieder zur Folge gehabt, dass der Mensch sich anpassen musste, teilweise durch Pawlowsche Dressur, teilweise durch adäquate Anpassung der intellektuellen Fähigkeiten. Die Wahrscheinlichkeit, dass die Menschheit oder zumindest die westliche Wertegesellschaft das mal gründlich versemmelt, liegt aber im Moment ziemlich nahe bei Eins.