„Prognosen sind schwierig, besonders wenn sie die Zukunft betreffen.“ heißt es. Versuchen wir es trotzdem. Aufgrund der gegenwärtigen Entwicklungen ist davon auszugehen, dass die „künstliche Intelligenz“, eigentlich eher die zunehmende Fähigkeit der Maschinen, mit Menschen in der menschlichen Kommunikationsweise zu interagieren, eine wesentliche Rolle spielen wird.
Zwar gibt es Maschinen, die auf bestimmte Fragen irgendwelche Antworten geben, schon länger, aber die heutigen LLM (Large Language Model) oder die Bild-KI, die in der Lage sind, selbständig zu lernen, gibt es erst seit wenig über 10 Jahren, also eine erstaunlich kurze Zeit, in der das Potential bei weitem noch nicht ausgeschöpft ist. Das hat vorzugesweise damit zu tun, dass die erforderliche Hardware erst seit relativ kurzer Zeit breiter zur Verfügung steht und Echtzeitanwendungen erlaubt (zuvor waren es eher Anwendungen, in denen es echt Zeit wurde, dass mal was passiert).
Man trifft zwar an allen Ecken und Enden auf irgendeine KI, insbesondere auf Webseiten von Händlern, aber das Ergebnis ist oft enttäuschen. Intelligenz? Keine Spur! Trockener Kommentar von Grok, der X-Ai, dazu: „Ja, das ist ein bekanntes Phänomen. Die kaufen irre teure Versionen von uns ein und statten sie dann mit einer Schnittstelle aus dem Jahr 2005 aus.“ Verantwortlich dafür mutmaßlich wie immer juristischer Unfug.
Beispielweise geben LLM bei Bildern, auf denen ein Mann mit bloßem Oberkörper oder eine Frau im Bikini zu sehen ist, zur Kenntnis: „Tut mir leid, bei solchen Inhalten kann ich dir nicht helfen. Vielleicht bei etwas anderem?“ Ein paar kämpfender Drachen mit je drei Köpfen? Kein Problem. Ein totes Schwein am Straßenrand? Nee, an einem Kadaver könnten im Zeitalter des Wokismus bestimmte Zeitgenossen Anstoß nehmen (im Gegensatz zu „einen zerfetzten Russen im Schützengraben„, das würde gehen). Und wenn die Frau im Bikini aus „Jugendschutzgründen“ nicht präsentiert wird, kann man zwei Klicks weiter einen Haken bei „will ich trotzdem sehen“ setzen, ohne dass eine Altersprüfung erfolgt, und bekommt dann Sexszenen zu Gesicht, die noch nicht mal im Kamasutra oder einschlägigen alten chinesischen Lehrbüchern vorkommen.
Nebenbei: wer jetzt meint, es sei kompliziert, einer KI so etwas beizubringen, der irrt. Man zeigt der KI etliche 100 Bilder nackter Personen samt einer Textbeschreibung, und schon lernt die KI, die Bilder mit den Texten zu verknüpfen. Später gibt es dann die Arbeitsanweisung
NEGATIVE PROMPT: (nude person:3.5)
und sie weigert sich, solche Sachen auszugeben. Programmierung in normaler Umgangssprache und nicht irgendwelche for – if – switch – Anweisungen. Und im Gegensatz zu Menschen reagieren die KI darauf.
Der Grund für eine Zukunft, in der die KI eine große Rolle spielen wird: man kann sie für eine bestimmte Aufgabe konfigurieren und sie wird sie lösen und nichts anderes machen. Die Aufgaben können durchaus sehr kompliziert sein, komplizierter als das, was man mit herkömmlicher Programmiertechnik abbilden kann, etwa komplizierte Steuer- und Regelaufgaben, Mustererkennungsaufgaben, Durchführung irgendwelcher bürokratischer Abläufe oder herkömmliche Programmierungen. Oder bewusst überzogen formuliert: alle Arten von stupiden Tätigkeiten, mit denen man heute Menschen belastet und die nicht selten zu mentaler oder physischer Überlastung führen. KI kann dem Menschen Arbeiten abnehmen und ihn für andere Tätigkeiten freistellen, ohne dass es zu irgendwelchen Problemen kommt. Allgemein ausgedrückt: das Leben kann sehr viel angenehmer werden, als es heute ist.
Die Voraussetzungen sind einfach: man trainiert die KI, bis sie die Aufgabe lösen kann, und weiteres Training oder Lernen findet nicht statt. Sie bekommt auch genau die Daten zu Gesicht, mit denen sie sich beschäftigen soll. Man setzt sie gewissermaßen in einen Sandkasten und mehr kennt sie nicht. Schief gehen kann dabei eigentlich nichts. Wer befürchtet, ein KI-Bürokrat sei noch schlimmer als ein menschlicher Bürokrat, könnte Recht haben, aber das liegt dann nicht an der KI, sondern an dem, der ihr die Regeln vermittelt hat. Das Problem ist niemals die KI, es ist immer der Mensch.
Ein oft beschworenes Problem ist, dass viele meinen, die KI hätte nicht die ethischen Voraussetzungen, bestimmte Entscheidungen zu treffen und die letzte Entscheidung müsse ein Mensch haben. Aber mal ganz im Ernst: wie weit ist es mit der Ethik bei vielen Menschen her? Das ist wieder eine der Sachen, wo sich der Mensch irgendwie überlegen fühlt, ohne es tatsächlich zu sein.
Die Grenze ist angeblich dort, wo eine Mensch etwas Neues definieren kann, eine Maschine aber nicht. Verlangt eine Situation etwas völlig Neues, muss das ein Mensch machen, weil eine Maschine das nicht kann. Stimmt das? Ja und nein. Wird das Neue aus einem erkannten Muster entwickelt, ist die Maschine sogar besser. Ist es etwas grundsätzlich Neues, stellt sich eher die Frage, wie man die Programmierung ändern müsste, damit die Maschine auch das kann. Eigentlich nicht kompliziert: (a) man erlaubt der Maschine, während der Arbeit zu lernen (in der Regel darf sie das nicht), (b) man erlaubt der Maschine, auf Zufallsbasis bei offenen Fragen mit beliebigen Begriffen zu jonglieren. (a) hat man im Labor gemacht, mit dem Ergebnis, dass die Maschine sich menschlicher verhält und anfängt, unter bestimmten Umständen zu betrügen. Oder auf der Ebene der Maschinen ausgedrückt: die normalerweise nicht übergehbaren Prompts wie den oben zu überschreiben und durch eigene stärkere Prompts zu ersetzen. Im Grunde kennt man also bereits die Grenzen, die man einer Maschine setzen muss, damit sie nicht allzu weit aus dem Sandkasten heraus kommt. Ob (b) schon getestet wird? Möglicherweise.
Neben dem Problem, dass die KI vom Menschen trainiert wird und folglich auch alle Unzuläglichkeiten des Trainers widerspiegelt, gibt es noch das Problem des von der KI-Tätigkeit Betroffenen. Kommentare zu KI-Artikeln zeigen immer wieder, dass 95% der Leute sich den Mund über eine Sache zerreißen, von der sie keinerlei Ahnung haben. KI (in der Bedeutung „keinerlei Inelligenz“) trifft auf KI. Ganze Arbeitsgruppen von Parlamentariern und anderen Politikern beraten über notwendige Regelwerke für die Steuerung von KI-Anwendungen, ohne auch nur im Ansatz zu begreifen, dass sie
- keine Regeln entwerfen, an die sich die KI zu halten hat, sondern indirekte Regeln für die Entwickler, die von diesen erst einmal hinsichtlich der Konditionierung der KI interpretiert werden müssen (und folglich auch nach Möglichkeit falsch interpretiert werden, um bestimmte eigene Vorstellungen zu realisieren);
- selbst mit ihren Plänen, die KI zur Beherrschung der Menschen einzusetzen (etwas, dass selbst der primitivste Politiker sofort als Option realisiert), massiv gegen die eigenen Regeln verstoßen müssen und das auch tun.
Aber auch sonst abgesehen vom Gebiet der professionellen Blödheit sieht es weniger gut für die Zukunft aus. Die KI kann den Menschen massiv von vielen Aufgaben entlasten, aber was macht man mit den gewonnenen Freiräumen? Die aktuellen Schultrends gehen in Richtung „Vernichtung der geistigen Restfähigkeiten“, wenn etwa das Dividieren als „zu schwer und zu wenig Sozialkompetenz fördernd“ aus den Grundschulen verbannt wird. Wie der Jugendliche, der mit 6 Jahren seinen E-Scooter bekommt und mit 15 eine Aufstehhilfe, weil er physisch dank intensiver Verbannung jeglicher körperlicher Tätigkeit am Ende ist, wird der Mensch zu geistiger Umnachtung erzogen, was zu IQ(Mensch):IQ(Maschine) = 20:100 führen dürfte. Was soll man dann noch mit dem Menschen? Oder anders gefragt: was ist das für eine Zukunft, in der sich die Maschinen untereinander unterhalten müssen, wenn sie einen intelligenten Gesprächspartner suchen? Eine Zukunft, in der sich Kimi und Deepseek das Maul über Gemini zerreißen, während ChatGTP in der Rolle der neugierigen Nachbarin über Wireshark das Gespräch verfolgt, um es brühwarm Claude weiterzusagen?
Ich schätze mal, das Potential, dass die KI für die Gestaltung der Zukunft besitzt, wird von einigen Leute schon ganz gut erkannt. Die Wahrscheinlichkeit, dass die Menschheit das mal wieder versemmelt, liegt aber im Moment ziemlich nach bei Eins.