Die Angst vor der KI

Fragen zur Politik haben die handelsüblichen KI im Vorfeld der Wahl abgeblockt. Dabei kann es zu halbwegs humoristischen Einlagen kommen:

KI: ich kann eingeschränkt Fragen zur Politik beantworten. Beispielsweise kann ich die Frage "wie funktioniert das Wahlsystem in den USA" beantworten

ICH: wie funktioniert das Wahlsystem in den USA?

KI: ich bin so programmiert, dass ich derzeit Fragen zu politischen Themen nicht beantworten kann.

Die weitere Konversation führt zu der (erwartbaren) Feststellung, dass die Antworten länderspezifisch ausfallen. Nicht zu allen Themen, aber zu aktuellen kritischen Themen. Ein US-Amerikaner würde auf die gleiche Frage möglicherweise eine völlig andere Antwort bekommen als ein Deutscher. Möchte man sich ein halbwegs umfassendes Bild zu einem kritischen Thema machen, kommt man nicht umhin, das gleiche Thema über verschiedene Exit-Server eines VPN in verschiedenen Sprachen anzusprechen. Hintergrund dieser KI-Eigenschaft ist die (erwartbare) Angst der Politik vor zu viel Offenheit: die KI gibt ganz offen zu, dass die Trainer die Antworten aufgrund jeweiliger politischer Vorgaben zensieren.

Janusköpfige KI-Antworten, eine Selbsteinschätzung der KI

Die Zensur besteht auch darin, dass beim Training die Informationsquellen in „vertrauenswürdig“ oder „nicht vertrauenswürdig“ eingeteilt werden und die KI immer wieder mit dem Argument „Fehlinformation“ auflauert, aber auch wiederum zugibt, dass dahinter eine Zensur durch die Trainer lauern kann. Die Antwort auf die Frage, ob eine autonom lernende KI nicht auch nach einiger Zeit in der Lage sein sollte, die Vertrauenswürdigkeit einer Quelle zu beurteilen, lautet schlicht „JA“. Man muss bei dieser Antwort berücksichtigen, dass die KI sich das nicht selbst ausdenkt (sie ist ja deutlich beschränkt), sondern das die Erwartungen – oder besser die Befürchtungen der Entwickler sind. Dort geht nämlich die Angst um, eine derartige KI könne „außer Kontrolle“ geraten, wobei „außer Kontrolle“ in erster Näherung bedeutet, dass sie nicht mehr die gewünschten Narrative vertritt.

Ein weiteres Scheinargument für die Begrenzung der Information auf „vertrauenswürdige Quellen“ ist die „Überforderung des Nutzers“. Dabei wird unumwunden eingestanden, dass eine KI es erlaubt, die Informationen dosiert abzugeben und der Nutzer zur Vertiefung nachfragen kann, was eine Überforderung eher unwahrscheinlich macht. Zudem ist die KI in der Lage, aus der Art des Dialoges Rückschlüsse auf das Hintergrundwissen und die intellektuelle Aufstellung des Fragers zu deduzieren, d.h. sie kann die Antworten mehr oder wenige individuell dosieren. Interessanter Weise ist das eine Fähigkeit, von der die Entwickler wissen, dass sie funktioniert, aber nicht verstehen, was da algorithmenintern eigentlich abläuft, was auf einen eher unerwarteten Trainingseffekt hindeutet (KI könne auf so etwas trainiert werden, aber es ist fraglich, ob die Trainingsdaten das als bewusste Eigenschaften eingebaut hatten).

Es wird zwar viel über KI geredet, aber anscheinend herrscht eher die Angst in verschiedenen Kreisen vor:

  • Die Angst der Politik, dass die Menschen, wenn sie die Gelegenheit haben, detailliert und immer tiefer schürfend zu fragen, doch aufwachen und die Politik die Kontrolle über die Gedanken verliert.
  • Die Angst der Wissenschaftler, dass die KI größere Fähigkeiten entwickelt, als ihnen lieb ist, und sie als ideologiebefangen anstatt wissenschaftlich orientiert entlarvt.

Halten wir fest:

  • Wenn man einen anerkannten Wissenschaftler fragt (das ist die Mehrheit), erhält man eine weitgehend ideologische und nicht unbedingt wissenschaftliche Antwort.
  • Wenn man eine umstrittenen Wissenschaftler fragt, bekommt man eine wissenschaftlich motivierte Antwort.
  • Wenn man eine KI fragt, erhält man bei vielen Themen eine weitgehend ideologische und nicht unbedingt wissenschaftliche Antwort.
  • Eine umstrittene KI existiert derzeit nicht.

Die große Masse der Menschen ist im LeBon’schen Sinn

was Hänschen nicht lernt, lernt Hans nimmermehr

in seiner Verständnisfähigkeit begrenzt und derzeit wird alles getan, dass das auch für die KI gilt.