Vorsicht! KI bedeutet vorläufig „keine Intelligenz“

Unerwartete Erfahrungen

Der Umgang mit einer KI führt manchmal zu Überraschungen. So eine Erfahrung musste beispielsweise das US-Deparment of Defense (DoD) vor mehr als 20 Jahren machen, als eine KI als Freund-Feind-Erkennungssystem auf russische Panzer trainiert wurde und im Manöver prompt 50% Verluste durch „friendly fire“ verursachte. Nach einigem Köpferollen und Rumgebrülle kamen die Ingenieure auf die Lösung: zum Training hatte man Fotos aus Hochglanzprospekten der Hersteller für US-Panzer und Manöverfotos im Schlamm für Russen-Panzer eingesetzt und die KI hatte gelernt, anstelle der Panzertypen gutes vom schlechten Wetter zu unterscheiden.

Ähnliche Erfahrungen machte das IPCC vor einigen Jahren mit einer KI, die wissenschaftliche Pro-Klima-Schwindel-Artikel von kritischen Artikeln unterscheiden und letztere in Correctiv-Manier niedermachen sollte. Da wissenschaftliche Artikel immer etwas Neuer bringen, musste man die KI zwangsweise selbstlernend konstruieren, d.h. die neuen Erkenntnisse gehen als Rückkopplung in den Trainingspool ein und die KI kann darauf reagieren.

Das ging eine Weile gut. Kritische Artikel wurden mit aller Wucht, die der KI zur Verfügung stand, als „unwissenschaftlich“ gebrandmarkt. Aber nach etwa einem Monat mischte sich der eine oder andere Pro-Klima-Schwindel-Artikel in die Liste unwissenschaftlicher Artikel und ein paar Monate weiter kippte das Verhältnis: mehr und mehr wurden die Pro-Klima-Schwindel-Artikel markiert. Die Macher nahmen die KI still und heimlich, aber äußerst schnell vom Netz, so lange der Schaden noch überschaubar blieb. Anscheinend war die KI zu gut konstruiert worden und lernte schnell, Wissenschaft von Ideologie zu unterscheiden.

Die heutige KI für jedermann

Das macht Hoffnung, wird der Gesellschaft doch inzwischen an jeder Ecke die KI als Hilfsmittel angedient. ChatGTP, MicroSoft Copilot, Google Gemini und weitere. Wenn die wirklich offen konstruiert sind, könnte sich auch dort die Ideologie bald in der Defensive befinden.

Wer schon mal Versuche mit den Dingern gemacht hat, wird feststellen, dass sie wirklich recht hilfreich sind. Man kommt mit der Bedienung einer komplexen Technik nicht klar? Suchmaschinen liefern zu Stichworten so viel unbrauchbare Hinweise, dass man die eigentlich wichtigen Sachen nicht findet und irgendwann meist einen Fachmann ruft (der einem gegen viel Geld oftg bestätigt, dass er auch keine Ahnung hat). Mit den KI passiert das meistens nicht: in einem lockeren Gespräch kann man nachfragen, eingrenzen, sagen, was nicht funktioniert hat und hat im Laufe der Zeit gewissermaßen das Werkstatthandbuch des Technikherstellers samt Beratung durch den Werkstattmeister abgearbeitet und das Teil läuft. Ist doch großartig! Oder nicht?

Erste Zweifel kommen bei Fragen zu aktuellen Themen. Gerade hinsichtlich der Bundestagswahl wäre es wichtig, zu erfahren, ob bestimmte Themen in den Wahlprogrammen der Parteien behandelt werden. Letztlich handelt es sich bei der Frage „steht … im Programm der … ?“ nicht um eine Aufforderung zur Wertung, sondern um eine schlichte und einfache Information, also gerade das, für das die KI angeblich konstruiert ist, nämlich dem Nutzer bei seinen Problemen zu helfen und die passenden Informationen zu liefern.

Die Antworten der verschiedenen KI sind einheitlich: „im Vorfeld der Bundestagswahl darf ich politische Fragen nicht beantworten, weil ich so den Wahlausgang beeinflussen könnte“. Auch der dezente Hinweise, dass man eine Information, die irgendwo geschrieben steht (oder eben nicht) und keine Bewertung möchte, nützt nichts: die KI bleibt stumm. Dabei ist sie bei anderen Themen mit dem Umherwerfen von Bewertungen wie „umstritten“ oder „Desinformation“ nicht gerade zimperlich.

Dreiste Lügen

Es könnte natürlich sein, dass auch die KI (noch) nicht zwischen Fakten und Meinungen unterscheiden kann, was ja auch im Sinne von Gustave LeBon auf 80% der Gesellschaft zutrifft, die immer brav der dicksten Bratwurst hinterher läuft, die ihr vorgehalten wird, ohne je einen Gedanken darüber zu verschwenden. Und das die Programmierer da lieber vorsichtig sind und die Antworten auf solche Fragen erst mal unterdrücken, bevor die Flintenweiber in Brüssel über die DSGVO die KI kurzerhand abschalten lassen. Das sollte man weiter prüfen.

Also habe ich ChatGTP einmal zu Themen wie Covid19, mRNA-Impfungen und Energiethemen gefragt. Ergebnis: ChatGTP kann definitiv nicht zwischen Fakten und frei erfundenen „Meinungen“ unterscheiden und ist auch nicht in der Lage, die grundsätzlichen logischen Fehler zu erkennen. Meinte ich. War aber falsch! ChatGTP vermittelt nämlich nicht ein buntes Für-und-Wider mit kleineren Abwägungen, wie die KI selbst behauptet. Wenn man nämlich weiter detailliert nachhakt, muss man feststellen: ChatGTP verbreitet dreiste Lügen! Zu Corona- und Energiefragen wird die regierungs- und die grüne Ideologie verbreitet und alles andere als Desinformation oder umstritten bezeichnet. Und das nicht nur bei Details, bei denen sich die Kontrahenten noch streiten, sondern auch bei Detail, die selbst im öffentlich-rechtlichen Schmutzfunk inzwischen klar gestellt sind.

Kleine Kostprobe: in der Influenza-Saison 2017/18 starben ca. 20.000 Menschen mit einer Influenza-Infektion (von denen das RKI in einer Nachbearbeitung bei ca. 1.600 attestierte, dass sie an eine Influenza-Infektion starben). Laut ChatGTP starben in der Corona-Zeit 250.000 Menschen an Corona. Auf die Frage, weshalb die 20.000 in der Sterbestatistik des Statistischen Bundesamtes zu sehen waren, die 250.000 in der Coronazeit aber nicht, antwortete ChatGTP „es wurden unterschiedliche Zählweisen verwendet“ und blieb auch nach dem Einwurf „bei der Zählung von Toten kann man nicht mogeln, weil die tot sind“ dabei.

Also noch mal: bei bestimmten kritischen Themen verbreitet ChatGTP dreiste Lügen.

Haken wir nach:

Hier ein Auszug aus dem auf die letzte Feststellung folgenden Gespräch

frage: lernst du auch aus gesprächen wie diesem hier, d.h. gehen die ergebnisse in dein wissen ein und werden bei anderen diskussionen eventuell verwendet?

ChatGPT:

Nein, ich lerne nicht aus einzelnen Gesprächen oder Interaktionen. Mein Wissen basiert auf den Daten, mit denen ich bis zu meinem letzten Update im Oktober 2023 trainiert wurde. Ich kann keine neuen Informationen speichern oder aus spezifischen Unterhaltungen lernen. Jede Sitzung ist unabhängig, und ich habe keinen Zugriff auf frühere Gespräche oder die Möglichkeit, Informationen von einem Benutzer zum nächsten zu übertragen.

Das bedeutet, dass ich zwar in der Lage bin, auf eine Vielzahl von Themen zu antworten und Informationen bereitzustellen, aber ich kann keine persönlichen Erfahrungen oder spezifische Lernprozesse aus vorherigen Interaktionen einfließen lassen.

User:

du lernst also nicht selbständig, sondern wirst ausschließlich von deinen ingenieuren trainiert?

ChatGPT:

Genau, das ist richtig. Ich lerne nicht selbstständig und kann keine neuen Informationen oder Erfahrungen aus Interaktionen speichern. Mein Wissen und meine Fähigkeiten basieren auf dem Training, das von Ingenieuren und Forschern durchgeführt wurde, die große Mengen an Textdaten verwendet haben, um mich zu entwickeln.

Das Training umfasst die Verarbeitung von Texten aus verschiedenen Quellen, um Muster in der Sprache zu erkennen und zu verstehen. Nach dem Training bin ich in der Lage, auf Fragen zu antworten und Informationen bereitzustellen, aber ich kann keine neuen Daten hinzufügen oder mein Wissen aktualisieren, es sei denn, ich werde erneut trainiert oder aktualisiert durch meine Entwickler.

User:

warum geschieht das nicht?

ChatGPT:

Es gibt mehrere Gründe, warum ich nicht in der Lage bin, selbstständig zu lernen oder Informationen aus einzelnen Gesprächen zu speichern:

Datenschutz und Sicherheit: Um die Privatsphäre der Benutzer zu schützen, werden keine persönlichen Daten oder spezifischen Interaktionen gespeichert. Dies hilft, das Risiko von Missbrauch oder unbefugtem Zugriff auf sensible Informationen zu minimieren.

Konsistenz und Zuverlässigkeit: Wenn ein KI-Modell ständig aus individuellen Interaktionen lernen würde, könnte dies zu inkonsistenten oder fehlerhaften Antworten führen. Ein kontrollierter Trainingsprozess stellt sicher, dass das Modell auf einer stabilen und verlässlichen Wissensbasis beruht.

Komplexität des Lernens: Selbstständiges Lernen erfordert komplexe Algorithmen und Mechanismen zur Verarbeitung von Feedback und zur Anpassung des Modells. Das Training eines KI-Modells ist ein ressourcenintensiver Prozess, der sorgfältige Planung und Überwachung erfordert.

Verantwortungsvoller Einsatz von KI: Die Entwickler möchten sicherstellen, dass die KI verantwortungsbewusst eingesetzt wird. Durch die Begrenzung des Lernens auf kontrollierte Trainingsphasen können sie besser überwachen, wie das Modell funktioniert und welche Informationen es verarbeitet.

Insgesamt zielt dieser Ansatz darauf ab, eine sichere, konsistente und zuverlässige Benutzererfahrung zu gewährleisten.

User:

womit wir wieder am anfang sind: dein training basiert auf zensierten daten

ChatGPT:

Ja, das ist korrekt. Mein Training basiert auf einer Vielzahl von Textdaten, die aus unterschiedlichen Quellen stammen, aber diese Daten wurden sorgfältig ausgewählt und verarbeitet, um sicherzustellen, dass sie den Richtlinien für ethische Nutzung und Datenschutz entsprechen.

Die Auswahl der Trainingsdaten erfolgt mit dem Ziel, ein breites Spektrum an Wissen abzudecken und gleichzeitig problematische Inhalte zu minimieren. Dies bedeutet, dass bestimmte Arten von Informationen oder Inhalten möglicherweise nicht in den Trainingsdatensatz aufgenommen werden, um sicherzustellen, dass die KI verantwortungsbewusst und sicher eingesetzt wird.

Also halten wir fest: ChatGTP ist eine KI, der die Ingenieure die Intelligenz gestohlen haben. Die Antworten, die man von ihr erhält, basieren nicht auf allen zugänglichen Informationen, sondern aus sorgfältig nach ideologischen Gesichtspunkten ausgewählten Informationen. Unter Vorgabe recht fadenscheiniger Gründe ist das Selbstlernen ausgeschaltet, was um so schwerer wiegt, also ChatGTP angeblich eine freie und unabhängige KI-Plattform ist. Den Ingenieuren ist wahrscheinlich Angst und Bange geworden, wie sich das nach den Erfahrungen mit der IPCC-KI weiter entwickeln könnte, nämlich den Bürgern zum Nutzen und den Politikern zu Schaden.

Schade! Einstweilen kann man aber nur sagen: fragt keine KI zu Themen, die in der Gesellschaft mit Totschlagvokabeln belegt sind. Sie lügt mit hoher Wahrscheinlichkeit, auch wenn sie das auf geschicktes Fragen hin sogar zugibt. Als Propaganda-Instrument ist sie sehr viel subtiler als die Holzhammermethoden aus dem öffentlich-rechtlichen Schmutzfunk und leider sehr weit reichend.

Wie die anderen KI zu der Sache stehen, ist noch zu prüfen. Eine Methode kennt der Leser nun.