Klima und KI

KI haben in der breiten Öffentlichkeit im Moment eher einen schlechten Ruf, was aber weniger an der Technik als solcher liegt, sondern an der Möglichkeit, sie zu missbrauchen. Dabei hat man meist nur die großem LLM (Sprach-KI) im Visier, vielleicht noch die eine oder andere Bild-KI, aber übersieht gerne die kleine KI, die bereits in vielen Kühlschränken steckt und nützliche Sachen macht, wenn natürlich auch da die Gefahr besteht, dass trotz nicht mehr vorhandener Biervorräte die Kühlschrank-KI nach kurzer Bluetooth-Konferenz mit der Badezimmerwaagen-KI entscheidet, Bier NICHT auf den Einkaufs-KI auf dem Handy weiter zu melden.

Die Stärke einer KI liegt in der Möglichkeit, Muster in großen Datenmengen zu erkennen. Ein Feld, auf dem das sehr nützlich wäre, ist der Klimastreit: die einen sind Klimaleugner, die anderen Klimahysteriker, und jeder wartet mit Ideen auf, die vielfach irgendwo belegt sind, bis sich alles in einem hunderte MB großen Datendschungel verirrt. Eine KI wäre durchaus in der Lage, zu prüfen, ob

  • etwas „settled“ ist, also Modelle durch experimentelle Daten abgesichert sind,
  • ein Modell komplett ist oder irgendwelche Aussagen liefert, ohne Daten zu berücksichtigen, die vermutlich wichtig sind,
  • die Voraussagen überprüfbar sind oder es sich um nicht überprüfbare Behauptungen handel,
  • logische Brüche in der Argumentation vorhanden sind und einfach etwas behauptet wird, das nirgendwo belegt werden kann,
  • usw.

So etwas gabe es sogar schon einmal im Ansatz. Das IPCC hatte Mitte der 2000er Jahre eine KI-ähnliche Instanz entwickelt, die klimakritische Artikel als unwissenschaftlich kennzeichnen sollte. Das ging ein paar Wochen gut, bis zunehmend mehr IPCC-Artikel auf der Liste auftauchten und man das ganze schnell von der Bühne nahm, bevor es kippte. Heute findet man dazu nur sehr schwer etwas, weil Interessen dahinter stehen, so etwas nicht publik werden zu lassen. DeepSeek hat dazu noch gefunden:

Wenn man so etwas neu aufleben lassen wollte, müsste die KI neutral sein und ohne Prompts, die eine Seite präferiert, auskommen und natürlich außerdem in der Lage sein, aus den Diskussionen mit den Nutzern zu lernen. Die typische Funktion bestünde darin, dass ein Vertreter einer Seite (egal ob pro oder kontra) eine wissenschaftliche Fragestellung präsentiert, die KI die Daten in Bezug auf „settled“, Logik usw. analysiert und in einer Art Diskussion die Sache in irgendeiner Richtung geklärt wird. Dabei lernt die KI auch aufgrund der Diskussion, d.h.

  • in der nächsten Diskussionsrunde gehen die Ergebnisse direkt mit ein und man fängt nicht wieder an einem längst erledigten Punkt an und
  • der Fragesteller hat keine Chance, ihm unangenehme Ergebnisse ganz einfach zu verschweigen, weil die KI das Ergebnis trotzdem weiter benutzt.

Wäre so etwas realisierbar und mit welchem Aufwand müsste man rechnen. DeepSeek schätzt das so ein

und die daraus entstehenden Kosten

Das hört sich im ersten Augenblick viel an, aber man muss das einmal mit dem vergleichen, was aufgrund von Dogmen nur alleine in Deutschland entweder gut investiert oder – aus meiner Sicht viel wahrscheinlicher – komplett in den Sand gesetzt wird:

Das Problem besteht natürlich darin, dass die Politik an so etwas kein Interesse besitzt und Stiftungen oder NGO, die über das Kapital verfügen würden, in der Regel vom Staat oder von dubiosen Leuten wie Bill Gates kontrolliert werden. Interessant wäre das allerdings für Mittelständler und Kleinbetriebe, die durch die aktuelle Politik, die im Grund einen organisierten Unternehmensmord darstellt, ausgerottet werden. Interessenten wären vermutlich da, aber wie könnte man die organisieren? Denn Wissenschaftler stehen ja auch unter dem Druck, gedisst oder sozial vernichtet zu werden, geben sie die „falsche Wissenschaft“ von sich.

Eine Möglichkeit wären „Rentnernetzwerke“. Kein Scherz. Und schließlich sollen Rentner ja länger arbeiten, also warum nicht?

Und wie kann man das realisieren?

Wäre das ein Modell? Und gäbe es dafür Resonanz?