Wie man Wissen zugänglich macht …

… titelt die ZEIT eine Beitrag zu Fake-News. Nun sind Fake-News tatsächlich ein Problem, allerdings weniger die Fake-News an sich, sondern die Dummheit der meisten Leute, Informationen bewerten zu können oder sich der Mühe zu unterziehen, das zumindest zu versuchen. Meist wird das nachgeplappert, was in der Überschrift steht, den Text selbst liest aber kaum jemand, selbst wenn dadurch die reißerische Überschrift relativiert oder gar umgekehrt wird oder dort so ein unlogischer Blödsinn zu finden ist, dass sich der Fake von selbst outet.

Die Leute sind natürlich verwirrt, wenn aufgrund dieser Leseschwäche oder -faulheit einander widersprechende Überschriften aufeinander prallen, und sehen dann nur noch das, was sie sehen wollen. Das trifft allerdings alle: nicht nur die Bomberjacken der rechten Straßenszene sehen nur das, was sie wollen, auf Grüne und Rote Gutmenschen trifft das genauso zu, und um die Verhältnisse einmal klar zu stellen: die Bomberjacken machen nur einen geringen Bruchteil der rechten Szene aus, weil zu dieser auch viele gebildete Leute der rechten Mitte gezählt werden, die meist genau wissen, warum sie eine bestimmte Position vertreten, während im Grün-Roten Lager alle von der Straßen-SA bis zu den so genannten gebildeten Leuten alle die gleichen Parolen nachbeten, ohne darüber nachzudenken (zumindest bis sie was auf die Fresse kriegen oder sonstwie merken, dass irgendwas nicht stimmt).

Die Bekämpfung dieses Problems besteht (leider) in der Zensur so genannter Fake-News, und die Autoren des ZEIT-Artikels mögen es gut meinen, verstärken aber das Problem, wenn die mehr Aufklärung durch Wissenschaftsjournalisten und intelligente Algorithmen zum Erkennen von Fake-News fordern:

  • Wissenschaftsjournalisten haben meist gar nicht die Zeit, um widersprüchliche Positionen so gründliche auszuleuchten, dass sie eine vernünftige Zusammenstellung abliefern können. Folglich wird meist das geschrieben, was der Mainstream vorgibt. Ein Beispiel ist der Diesel-Unfug, zu dem beispielsweise die ZEIT zwar ein paar kritische Artikel von Fachleuten veröffentlicht hat, die aber sang- und klanglos in Folgeartikeln ignoriert wurden, in denen wieder das hohe Ideologielied gesungen wurde.
  • Intelligente Algorithmen mögen in der Lage sein, die Spreu vom Weizen zu trennen, sind dazu aber nur dann in der Lage, wenn sie im Besitz der absoluten Wahrheit sind, und das ist dann die Mainstream-Wahrheit. Die ist aber alles andere als absolut, sondern in der Regel von Geld- und Ideologie-Interessen geprägt.

Letztlich führt das nur zu einer effektiveren Zensur, die es Kritikern noch schwerer macht, ihre Einwände dem Publikum nahe zu bringen.

Zumindest schon einmal die richtige Himmelsrichtung schlagen die Autoren mit ihrem Vorschlag ein, mehr beratende Kommissionen zu installieren, die der der Politik zuarbeiten. Allerdings nur die Himmelsrichtung, denn wirklich bringen kann das nur dann etwas, wenn solche Kommissionen auch

  • der Öffentlichkeit zuarbeiten und nicht nur politisch gefilterte Ergebnisse vorgelegt werden und
  • Fachwissenschaftler die Lösungen erarbeiten und nicht Kommissionen aus Politikern, Gewerkschaftern, Kirchenvertretern und sonstigen Interessengruppen.

Konkret könnte sich beispielsweise eine Ingenieurgruppe mit dem Thema „Abschalten der Kohlekraftwerke“ beschäftigen und die Optionen aus technischer Sicht vorlegen, ohne sich um andere Gesichtspunkte zu kümmern. Nachgeschaltet könnte sich eine Wirtschaftergruppe damit beschäftigen, mit welchen Kosten (Geld, Arbeitsplätze) die Optionen verbunden sind, gefolgt von einer Sozialgruppe, die untersucht, was aus gesellschaftlicher Sicht möglich und abfederbar wäre und einer Juristengruppe, die prüft, was überhaupt juristisch umsetzbar wäre. Zusammengefasst: verschiedene Fachgruppen beschäftigen sich nacheinander mit dem Thema, jeweils mit den Arbeitsergebnissen der Gruppe vorher als Ausgangsbasis. Das Ergebnis wäre maximale Transparenz, und erst zum Schluss kümmern sich Politiker darum, was wie beim Wähler umzusetzen ist. Die Reihenfolge kann man von Fall zu Fall festlegen. Alles natürlich öffentlich zugänglich.

Die Mitglieder solcher Kommissionen werden per Zufallsgenerator bestimmt. In Deutschland laufen genügend Professoren und andere Wissenschaftler herum, die sicher bereit wären, in solchen Gruppen mitzuarbeiten, und man könnte auf die heute gepflegte Auswahl unabhängiger Wissenschaftler verzichten, die nur dafür sorgt, dass Leute in Kommissionen landen, die auch das politisch gewünschte Ergebnis liefern.

Und noch ein Weiteres wäre möglich, um die Fake-News-Problematik anzugehen: zunächst wäre es notwendig, alle kritischen Informationen tatsächlich offen zu legen. Selbst wenn man will, landet man bei der Suche im Internet gerade bei wirklich kritischen Daten vor einem leeren Bildschirm, weil diese geheim gehalten werden (vermutlich aus gutem Grund), oder man ist mehrere hundert € für Artikel los, deren Inhalt dann teilweise ebenfalls unvollständig ist. Sodann könnte man auch Kommissionen einsetzen, die zu bestimmten Themen die Fragen der Öffentlichkeit bearbeiten bzw. diese als zu klärende Frage öffentlich stehen lassen, wenn selbst sie nicht an Daten kommen. Damit dürften in Laufe der Zeit Wissensdatenbanken entstehen, so dass intelligente Algorithmen in der Lage wären, auf Fragen den Stand des Wissens zu präsentieren. Auf Fragen nach der Dieselproblematik oder dem Klima wären dann nicht nur die offiziellen Ansichten vertreten sondern auch kritische, die nicht oder nur unzureichend beantwortet werden (können).

Aber Zensur ist ja so viel einfacher.