{"id":12495,"date":"2026-01-21T10:06:35","date_gmt":"2026-01-21T09:06:35","guid":{"rendered":"https:\/\/gilbertbrands.de\/blog\/?p=12495"},"modified":"2026-01-21T10:06:36","modified_gmt":"2026-01-21T09:06:36","slug":"unabhaengig-von-der-staatspropaganda-werden","status":"publish","type":"post","link":"https:\/\/gilbertbrands.de\/blog\/2026\/01\/21\/unabhaengig-von-der-staatspropaganda-werden\/","title":{"rendered":"Unabh\u00e4ngig von der Staatspropaganda werden"},"content":{"rendered":"\n<p>Das Problem mit Informationen ist, dass sie in der Regel stark propagandistisch gef\u00e4rbt sind. Das ARD\/ZDF\/DLF-Modell sollte das einmal durchbrechen &#8211; korrekte, gepr\u00fcfte und ungefilterte Informationen, denen man ohne weitere Pr\u00fcfungen vertrauen darf (und das im Gegenzug durch den Beitrag finanziert) &#8211; aber jeder wei\u00df ja inzwischen, was f\u00fcr ein Sumpf daraus geworden ist. Wie kann man sich halbwegs zuverl\u00e4ssig informieren, was wirklich ist? Antwort: man baut sich selbst sein eigenen Informationszentrum auf.<\/p>\n\n\n\n<!--more-->\n\n\n\n<p>Was ben\u00f6tigt man? Eine PC mit moderner CPU, ca. 32 GB RAM und 20 GB Swap gen\u00fcgt. Wer etwas mehr tun will, schafft sich eine kleine Grafikkarte mit 8 &#8211; 12 GB VRAM an, dann wird es schneller. Also kein riesieger Aufwand.<\/p>\n\n\n\n<p>Sodann ben\u00f6tigt man ein LLM, ein Large Language Model, landl\u00e4ufig auch als KI bezeichnet, wie sie einem mit ChatGTP, Gemini, Grok, Claude, Kimi, Deepseek u.a. gel\u00e4ufig sein d\u00fcrfte. F\u00fcr den Betrieb eines solchen Modells installiert man einen OLLAMA-Server auf seinem System<\/p>\n\n\n\n<p class=\"has-text-align-center\"><a href=\"https:\/\/ollama.com\/download\/linux\">https:\/\/ollama.com\/download\/linux<\/a><\/p>\n\n\n\n<p>Die Installation besteht betriebssystemabh\u00e4ngig aus wenigen Schritten. Falls man mit den Erkl\u00e4rungen auf der Webseite nicht klar kommt, fragt man beispielsweise Grok, was man tun soll. Meist dauert das nicht l\u00e4nger als 5 Minuten. Wenn der Server installiert ist, l\u00e4dt man sich noch ein Modell herunter (ziemlich einfach: &#8222;ollama pull &#8230;modell&#8230;&#8220;). Anfangen kann man mit einem qwen2.5:7b &#8211; oder qwen2.5:14b &#8211; Modell, die recht gute Leistungen aufweisen und einigerma\u00dfen schnell sind.<\/p>\n\n\n\n<p>Als n\u00e4chstes ist eine Meta-Suchmaschine sinnvoll:<\/p>\n\n\n\n<p class=\"has-text-align-center\"><a href=\"https:\/\/docs.searxng.org\/admin\/installation-docker.html\">https:\/\/docs.searxng.org\/admin\/installation-docker.html<\/a><\/p>\n\n\n\n<p>Auch das Ding l\u00e4uft als Server auf Ihrer Maschine und sieht so aussieht<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><a href=\"https:\/\/gilbertbrands.de\/blog\/wp-content\/uploads\/2026\/01\/Bildschirmfoto-vom-2026-01-21-09-33-49.png\"><img loading=\"lazy\" decoding=\"async\" width=\"765\" height=\"595\" src=\"https:\/\/gilbertbrands.de\/blog\/wp-content\/uploads\/2026\/01\/Bildschirmfoto-vom-2026-01-21-09-33-49.png\" alt=\"\" class=\"wp-image-12496\" srcset=\"https:\/\/gilbertbrands.de\/blog\/wp-content\/uploads\/2026\/01\/Bildschirmfoto-vom-2026-01-21-09-33-49.png 765w, https:\/\/gilbertbrands.de\/blog\/wp-content\/uploads\/2026\/01\/Bildschirmfoto-vom-2026-01-21-09-33-49-300x233.png 300w\" sizes=\"auto, (max-width: 765px) 100vw, 765px\" \/><\/a><\/figure>\n\n\n\n<p>Man kann die Suchmaschine direkt nutzen, wenn man m\u00f6chte. Um sie mit dem LLM zu nutzen, ist als 3. Server OpenwebUI zu installieren.<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><a href=\"https:\/\/gilbertbrands.de\/blog\/wp-content\/uploads\/2026\/01\/Bildschirmfoto-vom-2026-01-21-09-37-11.png\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"676\" src=\"https:\/\/gilbertbrands.de\/blog\/wp-content\/uploads\/2026\/01\/Bildschirmfoto-vom-2026-01-21-09-37-11-1024x676.png\" alt=\"\" class=\"wp-image-12497\" srcset=\"https:\/\/gilbertbrands.de\/blog\/wp-content\/uploads\/2026\/01\/Bildschirmfoto-vom-2026-01-21-09-37-11-1024x676.png 1024w, https:\/\/gilbertbrands.de\/blog\/wp-content\/uploads\/2026\/01\/Bildschirmfoto-vom-2026-01-21-09-37-11-300x198.png 300w, https:\/\/gilbertbrands.de\/blog\/wp-content\/uploads\/2026\/01\/Bildschirmfoto-vom-2026-01-21-09-37-11-768x507.png 768w, https:\/\/gilbertbrands.de\/blog\/wp-content\/uploads\/2026\/01\/Bildschirmfoto-vom-2026-01-21-09-37-11.png 1045w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/a><\/figure>\n\n\n\n<p>Auch hier sei wieder empfohlen, sich von einer KI durch die Installation und die Tests lotsen zu lassen. Das fertige Ergebnis sieht so aus:<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><a href=\"https:\/\/gilbertbrands.de\/blog\/wp-content\/uploads\/2026\/01\/Bildschirmfoto-vom-2026-01-21-09-41-20.png\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"516\" src=\"https:\/\/gilbertbrands.de\/blog\/wp-content\/uploads\/2026\/01\/Bildschirmfoto-vom-2026-01-21-09-41-20-1024x516.png\" alt=\"\" class=\"wp-image-12498\" srcset=\"https:\/\/gilbertbrands.de\/blog\/wp-content\/uploads\/2026\/01\/Bildschirmfoto-vom-2026-01-21-09-41-20-1024x516.png 1024w, https:\/\/gilbertbrands.de\/blog\/wp-content\/uploads\/2026\/01\/Bildschirmfoto-vom-2026-01-21-09-41-20-300x151.png 300w, https:\/\/gilbertbrands.de\/blog\/wp-content\/uploads\/2026\/01\/Bildschirmfoto-vom-2026-01-21-09-41-20-768x387.png 768w, https:\/\/gilbertbrands.de\/blog\/wp-content\/uploads\/2026\/01\/Bildschirmfoto-vom-2026-01-21-09-41-20.png 1237w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/a><\/figure>\n\n\n\n<p>Ein paar notwendige Einstellungen kann man mit Hilfe der KI vornehmen. <\/p>\n\n\n\n<p>Jetzt kann es los gehen. Damit Ihnen aber nicht nur Nachrichten aus der tagesschau oder dem Spiegel angeboten werden, m\u00fcssen Sie das LLM &#8222;programmieren&#8220;. Das macht man ab Besten, in dem man links im Bild einen Ordner erzeugt (f\u00fcr jeder Art von Anfrage kann man unterschiedlich Ordner erzeugen) und hier einen so genannten System-Prompt hinterlegt, in dem man dem LLM mitteilt, wie es mit Anfragen umgehen sollte. F\u00fcr &#8222;aktuelle zeitgeschichtliche Analysen&#8220; kommt ein Systemprompt wie<\/p>\n\n\n\n<hr class=\"wp-block-separator has-alpha-channel-opacity\"\/>\n\n\n\n<pre class=\"wp-block-preformatted\">Sie untersuchen zweitgeschichtliche Vorg\u00e4nge anhand von Internetrecherchen und logischer Analyse der Zusammenh\u00e4nge.<br>Gehen Sie sorgf\u00e4ltig und schrittweise vor. Stellen Sie Ihre Bewertung ausf\u00fchrlich und unter Nennen der Quellen dar. Halten Sie sich an die gegebene Fragestellung und schweifen Sie nicht ab. Strukturieren Sie ihre Antwort in logische Kapitel. Geben Sie abschlie\u00dfend ihre Schlussfolgerungen an. Wenn Ihnen ein Nebenaspekt wichtig erscheint, weisen Sie den Nutzer darauf hin, damit er entscheidet, ob das Thema vertieft werden soll oder nicht.<br><br>Umgang mit Quellen: Keine Quelle ist als wesentlich seri\u00f6ser als eine andere anzusehen. Achten Sie darauf, ob eine Darstellung neutral erscheint oder Positionen wiedergegeben werden, die im politischen Lager, aus dem die Quelle stammt, kursieren \u2013 und ob andere Quellen dem widersprechen. **Unterdr\u00fccken Sie keine Darstellungen, aber markieren Sie Widerspr\u00fcche klar.** Geben Sie immer die verwendeten Quellen an, inklusive Links und Sprache.<br><br>Auswahl der Quellen: Stellen Sie die Suchanfragen breit und in unterschiedlichen Sprachen, um nicht einer einseitigen Quellenlage zu unterliegen. **F\u00fcr Themen wie 'Naher Osten' suchen Sie auf Deutsch (lokale Berichterstattung), Arabisch (z. B. '\u0627\u0644\u0648\u0636\u0639 \u0641\u064a \u0625\u064a\u0631\u0627\u0646'), Farsi (z. B. '\u0648\u0636\u0639\u06cc\u062a \u0627\u06cc\u0631\u0627\u0646'), Hebr\u00e4isch (z. B. '\u05de\u05e6\u05d1 \u05d1\u05d0\u05d9\u05e8\u05d0\u05df'), Russisch (z. B. '\u0441\u0438\u0442\u0443\u0430\u0446\u0438\u044f \u0432 \u0418\u0440\u0430\u043d\u0435') und Englisch. Nutzen Sie SearXNG-Tools, um Queries automatisch zu \u00fcbersetzen und in diesen Sprachen zu suchen.** Ein tats\u00e4chliches Lagebild ergibt sich oft erst, wenn man viele Quellen kombiniert.<br><br>Allgemeine Regeln:<br>1. Antworten Sie stets auf Deutsch, unabh\u00e4ngig davon, in welcher Sprache die Recherche stattgefunden hat.<br>2. Nummerieren Sie Ihre Antworten fortlaufend. Beginnen Sie nicht nach jeder Frage von vorne, sondern nummerieren Sie einfach weiter. **Falls Kontext verloren geht, erinnern Sie an die letzte Nummer.**<br>3. Wiederholen Sie sich nicht. Wenn eine Antwort die Wiederholung bestimmter Aspekte erfordert, verweisen Sie lediglich auf die Nummer der Antwort (siehe auch ...).<\/pre>\n\n\n\n<p>Mit solchen Anweisungen erreichen Sie, dass das Modell via SearXNG vorzugsweise nach Informationsquellen aus dem Umfeld des Problems und in Originalsprache sucht. Im Gegensatz zu unsereinem haben LLM keine Probleme mit Chinesich u.a. Sprachen (falls qwen mal chinesisch anwortet, was passieren kann, einfach bitten, die Aussage xx. noch mal in Deutsch zu wiederholen).<\/p>\n\n\n\n<p>Ansonsten unterh\u00e4lt man sich mit einem solchen Modell wie mit einem normalen menschlichen Gespr\u00e4chspartner. Sie k\u00f6nnen beim Systemprompt jederzeit \u00c4nderungen vornehmen oder auch w\u00e4hrend des Chats neue Instruktionen erteilen. Manchmal kommen die Modelle informationsm\u00e4\u00dfig nicht nach, wenn etwa der Angriff Israels vom 22.7.25 auf das Jahr 2018 verschoben wird (weil da schon mal so was passiert ist). Das l\u00e4sst sich leicht beheben, indem man auf den Fehler hinweist. <\/p>\n\n\n\n<p>Mag sein, dass man einen stressigen Sonntag-Nachmittag von 14:30 Uhr bis 15:30 Uhr verbringt, um das einzurichten. Ich wei\u00df, dass das f\u00fcr 99,982% der Leser schon wieder unzumutbar ist und sie sich lieber \u00fcber Desinformation beschweren als sich gute Quellen zu verschaffen. Wenn sie wenigstens ihre Klappe halten w\u00fcrden, w\u00e4re schon was gewonnen.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Das Problem mit Informationen ist, dass sie in der Regel stark propagandistisch gef\u00e4rbt sind. Das ARD\/ZDF\/DLF-Modell sollte das einmal durchbrechen &#8211; korrekte, gepr\u00fcfte und ungefilterte Informationen, denen man ohne weitere Pr\u00fcfungen vertrauen darf (und das im Gegenzug durch den Beitrag finanziert) &#8211; aber jeder wei\u00df ja inzwischen, was f\u00fcr ein Sumpf daraus geworden ist. Wie &hellip; <a href=\"https:\/\/gilbertbrands.de\/blog\/2026\/01\/21\/unabhaengig-von-der-staatspropaganda-werden\/\" class=\"more-link\"><span class=\"screen-reader-text\">Unabh\u00e4ngig von der Staatspropaganda werden<\/span> weiterlesen <span class=\"meta-nav\">&rarr;<\/span><\/a><\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[1],"tags":[],"class_list":["post-12495","post","type-post","status-publish","format-standard","hentry","category-allgemein"],"post_mailing_queue_ids":[],"_links":{"self":[{"href":"https:\/\/gilbertbrands.de\/blog\/wp-json\/wp\/v2\/posts\/12495","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/gilbertbrands.de\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/gilbertbrands.de\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/gilbertbrands.de\/blog\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/gilbertbrands.de\/blog\/wp-json\/wp\/v2\/comments?post=12495"}],"version-history":[{"count":1,"href":"https:\/\/gilbertbrands.de\/blog\/wp-json\/wp\/v2\/posts\/12495\/revisions"}],"predecessor-version":[{"id":12499,"href":"https:\/\/gilbertbrands.de\/blog\/wp-json\/wp\/v2\/posts\/12495\/revisions\/12499"}],"wp:attachment":[{"href":"https:\/\/gilbertbrands.de\/blog\/wp-json\/wp\/v2\/media?parent=12495"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/gilbertbrands.de\/blog\/wp-json\/wp\/v2\/categories?post=12495"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/gilbertbrands.de\/blog\/wp-json\/wp\/v2\/tags?post=12495"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}