NPRG Interview mit Dr. Oliver Wetter
KI gegen Klimadesinformation: «Die Entscheidung muss immer beim Menschen bleiben»
Am Rande des NPRG-«12nach12 Lunch» vom 7. Mai 2026 sprach Klimaforscher Dr. Oliver Wetter mit NPRG-Co-Präsident Satoshi Sugimoto über sein neues Forschungsprojekt zur Erkennung von Klimadesinformation. Im Zentrum steht die Frage, wie künstliche Intelligenz Menschen dabei unterstützen kann, manipulative Inhalte besser zu erkennen, ohne dabei selbst zur Instanz über Wahrheit oder Unwahrheit zu werden.
Satoshi Sugimoto: Du hast in Deinem Vortrag über Klimadesinformation gesprochen und dabei ein neues KI-Projekt vorgestellt, das Desinformation im Zusammenhang mit dem Klimawandel erkennen soll. Wie funktioniert das?
Oliver Wetter: Desinformation bedeutet, dass bewusst falsche oder irreführende Informationen verbreitet werden. Es geht also um gezielte Täuschung und nicht um unbeabsichtigte Fehler oder Missverständnisse, die in der Kommunikation natürlich vorkommen können.
Das Projekt läuft momentan unter dem Arbeitstitel «Medienkompetenz 4.0». Ziel ist es, eine KI zu entwickeln, die potenzielle digitale Desinformation erkennt und Nutzerinnen und Nutzer darauf aufmerksam macht. Trainiert wird das System zunächst im Klimabereich, weil dort sowohl die wissenschaftliche Datenlage als auch die Dokumentation von Desinformation besonders gut sind.
Wie soll dieses Tool konkret funktionieren?
Die KI soll nicht automatisch entscheiden, was wahr oder falsch ist. Sie soll jedoch Inhalte analysieren und darauf hinweisen, wenn bestimmte Aussagen möglicherweise Desinformation enthalten. Nutzerinnen und Nutzer können sich dann die Begründung anzeigen lassen und nachvollziehen, weshalb ein Inhalt als problematisch eingestuft wurde.
Die finale Bewertung bleibt aber immer beim Menschen. Das Tool soll keine Inhalte zensieren oder ausblenden. Viele heutige Systeme funktionieren nämlich so: Sie scannen soziale Medien und entscheiden automatisiert, was sichtbar bleibt und was nicht. Das halte ich für problematisch. Unser Ansatz ist ein anderer: Die KI soll Menschen dabei unterstützen, kritisch zu denken, aber nicht für sie entscheiden.
Arbeitet Ihr für dieses Projekt mit Partnern in der Schweiz zusammen?
Ja, wir versuchen aktuell, ein Konsortium aufzubauen. Mit dabei wäre unter anderem das «Digital Trust Competence Center» (FHNW), dass die technische Entwicklung übernehmen würde. Wichtig ist uns dabei auch die Transparenz: Wir setzen nicht auf proprietäre Systeme wie ChatGPT, bei denen die Algorithmen eine Blackbox sind, sondern auf eine Open-Source-KI.
Zusätzlich sind verschiedene wissenschaftliche Partner involviert: das Oeschger-Zentrum für Klimaforschung der Universität Bern (OCCR) für den klimawissenschaftlichen Teil, Expertinnen und Experten aus den Digital Humanities und der Wirtschaft-, Sozial- und Umweltgeschichte (WSU) der Universität Bern für die Analyse von Desinformation sowie eine Pädagogische Hochschule. Denn das Projekt soll nicht einfach Inhalte markieren, sondern einen Lerneffekt erzeugen. Nutzerinnen und Nutzer sollen durch die Interaktion mit der KI lernen, Desinformation künftig selbst besser zu erkennen.
Das heisst, die KI soll langfristig die Medienkompetenz stärken?
Genau. Im Idealfall erhöht sich die gesellschaftliche Resilienz gegenüber Desinformation. Wenn wir nachweisen können, dass Menschen dank dieses Tools problematische Inhalte besser erkennen, wäre das ein wichtiger Erfolg. Danach könnte man überlegen, das Konzept auch auf andere Bereiche auszuweiten, etwa auf medizinische Desinformation.
Der Klimabereich eignet sich besonders gut als Pilotprojekt, weil die wissenschaftlichen Grundlagen sehr robust sind und gleichzeitig enorm viel Desinformation kursiert.
Was war für Dich persönlich der Auslöser für diese Idee?
Ganz ehrlich: Frustration. Wenn man sich täglich mit Klimadesinformation beschäftigt, hat man manchmal das Gefühl, gegen Windmühlen zu kämpfen. Die Mechanismen funktionieren unglaublich effizient und erreichen permanent neue Menschen, insbesondere über soziale Medien.
Gleichzeitig hat niemand die Zeit, jede Behauptung selbst zu recherchieren. Deshalb kam die Überlegung auf: Wenn KI für die Verbreitung von Desinformation eingesetzt wird, warum nicht auch zu ihrer Erkennung?
Kannst Du ein konkretes Beispiel für Klimadesinformation nennen?
Ein klassisches Beispiel ist sogenanntes «Cherry Picking». Dabei werden echte wissenschaftliche Daten verwendet, aber bewusst aus dem Zusammenhang gerissen.
Man zeigt etwa eine Grafik mit Klimamodellen und hebt hervor, dass es grosse Unsicherheiten bei den Prognosen gibt. Anschliessend wird behauptet: «Die Modelle funktionieren nicht, also ist auch der Klimawandel fragwürdig.»
Was dabei verschwiegen wird: Diese Unsicherheiten setzen sich aus unterschiedlichen Faktoren zusammen. Der weitaus grösste Teil betrifft gesellschaftliche Entwicklungen – etwa wie schnell wir aus fossilen Energien aussteigen.
Diese Unsicherheit hat jedoch nichts mit der Aussagekraft der Klimamodelle zu tun, die die zugrunde liegende Klimaphysik sehr gut abbilden. Das zeigt sich auch daran, dass Klimamodelle aus den 1990er-Jahren mit den seither gemessenen Temperaturentwicklungen gut übereinstimmen.
Die grundlegende Aussage der Modelle bleibt klar: Die Erde erwärmt sich.
Durch das Weglassen dieses Kontextes entsteht ein absichtlich herbeigeführter verzerrter Eindruck.
Du hast heute auch über sogenannte «Scheinexperten» gesprochen, also Personen, die mit akademischen Titeln auftreten, aber ausserhalb ihres eigentlichen Fachgebiets argumentieren. Welche Lehren ergeben sich daraus für Kommunikationsschaffende?
Grundsätzlich sollten wir alle kritisch bleiben. Gerade bei Desinformation wird häufig mit akademischen Titeln gearbeitet, um Glaubwürdigkeit zu erzeugen.
Es lohnt sich deshalb, genauer hinzuschauen: Ist jemand tatsächlich Expertin oder Experte auf dem Gebiet, über das gesprochen wird? Oder handelt es sich beispielsweise um einen Chemiker, der plötzlich Aussagen über Klimamodelle macht?
Das bedeutet nicht, dass diese Person keine Meinung haben darf. Jeder darf seine Meinung äussern. Aber man sollte transparent machen, wo tatsächliche Expertise vorhanden ist und wo nicht. Genau diese Einordnung ist entscheidend für eine informierte öffentliche Debatte.