BRC100: Wie verbreiten sich klimabezogene Mis- und Desinformationen in sozialen Medien? Kristina Kobrow: Herzlich willkommen zum BredowCast, dem Podcast des Leibniz-Instituts für Medienforschung I Hans-Bredow-Institut. Mein Name ist Kristina Kobrow und ich spreche in diesem Podcast mit MedienforscherInnen über ihre Arbeit. Und heute geht es dabei um Verbreitungswege von klimabezogener Mis- und Desinformation auf Social-Media-Plattformen. Und ich darf dazu mit einer Expertin und mit einem Experten sprechen und das sind zum einen Hanna Börgmann, Hanna ist Research und Education Manager am Institute for Strategic Dialogue Germany. Und ich darf sprechen mit meinem Kollegen Philipp Kessling, Philipp ist wissenschaftlicher Mitarbeiter hier am HBI. Hanna Börgmann: Hallo Philipp Kessling: Hallo Kristina Kobrow: Ich habe es eben schon gesagt, ihr habt euch zusammen mit Kollegen von der Hochschule für Angewandte Wissenschaften in Hamburg mit Verbreitungswegen von klimabezogener Mis- und Desinformation auseinandergesetzt, habt dazu geforscht und habt gerade auch einen Projektbericht veröffentlicht, den wir natürlich hier auch in den Shownotes verlinken. Mögt ihr einmal ganz am Anfang etwas erzählen über eure beiden Arbeitsschwerpunkte und die jeweiligen Erkenntnisinteressen? Vielleicht du, Hanna, zuerst. Hanna Börgmann: Ja, sehr gerne. Genau, wie du schon gesagt hast, das ist ja ein Gemeinschaftsprojekt zwischen drei Organisationen und wir als ISD Germany sind ja ein Think-and-Do-Tank, also das bedeutet, wir forschen, aber uns geht es auch immer sehr stark darum, nach außen zu kommunizieren und uns eben zu überlegen, wie können wir mit unserer Forschung Wirkung in Politik und Gesellschaft erzielen, wie können wir EntscheiderInnen und Zivilgesellschaft erreichen und da machen wir beim ISD neben der Forschung auch politische Beratungs- und Bildungsarbeit und ich würde sagen, diese Schnittstelle haben wir in der Partnerkonstellation, in der Dreierkonstellation auch im Projekt ausgefüllt, also sozusagen mitzudenken, wie ist das, was erarbeitet wird, technisch, insbesondere von Philipp und seinen Kollegen beim Hans-Bredow-Institut eben, wie ist es anwendbar, wie können damit Erkenntnisse generiert werden, inhaltlicher Art, die sozusagen für die Öffentlichkeit auch außerhalb der Forschungsbubble relevant sind und wie hilft uns das dann bei der Bekämpfung von Desinformationen und wir haben da natürlich dann an der Forschung, an dem Forschungsdesign und den Inhalten der Studie alle zusammengearbeitet, aber das war immer so ein bisschen unser Fokus, da drauf zu schauen als Team vom ISD und da haben wir auch auf unserer Forschung von KollegInnen, die die schon davor gemacht hatten, im Bereich ganz konkret Klimadesinformation eben auch aufgebaut, also da Definitionen zu entwickeln, was gibt es da überhaupt für Kategorien von klimabezogener Desinformation, diese Definitionen irgendwie weiterzuentwickeln und dann auch in das Forschungsdesign von unserer Studie mit einzubringen. Kristina Kobrow: Und bei dir, Philipp? Philipp Kessling: Ja, genau. Also unsere Aufgabe im Projekt war es, was wir so schön Datenprovision und Modellierung genannt haben, also das Teilprojekt, also unsere Aufgabe war es zum ersten Mal die Daten in den sozialen Medien selber zu erheben, das heißt wir brauchen natürlich Datenzugänge oder auch die technischen Mittel aus dem Web, Inhalte zu scrapen, das ist das, was wir dann eben gemacht haben, mit eben der, naja eigentlich der Schwierigkeit, dass wir mehrere Plattformen parallel untersuchen wollten eben. Kristina Kobrow: Darf ich dich einmal unterbrechen, du hattest eben gesagt scrapen, was heißt denn das genau? Philipp Kessling: Sehr gern. Scrapen heißt, dass wir aus Webseiten, die sozusagen Darstellungen für den menschlichen Genuss sind, wieder strukturierte Informationen zu entnehmen, also wenn Plattformen zum Beispiel keine eigenen Datenzugänge anbieten, dann kann man das eben über sogar das Web oder Screenscraping dann eben aus diesen Webseiten wieder, naja, herausschreiben, wie man es so schön ausdrücken möchte. Genau. Genau, das war der erste Arbeitsschwerpunkt, eben überhaupt erstmal die Daten zu erheben auf mehreren Plattformen, wir haben dann hauptsächlich eben die zu der Zeit in Deutschland größten und am meisten genutzten Plattformen untersucht, das ist so Facebook, Twitter, Instagram und dann eben auch Telegram als eigentlich eine sehr interessante Nischenplattform. Zweiter Arbeitsschritt oder großer Arbeitsschwerpunkt eigentlich war dann, naja, auch methodisch zu untersuchen, wie kann man eigentlich mehrere Plattformen miteinander untersuchen, welche Verknüpfungsmöglichkeiten gibt es da, was sind so Dinge in den Plattformen, die relativ vergleichbar sind, wie kann man eigentlich mit dann diesen verschiedenen Datenpunkten aus den verschiedenen Plattformen arbeiten und dann als drittes noch einen methodischen Schwerpunkt, wie können wir denn eigentlich, weil es dann relativ große Daten geworden sind, wie können wir denn damit dann eigentlich dann auch arbeiten, also welche Schritte der automatischen Inhaltsanalyse oder Inhaltsgruppierung können wir machen, um eben die qualitativen Schritte der AnalystInnen dann auch zu unterstützen. Genau, da haben wir dann relativ umfangreich eben ein neues Verfahren auch entwickelt. Kristina Kobrow: Dazu kommen wir später nochmal zurück, genau zu der quantitativen Analyse. Ich würde davor gerne nochmal fragen, im Titel der Studie oder des Forschungsberichts heißt es ja Mis- und Desinformation, was sind denn da eigentlich die Unterschiede oder gibt es da auch noch einen Unterschied zu Fake News oder ist das der Oberbegriff und was sind eigentlich dann die, oder was ist die Abgrenzung zu legitimem Zweifel zum Beispiel? Hanna Börgmann: Ja, das ist eine sehr wichtige Frage, da antworte ich sehr gerne drauf. Also Mis- und Desinformation unterscheiden sich primär erstmal durch die Absicht, die dahintersteckt. Also beides würden falsche, irreführende, aus dem Kontext gerissene Informationen beispielsweise beinhalten, aber Desinformation grenzen sich dadurch von Misinformationen ab, dass da eben eine klare Absicht zu täuschen beziehungsweise zu Schaden dahintersteckt. Und da hatten wir tatsächlich auch im Rahmen der gemeinsamen Projektarbeit dann viele Diskussionen darüber, wie wir mit diesen Definitionen umgehen, weil natürlich dann auch die Frage im Raum steht, im Kontext von so einer Studie, naja, wie können wir über eine Absicht nachweisen? Können wir natürlich nicht, wenn wir uns einfach nur Postings angucken. Es ist häufig wahrscheinlich, dass da eine Absicht dahintersteckt, aber wir können es eben nicht ohne jeden Zweifel nachweisen und deswegen haben wir uns dann am Ende dazu entschieden, eben Mis- und Desinformation so zusammenzufassen, weil die Absicht sozusagen da nicht der Kern der Studie ist. Der Begriff Fake News, der kursiert sehr häufig, den greifen wir auch im Rahmen unserer politischen Bildungsarbeit auf. Wir sehen den tatsächlich relativ kritisch, weil der auch häufig als Kampfbegriff, als politischer Kampfbegriff benutzt wird und letztlich unwissenschaftlich ist und deswegen sind Begriffe wie Desinformation oder Misinformation da eben plausibler. Hinter Fake News werden ja häufig dann auch einfache Fehler in der Medienberichterstattung teilweise verstanden zum Beispiel. Ja, und du hattest, glaube ich, nach legitimen Zweifeln noch gefragt, wie meinst du das in dem Kontext? Kristina Kobrow: Naja, also ich hatte eben auch überlegt, wie kann man es nachweisen? Also ist das eine zum Beispiel rechtlich ein Kommentar, der tatsächlich gelöscht werden müsste oder sind eben legitime Zweifel die Kommentare, die auf der Plattform stehenbleiben dürfen? Hanna Börgmann: Ja, das ist auf jeden Fall eine ganz wichtige Frage im Kontext von Desinformation. Grundsätzlich muss man vielleicht erst mal sagen, Desinformationen sind ja per se nicht illegal. Also es sind keine illegalen Inhalte, illegale Inhalte sind zum Beispiel volksverheizende Inhalte, beleidigende Inhalte und das kann eben dann teilweise auch gegeben sein bei Desinformation, aber das ist eben nicht immer der Fall, was natürlich den Umgang dann regulatorisch auf jeden Fall komplex macht und vielleicht ganz grundsätzlich ist auch noch mal wichtig zu sagen, wenn wir hier über das Thema Klimawandel und Klimaschutz sprechen und wir schauen uns zum Beispiel Verzögerungsnarrative sogenannte an oder auch das Klimaskepsis, da bedeutet das natürlich nicht, dass jede Person, die jetzt eine Klimaschutzmaßnahme kritisch hinterfragt, dann gleich Desinformation verbreitet beziehungsweise Verzögerungsnarrative verbreitet, sondern da versucht man dann schon zu unterscheiden sozusagen, geht es hier darum, Klimaschutz als Ganzes zu diskreditieren, als unmögliche Aufgabe zu bezeichnen und eigentlich dann das Argument zum Beispiel gegen die CO2-Steuer nur als Vorwand dafür zu nutzen oder geht es tatsächlich um eine konstruktive Kritik und darum, um politischen Diskurs nach wirklich guten Lösungen zu suchen, darüber zu diskutieren, was ist fair, was ist gerecht, was führt am Ersten zum Ziel. Das muss natürlich möglich sein, da auch unterschiedliche Meinungen zu haben und das haben wir aber auch mitgedacht in unserem Forschungsdesign und das sozusagen im Kodierungsprozess, also Kodieren heißt sich dann die Postings anschauen und einordnen in verschiedenen Kategorien, das dann auch mitzudenken. Kristina Kobrow: Und euer Erhebungszeitraum, das war 2019 bis 2023, also vier Jahre. Philipp, wie viele Posts habt ihr denn eigentlich untersucht insgesamt? Philipp Kessling: Genau, also wir haben, wie gesagt, diese vier Jahre, wir haben vier Plattformen, Facebook, Instagram, Twitter und Telegram und wir haben dann eben Suchbegriffe formuliert und in den verschiedenen Plattformen danach gesucht. Telegram ist so ein bisschen abseits, da mussten wir eigene Infrastruktur verbauen. Summa summarum hatten wir dann aber über drei Millionen Postings aus diesem Zeitraum, die wir dann eben im Prinzip alle hätten auswerten können, auswerten müssen. Und das ist natürlich so ohne weiteres gar nicht möglich. Da hätten wir irgendwie glaube ich noch mehrere Jahre damit verbracht, das alles händisch zu tun. Aber weswegen wir dann eben auch in die Methodenentwicklung nochmal reingegangen sind, um ein Clustering dann zu machen, also dass wir zumindestens so Birds-Eye-View oder eben so aus Feldherren-Hügel-Perspektive mal draufschauen können und sagen, okay, da gibt es diese Strömung und da gibt es diese Strömung und diese Themen und bestimmte Ereignisse, um die sich dann mehrere dieser Strömungen dann gruppieren, sodass wir dann relativ spezifisch reingehen können, um eben Stichproben dann zu ziehen aus bestimmten Ereignissen oder eben Themen, von denen wir dann gedacht haben, dass sie sehr prävalent oder sehr anfällig sind für Desinformation. Es gibt ja bestimmte Themen, die sind einfach sehr polarisierend. Sie rufen sehr meinungsstarke AkteurInnen auf den Plan und da lohnt es sich dann durchaus auch reinzuschauen. Kristina Kobrow: Und diese drei Millionen Posts, die du jetzt genannt hast, die hatten aber alle schon mit dem Thema Klimawandel zu tun. Ist das richtig? Philipp Kessling: Nein, das sind tatsächlich nur die Postings, die wir mit diesen Suchbegriffen gefunden haben. Das Problem ist, dass wenn man mit so einer Suchmaschine geht, dann hat man natürlich auch immer falsch positive Treffer. Das heißt, wir hatten da durchaus auch den Begriff Klima mit dabei und haben jede Menge Gebrauchtmarktanzeigen für Autos mit Klimaanlage gefunden. Die konnten wir dann aber über dieses Clustering-Verfahren, das wir da entwickelt haben, relativ gut dann aussortieren, weil die natürlich alle zusammengefasst wurden. Das sind alles Anzeigen für Autos mit Klimaanlage. Für andere Begriffe sind dann ganz viele iPhone-Anzeigen mit dazugekommen, weil wir eben auch noch XR gesucht haben und eigentlich Extinction Rebellion meinten, aber eben auch, dass der iPhone XR dann eben gematcht hat. Insofern, das ist aber ein relativ üblicher Prozess, dass man da dann auch noch in so einem Datensatz weiter eintauchen muss, um eben diese Falsch-Positiven zu identifizieren. Und da hilft so ein Clustering-Verfahren dann eben auch ganz immens. Kristina Kobrow: Das heißt, wie viele Postings habt ihr letztlich dann weiter verfolgt und analysiert? Philipp Kessling: Da haben wir uns ein relativ interessantes Verfahren überlegt, wie wir denn da jetzt eigentlich dazu kommen, wirklich auch Desinformation zu finden. Das ist etwas, was momentan im Diskurs auch gesagt wird. Desinformation ist gar nicht so schädlich, weil es ist ja gar nicht so viel. Das heißt also, auch in so einem großen Korpus wirklich Desinformation zu finden, ist gar nicht so einfach, weil es ist halt rein zahlenmäßig, es ist ein relativ kleiner Anteil, was aber ehrlich gesagt nicht viel über die Schädlichkeit dessen aussagt, nur dass es eben wenig ist. Insofern haben wir dann eben einmal diese inhaltliche, thematische Clustering gemacht, um eben einzelne Themen direkt adressieren zu können. Und dann haben wir uns aber Indikatoren noch erdacht, wie wir eben auf Basis dieser Gruppen oder dieser Posting-Gruppen dann berechnen können. Zum einen eben, wie viele Telegram-Posts sind dabei. Wir hatten ja einen starken Verdacht, dass Telegram als Plattform auch Relevanz hat. Das kommt so ein bisschen aus der Corona-Zeit, wo das natürlich medial auch sehr stark diskutiert wurde, welche Akteure jetzt alles auf Telegram sind und was die da so alles treiben. Dann hatten wir als zweiten Indikator gewählt, und das ist jetzt tatsächlich etwas komplizierter zu erklären, aber ich probiere das jetzt mal ganz schnell. Also es gibt ja Faktenchecks und es gibt auch natürlich viele Faktencheck-Organisationen und die unterhalten natürlich auch Webseiten, auf denen man dann eben diese ganzen Faktenchecks finden kann. Ein Kollege vom HIIG in Berlin. Kristina Kobrow: Das ist das Humboldt-Institut für Internet und Gesellschaft, ne? Philipp Kessling: Genau. Auf jeden Fall hat sich Samy die Mühe gemacht, eben auch in einem sehr ähnlichen Zeitraum, wie wir das für unsere Studie angelegt haben, eben alle Faktenchecks einzusammeln. Und hat die dann auch automatisiert klassifizieren lassen nach dem Thema, zu dem dieser Faktenchecks ist. Das heißt, wir hatten dann eine Datenbank mit ungefähr 7000 dieser Faktenchecks und das also im Prinzip nur als Link und daraus könnten wir uns dann aber eben im Prinzip so die Schlagzeilen all dieser Faktenchecks eben ziehen. Und dann konnten wir aber mit einer ähnlichen Technik, wie unser Clustering funktioniert, eben auch bestimmen, welches Posting hat eine Korrespondenz, eine inhaltlich-semantische Korrespondenz zu einem dieser Faktenchecks. Und unsere Hypothese war eben, dass wenn etwas eben eine inhaltliche Nähe zu einem dieser Faktencheck-Aussagen hat, dann können wir das durchaus auch als misinformationsverdächtig einstufen. Allerdings eben mit der Limitation, dass auch Richtigstellungen durchaus natürlich eine inhaltliche Ähnlichkeit dann haben können. Aber da haben wir dann eben im manuellen Codierungsprozess dann auch das ausgewertet, ob das denn jetzt tatsächlich sozusagen ein positiver oder ein negativer Match war. Darüber, über dieses ganze Verfahren konnten wir dann wieder einen Anteil berechnen, wie viele dieser Postings innerhalb einer dieser Gruppe haben denn ein Match zu einem dieser Faktenchecks und konnten daraus eine Quote berechnen. Wie hoch ist der Anteil an Postings mit einem Match zu einem Faktencheck innerhalb dieser Gruppe? Und dann, wenn man sagt, okay, das sind 50 Prozent dieser Postings in der Gruppe, dann kann man natürlich reingucken und findet relativ schnell seine Desinformation. Also das hat tatsächlich ganz gut funktioniert. Als dritten Indikator, und dann bin ich auch gleich fertig mit meinem ewigen Monolog, haben wir dann noch geschaut, wie denn das mit bekannten AkteurInnen der Far-Right ist, ob die eben auch ein bisschen prädiktives Potenzial haben. Und auch da gab es dann eine positive Korrelation, um jetzt mal das Ergebnis gleich vorwegzunehmen. Kristina Kobrow: Und Hanna, du wolltest immer auch noch was ergänzen? Hanna Börgmann: Ja, genau. Ich wollte nur noch mal betonen, dass man sich diese Indikatoren, die Philipp jetzt beschrieben hat, so ein bisschen wie ein Frühwarnsystem vorstellen kann. Das bedeutet nicht sozusagen, wir nennen dann alles, was die Postings, die Unternutzung dieser Indikatoren uns reingespült werden, nennen die alle pauschal Desinformation. Sondern die Idee ist, das erhöht die Wahrscheinlichkeit, dass wir innerhalb dieser Postings dann Desinformation finden. Aber wir haben uns die dann trotzdem alle nochmal manuell angeschaut und das überprüft. Und dann entsprechend einsortiert. Kristina Kobrow: Und von welcher Summe reden wir hier jetzt eigentlich? Philipp Kessling: Also wir haben, wie gesagt, diese Indikatoren sind alle auf dieser Gruppenebene. Und diese Gruppen sind dann eben verschieden groß. Das können mehrere tausend Postings sein. Das können aber noch ein paar hundert sein. Und wir haben dann eben nach diesen Indikatoren und auch aus einer Zufallsbeziehung dann eben 40 dieser Gruppen ausgesucht und haben die dann weiter untersucht, um dann eben auch herauszufinden, welcher dieser Indikatoren ist denn besonders stark. Kristina Kobrow: Du hattest eben auch schon genannt, ihr hattet eigentlich die Annahme, dass bei Telegram vielleicht mehr Desinformation zu finden ist. War das dann der Fall? Oder auf welchen Plattformen? Welche gesehen, dass es da quasi ausschlägt, dass da ganz viel Desinformation kursiert? Philipp Kessling: Ja, also Telegram ist durchaus eine Plattform, wo es viel Desinformation gibt. Das heißt aber nicht, dass anders herumgedacht dann auch, wenn man nach Dingen sucht, wenn man nach so Gruppen sucht, wo viel Telegram drin ist, dass da dann auch viel Desinformation drin ist. Denn es ist leider so, dass auch viele Leute aus diesem, ich sag mal, verschwörungsideologischen und politisch extremen Spektrum auch einfach Werbung machen und das eben als kommerzielle Werbeplattformen benutzen. Und das ist da natürlich erstmal nicht Desinformation. Das heißt also, da hat mir tatsächlich auch einfach, wenn wir einfach nach diesem Telegram-Indikator gegangen sind, auch einfach sehr viel Werbung drin. Und deswegen hat das leider nicht ganz so gut funktioniert. Aber andersherum gesagt, die Sachen, wo wir gesehen haben, über die anderen Indikatoren, da ist Desinformation. Und da war dann auch viel Telegram dabei. Hanna Börgmann: Also das heißt, um das nochmal zu bestärken, die Postings, die es dann am Ende in die weitere Untersuchung geschafft haben, das waren so knapp 1500 Postings. Und da haben wir auch nochmal eine Verteilung auf die Plattform dann vorgenommen von denen, die als Desinformation eingeordnet wurden. Und da war Telegram neben ex ehemals Twitter trotzdem auch die führende Plattform, die da aufgetreten ist. Also deutlich stärker vertreten als beispielsweise Instagram oder auch Facebook. Und das deckt sich auch mit Erkenntnissen aus der Forschung im Kontext Rechtsextremismus, verschwörungsideologisches Milieu ist Telegram eben auch schon lange als zentrale Plattform, als zentraler Stützpfeiler des Milieus identifiziert, wo sich viel kommuniziert und viel sich vernetzt wird, viel mobilisiert wird. Und da genau ist dann das, was wir rausgefunden haben in Bezug auf klimafeindliche Kommunikation, die eben auch häufig mit anderen Themen in diesem Milieu verknüpft wird, passt das da dann eben ganz gut ins Bild. Kristina Kobrow: Dann habt ihr euch auch noch angeguckt, Hanna, vielleicht bleibe ich einfach mal bei dir. Ihr habt euch angeschaut, um welche Accounts geht es eigentlich? Ich glaube, ihr wolltet doch auch in der Studie herausfinden, sind es eigentlich eher Prominente, die Desinformation und Misinformation verbreiten oder sind es private Accounts von Menschen, die man gar nicht kennt? Was habt ihr da rausgefunden? Welche Accounts gab es da? Hanna Börgmann: Ja, wir hatten uns vorher im Team überlegt, wie wir die verschiedenen Accounts, die sich hinter den untersuchten Postings verbergen, einordnen können. Du hast es schon gesagt, ein ursprüngliches Ziel war eigentlich, die Rolle von InfluencerInnen in der Verbreitung von Desinformation zu verstehen. Das hat sich jetzt zum Schluss ein bisschen davon wegentwickelt und das ist letztlich auch eins der Erkenntnisse dieser Studie, dass so klassische InfluencerInnen jetzt gar nicht die entscheidende Rolle spielen oder wir das zumindest so nicht zeigen können. Wir haben uns Kategorien überlegt wie Politik, NGO, Aktivismus, Journalismus, Medien, alternative Medien, um so ein bisschen erst mal die verschiedenen Accounts, die zielfältigen, die da vorkommen, einzusortieren und da haben wir dann aber tatsächlich festgestellt bei der Analyse, dass die meisten Accounts hinter den Postings, die uns als Desinformation dann reingespült wurden, beziehungsweise die wir dann so eingeordnet haben, dass die sich keiner von diesen klassischen Kategorien so klar zuordnen lassen und da haben wir dann bei genauem Hinschauen festgestellt, dass viele der Postings in unserem Datensatz tatsächlich von Privatpersonen sind, beziehungsweise Pseudonym-Accounts ohne weitere Hinweise auf die BetreiberInnen und zum Teil sind es auch Accounts gewesen, die primär Inhalte von anderen Accounts wiederum reposten, also weiter verbreiten, beziehungsweise wiedergeben. Die erstellen dann nicht unbedingt eigene Inhalte, wie das eben InfluencerInnen klassische tun würden, sondern geben andere Inhalte weiter, sozusagen als MultiplikatorInnen, so haben wir es dann genannt und manche von denen haben eine hohe Reichweite, das heißt eben viele Personen, die ihnen folgen auf Social Media, andere nicht, aber das ist auf jeden Fall was, was sich lohnt, weiter anzuschauen. Man könnte es natürlich so interpretieren, dass sozusagen Otto-Normal- Social-Media-Nutzende, nenne ich sie jetzt mal, die keinen Influencer-Status oder Bekanntheitsstatus eine große Rolle bei der Verbreitung von Desinformation online spielen, aber das müsste man sich noch genauer anschauen, welche Rolle das ist und das Verhalten von diesen NutzerInnen, um dann auch zu wissen, welche Gegenstrategien da hilfreich sein können. Aber trotzdem sind auch viele der üblichen Verdächtigen in unseren Daten aufgetaucht, also innerhalb der parteipolitischen Accounts war die AfD auch nicht überraschend stark überrepräsentiert im Vergleich zu anderen Parteien. Bekannte Alternativmedien, Rechtsaußenmedien wie Tichys Einblick oder Junge Freiheit sind auch immer wieder aufgetaucht und dann schon auch vereinzelt bekannte InfluencerInnen aus dem Rechtsaußenspektrum, wie zum Beispiel Niklas Lotz alias Neverforgetniki, Thorsten Schulte alias Silberjunge oder auch Eva Herman. Das sind Namen, die vielleicht nicht alle, aber doch auch insbesondere Menschen, die sich mit diesem Milieu beschäftigen, kennen, die auch nach wie vor aktiv sind, auch publizieren und die sind durchaus dann eben auch aufgetaucht und haben zu den Diskussionen, die Untersuchungszeitraum aufgekommen sind, beispielsweise CO2-Steuer oder ähnliches da ihren Senf dazugegeben. Und da wird dann auch natürlich wieder, und das ist auch ein wesentliches Finding, würde ich sagen, von unserer Studie, die Einbettung des Klimathemas in Rechtsaußendiskurse deutlich, sowohl personell dann eben als auch in den Inhalten und den Narrativen, die da gefahren werden. Kristina Kobrow: Genau, und da würde ich auch gerne jetzt hin, also konkret zu den Narrativen, welche es da eigentlich gab. Also ging es da wirklich ganz konkret um Klimaleugnung, ging es um Klimaskepsis, ging es um ganz verschiedene Narrative, die sich vermischt haben oder um ganz was anderes? Hanna Börgmann: Genau, also wir haben die Inhalte, die wir in den Postings online gefunden haben, erstmal so in vier große inhaltliche Überkategorien eingeteilt. Das sind einmal Klimawandelleugnung und Klimaskepsis. Die Begriffe sind, glaube ich, geläufig soweit. Die sind ja auch seit Jahren diskutiert, aber wir haben da noch zwei weitere inhaltliche Kategorien drin gehabt. Einmal die Verzögerungsnarrative, das ist vielleicht ein etwas neueres Phänomen der klimafeindlichen Kommunikation, weil eben der menschengemachte Klimawandel als wissenschaftlicher Fakt immer weniger in Frage gestellt wird oder dass zumindest etwas weniger breit anschlussfähig ist. Diese Narrative, dass Leugner zum Beispiel immer weiter eher an den Rand gedrängt wurden, beobachten wir da eine neue Taktik. Bei diesen Verzögerungsnarrativen wird die Existenz des Klimawandels nach außen erstmal akzeptiert, aber es werden eben Untätigkeit oder auch unzureichende Anstrengungen dann gerechtfertigt. Da werden dann zum Beispiel vermeintlich negative soziale Auswirkungen oder vermeintlich negative Umwelteinwirkungen von Klimapolitik betont und dann daraus gefolgert, dass eben entschlossenes Handeln nicht notwendig oder auch nicht sinnvoll ist. Da ist nochmal wichtig, vielleicht zurückzukommen an den Anfang, wo du nach legitimen Zweifeln auch gefragt hast. Da ist natürlich wichtig zu sagen, der Zweifel an der Sinnhaftigkeit einzelner Maßnahmen und politische Diskussionen dazu, auch politisch dazu uneins sein, ist wichtig und notwendig in der Demokratie. Also es gibt berechtigte Fragen nach Verhältnismäßigkeit oder Gerechtigkeit von Maßnahmen, auch wenn es um zusätzliche Belastungen zum Beispiel geht für Menschen. Das bedeutet, was wir hier meinen, wenn wir von Verzögerungsnarrativen im Rahmen unserer Studie sprechen, ist, dass Klimaschutz als Ganzes sozusagen diskreditiert wird, dass diese Kritik an Maßnahmen als Vorwand verwendet wird, um Klimaschutz als unmögliche Aufgabe zu bezeichnen und eben nicht um eine konstruktive Kritik oder einen echten Dialog. Und eben so diese Fragen, werden hier systematisch falsche, irreführende oder aus dem Kontext gerissene Informationen eben genutzt, um den Diskurs zu verzerren in diese Richtung. Und da sind diese Verzögerungsnarrative einfach eine Taktik sozusagen, um letztlich das gleiche Ziel zu erreichen, was vielleicht auch Klimawandelleugnung oder Skepsis verfolgt, aber eben mit einem neuen Instrument sozusagen, einer neuen narrativen Taktik. Und das andere, was dann eben sehr, sehr häufig aufgetaucht ist, sind persönliche Angriffe, die auch eine, ich sage jetzt nicht neue, aber immer stärker werdende narrative Taktik sind, um Klimawandel, Klimaschutz zu diskreditieren, eben über die Personen oder Bewegungen, die den vertreten oder die eben Klimaschutzmaßnahmen unterstützen. Da werden die dann nicht in der Sache oder in ihren inhaltlichen Positionen kritisiert, sondern sie werden sozusagen als Person, als Bewegung abgewertet, häufig sehr hasserfüllt, auch mit sehr drastischen Feindbildern. Sie werden dann als pathologisch, böse oder bigott zum Beispiel dargestellt. Und das dient natürlich auch der politischen Mobilisierung von radikalen und extremen Milieus. Also da so ein gemeinsames Feindbild aufzubauen, sozusagen ein Schwarz-Weiß-Bild zu zeichnen, das stärkt dann ein Gefühl von Zugehörigkeit. Genau, und da, also ich kann gerne gleich Einzelne auch nochmal genauer beschreiben, aber das ist so der Grundmechanismus, der da stattfindet, letztlich von einer inhaltlichen Diskussion eben wegzukommen, hin zu einer persönlichen Auseinandersetzung, einer Vergewisserung eigentlich vielleicht der eigenen politischen Identität. Kristina Kobrow: Ja, es wäre super, wenn du da nochmal tiefer einsteigen könntest und vielleicht nochmal erläutern könntest, also wie sehen denn die persönlichen Angriffe aus, also welche Begriffe oder welche Narrative tauchen da besonders häufig auf? Hanna Börgmann: Was da gemacht wird, ist, dass zum Beispiel Mitglieder der Klimaschutzbewegung oder eben Politikerinnen und Politiker auch sehr gerne, die sich für Klimaschutz einsetzen, angegriffen werden. Denen wird dann zum Beispiel die Rationalität abgesprochen. Es tauchen Begriffe auf, die Assoziationen zu psychischen Krankheiten wecken, wie zum Beispiel irre oder durchgedreht. Begriffe wie Klimawahn, Klima-Irrsinn, Öko-Wahn schlagen auch in diese Kerbe. Und auch etwas, was uns sehr häufig begegnet ist, ist, dass AktivistInnen der Klimabewegung als TerroristInnen oder ExtremistInnen geframed werden, in die Nähe der RAF, also der Roten Armee Fraktion gerückt werden. Und da gab es ein Beispiel, was das, finde ich, ganz schön aufgezeigt hat von einer Ansammlung von Posts nach dem Unfalltod einer Radfahrerin da in Berlin, November 2022. Der wurde mit Straßenblockaden der letzten Generation dann politisch, medial, auch auf den sozialen Medien in Verbindung gebracht, die eben vermeintlich dazu geführt hätten, dass Rettungsfahrzeuge die Radfahrerin nicht rechtzeitig erreichen konnten. Es gab sehr, sehr viel Empörung da, die auch auf den sozialen Medien sich gezeigt hat, politisch auch aufgegriffen wurde und da haben späte Untersuchungen dann bestätigt, dass AktivistInnen nicht für den Tod der Radfahrerin verantwortlich waren. Aber der Vorfall wurde eben dann ganz gezielt genutzt, um dieses Narrativ von der sogenannten Klima-RAF, von Klima-AktivistInnen als TerroristInnen. Da gab es dann eben auch Forderungen, diese Person dann hinter Gitter zu bringen. Also das wurde ganz stark für Mobilisierung da genutzt. Wir sehen eben daran, wie diese Angriffe funktionieren. Also das sind dann falsche Unterstellungen, sehr hasserfüllte Angriffe, die sehr emotionalisierend auch wieder wirken und natürlich dann zu einer Vermeidung von der inhaltlichen Auseinandersetzung über angemessenen Aktivismus, über sinnvolle Klimapolitik, die man ja durchaus führen kann, aber die davon letztlich ablenken und einfach nur Feindbilder bedienen. Und in dem Kontext kommt es dann auch immer wieder zu Erzählungen, die eben AktivistInnen, Politik, Justizmedien als Teil von einem gefährlichen Konglomerat betrachten, die gegen die Interessen der Bevölkerung vermeintlich agieren. Auch da gab es diverse konkrete Unterstellungen, die dann in den Datensätzen aufgetaucht sind, die nachweislich falsch sind. Also zum Beispiel die Unterstellung einer direkten Förderung der Letzten Generation durch das Bundeswirtschaftsministerium, die Faktenchecks auch mittlerweile richtiggestellt haben, dass das eben nicht der Fall ist. Aber auch andere Feindbildnarrative, die da aufgetaucht sind, die sehr prominent waren, waren zum Beispiel dieses Narrativ von der Öko-Diktatur. Also der Vorwurf an PolitikerInnen, an die Klimabewegung eine Öko-Diktatur errichten zu wollen, zu unterstellen, dass Klimaschutz, Umweltschutz nicht das eigentliche Ziel von Maßnahmen sei, sondern eben die darauf abzielt, Freiheitsrechte auszuhöhlen, politische Kontrolle zu erlangen. Und da zeigt sich dann auch wieder diese Anknüpfung an bestehende Verschwörungserzählungen. Manchen ist vielleicht der Great Reset ein Begriff, also eine Verschwörungserzählung, die einen sinisteren Plan zur Ergreifung der Weltherrschaft auch beschreibt. Und auch da wird das Thema Klimaschutz dann eben eingebunden. Also Klimaschutz ist in der Erzählung dann ein Vorwand, um die Menschheit zu kontrollieren und auszubeuten. Und da knüpfen sich dann eben ganz viele Feindbildnarrative auch wiederum an, von pathologischem Handeln, von bösartigem Handeln, von Faschismus auch. Also Klimafaschismus ist auch ein Begriff, der dann fällt in diesem Kontext. Genau, also das zeigt so ein bisschen auf, wie diese Angriffe funktionieren. Und dann gibt es aber eben auch nochmal die Narrative, die mehr auf die Auswirkungen abzielen und da auch Ängste schüren, emotionalisieren wollen. Also im Kontext beispielsweise von der CO2-Steuer, auch von steigender Inflation wird dann vor Frieren im Winter beispielsweise gewarnt, vor flächendeckenden Blackouts und solche Dinge. Wo eben auch ganz klar ist, hier geht es dann nicht darum, wirklich sich über die Sinnhaftigkeit von Maßnahmen auseinanderzusetzen, wie beispielsweise einer CO2-Steuer, sondern eben einfach Ängste zu schüren auf Basis von falschen Zusammenhängen, die dann hergestellt werden oder verzerrten Darstellungen von diesen Maßnahmen, die ergriffen werden. Kristina Kobrow: Und da frage ich mich aber auch, sind das nicht dann Kommentare, wenn du sagst, es geht wirklich um persönliche Angriffe und gar nicht mehr um die inhaltliche Debatte? Das sind doch dann teilweise wahrscheinlich auch schon Hasskommentare, die man als solche labeln könnte und gegen die doch dann die Plattform tatsächlich Maßnahmen ergreifen muss, oder? Also da wundere ich mich so ein bisschen, dass es die dann noch gibt auf der Plattform und dass die nicht gelöscht werden. Hanna Börgmann: Ja, auf jeden Fall. Also es gibt eine große Schnittmenge zwischen Online-Hass, Hassrede und Desinformation und einige Kommentare, insbesondere wenn sie eben sehr drastisch Vergleiche benutzen, wenn sie falsche Unterstellungen verwenden, die ja auch beispielsweise als Verleumdung dann gewertet werden könnten, was auch ein Straftatbestand ist, könnten durchaus auch strafrechtlich verfolgt werden und müssten dann unter dem DSA auch als illegale Inhalte von den Plattformen entfernt werden. Aber das geschieht leider eben nicht konsequent und flächendeckend bisher. Und das ist auch eines natürlich der Fazits, die wir ziehen in dieser Studie in Bezug darauf, was können wir denn dagegen tun, ist ein wichtiger Weg, dass eben erstmal geltendes Recht sozusagen auch umgesetzt wird und solche Inhalte, die dann tatsächlich auch Straftatbestände erfüllen, illegal sind, auch konsequent von den Plattformen entfernt werden. Bei den Kommentaren, wo das nicht der Fall ist, wo eben keine Straftatbestände erfüllt sind, da ist es dann eben ein bisschen schwieriger. Da gibt es auch Wege über den DSA, aber auch andere, dem zu begegnen. Aber da ist es dann ein bisschen schwieriger, die Plattform dazu zu bringen, das zu entfernen. Das heißt, da kommen dann auch Dinge wie politische Bildung ins Spiel, Menschen eben zu sensibilisieren und in die Lage zu versetzen, auch Inhalte selbst zu hinterfragen und zu überprüfen. Kristina Kobrow: Auf welche Quellen beziehen sich denn die Personen? Vielleicht gab es da auch Unterschiede bei den privaten Accounts und bei den politischen Accounts. Gab es da wissenschaftliche Quellen, auf die sich bezogen wurde? Gab es bekannte Medien, gab es alternative Medien? Philipp Kessling: Ja, genau. Also was sich im Laufe der Studien und auch der Vorstudien, die wir ja zu anderen Themenbereichen auch gemacht haben, herauskristallisiert hat, ist, dass es da ein sehr, sehr aktives alternatives Mediensystem oder eine Medienlandschaft gibt, wo eben solche Inhalte aktuell veröffentlicht werden und dann wird es so durchgespielt. Das hat so einen selbst verstärkten Effekt, dass es da diese wirklich mehr oder weniger abgeschlossene Landschaft gibt, wo diese Inhalte dann zirkulieren und sich dann auch immer weiter verbreiten. Das heißt, also da ist sozusagen die Quellenarbeit dieser AkteurInnen ein bisschen selbstreferenziell, wie das zum verschwörungsideologischen Bereiche auch häufig passiert. Diese Quelle hat das gesagt und es gehört aber zu demselben Sumpf, um das jetzt plötzlich zu sagen. Ansonsten haben wir natürlich beobachtet, dass auch einige Mainstream-Medien da tatsächlich auch Dinge verbreitet haben, wo wir auch gesagt haben, das könnten wir jetzt auch durchaus schon unter diese Begriffe zählen. Konservative Medien sind da in diesem Bereich tatsächlich auch schon fast aktivistisch unterwegs. Kristina Kobrow: Wir hatten anfangs den Forschungszeitraum von euch ja auch schon gesagt, also 2019 bis 2023 habt ihr geforscht und in diesem Zeitraum fielen ja auch zwei globale Erschütterungen. Nämlich zum einen die Corona-Pandemie 2020, die hattet ihr auch schon erwähnt und zum anderen 2022, der Beginn des russischen Angriffskriegs auf die Ukraine. Meine Frage ist, hat sich das auch irgendwie in den Posts niedergeschlagen? Also gab es da mehr Posts, haben sich vielleicht auch Themen hier besonders vermischt? Philipp Kessling: Das ist leider aus, so wie wir diese Studie angelegt haben, relativ schwierig zu sagen, zumindest reinbezogen auf Mis- und Desinformation, weil wir ja einige Sachen herausgepickt haben. Da haben wir gar nicht so sehr auf die zeitliche Verteilung geschaut, wann diese Ereignisse oder Themen eben prävalent waren, sondern eben sind nach diesen Indikatoren gegangen. Das heißt also, da können wir jetzt gar nicht so unbedingt sagen, dass es über alles da besonders viele Desinformationen gab. Wir können allerdings, zumindest auch im Gesamtdatensatz, weil wir jetzt gar nicht nach Mis- und Desinformationen schauen, durchaus einige Trends ablesen. Wie zum Beispiel, dass, als dann Corona kam, dieses Klimathema gesamt etwas zurückgegangen ist. Das heißt also, wir haben im September 2019 natürlich so die ersten globalen Klimastreike und das ist ein sehr großer Peak, also eine große Spitze an Kommunikation, die zu diesem Thema da gemacht wurde, genau zu dieser Zeit. Und das hat sich dann aber nicht wiederholt, weil es eben durch Corona so kam, dass es dann einfach keinen globalen Klimastreik im nächsten Jahr gab und im darauffolgenden Jahr dann auch nicht. Das heißt also, da ist es einfach so rein durch die Umstände dieses Thema schon ein bisschen geschwächt worden und ist dann erst im Laufe der Pandemie so tatsächlich noch mal ein bisschen weiter dann doch wieder in den Vordergrund gerückt, zumindest soweit wir das da aus den Daten dann ablesen können. Der Angriffskrieg Russlands gegen die Ukraine schlägt sich natürlich auch nieder. Da sind sehr sehr viele Narrative dann auch einfach gewesen, die in diesen Bereich dann fallen. Eben auch durch die notwendigerweise verschnellerte Energiewende, die dadurch ausgelöst wurde, gab es ja auch einfach medial in den Büros eine große Gegenwehr konservativer und rechtsextremer Kräfte gegen, was auch immer Herr Habeck gemacht hat, um das jetzt mal ganz salopp zu sagen. Also das heißt, da haben wir tatsächlich einige Narrative dann auch gefunden und die auch ausgewertet. Hanna Börgmann: Ja, ich kann da gerne noch ergänzen. Also weil dieses Jahr 2022 in dem Russlands Inversion der Ukraine stattgefunden hat, da tatsächlich doch relativ auffällig war. Und ja, wir hatten da eine Versorgungskrise im Bereich Energie, wir hatten Inflation, wir hatten ganz intensive gesellschaftliche Diskussionen in diesem Kontext rund um Verteidigungsausgaben, Waffenlieferungen, auch die Aufnahme von Geflüchteten Personen aus der Ukraine, Sanktionen gegen Russland und all das ist ganz interessant, dass sich das dann schon auch niederschlägt in diesen Klimadiskursen, weil diese Themen dann eben auch miteinander verknüpft werden. Das sind alles Themen, die emotional sind, die Menschen zum Teil Angst machen, die dann auch Fragen bei den Menschen machen, wie kann ich meine Stromrechnung noch bezahlen, kommt der Krieg zu uns nach Deutschland, das löst Ängste und Verunsicherung aus. Und Angst und Verunsicherung sind eben wiederum ein gefundenes Fressen für AkteurInnen, die das eben bewusst nutzen, um zu mobilisieren, insbesondere aus dem Rechtsaußenspektrum und bieten dann Antworten, die den Menschen Halt geben. Vermeintlich in einer chaotischen Lage nutzen dann, das hatte ich eben schon erwähnt, Bedrohungsszenarien und Feindbilder und das haben wir inhaltlich eben in diesen Narrativen, die wir uns dann angeschaut haben, in den Postings auch gesehen, dass eben das Thema Klimawandel da zum Bestandteil von einem großen Narrativ wird, von vermeintlich feindlich gesinnten Eliten, die systematisch gegen die Interessen der eigenen Bevölkerung agieren, also wirklich böse, sinistere Motive haben, sich bereichern und da wird dieses Thema Klima, Klimawandel, Klimaschutzmaßnahmen wird da in dieses große Narrativ eingebettet und dann eben verknüpft mit Themen wie Migration, mit Themen wie Sanktionen gegen Russland, aber eben auch noch mal zurück Corona, Corona-Politik, Maßnahmen. Das wird dann alles in einem Atemzug genannt mit zum Beispiel der CO2-Steuer als Maßnahme gegen den Klimaschutz und da wird dann ein Bild entworfen, das eben suggeriert, dass Steuern und Abgaben zum Beispiel der CO2-Steuer direkt in die Taschen von Regierungsangehörigen gehen. Da wurde teilweise sogar die CO2-Steuer dann als Flüchtlingssteuer betitelt in den Postings, um eben diese Themen miteinander zu verknüpfen, Klimaschutz und Flucht und Migration mit negativen Assoziationen zu versehen. Also ich sage das einfach nur noch mal so, um nochmal vielleicht ein bisschen plastischer zu machen und aufzuzeigen, wie das funktioniert dann in der Kommunikation online und wie die Mechanismen da sind, um Leute dann auch abzuholen in ihren Ängsten und Emotionen. Das konnten wir in den Posts, die wir da untersucht haben, ganz gut beobachten. Kristina Kobrow: Und Hannah, du bist ja am Institute for Strategic Dialogue und was gibt es denn für eine strategische Lösung tatsächlich, diese Narrative aufzubrechen oder überhaupt ihre Verbreitung aufzubrechen in sozialen Medien? Du hast ja eben auch schon erwähnt, politische Bildung ist generell sehr wichtig, dass das Recht durchgesetzt, umgesetzt wird, ist auch wichtig, aber was können denn andere Menschen, andere Nutzerinnen tun? Können sie was tun? Bringt das überhaupt was? Hanna Börgmann: Ja, also auf jeden Fall. Ich glaube, was, also politische Bildung hattest du genannt, ganz konkret eben auch Medienkompetenz ist für die Einzelnen wichtig. Eben das Wissen darum, dass ich auch selbst in der Lage bin, Informationen zu überprüfen und wie ich das dann tun kann. Auch kritisches Denken letztlich. Also wenn ich Inhalten von bestimmten AkteurInnen online begegne, um mich zu fragen, was könnten hier die Motive dahinter sein? Welche Absicht verfolgt dieser Akteur? Wird hier mit Feindbildern gearbeitet? Wird hier mit emotionalisierenden Inhalten gearbeitet? All diese Dinge mitzudenken, da Menschen zu stärken, ist extrem wichtig. Und was die Leute dann ganz konkret tun können, ist sich dann auch wirklich in die Diskurse einzubringen, sowohl online als auch in ihrem persönlichen Umfeld. Also wenn ich zum Beispiel mitbekomme, meine Tante ist in einer merkwürdigen Telegram-Gruppe und gibt hier so ein bisschen krude Theorien, Verschwörungserzählungen wieder, dann da eben auch das Gespräch zu suchen und vielleicht das Wissen darum, wie ich Informationen überprüfen kann, dann auch zu teilen. Also miteinander reden, Wissen weitergeben, sich in Diskurse einbringen auf eine konstruktive Art und Weise, sind auf jeden Fall Dinge, die jeder Einzelne, jede Einzelne da auch tun kann. Unabhängig von der politischen, regulatorischen Ebene, die natürlich auch wichtig ist. Und da arbeiten wir auch beim ISC Germany natürlich ganz konkret dran, geben dazu auch Trainings, um da, also da könnte ich jetzt ganz lange drüber sprechen, aber über das Thema Medienkompetenz, aber da Menschen eben auch solche Kompetenzen mitzugeben. Und das ist dann natürlich hilfreich für verschiedenste Themen, die politisch oder gesellschaftlich diskutiert werden. Kristina Kobrow: Du hattest eben gesagt, Hanna, dass es auch auf das kritische Hinterfragen ankommt. Dazu braucht es ja aber bestimmte Vorbilder, beziehungsweise das muss man ja erstmal lernen. Das kriegt man ja nicht einfach so in die Wiege gelegt oder hinterfragt alles, einfach so. Braucht es da auch, oder ist es eine Aufgabe vielleicht auch für den Journalismus, da mehr auf sozialen Plattformen tätig zu sein und eben diese Desinformation mit Fakten zu versehen, zu prüfen, genau, einfach stärker präsent dort zu sein? Oder würdest du sagen, das passiert eigentlich schon? Hanna Börgmann: Ja, also es gibt ja diverse unabhängige Faktencheckorganisationen, die nach journalistischen Standards arbeiten und da sehr, sehr gute Arbeit machen, wie beispielsweise CORRECTIV oder auch Mimikama, Faktenchecker der Tagesschau und des Bayerischen Rundfunks und da würde ich schon sagen, dass deren Arbeit eben wahnsinnig wichtig ist, die eben genau da anknüpfen, wo eben die Einzelnen nicht mehr jede Information selber überprüfen können und da eben auch proaktiv Inhalte an die Bevölkerung spielen, die eben verlässlich sind, die überprüft sind, die eben auch vor allem transparent sind. Da wird ja immer erklärt, wie sie zu dem Ergebnis kommen, dass es sich bei einer Information um eine Desinformation handelt. Das ist dann auch nachvollziehbar und überprüfbar und das ist total wichtig. Umso tragischer ist es, dass einige Social-Media-Plattformen jetzt die Zusammenarbeit mit solchen unabhängigen Faktencheckorganisationen eingestellt haben, weil das natürlich eigentlich eine tolle Möglichkeit ist, sozusagen auch diesem Dilemma Herr zu werden, dass nicht alles, was falsch oder irreführend oder schädlich ist, auf den Plattformen gelöscht werden kann und sollte, weil die Meinungsfreiheit natürlich auch ein wichtiges Gut ist. Gleichzeitig ist es aber ein Problem, wenn falsche und irreführende Informationen auf den Plattformen überhandnehmen zu wichtigen Themen, wie zum Beispiel auch demokratischen Wahlen, Klimawandel und anderen Themen. Und da ist eben dieses Faktenchecken auf den Plattformen, beispielsweise durch Kooperationen mit unabhängigen Faktencheck-Informationen, eigentlich ein wichtiges, sinnvolles Tool und das ist jetzt beispielsweise von Meta eingestellt worden. Es gibt auch andere Ansätze, wie Community-Notes, das zu tun, aber ich würde schon sagen, dass unabhängiger Journalismus von Profis sozusagen da extrem wichtig ist. Kristina Kobrow: Philipp, noch mal eine Abschlussfrage an dich. Du hattest am Anfang schon ganz viel erläutert, was ihr alles entwickelt habt für die quantitative Analyse. Wie werden denn jetzt genau all das, was ihr entwickelt habt, vielleicht weiter genutzt? Philipp Kessling: Ja, also natürlich haben wir die ganzen Sachen, die bis jetzt eben entwickelt wurden, versucht, auch dann eben in die wissenschaftliche Community reinzutragen, eben einmal als Software und aber auch als Datenveröffentlichung. Also ich hatte ja vorhin schon so ein bisschen angerissen, dass das mit Telegram alles so ein bisschen komplizierter war, überhaupt irgendwie thematisch eingeschränkt Daten zu erheben. Liegt daran, dass Telegram eigentlich keine richtige Suchfunktion hat, wo man Telegram durchsucht und sagt, jetzt gib mir mal alles zum Klima. Das macht die Plattform halt einfach nicht. Das heißt, man muss tatsächlich selber hergehen und einen Datenstock anlegen, den wir dann durchsuchen können. Und das ist leider relativ kompliziert, weil Telegram an sich ist sehr kanalbasiert. Man hat diese Telegram-Kanäle, Channels, und da kann dann eine einzelne Person oder mehrere Personen reinposten. Da muss man aber auch wissen, welche Channels gibt es denn eigentlich? Und das war schon das erste Problem, und da müssten wir eine relativ große Landkarte sozusagen von Telegram erstellen. Welche Channels gibt es denn überhaupt? Dann mussten wir von all diesen Channels eben die Postings einsammeln und das in eine große Datenbank tun. Jetzt haben wir einen riesigen Datenbestand. Das sind knapp 200 Millionen Nachrichten, denen wir dann nach diesem Klimathema gesucht haben. Also das ist jetzt auch etwas, das wir so als Dateninfrastruktur der Community auch anbieten können. Das heißt, wenn Leute eine Studie zu Telegram machen wollen, können die an uns herantreten und dann können wir eben Telegram durchsuchen. Zumindest ist es ein Teil der Telegrams, die wir haben. Da arbeiten wir jetzt aber mit verschiedenen anderen Institutionen zusammen, das auch ein bisschen zu erweitern. Dann haben wir natürlich die ganzen Methoden, die jetzt so entwickelt wurden. Die bringen wir jetzt in einem Folgeprojekt bzw. in einem anderen Projekt eben zur Reife, sodass das dann einmal dann auch als Software und einmal dann eben auch als wissenschaftliche Veröffentlichung dann der Community, der wissenschaftlichen Community an die Hand gegeben werden kann. Da ist zum einen eben dieses Clustering-Tool, das wir jetzt genutzt haben, das eben nochmal ein bisschen anders funktioniert wie verschiedene andere Clustering-Verfahren oder Topic-Modeling-Verfahren in dem Bereich, weil wir eben so größere Schnittstelle haben, um noch andere Dinge mit den Daten machen zu können, wie zum Beispiel Indikatoren hinein zu geben. Eine andere Sache, die wir entwickelt haben, die jetzt auch so langsam zur Veröffentlichung kommt, ist ein Datenerhebungsverfahren, mit der man dann eben über mehrere Plattformen Daten verknüpft in einem Datensatz dann eben halten kann. Das ist insofern interessant, weil es eben zwischen den Plattformen natürlich immer so Links gibt. Jemand postet ein YouTube-Video auf Telegram und schon hat man zwei Plattformen miteinander verknüpft. Und diese Dinge dann auch so auszuwerten, dass man große Teile der Öffentlichkeit dann erfasst. Das ist das, woran wir jetzt gerade arbeiten, was aber auch ein Resultat dieses Projekts ist. Kristina Kobrow: Ist aus Sicht von euch beiden jetzt noch irgendetwas offen geblieben? Würdet ihr dem Gespräch gerne noch etwas ergänzen zum Ende? Philipp Kessling: Also eigentlich nur, dass es total viel Spaß gemacht hat in den letzten drei Jahren auf diesem Thema zu arbeiten. Das ist sehr, sehr interessant war und ich finde, das hat sehr viele interessante Ergebnisse gebracht. Ich würde mich freuen, wenn es weitergeht, wobei, das ist ein wissenschaftliches Projekt und das hat halt ein Ende. Aber vielleicht kriegen Sie ja ein Nachfolgeprojekt. Hanna Börgmann: Ich würde mit dem Aufruf noch mal abschließen, zu betonen, wie wichtig diese Forschung ist, die ja nicht nur wir machen, sondern auch viele andere Organisationen und Akteure. Aber das wird eben nicht leichter, sondern immer schwieriger. Einerseits aufgrund von fehlenden finanziellen Ressourcen, weniger Forschungsgeldern, die da vergeben werden, aber eben auch aufgrund von den Schwierigkeiten beim Forschungsseitenzugang. Und das sind eben zwei Dinge, die aus meiner Sicht da sehr wichtig sind, dass die Bedingungen hergestellt werden, dass diese Forschung auch weiter passieren kann, weil das zu verstehen, wie das funktioniert, extrem wichtig ist für unseren gesellschaftlichen Zusammenhalt, für die Demokratie. Und damit würde ich vielleicht abschließen. Kristina Kobrow: Dann schließen wir hier, glaube ich, insgesamt diese Folge einmal ab. Wer noch mehr erfahren möchte über die Arbeit hier am HBI, der kann auf unserer Website www.leibniz-hbi.de vorbeischauen oder kann uns folgen auf den Plattformen LinkedIn oder auch Threads. Lieber Hanna und lieber Philipp, vielen Dank für eure Zeit. Hannah Börgmann: Danke. Philipp Kessling: Danke. Kristina Kobrow: Auf bald. Hanna Börgmann: Bis bald. 2