BredowCast Nr. 96: Verbreitung, Nutzung und Akzeptanz generativer KI-Systeme in der deutschen Bevölkerung  Kristina Kobrow: Ja, willkommen zu einer neuen Folge des BredowCcast, mein Name ist Kristina Kobrow und ich darf in diesem Podcast mit MedienforscherInnen über ihre Arbeit sprechen. Heute geht es dabei um die Nutzung generativer künstlicher Intelligenz. Theoretisch ist ja mit generativer KI ganz vieles möglich. Wer sich beim Wahl-O-Mat der Bundeszentrale für politische Bildung zum Beispiel nicht selbst entscheiden möchte, kann das die generative KI übernehmen lassen oder aus den Wahlprogrammen Bilder generieren lassen, um sich die Unterschiede der Parteien nochmal besser veranschaulichen zu lassen. Und wir wollen heute fragen, wird sowas auch von vielen gemacht? Nutzen Menschen in Deutschland generative KI-Programme bereits ganz selbstverständlich? Und wenn ja, wofür eigentlich? Sind das lediglich Zwecke der Unterhaltung oder zum Beispiel auch politische Informationszwecke? Ich darf dazu heute mit zwei ExpertInnen sprechen, nämlich zum einen Dr. Michael Reis, er ist Postdoc hier im Institut, und zum anderen mit Eva Knor. Eva ist wissenschaftliche Mitarbeiterin hier am HBI. Und beide haben sich in dem Forschungsprojekt “Generative Künstliche Intelligenz für die Informationsnavigation”, so hieß es, mit genau diesen Fragen beschäftigt. Liebe Eva und lieber Michael, herzlich willkommen. Eva Knor und Michael Reiss: Hallo. Kristina Kobrow: Ja, ich habe es eben schon erwähnt. Ihr beide wart maßgeblich an dem Forschungsprojekt „Generative künstliche Intelligenz für die Informationsnavigation“ beteiligt. Und ich würde am Anfang gerne mal dich fragen, Eva, worum ging es bei dem Projekt denn genau? Was war da euer Forschungsinteresse? Eva Knor: Genau. Also die Idee hinter dem Projekt GAIN war eigentlich, dass es eine sehr große mediale Aufmerksamkeit rund um das Thema generative KI gibt, wir aber tatsächlich eigentlich sehr wenig darüber wissen, wie die deutsche Bevölkerung tatsächlich diese Programme nutzt und wofür. Und vor allem in der medialen Auseinandersetzung werden ja auch immer wieder die Risiken von diesen Systemen beleuchtet. Aber diese Risiken bauen natürlich auf bestimmte Usecases auf, von denen wir eben noch nicht wussten, wie die aussehen. Und vor diesem Hintergrund haben wir dann eben dieses GAIN-Projekt durchgeführt vor der Europawahl. Michael Reiss: Genau. Es sind halt gewisse Risiken damit verbunden, aber es hat auch Chancen. Aber wenn wir nicht wissen, ob die genutzt werden, dann sind sowohl die Risiken als auch die Chancen halt hinfällig. Und um sich da mal ein genaueres Bild zu verschaffen, haben wir eben die Studie ins Leben gerufen unter der Leitung von Judith Möller. Kristina Kobrow: Und Eva, du hattest gerade schon gesagt, Europawahl. Das war die Europawahl 2024. Die Wahl selber war, glaube ich, am 9. Juni. Und ihr habt die Studie durchgeführt eine Woche vor der Europawahl. Ist das richtig? Oder wann war das genau? Michael Reiss: In den zwei Wochen davor. Also es war ein Fragebogen, der durchgeführt wurde. Und wir haben angefangen, die ersten Teilnehmenden einzuladen an dem Montag zwei Wochen davor. Und dann sind aber auch manche möglicherweise erst zwei oder drei Tage davor eingeladen worden oder haben den Fragebogen ausgeführt. Aber ungefähr in dem Zeitraum zwei Wochen davor bis der Tag davor haben die Teilnehmenden die Umfrage ausgeführt. Kristina Kobrow: Und wenn du von Teilnehmenden sprichst, wie viele waren da insgesamt beteiligt und haben mitgemacht? Michael Reiss: Das waren knapp 1500. Das waren Internetnutzende aus Deutschland. Das war repräsentativ für das Alter, für die Bildung, für den Wohnort nach Bundesland und Geschlecht. Also wir haben damit probiert, die Bevölkerungsstruktur auch abzubilden in diesen Umfragen. Und wir haben die Teilnehmenden rekrutiert einmal über Online-Verfahren, wo einfach Menschen online entweder Informationen bekommen haben, sich anzumelden bei einem Anbieter, bei dem man Umfragen ausführen kann. Vielleicht hat die eine oder die andere Hörerin es auch schon mal selbst gesehen, manchmal kommt man damit in Kontakt. Und die andere Hälfte wurde über Offline-Methoden rekrutiert, beispielsweise angerufen oder sie haben einen Brief bekommen oder sie wurden vielleicht auch persönlich angesprochen. Und davon setzt sich die 1500 Teilnehmende ungefähr gleichwertig zusammen. Kristina Kobrow: Und wenn ihr jetzt von Nutzern sprecht, was meint ihr dann genau? Also sind es Aktivnutzende, die ein KI-System, ein Programm nutzen, in dem sie selber vielleicht einen Text eingeben und dann auch einen Text generieren möchten oder ein Bild oder einen Code oder so? Oder meint ihr damit als Nutzende auch diejenigen, die eher passive Konsumenten sind, weil sie in einem Zeitungsartikel oder auch online zum Beispiel ein KI-generiertes Bild in einem Artikel finden? Sind es auch Nutzende bei euch? Oder wie differenziert ihr da? Michael Reiss: Also in dem Begriff, wie wir jetzt Nutzende verwendet haben, erstmal meinen wir wirklich nur die Internetnutzenden in Deutschland. Es gibt Teile der Bevölkerung, der ist gering, zwischen zwei und fünf Prozent ungefähr, die nutzen das Internet nicht selbst. Es sind häufig ältere Menschen, die vielleicht zum Beispiel im Heim schon leben. Die wären jetzt bei uns ausgeschlossen worden. Die hätten wir gar nicht befragen wollen von vornherein. Also wir wollten nur Leute befragen, die das Internet nutzen, weil generative KI notwendigerweise natürlich eine digitale Technik ist und man ansonsten nicht damit in Kontakt kommen kann. Und dann die Frage, ob jemand Nutzerin oder Nutzer von generativer KI ist, wird dann der nächste Schritt. Das war eben schon fast das Ziel der Umfrage. Aber erstmal ging es darum, okay, wir haben jetzt Internetnutzende in Deutschland, die sind repräsentativ ausgewählt. Und dann ging es quasi los, um zu fragen, wer nutzt oder wer nutzt nicht generative KI. Eva Knor: Genau. Und da haben wir eben erstmal gefragt, haben sie das bereits genutzt, ja oder nein. Also wir haben das extra so relativ niedrigschwellig formuliert, weil wir natürlich auch wussten, ungefähr wie unser Sample aussehen wird, was die Altersstruktur betrifft. Und wir jetzt nicht erwartet haben, dass 60 plus Großteil schon genau eine differenzierte Nutzung von diesem System hat. Also das war auf jeden Fall nicht meine Erwartung. Und je nachdem, ob die Teilnehmenden dann gesagt haben, ja, sie haben es schon genutzt oder sie haben es eben noch nicht genutzt, danach haben wir dann eben die Umfrage so gestaltet, dass wir dann nochmal dezidierte Fragen den Nutzenden, die generative KI laut Eigenangabe schon genutzt haben, fragen, wofür sie das tun. Kristina Kobrow: Dann ist die wichtige Frage jetzt natürlich, wie viele nutzen das denn wirklich schon? Michael Reiss: 43 Prozent der Menschen, die wir befragt haben, nutzen oder haben schon Erfahrungen mit generativer KI. Also fast die Hälfte schon nach nur zwei Jahren. Finde ich einerseits überraschend, dass es schon so viele sind. Andererseits aufgrund der wirklich großen medialen Diskussionen und der Resonanz, die es öffentlich hatte. Und auch der Veränderung in vielen beruflichen Abläufen. Jetzt bei mir ganz konkret im wissenschaftlichen Alltag, aber wahrscheinlich auch bei anderen Menschen vielleicht auch überraschend wenig wiederum, dass es nicht schon mehr Leute viel stärker nutzen in ihrem Alltag. Genau, 43 Prozent. Das heißt, die Mehrzahl der Menschen hat selbst noch keine Erfahrung mit Nutzung von diesem System gemacht. Kristina Kobrow: Welche Faktoren waren denn entscheidend, ob man Nutzer ist oder nicht? Was habt ihr da herausgefunden? Eva Knor: Also natürlich wenig überraschend vielleicht: Alter ist auf jeden Fall einer der größten Faktoren. Mit zunehmendem Alter sinkt die Wahrscheinlichkeit, dass die Teilnehmenden generative KI schon mal genutzt haben. Michael Reiss: Ja, das war wirklich eine wunderschöne Treppengraphik. Also vielleicht eine der schönsten Graphiken, die ich in meiner Wissenschaftskarriere gesehen habe, weil man wirklich mal sehen konnte, dass wenn man die Altersstruktur in 5-Jahresschritten oder 10-Jahresschritten einteilt, dass wirklich mit jedem zunehmenden 10-Jahresschritt so die Nutzung um 5 bis 10 Prozent runtergegangen ist. Also die jüngste Gruppe, wir haben ab 16 plus befragt, 16 bis 19 war unsere jüngste Kohorte, die haben zu 95 Prozent schon generative KI genutzt. Also quasi jeder hat damit Erfahrung mit generativen KI-Anwendungen wie beispielsweise Chat-GPT und dann eben 20 bis 29, 30 bis 39 und so weiter. Aufwärts gezählt hat es immer mehr abgenommen, wirklich in einer wunderschönen Treppe. Und dann die Leute 80 plus haben zu, ich glaube, 5 Prozent oder so erst Erfahrung selbst mit generativen KI als Nutzende gemacht. Also damit meinten wir eben nicht, wenn es ihnen im öffentlichen Raum oder in Publikationen begegnet ist, also wenn sie ein KI-Bild gesehen haben, sondern ob sie selbst solche Programme schon mal bedient haben, um Inhalte zu erstellen. Eva Knor: Genau und ich glaube auch die Frage, „Haben sie KI-generierte Inhalte gesehen?“ Ich weiß gar nicht, ob man das so fragen kann, weil viele wissen eben nicht, dass Inhalte KI-generiert sind oder nicht, eben weil sie sich schwer von menschlichen Inhalten unterscheiden lassen. Also bei Bildern, wenn es so der Default ist, finde ich, kann man das schon erkennen, aber eben auch nur, wenn man schon Erfahrung hat damit, denke ich. Es gibt so einen KI-Look, finde ich, bei so generierten Fotos. Michael Reiss: Ja, aber auch da gibt es mittlerweile natürlich professionelle Menschen, die da viel Zeit und Energie darauf verwenden, dass es eben nicht mehr zu erkennen ist. Also mittlerweile sieht man ja auch KI-generierte Inhalte. Sogar im Aldi-Prospekt habe ich gesehen, da werden so Produktvorschläge mittlerweile KI-generiert, das steht dann dran, daher weiß ich das auch, aber das sieht täuschend echt aus. Also da kann es jeder selbst vielleicht auch mal überprüfen. Einfach mal in das Aldi-Prospekt aufschauen, da steht mittlerweile dann wirklich häufig dran, diese Szene wurde KI-generiert. Finde ich sehr interessant und das kann auch ein Fotograf gemacht haben. Also ich finde es sehr schwer, das da noch zu erkennen. Kristina Kobrow: Und Michael, du hattest eben schon gesagt, in Bezug auf Alter gab es diese Treppen-Graphik, so hast du es, glaube ich, genannt. Dann gab es ja aber auch noch andere Faktoren, die hattet ihr, glaube ich, auch am Anfang schon erwähnt. Es gab Differenzierungen zwischen Stadt und Land, zum Beispiel zwischen Geschlecht oder auch dem Bildungsabschluss. Gibt es da auch Unterschiede? Also konntet ihr da genau das, was ihr beim Alter herausgefunden habt, dass es da eben diese unterschiedlichen Nutzungsgewohnheiten gab, auch woanders noch beobachten? Michael Reiss: Also es gab auf jeden Fall Unterschiede, aber die waren eben nicht so stark wie beim Alter. Aber es ist schon so, dass Personen mit einem höheren Bildungsabschluss, also Abitur oder Fachabitur oder vergleichbare Abschlüsse, dass die prozentual die größte Gruppe sind von Leuten, die es schon mal genutzt haben. Also Menschen mit höherem Bildungsabschluss haben eher schon mal generative KI genutzt. Aber da waren die Unterschiede nicht ganz so stark wie beim Alter. Aber es gab Unterschiede. Genau. Und auch beim Geschlecht waren die Unterschiede quasi vernachlässigbar. Also es gab vielleicht kleine Unterschiede, aber die sind quasi nicht weiter der Rede wert, sozusagen. Die stärksten waren wirklich Alter, dann vielleicht Bildung. Und auch bei Stadt-Land, da waren die Unterschiede nicht gravierend. Also es gab vielleicht einen etwas höheren Anteil von Menschen, die das schon genutzt haben in einer größeren Stadt. Und quasi umso dörflicher es wurde, umso geringer. Aber auch da sind jetzt nicht die Unterschiede, dass wir das jetzt größer interpretieren würden. Das wäre eher so eine Fußnote vielleicht. Aber die würden wir jetzt auch basierend auf den Daten, die wir jetzt haben, nicht weiter bearbeiten. Da würden wir eher mal schauen in Zukunft, ob sich das in anderen Daten wiederholt zeigt, ob das ein Trend ist, der sich manifestiert oder ob das jetzt vielleicht zufällig in unseren Daten so war, weil eben da die Aussagekraft jetzt statistisch quasi nicht signifikant war. Kristina Kobrow: Aber angenommen, ich bin jetzt zum Beispiel 80 plus und bin eine Nichtnutzende. Könnt ihr vielleicht noch mal sagen, was wären denn die grundsätzlichen Chancen? Also was würde mir das bringen, generative KI zu nutzen? Eva Knor: Also ich glaube, erst mal würde es eine extrem große Hürde geben, sich mit dieser Technologie vertraut zu machen. Ich glaube, das ist einfach eine große Hürde, die auch die Nichtnutzung maßgeblich beeinflusst. Aber zum Beispiel Zeitungsartikel zusammenfassen, wenn irgendwelche Begriffe unklar sind, die erklären. Aber das ist eigentlich für jede Altersgruppe zutreffend. Michael Reiss: Ja, ich würde auch sagen, dass die Vorteile nicht so altersspezifisch notwendigerweise sind. Die können sich dann in der eigenen Nutzung als spezifisch entfalten. Aber beispielsweise, also wenn wir jetzt nicht nur auf politische Informationen schauen. Ich habe neulich mich zu Mikroskopie interessiert und dann habe ich, anstatt das selbst zu googeln mit Wikipedia-Artikeln, habe ich halt ChatGPT ein paar Fragen gestellt, wie das eigentlich funktioniert und wie die Vergrößerung ist und wie das physikalisch möglich ist, was da die Limitierungen sind. Und klar muss man da ein bisschen aufpassen. Wir sprechen sicher nachher auch noch über die Risiken, dass manche Informationen möglicherweise falsch sind. Aber gerade bei so generellen Informationen ist unsere Erfahrung, dass die eigentlich schon in der Regel richtig sind. Das heißt, also hier ist das Beispiel ein alltägliches Neugierdethema. Es können aber auch sein, hey, ich habe im Kühlschrank noch zwei Tomaten, eine Zucchini und eine Paprika. Schlag mir mal ein Gericht vor. Oder wie kann ich herausfinden, ob in meiner Wand Stromkabel verlegt sind, wenn ich einen Nagel reinschlagen muss? Also was brauche ich dafür, um das festzustellen? Laute solche kleinen Alltagstipps oder Hinweise können an die KI gerichtet werden, die man ansonsten auch über eine Google-Suche vielleicht herausfinden würde. Aber hier halt dann vielleicht spezifischer und mit einer anderen Art und Weise, wie man interagiert mit dieser KI. Oder wenn ich jetzt Schülerin bin, dann kann ich auch Hilfestellungen zu Hausaufgaben bekommen. Oder dass jemand mir nochmal mein Englisch-Essay-Korrektur liest tatsächlich. Also einfach auf Grammatik kontrollieren oder auf Zeichensätzen kontrollieren oder auch deutschsprachige Texte natürlich. Also da ist KI schon wirklich sehr hilfreich und in gewisser Weise auch wirklich fortschrittlich. Also dass sie wirklich einen guten Job macht in vieler Hinsicht. Man kann E-Mails, die man vielleicht im professionellen Kontext schreibt und sich nicht sicher ist, ob der Ton freundlich genug ist, sagen, hey, überarbeite diese E-Mail nochmal und mach es ein bisschen freundlicher. Und man kann überrascht sein, was für tolle Ergebnisse da teilweise rauskommen. Oder Gedichte kreieren lassen. Wenn man sagt, okay, meine Mutter wird demnächst 60 Jahre alt, schreib mir mal ein Gedicht mit folgenden Elementen aus ihrem Leben, verarbeite die darin und pass auf, dass es sich reimt und soll lustig sein. Und innerhalb der kürzesten Zeit hat man irgendwie ein sechsstrophiges Gedicht mit jeweils vier Versen, das wirklich amüsant ist. Und damit aufbauend kann man dann noch weiterarbeiten, fine-tune, also ein bisschen nochmal spezifizieren, verändert nochmal die erste Strophe. Also da gibt es wirklich unbegrenzt viele Anwendungsmöglichkeiten, die aber wirklich sehr individuell sind. Also mein Beispiel mit Mikroskopie war sehr individuell. Das hat mich in dem Moment interessiert. Da habe ich nachgefragt, es gibt andere Beispiele, Rezepte, Kreuzworträtsel, Hilfen und so weiter. Kristina Kobrow: Ich würde gerne nochmal beim Generellen bleiben, weil du mich ja jetzt vieles angesprochen hast. Du hast dein Beispiel mit der Mikroskopie genannt. Das ist ja ein Beispiel eigentlich für den Wissenserwerb und für Neugier. Du warst interessiert an einem Thema, wo du jetzt eigentlich nicht Experte bist und wolltest dir da Wissen aneignen oder erst mal vielleicht zum Einstieg hören, was ist das überhaupt. Dann hast du auch gerade von Rezepten gesprochen. Das wäre ja dann eigentlich eher so eine Unterstützung im Alltag, würde ich vielleicht framen. Vielleicht könnt ihr nochmal sagen, was ihr herausgefunden habt in eurer Studie, was da Beweggründe waren, von den Nutzenden die KI zu benutzen, also die generative KI. Eva Knor: Also, dass die allermeisten gesagt haben, sie würden Programme wie Chat-GPT – wir haben das in unserer Umfrage chatbasierte KI-Anwendung genannt, einfach um das nicht an eine bestimmte Marke zu knüpfen – dass die das in der Regel eigentlich eher als Suchmaschinenersatz nutzen würden. Aber auch um den Alltag zu erleichtern. Also, das war auch einer der Gründe, die dafür für die Nutzung sprachen. Michael Reiss: Genau, der wichtigste Grund war auch so ein bisschen das Beispiel, was ich mit Mikroskopie gebracht habe. Generelles Interesse an der Technologie oder vielleicht was man damit machen kann. Dann Wissenserwerb ist spezifisch zu dem Thema. Dann ein Ersatz von Suchmaschinen, Eva, du hattest es genannt, und Alltagserleichterung auch auf 4. Und dann auf 5 mit Namen, Zusammenhalt 5 und 6. Unterhaltung und Erleichterung beruflicher Tätigkeit. Ich glaube, das sind alles Aspekte, die jetzt schon ein bisschen aufkamen. Also, mit dem Hausaufgabenbeispiel, wenn man das als berufliche Tätigkeit von den Schülern bezeichnen möchte. Aber genau, das sind so die sechs wichtigsten Themen. Die liegen auch weit oben und die nächsten Themen, wir hatten 15, 16 Gründe für die Nutzung zur Auswahl gestellt. Das sind die wichtigsten, wobei wirklich sehr stark generelles Interesse das Wichtigste ist. Die anderen liegen recht nah beieinander. Kristina Kobrow: Was auch naheliegend ist, wenn man bedenkt, dass Chat-GPT wurde, glaube ich, im November 2022 erst auf den Markt gebracht wurde. Das heißt, wir sind wahrscheinlich alle noch in der Phase, wo wir neugierig sind und erstmal ausprobieren. Das heißt, beziehungsweise, das ist die Frage, wer ist wir? Wir sind jetzt eher jüngere Menschen, die vielleicht ohnehin technikaffiner sind und einfach gerne gucken, was bietet mir das? Was bietet mir das vielleicht auch nicht? Dann vielleicht nochmal umgekehrt gefragt, was waren denn Gründe für die Nichtnutzung? War das eher die grundsätzliche Angst vor dem Unbekannten, die an erster Stelle stand oder was habt ihr da rausgefunden? Michael Reiss: Der mit Abstand wichtigste Grund, auch für verschiedene Altersgruppen der wichtigste Grund, für beide Geschlechter und für verschiedene Bildungsgründe. Also der mit Abstand wichtigste Grund ist, keinen Bedarf zu haben. Also die Angabe, ich habe keinen Bedarf an dieser Technologie, ist der wichtigste Grund, das nicht zu nutzen. Und danach unterscheiden sich die Gründe ein bisschen, je nach Altershintergrund oder sonstigem sozialdemografischen Hintergrund, aber generell gesprochen ist Misstrauen gegenüber der generativen KI wichtig, Sorge um die Privatsphäre und dann, und das ist vor allem für die älteren Menschen häufig noch dann an zwei und drei genannt, für die jüngeren Menschen kommt es nicht in den Top 5 vor, nicht zu wissen, wo man diese Technologie nutzen kann, nicht zu wissen, wie man sie nutzen kann und nicht zu wissen, wie sie funktioniert. Also hier sehen wir schon noch so ein bisschen ein Verständnisgap, also so eine Lücke zwischen jungen Menschen, die das offensichtlich schon wissen, also die geben es zumindest nicht an als Grund, das nicht zu nutzen, 95 Prozent von denen nutzen sie auch schon, also offensichtlich ist das nicht so ein großes Thema, aber ältere Menschen, die es vielleicht teilweise gerne nutzen wollen, würden, die aber nicht wissen, wie es eben funktioniert. Also da gibt es dann vielleicht noch einen Bedarf, das vielleicht noch zugänglicher zu gestalten oder noch klarer zu machen, wie das nutzbar wäre für sie. Eva Knor: Genau, und vielleicht ist es auch noch mal wichtig zu sagen, dass wir eben gefragt haben, ob sie es bereits genutzt haben, also das war sozusagen im ersten Schritt wollten wir wissen, genutzt, das kann ja auch so heißen, dass jemand mal im Browser Chat-GPT geöffnet hat und da irgendwas reingeschrieben hat und danach nicht mehr. Kristina Kobrow: Und wenn wir jetzt noch mal zu den Nutzenden zurückkommen, wie gehen die grundsätzlich damit um? Also ist das mit eher so einer leichtfertigen Haltung, also dass man etwas eingibt und dann eben ein Output bekommt und denkt, ah, das stimmt, was da steht, ich brauche das nicht weiter hinterfragen, also ist da auch diese Leichtsinnigkeit dabei? Oder sind diejenigen, die es nutzen, tatsächlich auch ein bisschen skeptisch und vielleicht sogar eher besorgt? Eva Knor: Also ganz konkret, wie die Nutzenden den Output von generativen KI-Systemen bewerten, das haben wir nicht in unserer Umfrage befragt, aber wir haben was zu den Einstellungen gegenüber der Technologie gefragt. Und wir sehen auf jeden Fall, dass die, die bereits generative KI genutzt haben, deutlich positiven Adjektiven zustimmen würden. Also die geben auf einer Skala von 1 bis 5, wo 5 eine starke Zustimmung ist, zwischen 4 und 5 an, dass sie interessiert sind, begeistert. Und die, die es eben nicht nutzen, die würden eher negativen Adjektiven zustimmen, um diese Technologie zu beschreiben. Also die sind unentschlossen oder auch ablehnt. Michael Reiss: Das ist auf jeden Fall ein Zusammenhang zwischen Nutzung und positiver Einstellung. Wir können jetzt nicht sagen, ob das eine das andere begünstigt, sondern wir haben einfach nur gesehen, das kommt beides gemeinsam vor. Also offensichtlich sind Menschen, die das nutzen, gleichzeitig haben sie auch in der Tendenz, im Durchschnitt eine positivere Einstellung. Wobei dazu noch hinzuzufügen ist auf deine Frage, also ob sie das leichtsinnig nutzen, würde ich verneinen, weil auch Nutzende kritischen Adjektiven, beispielsweise ich bin zögernd oder besorgt, auch höhere Zustimmungswerte geben diesen Adjektiven in ihrer Einstellung. Beispielsweise ist der Unterschied zwischen den positiven Adjektiven, also beispielsweise begeistert, ist der Unterschied zwischen denen, die es nutzen und denen, die es nicht nutzen, sehr hoch. Aber der Unterschied zwischen besorgt ist nicht so hoch. Da sind zwar Leute, die es nicht nutzen, besorgter, aber auch Leute, die es nutzen, sind durchaus besorgt. Also wir können nicht sagen, dass die komplett leichtsinnig, alles Friede, Freude, Eierkuchen und hier haben wir die tollste neue Technologie und keine Probleme mehr, da reingehen. Das nicht, sondern dass sie die Technologie zwar nutzen, auch die positiven Aspekte wohl sehen und das auch so empfinden, aber durchaus auch die Risiken sehen, wie dass es möglicherweise nachteilig für den Beruf sein könnte. Das haben wir auch abgefragt, dass es Chancen gibt für die berufliche Entwicklung, aber auch Risiken in Bezug auf die berufliche Entwicklung. Kristina Kobrow: Ich würde bei den Risiken auch gerne nochmal bleiben und zwar ganz grundsätzlich und nicht dezidiert jetzt in Richtung Zukunft, sondern angenommen, ich nutze jetzt ein Programm wie zum Beispiel ChatGPT und möchte mich über was auch immer für ein Thema informieren. Könnt ihr da nochmal sagen, inwiefern sollte ich vielleicht auch vorsichtig sein? Auf was muss ich achten, wenn ich dieses Programm benutze? Eva Knor: Also auch da wieder, welche Informationen möchte ich herausfinden? Michael hatte das glaube ich auch schon so ein bisschen erwähnt. Eigentlich auch aus meiner eigenen persönlichen Nutzung dieser Systeme ist es so, je allgemeiner die Fragen sind zu allgemeinen Themen, desto sicherer sind die Antworten eigentlich auch. Also wenn ich jetzt eine ganz spezifische Frage habe, die vielleicht nicht so im Internet abbildbar ist oder auch einfach kein Allgemeinwissen beinhaltet, da wäre ich glaube ich vorsichtig. Aber bei solchen Fragen wie, wann ist die Bundestagswahl? Wann ist die Europawahl? Welche Parteien stehen zur Wahl? Welche Parteien gibt es in Deutschland? Also allgemeinere Fragen, da finde ich eigentlich schon, dass diese Systeme eigentlich kaum Fehler machen. Aber je spezifischer und je weniger gut erforscht, würde ich sagen, desto eher würde ich das nochmal überprüfen. Kristina Kobrow: Also allgemein und auch aktuell ja dann, oder? Eva Knor: Aktualität ist tatsächlich schon ein Faktor, der bei generativen KI-Systemen Unterschied macht. Also weil die natürlich auf bestimmten Trainingsdaten basieren und wenn es jetzt ganz aktuelle Ereignisse gibt, also wenn man beispielsweise mal bei Google Gemini irgendwie eingibt, welche neuen Entwicklungen gibt es im Russland-Ukraine-Krieg, dann ist es eigentlich in der Regel so, dass diese Systeme eine Antwort verweigern. Also das Gemini, das ist dann irgendwie gefeintuned von den Developern, dass Google quasi sagt, nee, wir geben keine Antworten auf aktuelle Ereignisse, weil die Fehlerrate da relativ hoch ist. Also sehr aktuell. Also mittlerweile haben sie auch Zugriff auf Internet, also auf Suchmaschinen, aber vom Gefühl her würde ich sagen, also super aktuelle Themen sind nicht so gut für generative KI-Systeme. Michael Reiss: Ich würde vielleicht noch differenzieren und sagen, es kommt ein bisschen auf den Anbieter an. Also ich habe das auch häufiger gesehen, dass es zu gewissen Themen einfach dann Antworten verweigert. Im Übrigen auch beispielsweise manchmal zu irgendwelchen urheberrechtlich geschützten Figuren, dass man sagt, hey, wir machen hier mal ein Bild von Mickey Mouse. Das sagt, nee, das ist halt irgendwie eine Figur von Disney, das mache ich nicht. Aber in dem Kontext konkret weiß ich, dass manche beispielsweise dann die Frage verweigern und manche aber dann auf ganz spezifische Quellen zurückgreifen. Also beispielsweise, das ist jetzt nicht konkret so, aber beispielsweise könnte man mal anschauen, dass dann ChatGPT von OpenAI beispielsweise auf BBC und ARD zurückgreift oder Spiegel und ZDF oder so, weil sie für sich definiert haben, okay, im Zweifel bei ganz aktuellen Sachen greife auf diese Quellen zurück, weil die zuverlässig beispielsweise sind. Ja, das wäre eine Möglichkeit, wie manche Anbieter damit umgehen. Kristina Kobrow: Kann ich das eigentlich einstellen? Also wenn wir bei ChatGPT sind, es gibt ja auch die Möglichkeit, dass ich einstellen kann, bitte merk dir, was ich schon mal gefragt habe und berücksichtige das in den weiteren Antworten. Kann ich zum Beispiel sagen, bitte nur seriöse Quellen, zum Beispiel öffentlich-rechtliche? Michael Reiss: Man kann das definitiv versuchen. Ich könnte mir auch vorstellen, dass dem Folgen geleistet wird sozusagen. Aber es kann sein, dass es quasi von den Entwicklern noch tiefer sozusagen Sperren eingebaut sind oder Hürden, dass sie dann von gewissen Sachen nur schwerlich abweichen wollen oder das dir dann quasi nicht erlauben und es halt trotzdem nicht machen oder machen. Je nachdem, wie es dann halt jeweils spezifisch ist. Aber genau da muss man einfach dann sehr speziell gucken. Da sind die Anbieter einfach auch ein bisschen unterschiedlich. Das ist schwer, eine allgemeingültige Antwort zu geben. Aber generell, also wenn wir jetzt von diesen aktuellen Sachen zurückkommen, nochmal genereller sprechen, besteht, wie Eva schon gesagt hat, auch meiner Meinung nach das Risiko, dass generative KI halt falsche Sachen erfindet. Man sagt dann in dem Kontext häufig auch halluzinieren bei Sachen, wo es wenig Texte dazu gibt, wenig Trainingsdaten dazu, also wenig Informationen, die schon existieren, wo es dann eben Sachen, die ähnlich sind, Sachen erfindet. Beispielsweise, ich hatte neulich eine Arbeit von einer Studentin korrigiert und da hatte sie eine Quelle angegeben von Autoren, die ich kannte und ich wusste, die sind in dem Feld aktiv, also die gab es, die Autoren, die da genannt wurden, gab es. Der Text der Publikation klang auch glaubwürdig und die Zeitschriften, der veröffentlicht wurden, klangen glaubwürdig. Das gab es auch alles, also die Autoren gab es, die Zeitschrift gab es, aber diesen konkreten Beitrag, den gab es nicht. Der konkrete Beitrag wurde erfunden, also die KI hat jetzt hier quasi Versatzstücke genommen von Sachen, die tatsächlich wahr waren, der Autorennamen, die Autorennamen, der Name der Zeitschrift, aber der Titel, der auch plausibel klang, war komplett erfunden, der hat so nie existiert von diesen Autoren, weder in dieser Zeitschrift noch in irgendeiner anderen Zeitschrift und da muss man sich schon wirklich dann gut auskennen, dass man sowas entdeckt, weil auf den ersten Blick wirkt es plausibel, ich hätte das auch geglaubt, ich habe es aber überprüft und dann habe ich herausgefunden, das gibt es nicht und ich kannte die Quelle eben auch nicht und das sind dann die gefährlichen Sachen, weil das wirkt plausibel und wenn man sich dann eben nicht auskennt, dann übernimmt man möglicherweise dieses falsche Wissen oder diese falschen Informationen, was dann, wie Eva auch vorhin schon angespielt hat, natürlich nicht so relevant ist, ob ich jetzt mit meinem Ei zehn Minuten oder zwölf Minuten koche, dann ist es beides mal irgendwie hart, aber bei irgendwelchen politischen Meinungsbildungsprozessen ist es relevanter, wenn ich dann eben mit falschen Tatsachen im schlimmsten Fall meine Wahlentscheidung treffe, weil ich irgendwie dachte, eine Partei macht A, B, aber herauskommt, die Partei macht es überhaupt nicht oder es stimmt überhaupt nicht, ist komplett erstunken und erlogen, genau da wird es dann halt einfach kritisch, das ist ein großes Risiko. Eva Knor: Genau, vielleicht auch noch dazu, wo wir jetzt auch von Halluzinieren sprechen, diesen Modellen ist es in Anführungszeichen egal, ob die Informationen wahr oder falsch sind, das ist halt ein Sprachmodell, das hat kein Bewusstsein, das ist vielleicht auch nochmal, finde ich, sehr wichtig zu betonen, das ist ein Modell, was die Abfolge von Wörtern in einer Reihe von Wörtern hervorsagt, basierend auf statistischen Annahmen und deshalb kommt es eben auch immer wieder zu diesem Phänomen, dass da einfach irgendwas rauskommt, aber diese Modelle sind eben darauf trainiert, Antworten auf Fragen zu geben und nicht die Wahrheit zu erzählen, das ist sozusagen nicht die Idee. Michael Reiss: Und man sieht, basierend auf dem, was du gesagt hast, auch ein zweites Risiko, ein größeres, das ist nämlich Verzerrung, die in den Trainingsdaten vorkommen können, beispielsweise können Trainingsdaten rassistisch oder sexistisch sein, das ist über die Zeit ganz normal, dass natürlich viele Texte, die produziert wurden, gewisse Tendenzen haben, jetzt nicht nur rassistische oder sexistische Tendenzen, auch irgendwelche anderen Tendenzen und dass diese Zusammenhänge dann von dem Sprachmodell repliziert werden in den Antworten, weil das Sprachmodell hat die Trainingsgrundlage, die Texte oder die Inhalte, die ihm zugrunde liegen, für das Sprachmodell ist das die Wahrheit und basierend darauf lernt es, die Welt oder die Zusammenhänge wahrzunehmen und diese repliziert es dann oder gibt es dann im Output wieder. Da gibt es verschiedene Beispiele, das ist wirklich auch viel Forschung dazu und da findet man auch leicht Beispiele im Internet, wenn man selber beispielsweise googelt nach solchen Beispielen, wenn man Pilot eingibt oder man sagt, man möchte ein Bild von einem Piloten haben, ja im Englischen ist es einfacher, weil im Englischen wird das nicht gegendert, also Pilot wäre jetzt, im Deutschen wäre es ein männliches Wort, aber wenn ich im Englischen Pilot eingebe, wo neutral ist, ob das weiblich oder männlich ist, dann hat man zeigen können, jetzt nicht, glaube ich, für ChatGPT, sondern beispielsweise für Google Suche, aber die Prinzipien sind ähnlich, dann kommen Bilder von männlichen Piloten, ja obwohl Pilot im Englischen neutral wäre oder das gleiche bei Arzt oder ähnlichen Phänomenen und solche Beispiele lassen sich auf ganz viele Phänomene übertragen und die werden von so einem Sprachmodell repliziert, weil es eben auf diesen verzerrten Trainingsdaten eben trainiert wurde, genau das wäre ein zweites Problem und ich als Nutzerin oder Nutzer von diesem Sprachmodell, die jetzt vielleicht auch nicht jetzt jedes Mal ein sozialwissenschaftliches Studium hat und ob dieser Verzerrung weiß, denkt dann möglicherweise, das ist ein Roboter, der macht hier objektive und wahre Aussagen, was beides nicht stimmt, aber nehme das vielleicht so an und übernehme dann diese verzerrten Weltbilder und verzerrten Darstellungen, das ist ein zweites großes Risiko. Eva Knor: Genau und vielleicht auch noch das Übernehmen, aber vor allem eben auch das Reproduzieren und dadurch auch das Verfestigen dieser Rollenbilder ist, glaube ich, auch ganz wichtig und man muss aber auch dazusagen, dass die Entwickler hinter diesen Modellen extrem viel noch sozusagen manuelle Schranken einbauen, also dass diese Sprachmodelle nicht einfach so auf die Nutzenden losgelassen werden sozusagen ohne Sicherheitsvorkehrungen, sondern dass große Entwicklerteams bei Google, aber auch bei OpenAI ja bestimmte Sicherheitshürden einbauen, damit es eben nicht zu solchen rassistischen Äußerungen beispielsweise kommt. Ja, das ist so oft ein bisschen so ein Katz-und-Maus-Spiel, man sieht dann in der Wissenschaft beispielsweise eine wissenschaftliche Veröffentlichung, die etwas herausfindet, dass ein Modell so und so ist und dann reagieren die Entwickler. Also wer jetzt beispielsweise bei Google Pilot eingeben würde oder im Englischen Pilot oder bei ChatGPT, der würde diese starken Verzerrungen so nicht mehr finden, weil die Entwickler dann darauf reagiert haben und probiert haben, das zu korrigieren. Kristina Kobrow: Ja und da würde ich gerne noch mal einhaken, denn das eine sind ja die Entwickler und das andere sind ja diejenigen, die für diese Systeme Werbung machen. Und ich denke da jetzt konkret an eine Werbung von Google Gemini zum Beispiel, wo ein Mann, der sichtbar kein Experte ist im Autoreparieren vor oder unter einem Auto liegt, sein Handy neben sich liegen hat und dann eben immer die generative KI, also Google Gemini, fragt, was soll ich jetzt tun? Welche Schraube soll ich jetzt drehen oder was auch immer, um dieses Auto wieder zum Fahren zu bringen? Und am Ende ist es so, dass er dann eben auch Google Gemini fragt, ja wie kriege ich das Öl jetzt aus meinem Gesicht? Und ich finde das insofern interessant, weil ja hier die Entwickler eigentlich damit werben, dass ich wirklich jegliches eigenständiges Denken aus der Hand gebe mit dieser Frage. Also weil diese Frage, wie kriege ich jetzt das Öl aus meinem Gesicht, die ist ja jetzt eigentlich nicht so schwer zu beantworten, würde ich denken. Und ist das nicht eigentlich beängstigend? Michael Reiss: Ja, kann man definitiv so sehen. Ich würde das eher positiv sehen jetzt in dem Fall. Also ich will jetzt gar nicht sagen, dass es nicht auch kritische Elemente hat, aber erstmal hat dieser Mensch, der offensichtlich jetzt nicht in seinem beruflichen Kontext andauernd da irgendwie Autos repariert und wahrscheinlich auch nicht dauernd ölverschmutzt ist, da erstmal Bedürfnishilfe zu bekommen. Ja und das wird ihn, ob das jetzt dann Gemini liefern kann oder nicht, da hingestellt. Wie gesagt, das ist Werbung, aber generell versprechen ja so Sprachmodelle, mit denen ja auch über Stimme in dem Fall wahrscheinlich kommuniziert wurde, dass sie einem da Hilfe anbieten können. Und dann kann sich jeder jetzt selbst überlegen, ob man dem dann einfach so vertraut und irgendwie an seinem Auto die Bremsen austauscht, nur basierend auf ChatGPT, was wahrscheinlich auch im Übrigen gar nicht legal wäre, aber beispielsweise jetzt, ja das hätte dann halt relativ hohe Risiken, weil wenn die Bremsen halt nicht tun, dann hast du ein ernstes Problem. Ja in dem Fall würde ich dann vielleicht nicht ChatGPT oder den ähnlichen Technologien nur vertrauen, aber nur als Beispiel, ja da kann sich jeder dann überlegen, ob man dem vertraut oder nicht, aber es kann einem potenziell Hilfe geben. Und dann mit dem Öl im Gesicht, also man hat, wie du sagst, natürlich erstmal eine intuitive Sache, das muss wahrscheinlich mit Seife und Wasser oder so, aber ich könnte mir vorstellen, dass es wahrscheinlich im Fachhandel Produkte gibt, die irgendwie das besser machen. Es gibt dann ja auch häufig so Seifen, die so ein bisschen mit so Partikeln drin, die dann so schmierige Hände besser reinigen und wenn man das halt zum Beispiel gar nicht weiß oder nie Erfahrung hat damit und es vielleicht zum ersten Mal macht und jetzt vielleicht auch nicht jemanden hat im familiären Umfeld oder so, der direkt da ist zum Fragen, finde ich das eine recht plausible und auch legitime Anwendung von der generativen KI, eigentlich genau für so einen Kontext, wofür es geschaffen ist. Also einfach Leuten mit Fragen in einem hilfreichen und natürlichen Art und Weise die Lösung anzubieten, beispielsweise. Also auch da wieder, ich würde das nur begrenzt komplett auslagen, selbstverständlich. Also wenn die jetzt mir sagen, ja, leere dir jetzt irgendwie ein Liter Wasserstoffperoxid übers Gesicht, klar, dann hat man ein riesen Problem. Da würde ich jetzt auch nicht komplett Augen zu und los, genauso wie es ja beispielsweise immer mal wieder kuriose Meldungen gibt bei Google Maps, wie Leute irgendwie in den Hafen gefahren sind, weil Google Maps gesagt hat, bieg da vorne rechts ab. Das ist genau das Gleiche. Man muss schon noch selber mitdenken und nicht einfach kopflos das machen. Aber erst mal ist es ein Angebot, über das man dann natürlich nachdenken sollte, ob man das wahrnimmt oder nicht wahrnimmt. Aber ich finde es erst mal ein legitimes und auch sinnvolles und nützliches Anwendungsbeispiel. Eva Knor: Ja, ich finde aber auch, dass da ein interessantes Spannungsfeld sich eröffnet, nämlich was machen die Nutzenden mit diesen Technologien? Also man sagt immer, oh, oh, oh, Technologie, generative KI, oh Gott, oh Gott, oh Gott. Aber es ist natürlich auch eine Entscheidung von den Nutzenden, das kognitiv outzusourcen oder eben nicht. Und ich glaube, was man aber nicht unterschätzen darf, ist, dass wir natürlich noch sehr am Anfang von dieser Technologie stehen. Und ein großes Thema, was auch in der Literatur viel besprochen wird, ist, dass einfach da neue kognitive Abhängigkeiten entstehen könnten. Also dass Nutzende von diesem System keine Entscheidung mehr treffen können, ohne vorher abzuchecken, ist das okay. Also die denken ja selber nicht, ah ja, ich nehme Seife, sondern sie müssen vorher so ein Modell fragen, ob sie Seife benutzen können dafür. Kristina Kobrow: Also einen Perfektionismus quasi entwickeln? Eva Knor: Nee, eher, dass sie unsicher werden in ihrem Denken wahrscheinlich. Nee, Perfektionismus nicht. Ich glaube eher, dass es eher so ist, als hätte man einen Assistenten. Und jede Sache, die man irgendwie so tut, jede E-Mail, die man schreibt, muss sozusagen nochmal gegengecheckt werden. Michael Reiss: Ja, da stimme ich zu. Ich finde, das ist ein bisschen abseits mehr von vielleicht dem Alltag, sondern vielleicht eine eher philosophischere Diskussion. Aber so wissenschaftstheoretisch, finde ich, sind die Problemen schon deutlich oder die Risiken schon deutlich ernst zu nehmen, als bei so einer Alltagsfrage. Aber das ist ein gutes Beispiel letztlich. Die generative KI hat auch so eine Tendenz zur Mitte, kann man sagen. Also es gibt verschiedenes Wissen, sagen wir mal, ja, und es ist verschieden verteilt. Aber generative KI hat eben die Tendenz, die Antworten darauf basierend zu geben, was häufig in den Trainingsdaten ist, weil da einfach die meisten Verbindungen sind. Das ist einfach eine statistische Frage am Ende. Also wenn ich jetzt 2000 Mal in meinem Trainingsdatensatz die Antwort finde, die Ampel ist halt grün und rot und gelb und aber nur 50 Mal irgendwie sie ist blau und gelb, dann ist es gut, weil das ist die richtige Antwort. Ja, dann haben wir irgendwie eine höhere Sicherheit, dass die richtige Antwort ist. Aber bei manchen Kontexten, wo es nicht nur klar um richtig und falsch geht, sondern wo es vielleicht verschiedene Gründe gibt und verschiedene Alternativen und die generative KI nach irgendwie Gründen gefragt wird, dann hat sie die Tendenz immer wieder die gleichen Hauptgründe zu nennen und die Rände der Verteilung, könnte man sozusagen sagen, also in so einem Longtail, also die, die selten genannt werden, aber vielleicht in manchen Kontexten trotzdem ein schlagendes Argument sind oder ein cleverer Gedanke, die werden dann von der generativen KI vergessen zunehmend. Und wenn wir uns mehr und mehr auf solche Technologien verlassen, kann das auch die Kreativität dann im Wissensprozess oder in kreativen Kontexten beschränken. Eva Knor: Genau. Und ja, vielleicht auch noch mal zum kritischen Nachdenken. Also kritisches Denken passiert ja so, dass man quasi sich überlegt, wie man zu bestimmten Begründungen kommt. Also der Weg ist quasi das Ziel beim kritischen Denken. Man wägt Entscheidungen ab, man sagt, okay, dem glaube ich eher, dem glaube ich weniger. Diese Modelle haben das sozusagen einfach nicht. Kristina Kobrow: Ich finde, das ist eine wunderbare Überleitung jetzt zu der Frage nach der politischen Informationsbeschaffung. Denn auch hier, also ganz egal, ob es jetzt um Nachrichten geht oder die Frage, welche Partei wähle ich jetzt bei der Europawahl 2024, die ihr untersucht habt oder jetzt bei der anstehenden Bundestagswahl am 23. Februar. Bei beiden geht es ja im besten Fall jedenfalls um eigenständiges, kritisches Denken und eben nicht nur die Frage, glaube ich jetzt dem Politiker, der Politikerin oder dem Journalisten, der Journalistin, die einen Text schreibt. Sondern immer auch, was denke ich eigentlich dazu? Kann das eigentlich wahr sein, was der heute sagt oder schreibt oder eben nicht? Was habt ihr da rausgefunden in eurer Studie? Also diejenigen, die schon generative KI-Programme nutzen, nutzen die das wirklich auch für politische Informationsbeschaffung oder eher weniger oder gar nicht? Michael Reiss: Ja, das war ein Fokus von unserer Studie tatsächlich. Also wir hatten darauf den Fokus gelegt, weil das eben in einem größeren Risiko behaftet ist. Wir hatten es ja schon besprochen, bei gewissen Alltagsthemen mit dem Ei ist es jetzt nicht so relevant, ob das jetzt 10, 12 Minuten sind, aber eben bei Meinungsbildungen, wenn es dann eben um Wahlentscheidungen eventuell auch geht und das war in unserem Fall ja wirklich direkt vor der EU-Wahl, deswegen hatten wir das auch da gesetzt, ist es relevant natürlich, ob das für politische Informationen genutzt wird und dann natürlich im Weiteren, ob es dann dem geglaubt wird und so weiter oder nicht. Aber unser Fokus war jetzt erstmal, wird es überhaupt dafür genutzt, um dann die Risiken und Chancen besser einschätzen zu können und tatsächlich zeigt sich, dass es kaum genutzt wird für politische Informationen und wir haben es auf verschiedene Arten abgefragt. Also wir haben einerseits gefragt, nutzen sie das für generelle politische Informationen, da hatten wir auch schon ein paar Beispiele genannt, wie groß ist der Bundestag, wann sind die Wahlen, welche Parteien gibt es oder aktuelle Themen, beispielsweise wer ist der Spitzenkandidat, die Spitzenkandidatin, was ist der aktuelle Stand im Palästina-Israel-Konflikt, das wären so aktuelle Phänomene, dann als Ersatz für Nachrichten und die vierte Dimension von diesem politischen Informationsthema war, ob sie es nutzen für konkrete Informationen zur EU-Wahl und für alle vier Dimensionen war die Zustimmung wirklich sehr gering, also auf einer Skala von 1 bis 5, im Mittel wirklich so bei 1,5, 1,6, also sehr gering. Das heißt, die allermeisten Menschen nutzen das aktuell noch sehr wenig oder kaum für politische Informationen. Kristina Kobrow: Also auch die jungen Menschen, die ja, das hattet ihr herausgefunden, wirklich zu 95 Prozent das nutzen, auch bei denen ist es tatsächlich gar kein Informationstool, wenn es um politische Themen geht? Michael Reiss: Ja, das ist eigentlich relativ gleich, also da auch wieder so ein bisschen, das wäre dann was, was wir in weiterer Forschung noch genauer beleuchten müssen, da gibt es gewisse Trends, die aber wirklich aktuell so gering sind, dass wir da nicht wirklich zuverlässig was drüber sagen können. Das könnte sein, dass Menschen beispielsweise mit einem geringeren Bildungsabschluss, also Leute, die kein Abitur haben, das eventuell häufig für diesen Zweck einsetzen, also für politische Informationen, da sehen wir eine Tendenz dazu. Da würde ich aber eben noch ein bisschen vorsichtig sein, das zu gewichtig zu bewerten, aus verschiedenen Gründen. Erstens ist die Technologie nach wie vor einfach noch neu und man muss erstmal ein bisschen ausprobieren, für welche Kontexte das eingesetzt werden kann. Die Europawahl war ja auch wirklich die erste größere Wahl, seitdem es überhaupt dieses Tool gibt, jetzt für die Bundestagswahl, könnte wieder was Neues sein. Wo man sich das anschauen muss, ob dann vielleicht der Zurückgriff auf diese Technologie zunehmen wird, das ist das eine. Das andere ist, dass die Technologie sich einfach auch stark verändert. Also es macht einen riesen Unterschied, ob ich damit überhaupt aktuelle Fragen stellen kann oder ob das nicht möglich ist. Also wenn die KI Zugriff aufs Internet hat, mit ganz aktuellen Informationen, dann kann ich da mehr mitmachen, als wenn es nicht der Fall ist. Ja, da gibt es verschiedene Gründe, warum wir das jetzt noch nicht endgültig bewerten wollen. Aktuell ist es einfach wenig, mit ein paar Tendenzen, dass es jüngere ja leicht mehr nutzen, in manchen von diesen Vier-Dimensionen und dass Leute mit einem geringeren Bildungsabschluss, da sehen wir noch eine stärkere Tendenz, das mehr nutzen. Aber das sind eher wirklich Tendenzen, die ich jetzt noch nicht stark interpretieren würde. Als Fazit für dieses politische Nutzungsverhalten, was wir jetzt beobachtet haben, ist wirklich, es wird aktuell quasi nicht genutzt. Das kann man einfach feststellen. Kristina Kobrow: Aber wenn wir jetzt noch mal an die Bundestagswahl denken, die ist am 23. Februar, heute haben wir den 20. Januar, am 20. nehmen wir diese Folge auf, dann bleibt ja also, wenn ihr jetzt sagt, das wird so gut wie gar nicht für politische Informationsnavigation genutzt, dann bleibt ja erstmal alles wie gehabt. Ist das jetzt positiv oder negativ zu bewerten? Michael Reiss: Also ich würde da noch mal differenzieren. Also was wir gemacht haben, ist ja generative KI aus einem ganz bestimmten Blickwinkel zu betrachten. Also wir haben uns angeschaut, wie die Leute das selbst nutzen, für ihren Informationsgewinn und Zugang. Generative KI wird natürlich noch ganz anders eingesetzt im politischen Raum und in der Lebenswirklichkeit auch von Menschen. Also wie gesagt, generative KI kann uns im Aldi-Prospekt begegnen, aber es kann uns auch in einem Wahlwerbespot begegnen. Wir wissen, dass die AfD jetzt auch schon KI-generierte Videos teilweise eingesetzt hat oder dass möglicherweise auf Facebook oder auch in sozialen Netzwerken vielleicht Bilder oder Texte oder Inhalte den Leuten zu Gesicht bekommen, die möglicherweise erkenntlich oder unerkenntlich KI-generiert sind. Also dass beispielsweise jemand sich als echte Person ausgibt, aber nur KI-generierte Inhalte produziert. Also sogenannte Bots beispielsweise, die möglicherweise auf die Meinungsbildung Einfluss nehmen, was ja dann häufig beispielsweise auch dann transportiert wird, dass Russland beispielsweise dahintersteckt. Das weiß ich jetzt nicht genau, weil ich einfach, das ist nicht mein Forschungsgebiet. Ich will nur sagen, das was wir gemacht haben, ist ein spezifischer Blickwinkel auf generative KI, aber es gibt noch viele andere, die durchaus eine Relevanz für die Bundestagswahl haben, wozu wir jetzt konkret mit dieser Studie und mit dem Forschungswinkel, den wir haben, nichts sagen können. Eva Knor: Ich meine, es gibt von Assenmacher und Kolleginnen einen Text, da ging es darum, wie viel Automation ist in automatisierten Desinformationskampagnen und die haben gefunden, dass es eigentlich in der Regel keine intelligenten Bots sind, also dass KI in der Verbreitung von oder in der Beeinflussung von Meinungen nicht eingesetzt wird, also dass die Hürden da zu hoch sind, das zu automatisieren mit KI, Desinformationskampagnen. Michael Reiss: Ja, aber auch da wäre ich eben vorsichtig. Das sind retrospektive Veröffentlichungen. Auch da sind wir einfach in einem Umfeld, das sich schnell verändert, schnell bewegt. Es ist so einfach, mal schnell irgendwie ein Bild zu manipulieren und den anderen Kopf darauf zu setzen. Ich kann mir sehr, sehr gut vorstellen, dass wir das in Zukunft noch verbreitet sehen, aber das geht eben stark über die aktuelle Forschung, über das, was wir jetzt hier besprochen haben, raus. Das ist sehr schwer vorherzusagen, aber allein, dass die AfD jetzt schon Videos benutzt, wo das klar ist, dass es generativ KI-Inhalte sind, zeigt, dass es durchaus eine Relevanz hat und dass wahrscheinlich auch die Nutzerin-Seite in Zukunft eine höhere Relevanz einnimmt, dass Leute umso mehr Relevanz es im Alltag hat, umso leichter es zugänglich ist, wenn es auf jedem iPhone jetzt zugänglich ist, auf jedem Android-Phone, wenn einfach die KI tief integriert ist und man bei allerlei Sachen KI unterstützt Hilfe bekommen kann, dann wird natürlich auch die Nutzung von dieser Technologie zustimmen und damit dann auch die Nutzung für politische Inhalte oder für politische Informationszwecke. Das ist, denke ich, ein ganz natürlicher Evolutionsprozess quasi und da wollen wir dann auch dran bleiben in Zukunft, um zu gucken, ob das in zwei Jahren noch genauso gering nur genutzt wird oder ob das mehr geworden ist und wie genau sie dann das nutzt und was sie damit machen. Also das war wirklich nur eine erste Bestandsaufnahme. Wir haben quasi mal unseren Fuß ins Wasser gehalten, um mal zu schauen, wie warm es ist und in Zukunft wollen wir da mal wirklich in den Pool sozusagen springen und noch genauer schauen, was sind die konkreten Kontexte, für was wird es genutzt, was machen die Menschen dann damit, vertrauen sie dem, vertrauen sie das nicht, überprüfen sie das. Also da gibt es noch viel Forschung, die notwendig ist, weil die Relevanz eben nur zunimmt, meiner Meinung nach. Eva Knor: Vielleicht noch eine ein bisschen pessimistische Bemerkung. Man sieht natürlich schon tendenziell, dass junge Menschen sich einfach ganz wenig mit politischen Informationen beschäftigen. Also ganz wenig junge Menschen suchen aktiv nach politischen Nachrichten, also benutzen Suchmaschinen, um sich politisch zu informieren. Das ist super gering. In der Regel ist es so, dass junge Erwachsene oder junge Menschen vor allem in sozialen Medien mit politischen Inhalten in Berührung kommen, aber nicht, weil sie danach suchen, sondern weil es sozusagen zufällig ist. Algorithmisch basiert beispielsweise oder basierend darauf, welchen Personen oder Accounts sie folgen. Genau, das heißt, da wäre genau, was Michael gesagt hat, wir wissen zu wenig, aber dadurch, dass wir wissen, dass junge Menschen tendenziell einfach gar nicht nach politischen Informationen suchen, kann man daraus ableiten, dass sie vielleicht oder sehr wahrscheinlich auch nicht Chat-GPT für politische Informationen fragen oder andere KI-Modelle. Michael Reiss: Ja, das hängt dann häufig einfach mit dem politischen Interesse zusammen. Wenn das politische Interesse nicht da ist, dann sucht man auch nicht nach politischen Informationen, egal ob das generative KI ist, ob es klassisch Google-Suche ist oder ob es eine Zeitung aufschlagen ist. Das scheint der Fall zu sein. Wir hatten da die Hoffnung, dass eventuell generative KI von solchen Bevölkerungsgruppen mehr genutzt wird. Was wir jetzt sehen, diese Hoffnung oder diese Chance von generativer KI scheint sich den ersten Ergebnissen zufolge jetzt so nicht zu manifestieren. Kristina Kobrow: Wir können ja abschließend jetzt noch mal so einen Blick in die Glaskugel werfen. Wenn jetzt die nächste Bundestagswahl wirklich 2029 stattfindet, was wäre denn eure einerseits Utopie zur Nutzung von generativer KI und was wäre andererseits die gänzlich dystopische Vorstellung? Michael Reiss: Also ich kann vielleicht nochmal anfangen. Also die größte Dystopie würde über den reinen Forschungsgegenstand, den wir jetzt betrachten, rausgehen. Also einerseits würde ich, natürlich wäre es zu befürchten, dass sie generative KI-Modelle nutzen, die vielleicht eben nicht so sauber abgetrennt sind mit Falschnachrichten und verzerrungsfrei, wo eben die aktuellen Hersteller noch recht stark Wert darauf legen, dass es vielleicht Modelle gibt, die eher offen sind, die dann eben irgendwelchen Quatsch erzählen beispielsweise. Das wäre rein die Nutzung, was die Nutzung angeht, wäre das eine Gefahr. Aber die größere Dystopie sehe ich eher in so größeren Desinformationskampagnen oder personalisierter Werbung oder so, wo Leuten entweder stark emotional irgendwelche Sachen vorgegaukelt werden oder Panik geschüttet wird, die teilweise jetzt auch gar nicht systematisch von irgendwelchen Akteuren größere Kampagnen sein müssen. Das reicht ja, wenn irgendwie vielleicht politische Führerinnen wie Donald Trump, wie Alice Weidel, wie andere auch möglicherweise Bilder teilen, die manipuliert sind, aber vielleicht ist nicht für jeden so direkt durchschaubar. Es gab beispielsweise eines, wo Donald Trump mit Taylor Swift geworben hat, dass sie ihn unterstützt oder das hat er insinuiert, aber das war nicht der Fall. Das war ein KI-generiertes Bild. Das sind eher so die Gefahren, dass das noch mehr zunimmt. Das wäre meine größte Dystopie. Eva Knor: Interessant. Ich hätte, also ich finde das schwierig, über Dystopien zu reden, weil diese Szenarien, die Michael gerade beschrieben hat und auch die Effekte davon, halte ich für recht unrealistisch. Also einmal den Effekt von personalisierten politischen Inhalten. Also das, was ich aus der Forschung kenne, ist, dass generell Medieneffekte da relativ klein sind und das jetzt so, je mehr Personalisierung heißt nicht, desto größer der Effekt, also je genauer das abgestimmt ist. Das heißt, da bin ich so, ja, es gibt vielleicht einen Effekt, vielleicht einen Effekt, der sich sozusagen akkumuliert mit anderen Faktoren. Also das schon. Aber ich finde es teilweise schwierig, bei dem Thema KI, dass man eine Tendenz hat, so fatalistische Vorstellungen zu entwickeln. Und deshalb fällt es mir auch schwer, ein dystopisches Szenario mir vorzustellen, weil es so klingt, als hätte man fast keinen Handlungsspielraum und das ist halt nicht so. Michael Reiss: Ja, aber das finde ich eine gute Einschränkung oder Reaktion auf meine Dystopie. Meine gibt es ja in der Art und Weise ja auch schon, die findet ja jetzt irgendwie schon statt. Also ich finde, das mit der Medienwirkung ist ein spannendes Feld, da wird ja auch viel zu geforscht. Ich würde aber auch sagen, unabhängig davon oder der Dystopie gegenübergestellt, dass es eben auch viele, viele sehr positive Hoffnungen oder Chancen gibt, die damit verbunden sind. Ja, also ich würde sogar vielleicht sagen, dass die Chancen theoretisch überwiegen. Ja, dass eben Bevölkerungsschichten einen leichten Zugang zu komplizierten Informationen bekommen, den sie so eben nicht haben oder hatten. Der ist relativ egalitär, der Zugang, weil einfach die Nutzungsschranken an sich sehr gering sind. Also fast so gering wie eine Google-Suche. Ja, ich brauche einfach nur ein internetfähiges Gerät und kann diese Technologie nutzen, obwohl es quasi ja aktuell, was es weltweit gibt, so mit das Hightech-Produkt so mit ist, also generative KI und trotzdem kann es fast jeder Mensch nutzen. Dann gibt es eben die Chance, auch Bevölkerungsgruppen damit zu erreichen, die ansonsten zu Informationserwerb und politische Informationen eben kaum mehr erreichbar sind. Ja, und sie können auf eine ganz andere Art und Weise damit auch interagieren. Also wenn ich eine Frage nach einem Nachrichtenartikel lese und ich habe noch eine Frage, dann kann ich dem Nachrichtenartikel keine Rückfrage stellen. Aber der generativen KI kann ich eine Rückfrage stellen. Sag mal, wer ist denn jetzt Benjamin Netanyahu? Erklär mir das doch nochmal. Da ist viel Potenzial in so generativer KI. Also ich würde trotz der Dystopie, die ich geschildert habe, denken, dass die theoretischen Chancen, auch wenn wir jetzt eben erste Indizien haben, dass sie sich wahrscheinlich leider so nicht manifestieren, trotz allem denken, dass die Chancen von generativer KI mindestens gleichwertig oder größtens, auch wenn man das natürlich nicht vergleichen kann, aber sie sind auch sehr gewichtig, zumindest. Eva Knor: Ja, auch da würde ich dir widersprechen. Also ich würde dir prinzipiell zustimmen, dass es diese Chancen gibt, aber was vielleicht auch nochmal wichtig zu erwähnen sind, sind die ökologischen Konsequenzen von generativen KI-Modellen. Also es gibt, ich weiß nicht, wie viel Anfrage sozusagen verbraucht wird, das weiß ich jetzt nicht, aber es ist schon immens. Kristina Kobrow: Aber für jeden Prompt auf jeden Fall. Eva Knor: Für jeden Prompt, genau. Also einfach was regulär googeln verbraucht viel weniger Strom als eine Suchanfrage bei ChatGPT. Michael Reiss: Genau, also da gibt es, soweit ich weiß, also ich habe mich damit vor ein paar Wochen mal ein bisschen näher beschäftigt, aber es gibt wenig wirklich unabhängige Erkenntnisse oder wirkliche Studien dazu. Konkret gibt es eher so Schätzungen und grobe Einschätzungen dazu, aber genau man geht davon aus, dass es so 10 bis 25 mal energieintensiver als eine Google-Suche ist, so einmal eine ChatGPT-Anfrage und beispielsweise das Training von Lama, also das Modell von Meta, also von der Firma hinter Instagram und Facebook, das hat 39 Millionen Stunden Grafikkartenleistung gekostet. Das ist unvorstellbar viel, da rechnen Tausende Grafikkarten einfach tagelang parallel und das sind dann irgendwie knappe 12.000 Tonnen CO2-Emissionen. Das ist von Meta, das hat Meta selbst so angegeben und das ist nur das am Ende rausgekommene System, das dann quasi verwendet wurde, das Finale sozusagen, aber davor gibt es ja oft Trial and Error-Sachen, die schief gehen, aber die werden ja auch, dafür wird auch Strom benutzt, also die Dunkelziffer sozusagen wird deutlich höher sein und wir können davon ausgehen, dass in Zukunft der Energieverbrauch und der sonstigen Ressourcenverbrauch nur zunehmen, also für einfachste Sachen kann man deswegen auch wirklich gerne einfach eine Google-Suche verwenden, die ist häufig genauso gut, man kriegt die Ergebnisse auch schnell und verbraucht hat deutlich weniger Ressourcen. Eva Knor: Ich finde es auch da, finde ich es auch schwierig, über potenzielle Chancen zu reden und dann sehen wir aber leider in der Forschung, dass so wie wir uns das gerne wünschen würden, wie Leute das nutzen, die das eben nicht tun und die meisten Leute generative KI-Systeme wahrscheinlich für so Pille-Palle-Anfragen, sage ich jetzt mal ganz salopp, fragen wie, wie lange muss ich ein Ei kochen, sechs Minuten oder siebeneinhalb Minuten, was mit einer viel größeren Umweltbelastung einhergeht, was die entweder irgendwie jemanden fragen könnten, was überhaupt keine Strom verbraucht oder eine Suchmaschine benutzen würden und deshalb sehe ich da die Chancen in der Abwägung von den Folgen, jetzt auf einer Umwelt, für die Umwelt beispielsweise, halte ich die Chancen für geringer, einfach weil ich schon, ich bin leider vielleicht auch einfach pessimistisch, ich habe sozusagen nicht, ich glaube nicht, dass ganz viele Leute, die sich nicht mit für politische Informationen informieren, dann generative KI-Systeme nutzen, weil die da sind, sondern ich glaube, die werden es auch weiterhin nicht tun und deshalb halte ich die Chancen leider für, im Verhältnis für gering, leider. Kristina Kobrow: Vielleicht ist das jetzt ein sehr harter Cut sozusagen als Ende für einen Podcast, deswegen würde ich euch gerne als Abschluss nochmal die Frage stellen, ist aus eurer Sicht etwas unbeantwortet oder auch ungefragt geblieben, möchtet ihr dem Thema noch etwas hinzufügen? Eva Knor: Ja, also ein persönliches Anliegen ist mir nochmal festzuhalten, dass die medialen Risiken, die mit generativer KI besprochen werden, vor allem im Kontext von politischen Informationen, also als Nachrichtensubstitution beispielsweise, dass unsere Ergebnisse darauf hindeuten, dass das eigentlich in einem, in keinem Verhältnis zueinander steht, also die Risiken, die in diesem Kontext mit generativer KI besprochen werden, das sehen wir momentan nicht, aber das heißt natürlich, dass sich das nicht ändern kann, aber momentan finde ich sozusagen, dass die Angst noch unbegründet ist in diesem Kontext. Kristina Kobrow: Dann schließen wir damit, ich danke euch ganz herzlich für eure Zeit und für die Studieneinblicke, die ihr hier heute geteilt habt. Der Abschlussbericht des Forschungsprojekts „GAIN - generative künstliche Intelligenz für die Informationsnavigation“, über den wir heute gesprochen haben, der erscheint im Frühjahr diesen Jahres und wer auf dem Laufenden bleiben möchte, der folgt uns am besten über die Plattform LinkedIn oder auch Threads oder über beide Plattformen oder schaut einfach hin und wieder auf unserer Website leibniz-hbi.de vorbei. Und wenn sich einige jetzt auch fragen, nutzen wir dann selber eigentlich generative KI für die Produktion oder für die Nachbearbeitung des Podcasts, dann lautet die Antwort, nein, das tun wir nicht. Das bedeutet aber nicht, dass wir keine künstliche Intelligenz benutzen für die Nachbearbeitung. Das bedeutet, die Stimmen, die hier zu hören waren, das sind wirklich unsere Stimmen. Wir haben keine Inhalte generieren lassen von künstlicher Intelligenz und hier eingebunden, sondern das waren wirklich wir. Was wir aber machen ist, wir erstellen für jede Podcastfolge auch ein Transkript, das ist über unsere Website zugänglich und das lassen wir von künstlicher Intelligenz erarbeiten. Das übernimmt bei uns die Plattform TurboScribe. Auch da ist es aber so, manchmal passieren da kleine Fehler, manche Wörter werden nicht richtig verstanden oder kommen einfach nicht mehr vor und das ergänzen wir dann im Nachhinein tatsächlich noch manuell. Und was wir auch machen ist, das Web-Tool Auphonic, das verbessert für uns auch noch mal die Lautstärke und entfernt kleine Hintergrundgeräusche. Das ist es dann aber auch schon, den Rest übernehmen wir alles manuell. Das heißt, hier entfernen wir vielleicht hier und da auch noch Sprechpausen, kleine Amps, kleine Versprecher. Das machen wir alles manuell mit dem Programm Adobe Audition. Und genau, daran wird es jetzt auch gehen. Vielen Dank fürs Zuhören und auf bald! Eva Knor und Michael Reiss: Tschüss!