[AI]
Taskforce “KI in der Wissenschaftskommunikation”
Best-Practice
Angesichts anhaltender Angriffe auf die Faktenbasis des demokratischen Diskurses und zunehmender wissenschaftsfeindlicher Debatten (Spannagel & Kinzelbach, 2023) kommt der Wissenschaftskommunikation eine entscheidende Rolle zu: Indem sie wissenschaftliche Erkenntnisse an die Bevölkerung vermittelt und den Austausch darüber fördert, trägt sie zur Bewahrung einer freiheitlichen Gesellschaft bei. Um wirksam zu sein, braucht Wissenschaftskommunikation Formate und Methoden, die interessierte Personen erreichen, aber auch Personen, die bisher mit Wissenschaftskommunikation nicht oder wenig in Kontakt gekommen sind. Werkzeuge der generativen Künstlichen Intelligenz (KI) können dabei hilfreich sein. Mit einer intensiven generativen KI-Nutzung gehen jedoch auch unterschiedliche Risiken einher. Denn auch wenn sich die Interaktion mit modernen generativen KI-Werkzeugen wie die Zusammenarbeit mit einem menschlichen Gegenüber anfühlen mag: Es handelt sich um statistische Verfahren zur Generierung neuer Daten, die den Trainingsdaten ähneln. Diese Verfahren haben kein menschliches Verständnis der Welt und können keine Verantwortung übernehmen. Wenn faktisch falsche, stereotype oder verzerrte Inhalte generiert und verbreitet werden oder die Grenzen zwischen KI-generierten und von Menschen verfassten Inhalten verschwimmen, wachsen die Unsicherheiten im Hinblick auf die Verlässlichkeit von Wissen. Informierte Entscheidungen werden erschwert, wodurch letztlich das Vertrauen in die Wissenschaft Schaden nehmen kann. Der Einsatz generativer KI verschärft somit grundsätzliche Fragen für die Wissenschaftskommunikation:
Wie beteiligt sich Wissenschaftskommunikation an einer faktenbasierten, demokratischen Gesellschaft?
Wie baut Wissenschaftskommunikation in den teils emotionalisierten, polarisierten oder manipulativen öffentlichen Diskursen Vertrauen in die Wissenschaft auf und macht wissenschaftliches Wissen sichtbar?
Wie gestalten Kommunizierende in der Wissenschaftskommunikation ihre aktive Rolle beim Einsatz von KI-Tools und bei der Entwicklung von KI-Formaten, ohne ihre Verantwortung an die generative KI abzugeben?
Eine Praxis guter Wissenschaftskommunikation, die auf die Unterstützung generativer KI zurückgreift, entsteht gerade erst (Fecher et al., 2025). Die Handlungsempfehlungen und die gesammelten Best-Practice-Beispiele sollen Orientierung bieten für professionell Kommunizierende an Hochschulen und außeruniversitären Forschungseinrichtungen, kommunizierende Forschende sowie für zentrale Einheiten der Hochschul- und Organisationskommunikation.
KI-Kompetenz online erwerben:
Lernplattform KI-Campus
Der KI-Campus ist eine Lernplattform mit kostenlosen Online-Kursen, Videos, Podcasts und Tools zur Stärkung von KI-Kompetenzen. Die offen lizenzierten Lernangebote stammen von Hochschulen, Unternehmen und KI-Initiativen.
Ausgewählte Online-Kurse sind KI für Alle, Methoden der Bias-Reduktion für eine sozialverantwortliche KI-Gestaltung und das Prompt-Labor Hochschullehre 2.0. Erklärfilme wie Was ist generative KI? ermöglichen einen niedrigschwelligen Einstieg in KI-Themen.
Über den LLM-Chat des KI-Campus (webbasiertes Interface von HAWKI) können kostenlos verschiedene große Sprachmodelle (LLMs) genutzt werden.
Anknüpfung an Handlungsempfehlungen:
Vorrangig: Qualitätssicherung und Fehlerprävention
Verantwortung und Transparenz
Soziale und ethische Aspekte
THEMA
Weiterbildung
MEDIUM
Digitale Lernangebote
KI POTENZIAL & PROBLEMATIK
KI-Tools können bei Kommunikationsaufgaben unterstützen; Voraussetzung ist Kompetenzaufbau (Toolverwendung unter ethischer und wahrheitsbezogener Reflexion auch in Bezug auf Autorenschaft)
STIL
Zielgruppenorientiert je nach Lernangebot
ZIELGRUPPE
Studierende, Lehrende, Berufstätige (Wissenschaftskommunikator:innen)
ZIEL
Souveräner, verantwortlicher und reflektierter Einsatz von KI in der Wissenschaftskommunikation
KI-Strategieentwicklung
Reflektierte Entwicklung von KI-Strategien
Am Anfang jeder KI-Nutzung steht die Frage, wofür und unter welchen Rahmenbedingungen sie eingesetzt wird. Idealerweise wird eine Strategie zur Nutzung der KI entwickelt. Teil einer jeden KI-Strategie sollte sein, dass die letzte Verantwortung beim Menschen liegt.
Ein aktuelles Beispiel für eine umfassende KI-Strategie im Hochschulbereich kommt von der TU München, einen Überblick über die fortlaufende Entwicklung von KI-Leitlinien für Lehrende und Studierende gibt es beim Hochschulforum Digitalisierung. Eine gute Unterstützung liefern Schwerpunkt-Websites, die KI-Themen einer Institution bündeln, wie z. B. der KI-Hub der Universität Vechta.
Im redaktionellen Bereich kann der systematische Einsatz eigener KI-Plattformen verbunden mit entsprechenden Schulungen Teil der KI-Strategie sein (wie zum Beispiel beim Medienhaus heise).
Anknüpfung an Handlungsempfehlungen:
• vorrangig: Implementation in Forschungsorganisationen und Kommunikationseinheiten
• Verantwortung und Transparenz
• Soziale und ethische Aspekte
THEMA
KI-Strategieentwicklung: Wann ist KI-Einsatz sinnvoll? Und wie sieht die optimale Strategie aus?
MEDIUM
Gemeinsame Reflexion, Workflow und Selbstverständigungsprozesse und Verantwortlichkeiten
KI POTENZIAL & PROBLEMATIK
Optimierung der Abläufe und sozio-kultureller sowie organisatorischer Wandel
STIL
Sachlich und differenziert
ZIELGRUPPE
Entscheidungsträger:innen und Wissenschaftskommunikator:innen
ZIEL
Strategisch-reflektierter und verantwortungsvoller Einsatz von KI
KI-Bildkompetenz
Systematische Irritation durch KI-generierte Bilder
Das Projekt der versäumten Bilder zeigt, wie das Potenzial der KI zur Visualisierung positiver und utopischer Ideen auf partizipative Weise genutzt werden kann. Es schafft generierte, fotorealistische Bilder von Frauen in der Wissenschaft, die bisher keine visuelle Anerkennung gefunden haben, z. B. an den Wänden von Universitäten und wissenschaftlichen Einrichtungen.
Das Projekt macht die Vorgehensweise transparent, indem es die generierten Bilder klar als KI kennzeichnet und durch die Offenlegung der verwendeten Prompts Einblicke in ihre Entstehung gewährt. Damit vermittelt es Medienkompetenz und stößt einen wichtigen Diskurs an. Das Projekt hat nicht nur viele unsichtbare Frauen in der Wissenschaft sichtbar gemacht, sondern regt auch dazu an, reale Porträts von Frauen an die Wände zu hängen – und über bildliche Authentizität und Evidenzkraft im KI-Zeitalter nachzudenken.
Anknüpfung an Handlungsempfehlungen:
vorrangig: Potenziale durch KI
Verantwortung und Transparenz bezüglich Echtheit un Evidenz
Soziale und ethische Aspekte
THEMA
KI-Bildkompetenz: Das Zeigen von Utopien
MEDIUM
Bilder an Wänden in Universitäten, Ausstellungen
KI POTENZIAL & PROBLEMATIK
Das Schaffen einer emotional positiv besetzten Parallelwelt | Problematik der Fake-News, auch wenn sie klar gekennzeichnet sind | sehr intensive Kontextualisierung nötig
STIL
Emotional
ZIELGRUPPE
Besucher:innen der Ausstellung, an Wissenschaft Interessierte
ZIEL
Frauen in der Wissenschaft sichtbar machen, Reflexion über KI und über Wirklichkeitswahrnehmung, photographische "Beweise" und Historizität anstoßen
KI-Bias
Wie man Bias durch KI identifizieren und minimieren kann
Eine KI kann nur so gut sein, wie die Daten, mit denen sie trainiert wird. In diesen Trainingsdaten können jedoch Vorurteile oder auch Stereotype enthalten sein, die unbeabsichtigt übernommen werden. Dies kann dazu führen, dass Nutzer:innen unfaire oder auch diskriminierende Ergebnisse erhalten. Hier geht es speziell um die Identifizierung und die Problematisierung von verzerrten Ergebnissen, auch Bias genannt.
Es empfiehlt sich daher, die Trainingsdaten zu kennen, besser noch, die KI selbst qualitativ und repräsentativ zu trainieren. Bias ist nicht nur ein technisches Problem, sondern auch ein gesellschaftliches und kulturelles. Darüber hinaus empfiehlt sich ein kontinuierliches Monitoring oder gar KI-Modelle mit Fairness-Kontrollen zu entwickeln, denn Bias kann sich im Laufe der Zeit verändern, besonders wenn sich die zugrundeliegenden Daten oder die Umgebung ändern.
Anknüpfung an Handlungsempfehlungen:
vorrangig: Verantwortung und Transparenz
ethische und soziale Aspekte: Beachtung der Mindeststandards
THEMA
KI-Bias: Methoden zum Erkennen von verzerrten Denkmustern und ihrer Milderung
MEDIUM
Analysewerkzeug von geschriebener und gesprochener Sprache (z.B. Gender Decoder https://genderdecoder.wi.tum.de ), Analysetool für die deutsche Berichterstattung (z.B. GETT - Gender Equality Tech Tool https:// www.wsciencehub.com/gett ), Methoden der Bias-Reduktion
KI POTENZIAL & PROBLEMATIK
Reflektiertes Training der KI mit qualitativen und repräsentativen Daten und Notwendigkeit des Zusammenschlusses, Methoden der Bias-Reduktion
STIL
Wissenschaftlich, sachlich
ZIELGRUPPE
Studierende, Lehrende, Berufstätige (Wissenschaftskommunikator:innen)
ZIEL
Faire KI: Vermeidung von Diskriminierung durch einseitige Wissensperspektivierungen, Diskriminierungsfreie Algorithmen stärken, Förderung von Diversität und Inklusion in der KI-Entwicklung, Transparenz und Nachvollziehbarkeit in KI-Modellen gewährleisten, Gesellschaftliche und ethische Verantwortung stärken
Sokratischer Dialog:
Kommunikation mit der KI über die KI
Die Kommunikation mit KI und über KI wird zunehmend verschmelzen. Eine dialogische Auseinandersetzung von Usern mit Antworten von Sprachmodellen (inklusive insistierendem „Nachbohren“) soll dazu beitragen, LLM-interne Vorannahmen, ethische Werte und Stereotype aufzudecken, zu reflektieren und die Ergebnisse zu beeinflussen. In einer – zur Nachahmung und Modifikation bestimmten – Plattform https://frameintell.de/news/best-practice/ wird gezeigt, wie Sprachmodelle auf ihr kommuniziertes Selbstbild befragt werden können,um also die Fremd- und Eigenzuschreibungen deutlich zu machen (z.B. bei https://lmarena.ai/). Durch kompetentes “Art of Prompting” als strategische Gesprächstechnik sollen Sprachmodelle ihre Weltbilder und Ideologien offenlegen.
Best Practice bei FrameIntell: https://frameintell.de/news/best-practice/
Anknüpfung an Handlungsempfehlungen:
• Vorrangig: Implementation in Forschungsorganisationen und Kommunikationseinheiten
• Kommunikation und Austausch in der KI-nutzenden Wissenschaftskommunikations-Community
THEMA
Kommunikation mit und über KI
MEDIUM
Interaktion über Fremd- und Selbstzuschreibungen
KI POTENZIAL & PROBLEMATIK
Gefahr ungewollter gesellschaftlicher Disruptionen; Generative KI ermöglicht dialogische Auseinandersetzung;
STIL
Dialogische Interaktionsstrategien: The art of prompting
ZIELGRUPPE
Studierende, Lehrende, Wissenschaftskommunikator:innen
ZIEL
Aktive Gestaltung der gesellschaftlichen Transformation
Vertrauen und Glaubwürdigkeit
Transparenz – wann und wie?
Grundsätzlich sollte die Anwendung von KI transparent gemacht werden – im Sinne guter wissenschaftlicher Praxis. In jedem Einzelfall ist zu klären, ob und wie diese Kennzeichnung konkret erfolgen soll, damit sie das Vertrauen in Wissenschaft unterstützt. Der Hinweis kann übergreifend in Textform erfolgen, durch Wasserzeichen bei Bildern/Videos, und bei Social Media durch Eintrag in den Metadaten. Künstler Boris Eldagsen plädiert z. B. für eine klare Trennung zwischen Fotografien und mit KI erzeugten Bildern, die er “Promptografie” nennt. Bei einem Fotowettbewerb hat er erst nach Einreichung seines Werks auf die KI-Generierung hingewiesen, um eine Debatte anzustoßen: https://www.derstandard.de/story/2000145658251/ki-kuenstler-boris-eldagsen-kuenstliche-intelligenz-ist-keine-fotografie
Transparenz muss auch auf technischer Ebene bestehen. Das ist das Ziel der Content Authenticity Initiative (CAI). Sie möchte einen Industriestandard fördern, der sichere Aussagen über die Herkunft digitaler Inhalte erlauben soll. Die Initiative wurde von Adobe, der New York Times und Twitter gegründet.
Anknüpfung an Handlungsempfehlungen:
Vorrangig: Verantwortung und Transparenz
Qualitätssicherung
Soziale und ethische Aspekte
THEMA
KI-Transparenz: Sicherstellung des Vertrauens und Glaubwürdigkeit der Wissenschaftskommunikation
MEDIUM
Medienspezifische Transparenzhinweise
KI POTENZIAL & PROBLEMATIK
Transparente KI-Nutzung kann Vertrauen in die Technologie und die Wissenschaft stärken. Dabei sind Rahmenbedingungen zu bedenken und Verantwortliche zu benennen.
STIL
Allgemeinverständlich, gut erkennbar, nachvollziehbar
ZIELGRUPPE
Rezipient:innen KI-erzeugter Inhalte, Intermediäre wie Wissenschaftskommunikator:innen
ZIEL
Strengthen Trust in Science
Debunking Bot:
Verschwörungstheorie oder Stand der Wissenschaft?
Künstliche Intelligenz kann gezielt zum Aufspüren von Fakes eingesetzt werden. Sogenannte Debunking Bots lassen sich nutzen, um Menschen im Dialog zum Hinterfragen ihres Weltbildes (nachweisbar und nachhaltig) zu bringen. Angesichts der massiven Verbreitung von Fake News durch Social Bots muss es zu einer adäquaten Gegenstrategie der Wissenschaftskommunikation kommen.
Debunkbot: https://www.debunkbot.com/
Paper zum Debunkbot: https://www.science.org/doi/10.1126/science.adq1814
Anknüpfung an Handlungsempfehlungen:
• Vorrangig: Qualitätssicherung der Wissenschaftskommunikation als Ganzes
• Potenziale für die faktenorientierte Kommunikation
• Verantwortung und Transparenz
THEMA
Debunking durch KI: Verschwörungserzählungen als Gefahr für die Wissenschaft
MEDIUM
Interaktion
KI POTENZIAL & PROBLEMATIK
KI-Problematik wird zum Potential der Problemlösung
STIL
Personalisierter und empathischer Stil
ZIELGRUPPE
Durch Faktenferne gefährdete Menschen
ZIEL
Aufklärung
Social Media Content
Von der Publikation zum Social Media-Post
Das Forschungszentrum CATALPA (Center of Advanced Technology for Assisted Learning and Predictive Analytics) an der FernUniversität in Hagen experimentiert mit verschiedenen KI-Use-Cases auf eigenen Servern mit Open Source KI. Teil davon ist die Anwendung “Paper Summary” der Abteilung Wissenschaftskommunikation. Mit voreingestellten Prompts soll die KI aus einer Publikation einen Social Media Posting-Text per Knopfdruck generieren. Dabei lassen sich die einzelnen Prompts anpassen und auch über ausgewählte Paper-Inhalte, die Schwerpunkte des Postingtexes gewichten.
Anknüpfung an Handlungsempfehlungen:
Vorrangig: Potenziale für die zielgruppengenaue Kommunikation
Verantwortung und Transparenz
Implementation in Forschungsorganisationen und Kommunikationseinheiten
THEMA
Nutzung von Large Language Modellen zur Generierung von Social Media Content
MEDIUM
Das Projekt zeigt Best Practices für den Einsatz generativer KI in der Wissenschaftskommunikation, indem es fotorealistische Porträts übersehener Wissenschaftlerinnen erstellt.
KI POTENZIAL & PROBLEMATIK
Das Tool bietet einen niedrigschwelligen und datensicheren Zugang zu Large Language Modellen und das Potenzial im Bereich Social Media Ressourcen einzusparen.
STIL
Leichte Verständlichkeit, auf Zuspitzung ausgerichteter, kurzer Stil im Sinne des Küchenzurufs.
ZIELGRUPPE
Wissenschaftskommunikator:innen und kommunizierende Wissenschaftler:innen
ZIEL
Sichtbarkeit schaffen für wissenschaftliche Publikationen; Zeitersparnis für mehr Qualität
KI-Visualisierung
Visualisierung von KI ohne Stereotype
Better Images of AI (siehe auch https://www.wissenschaftskommunikation.de/better-images-of-ai-hintergruende-und-ressourcen-83757/) stellt eine Datenbank aus Bildern zusammen, die klischeehafte Repräsentationen von Künstlicher Intelligenz überwinden möchte. Die Bilder können unter offener Lizenz von Wissenschaftskommunikator:innen genutzt werden und sollen zu einer vielfältigen Visualisierung von KI anregen.
Anknüpfung an Handlungsempfehlungen:
Vorrangig: Potenziale durch bislang nicht vorhandene, visuell gestützte Wirkmöglichkeiten im öffentlichen Diskurs
Qualitätssicherung
THEMA
Alternative Motive zum Thema KI
MEDIUM
Bilddatenbank
KI POTENZIAL & PROBLEMATIK
KI ist schwierig darstellbar
STIL
Unterschiedliche Visualisierungen
ZIELGRUPPE
Redaktionen, Wissenschaftskommunikator:innen
ZIEL
Stereotype vermeiden und neue Bildwelten schaffen
Mit KI Forschungsergebnisse zugänglich machen
“Bridging the Communication Gap”
Mithilfe Künstlicher Intelligenz vergessene Datenbanken der Forst-, Umwelt- und Nachhaltigkeitswissenschaften der Universität Freiburg zum Leben erwecken, neue und alte wissenschaftliche Ergebnisse verständlich aufbereiten und ein Modell für KI-gestützte Wissenschaftskommunikation entwickeln: Das sind die Ziele des Projekts „Bridging the Communication Gap“, welches an der Fakultät für Umwelt und Natürliche Ressourcen der Universität Freiburg angesiedelt ist und von der Eva Mayr-Stihl Stiftung gefördert wird.
In Zusammenarbeit mit dem Science Media Center Lab werden verschiedene KI-Applikationen für interne und externe Zielgruppen entwickelt. Ein Beispiel ist ein Themenmonitoring, das wissenschaftliche Expertise mit aktuellen Medienberichten verknüpft und es so ermöglicht, relevante Forschung zeitnah in gesellschaftliche Debatten einzubringen.
Anknüpfung an Handlungsempfehlungen:
vorrangig: Potenziale durch bislang nicht mögliche Zugänglichkeit wissenschaftlichen Wissens; Stärkung der Wissenschaftskommunikation und der wissenschaftlichen Evidenz
THEMA
Mit KI Forschungsergebnisse zugänglich machen und Potenziale für die Wissenschaftskommunikation nutzen
MEDIUM
Interaktive Plattform
KI POTENZIAL & PROBLEMATIK
Interne Zielgruppen bei den Kommunikationsaufgaben unterstützen. Wissenschaftliche Ergebnisse und Expertise zugänglicher machen für externe Zielgruppen.
STIL
sachlich, nutzerorientiert
ZIELGRUPPE
intern: Wissenschaftler:innen und Kommunikator:innen; extern: Journalist:innen, Entscheidungsträger:innen, Praktiker:innen
ZIEL
Wissenschaftliche Ergebnisse der Forst-, Umwelt- und Nachhaltigkeitswissenschaften zugänglicher machen und in gesellschaftliche Debatten einbringen

Mitwirkende an den Best Practice-Beispielen in der Taskforce
Dr. Matthias Begenat, Center for Advanced Internet Studies
Dr. Meik Bittkowski, Science Media Center Germany
Gesine Born, Bilderinstitut
Prof. Dr. Ekkehard Felder, Universität Heidelberg
Nicole Hillebrand, Universität Freiburg
Sandra Kirschbaum, CATALPA, FernUniversität in Hagen
Lucas Laux, Stifterverband | KI-Campus
Dr. Norbert Lossau, Wissenschaftsjournalist
Prof. Dr. Annette Leßmöllmann, Karlsruher Institut für Technologie
Rosa Esther Martin Peña, Deutsches Forschungszentrum für Künstliche Intelligenz
Silvio Schwartz, Max-Delbrück-Centrum für Molekulare Medizin in der Helmholtz-Gemeinschaft
Kerstin Sellerberg, SICP – Software Innovation Campus Paderborn, Universität Paderborn
Prompts Bilder, generiert mit midjourney von Gesine Born
Titelbild: a diorama of an office with female scientist working with computers, --style raw --v 6.1 --s 50
Bild 01: a diorama showing a university campus with students, working all together with laptops in front of a big screen with binar code, utopic --v 6.1 --s 50 --style raw
Bild 02: a futuristic diorama showing a people playing a chess game as a symbol of strategy in AI --v 6.1 --s 150 --style raw
Bild 03: Rosalind Franklin wearing an evening dress, laughing, portrait photo in a foto studio from 1960, kodak portra colors, dark blue backround, holding a medal in her hand and shows it to the camera, --v 5
Bild 04: a diorama showing a black old female scientist, looking in a mirror in a futuristic white and green binar world, as a symbol of the biases of AI, the mirror is showing just binar code --v 6.1 --s 50 --style raw
Bild 05: a miniature foto showing an elderly female scientist talking to a computer in a binar world, as a symbol of dialog with ai --v 6.1 --s 50 --style raw
Bild 06: a diorama showing binar code behind many milky panes of glass and can only be vaguely recognized --v 6.1 --s 50 --style raw
Bild 07: a diorama of a film set of the landing of the moon, from 1965 --style raw --v 6.1 --s 50
Bild 08: a diorama showing a female scientist holding a huge pile of books in a room full of social media --v 6.1 --s 50
Bild 10: a diorama showing a bridge, on one side people and a real world, on the other side a binor code as a symbol of data and science, unrealistic --v 6.1 --s 50 --style raw
Bildnachweis Bild 09
Bild 09: Shady Sharify / Better Images of AI / Who is AI Made Of / CC-BY 4.0
Impressum
Die Taskforce KI ist Teil der #FactoryWisskomm und eine Initiative des Bundesministerium für Forschung, Technologie und Raumfahrt.
Herausgeber
Dr. Matthias Begenat
Center for Advanced Internet Studies
matthias.begenat[at]cais-research.de
Nicole Hillebrand
Albert-Ludwigs-Universität Freiburg
nicole.hillebrand[at]unr.uni-freiburg.de
Gesine Born
Bilderinstitut
bilderinstitut[at]gesine-born.de
Prof. Dr. Ekkehard Felder
Universität Heidelberg
ekkehard.felder[at]gs.uni-heidelberg.de
Stand
Mai 2025