[AI]

Taskforce “KI in der Wissenschaftskommunikation”

Best-Practice

Angesichts anhaltender Angriffe auf die Faktenbasis des demokratischen Diskurses und zunehmender wissenschaftsfeindlicher Debatten (Spannagel & Kinzelbach, 2023) kommt der Wissenschaftskommunikation eine entscheidende Rolle zu: Indem sie wissenschaftliche Erkenntnisse an die Bevölkerung vermittelt und den Austausch darüber fördert, trägt sie zur Bewahrung einer freiheitlichen Gesellschaft bei. Um wirksam zu sein, braucht Wissenschaftskommunikation Formate und Methoden, die interessierte Personen erreichen, aber auch Personen, die bisher mit Wissenschaftskommunikation nicht oder wenig in Kontakt gekommen sind. Werkzeuge der generativen Künstlichen Intelligenz (KI) können dabei hilfreich sein. Mit einer intensiven generativen KI-Nutzung gehen jedoch auch unterschiedliche Risiken einher. Denn auch wenn sich die Interaktion mit modernen generativen KI-Werkzeugen wie die Zusammenarbeit mit einem menschlichen Gegenüber anfühlen mag: Es handelt sich um statistische Verfahren zur Generierung neuer Daten, die den Trainingsdaten ähneln. Diese Verfahren haben kein menschliches Verständnis der Welt und können keine Verantwortung übernehmen. Wenn faktisch falsche, stereotype oder verzerrte Inhalte generiert und verbreitet werden oder die Grenzen zwischen KI-generierten und von Menschen verfassten Inhalten verschwimmen, wachsen die Unsicherheiten im Hinblick auf die Verlässlichkeit von Wissen. Informierte Entscheidungen werden erschwert, wodurch letztlich das Vertrauen in die Wissenschaft Schaden nehmen kann. Der Einsatz generativer KI verschärft somit grundsätzliche Fragen für die Wissenschaftskommunikation: 

  • Wie beteiligt sich Wissenschaftskommunikation an einer faktenbasierten, demokratischen Gesellschaft?

  • Wie baut Wissenschaftskommunikation in den teils emotionalisierten, polarisierten oder manipulativen öffentlichen Diskursen Vertrauen in die Wissenschaft auf und macht wissenschaftliches Wissen sichtbar?

  • Wie gestalten Kommunizierende in der Wissenschaftskommunikation ihre aktive Rolle beim Einsatz von KI-Tools und bei der Entwicklung von KI-Formaten, ohne ihre Verantwortung an die generative KI abzugeben?

Eine Praxis guter Wissenschaftskommunikation, die auf die Unterstützung generativer KI zurückgreift, entsteht gerade erst (Fecher et al., 2025). Die Handlungsempfehlungen und die gesammelten Best-Practice-Beispiele sollen Orientierung bieten für professionell Kommunizierende an Hochschulen und außeruniversitären Forschungseinrichtungen, kommunizierende Forschende sowie für zentrale Einheiten der Hochschul- und Organisationskommunikation.

KI-Kompetenz online erwerben:

Lernplattform KI-Campus 

Der KI-Campus ist eine Lernplattform mit kostenlosen Online-Kursen, Videos, Podcasts und Tools zur Stärkung von KI-Kompetenzen. Die offen lizenzierten Lernangebote stammen von Hochschulen, Unternehmen und KI-Initiativen.

Ausgewählte Online-Kurse sind KI für Alle, Methoden der Bias-Reduktion für eine sozialverantwortliche KI-Gestaltung und das Prompt-Labor Hochschullehre 2.0. Erklärfilme wie Was ist generative KI? ermöglichen einen niedrigschwelligen Einstieg in KI-Themen.

Über den LLM-Chat des KI-Campus (webbasiertes Interface von HAWKI) können kostenlos verschiedene große Sprachmodelle (LLMs) genutzt werden.

Anknüpfung an Handlungsempfehlungen:

  • Vorrangig: Qualitätssicherung und Fehlerprävention

  • Verantwortung und Transparenz

  • Soziale und ethische Aspekte

THEMA

Weiterbildung

MEDIUM

Digitale Lernangebote

KI POTENZIAL & PROBLEMATIK

KI-Tools können bei Kommunikationsaufgaben unterstützen; Voraussetzung ist Kompetenzaufbau (Toolverwendung unter ethischer und wahrheitsbezogener Reflexion auch in Bezug auf Autorenschaft)

STIL

Zielgruppenorientiert je nach Lernangebot

ZIELGRUPPE

Studierende, Lehrende, Berufstätige (Wissenschaftskommunikator:innen)

ZIEL

Souveräner, verantwortlicher und reflektierter Einsatz von KI in der Wissenschaftskommunikation 

KI-Strategieentwicklung

Reflektierte Entwicklung von KI-Strategien

Am Anfang jeder KI-Nutzung steht die Frage, wofür und unter welchen Rahmenbedingungen sie eingesetzt wird. Idealerweise wird eine Strategie zur Nutzung der KI entwickelt. Teil einer jeden KI-Strategie sollte sein, dass die letzte Verantwortung beim Menschen liegt.

Ein aktuelles Beispiel für eine umfassende KI-Strategie im Hochschulbereich kommt von der TU München, einen Überblick über die fortlaufende Entwicklung von KI-Leitlinien für Lehrende und Studierende gibt es beim Hochschulforum Digitalisierung. Eine gute Unterstützung liefern Schwerpunkt-Websites, die KI-Themen einer Institution bündeln, wie z. B. der KI-Hub der Universität Vechta.

Im redaktionellen Bereich kann der systematische Einsatz eigener KI-Plattformen verbunden mit entsprechenden Schulungen Teil der KI-Strategie sein (wie zum Beispiel beim Medienhaus heise).

Anknüpfung an Handlungsempfehlungen:

• vorrangig: Implementation in Forschungsorganisationen und Kommunikationseinheiten

• Verantwortung und Transparenz

• Soziale und ethische Aspekte

THEMA

KI-Strategieentwicklung: Wann ist KI-Einsatz sinnvoll? Und wie sieht die optimale Strategie aus?

MEDIUM

Gemeinsame Reflexion, Workflow und Selbstverständigungsprozesse und Verantwortlichkeiten

KI POTENZIAL & PROBLEMATIK

Optimierung der Abläufe und sozio-kultureller sowie organisatorischer Wandel

STIL

Sachlich und differenziert

ZIELGRUPPE

Entscheidungsträger:innen und Wissenschaftskommunikator:innen

ZIEL

Strategisch-reflektierter und verantwortungsvoller Einsatz von KI

KI-Bildkompetenz

Systematische Irritation durch KI-generierte Bilder

Das Projekt der versäumten Bilder zeigt, wie das Potenzial der KI zur Visualisierung positiver und utopischer Ideen auf partizipative Weise genutzt werden kann. Es schafft generierte, fotorealistische Bilder von Frauen in der Wissenschaft, die bisher keine visuelle Anerkennung gefunden haben, z. B. an den Wänden von Universitäten und wissenschaftlichen Einrichtungen.

Das Projekt macht die Vorgehensweise transparent, indem es die generierten Bilder klar als KI kennzeichnet und durch die Offenlegung der verwendeten Prompts Einblicke in ihre Entstehung gewährt. Damit vermittelt es Medienkompetenz und stößt einen wichtigen Diskurs an. Das Projekt hat nicht nur viele unsichtbare Frauen in der Wissenschaft sichtbar gemacht, sondern regt auch dazu an, reale Porträts von Frauen an die Wände zu hängen – und über bildliche Authentizität und Evidenzkraft im KI-Zeitalter nachzudenken.

Anknüpfung an Handlungsempfehlungen:

  • vorrangig: Potenziale durch KI

  • Verantwortung und Transparenz bezüglich Echtheit un Evidenz

  • Soziale und ethische Aspekte

THEMA

KI-Bildkompetenz: Das Zeigen von Utopien

MEDIUM

Bilder an Wänden in Universitäten, Ausstellungen

KI POTENZIAL & PROBLEMATIK

Das Schaffen einer emotional positiv besetzten Parallelwelt | Problematik der Fake-News, auch wenn sie klar gekennzeichnet sind | sehr intensive Kontextualisierung nötig

STIL

Emotional

ZIELGRUPPE

Besucher:innen der Ausstellung, an Wissenschaft Interessierte

ZIEL

Frauen in der Wissenschaft sichtbar machen, Reflexion über KI und über Wirklichkeitswahrnehmung, photographische "Beweise" und Historizität anstoßen

KI-Bias

Wie man Bias durch KI identifizieren und minimieren kann

Eine KI kann nur so gut sein, wie die Daten, mit denen sie trainiert wird. In diesen Trainingsdaten können jedoch Vorurteile oder auch Stereotype enthalten sein, die unbeabsichtigt übernommen werden. Dies kann dazu führen, dass Nutzer:innen unfaire oder auch diskriminierende Ergebnisse erhalten. Hier geht es speziell um die Identifizierung und die Problematisierung von verzerrten Ergebnissen, auch Bias genannt.

Es empfiehlt sich daher, die Trainingsdaten zu kennen, besser noch, die KI selbst qualitativ und repräsentativ zu trainieren. Bias ist nicht nur ein technisches Problem, sondern auch ein gesellschaftliches und kulturelles. Darüber hinaus empfiehlt sich ein kontinuierliches Monitoring oder gar KI-Modelle mit Fairness-Kontrollen zu entwickeln, denn Bias kann sich im Laufe der Zeit verändern, besonders wenn sich die zugrundeliegenden Daten oder die Umgebung ändern.

Anknüpfung an Handlungsempfehlungen:

  • vorrangig: Verantwortung und Transparenz

  • ethische und soziale Aspekte: Beachtung der Mindeststandards

THEMA

KI-Bias: Methoden zum Erkennen von verzerrten Denkmustern und ihrer Milderung

MEDIUM

Analysewerkzeug von geschriebener und gesprochener Sprache (z.B. Gender Decoder https://genderdecoder.wi.tum.de ), Analysetool für die deutsche Berichterstattung (z.B. GETT - Gender Equality Tech Tool https:// www.wsciencehub.com/gett ), Methoden der Bias-Reduktion

KI POTENZIAL & PROBLEMATIK

Reflektiertes Training der KI mit qualitativen und repräsentativen Daten und Notwendigkeit des Zusammenschlusses, Methoden der Bias-Reduktion

STIL

Wissenschaftlich, sachlich

ZIELGRUPPE

Studierende, Lehrende, Berufstätige (Wissenschaftskommunikator:innen)

ZIEL

Faire KI: Vermeidung von Diskriminierung durch einseitige Wissensperspektivierungen, Diskriminierungsfreie Algorithmen stärken, Förderung von Diversität und Inklusion in der KI-Entwicklung, Transparenz und Nachvollziehbarkeit in KI-Modellen gewährleisten, Gesellschaftliche und ethische Verantwortung stärken

Sokratischer Dialog:

Kommunikation mit der KI über die KI

Die Kommunikation mit KI und über KI wird zunehmend verschmelzen. Eine dialogische Auseinandersetzung von Usern mit Antworten von Sprachmodellen (inklusive insistierendem „Nachbohren“) soll dazu beitragen, LLM-interne Vorannahmen, ethische Werte und Stereotype aufzudecken, zu reflektieren und die Ergebnisse zu beeinflussen. In einer – zur Nachahmung und Modifikation bestimmten – Plattform https://frameintell.de/news/best-practice/  wird gezeigt, wie Sprachmodelle auf ihr kommuniziertes Selbstbild befragt werden können,um also die Fremd- und Eigenzuschreibungen deutlich zu machen (z.B. bei https://lmarena.ai/). Durch kompetentes “Art of Prompting” als strategische Gesprächstechnik sollen Sprachmodelle ihre Weltbilder und Ideologien offenlegen.

Best Practice bei FrameIntell: https://frameintell.de/news/best-practice/ 

Anknüpfung an Handlungsempfehlungen:

• Vorrangig: Implementation in Forschungsorganisationen und Kommunikationseinheiten

• Kommunikation und Austausch in der KI-nutzenden Wissenschaftskommunikations-Community

THEMA

Kommunikation mit und über KI

MEDIUM

Interaktion über Fremd- und Selbstzuschreibungen

KI POTENZIAL & PROBLEMATIK

Gefahr ungewollter gesellschaftlicher Disruptionen; Generative KI ermöglicht dialogische Auseinandersetzung;

STIL

Dialogische Interaktionsstrategien: The art of prompting

ZIELGRUPPE

Studierende, Lehrende, Wissenschaftskommunikator:innen

ZIEL

Aktive Gestaltung der gesellschaftlichen Transformation

Vertrauen und Glaubwürdigkeit

Transparenz – wann und wie?

Grundsätzlich sollte die Anwendung von KI transparent gemacht werden – im Sinne guter wissenschaftlicher Praxis. In jedem Einzelfall ist zu klären, ob und wie diese Kennzeichnung konkret erfolgen soll, damit sie das Vertrauen in Wissenschaft unterstützt. Der Hinweis kann übergreifend in Textform erfolgen, durch Wasserzeichen bei Bildern/Videos, und bei Social Media durch Eintrag in den Metadaten. Künstler Boris Eldagsen plädiert z. B. für eine klare Trennung zwischen Fotografien und mit KI erzeugten Bildern, die er “Promptografie” nennt. Bei einem Fotowettbewerb hat er erst nach Einreichung seines Werks auf die KI-Generierung hingewiesen, um eine Debatte anzustoßen: https://www.derstandard.de/story/2000145658251/ki-kuenstler-boris-eldagsen-kuenstliche-intelligenz-ist-keine-fotografie

Transparenz muss auch auf technischer Ebene bestehen. Das ist das Ziel der Content Authenticity Initiative (CAI). Sie möchte einen Industriestandard fördern, der sichere Aussagen über die Herkunft digitaler Inhalte erlauben soll. Die Initiative wurde von Adobe, der New York Times und Twitter gegründet.

Anknüpfung an Handlungsempfehlungen:

  • Vorrangig: Verantwortung und Transparenz

  • Qualitätssicherung

  • Soziale und ethische Aspekte

THEMA

KI-Transparenz: Sicherstellung des Vertrauens und Glaubwürdigkeit der Wissenschaftskommunikation

MEDIUM

Medienspezifische Transparenzhinweise

KI POTENZIAL & PROBLEMATIK

Transparente KI-Nutzung kann Vertrauen in die Technologie und die Wissenschaft stärken. Dabei sind Rahmenbedingungen zu bedenken und Verantwortliche zu benennen.

STIL

Allgemeinverständlich, gut erkennbar, nachvollziehbar

ZIELGRUPPE

Rezipient:innen KI-erzeugter Inhalte, Intermediäre wie Wissenschaftskommunikator:innen

ZIEL

Strengthen Trust in Science

Debunking Bot:

Verschwörungstheorie oder Stand der Wissenschaft?

Künstliche Intelligenz kann gezielt zum Aufspüren von Fakes eingesetzt werden. Sogenannte Debunking Bots lassen sich nutzen, um Menschen im Dialog zum Hinterfragen ihres Weltbildes (nachweisbar und nachhaltig) zu bringen. Angesichts der massiven Verbreitung von Fake News durch Social Bots muss es zu einer adäquaten Gegenstrategie der Wissenschaftskommunikation kommen.

Debunkbot: https://www.debunkbot.com/ 

Paper zum Debunkbot: https://www.science.org/doi/10.1126/science.adq1814 

Anknüpfung an Handlungsempfehlungen:

• Vorrangig: Qualitätssicherung der Wissenschaftskommunikation als Ganzes

• Potenziale für die faktenorientierte Kommunikation

• Verantwortung und Transparenz

THEMA

Debunking durch KI: Verschwörungserzählungen als Gefahr für die Wissenschaft 

MEDIUM

Interaktion

KI POTENZIAL & PROBLEMATIK

KI-Problematik wird zum Potential der Problemlösung

STIL

Personalisierter und empathischer Stil

ZIELGRUPPE

Durch Faktenferne gefährdete Menschen

ZIEL

Aufklärung

Social Media Content

Von der Publikation zum Social Media-Post

Das Forschungszentrum CATALPA (Center of Advanced Technology for Assisted Learning and Predictive Analytics) an der FernUniversität in Hagen experimentiert mit verschiedenen KI-Use-Cases auf eigenen Servern mit Open Source KI. Teil davon ist die Anwendung “Paper Summary” der Abteilung Wissenschaftskommunikation. Mit voreingestellten Prompts soll die KI aus einer Publikation einen Social Media Posting-Text per Knopfdruck generieren. Dabei lassen sich die einzelnen Prompts anpassen und auch über ausgewählte Paper-Inhalte, die Schwerpunkte des Postingtexes gewichten. 

Anknüpfung an Handlungsempfehlungen:

  • Vorrangig: Potenziale für die zielgruppengenaue Kommunikation

  • Verantwortung und Transparenz

  • Implementation in Forschungsorganisationen und Kommunikationseinheiten

THEMA

Nutzung von Large Language Modellen zur Generierung von Social Media Content

MEDIUM

Das Projekt zeigt Best Practices für den Einsatz generativer KI in der Wissenschaftskommunikation, indem es fotorealistische Porträts übersehener Wissenschaftlerinnen erstellt.

KI POTENZIAL & PROBLEMATIK

Das Tool bietet einen niedrigschwelligen und datensicheren Zugang zu Large Language Modellen und das Potenzial im Bereich Social Media Ressourcen einzusparen. 

STIL

Leichte Verständlichkeit, auf Zuspitzung ausgerichteter, kurzer Stil im Sinne des Küchenzurufs. 

ZIELGRUPPE

Wissenschaftskommunikator:innen und kommunizierende Wissenschaftler:innen

ZIEL

Sichtbarkeit schaffen für wissenschaftliche Publikationen; Zeitersparnis für mehr Qualität 

KI-Visualisierung

Visualisierung von KI ohne Stereotype

Better Images of AI (siehe auch https://www.wissenschaftskommunikation.de/better-images-of-ai-hintergruende-und-ressourcen-83757/) stellt eine Datenbank aus Bildern zusammen, die klischeehafte Repräsentationen von Künstlicher Intelligenz überwinden möchte. Die Bilder können unter offener Lizenz von Wissenschaftskommunikator:innen genutzt werden und sollen zu einer vielfältigen Visualisierung von KI anregen.

Anknüpfung an Handlungsempfehlungen:

  • Vorrangig: Potenziale durch bislang nicht vorhandene, visuell gestützte Wirkmöglichkeiten im öffentlichen Diskurs

  • Qualitätssicherung 

THEMA

Alternative Motive zum Thema KI

MEDIUM

Bilddatenbank

KI POTENZIAL & PROBLEMATIK

KI ist schwierig darstellbar

STIL

Unterschiedliche Visualisierungen

ZIELGRUPPE

Redaktionen, Wissenschaftskommunikator:innen

ZIEL

Stereotype vermeiden und neue Bildwelten schaffen

Mit KI Forschungsergebnisse zugänglich machen

“Bridging the Communication Gap”

Mithilfe Künstlicher Intelligenz vergessene Datenbanken der Forst-, Umwelt- und Nachhaltigkeitswissenschaften der Universität Freiburg zum Leben erwecken, neue und alte wissenschaftliche Ergebnisse verständlich aufbereiten und ein Modell für KI-gestützte Wissenschaftskommunikation entwickeln: Das sind die Ziele des Projekts „Bridging the Communication Gap“, welches an der Fakultät für Umwelt und Natürliche Ressourcen der Universität Freiburg angesiedelt ist und von der Eva Mayr-Stihl Stiftung gefördert wird.

In Zusammenarbeit mit dem Science Media Center Lab werden verschiedene KI-Applikationen für interne und externe Zielgruppen entwickelt. Ein Beispiel ist ein Themenmonitoring, das wissenschaftliche Expertise mit aktuellen Medienberichten verknüpft und es so ermöglicht, relevante Forschung zeitnah in gesellschaftliche Debatten einzubringen.

Anknüpfung an Handlungsempfehlungen:

  • vorrangig: Potenziale durch bislang nicht mögliche Zugänglichkeit  wissenschaftlichen Wissens; Stärkung der Wissenschaftskommunikation und der wissenschaftlichen Evidenz

THEMA

Mit KI Forschungsergebnisse zugänglich machen und Potenziale für die Wissenschaftskommunikation nutzen

MEDIUM

Interaktive Plattform

KI POTENZIAL & PROBLEMATIK

Interne Zielgruppen bei den Kommunikationsaufgaben unterstützen. Wissenschaftliche Ergebnisse und Expertise zugänglicher machen für externe Zielgruppen.

STIL

sachlich, nutzerorientiert

ZIELGRUPPE

intern: Wissenschaftler:innen und Kommunikator:innen; extern: Journalist:innen, Entscheidungsträger:innen, Praktiker:innen

ZIEL

Wissenschaftliche Ergebnisse der Forst-, Umwelt- und Nachhaltigkeitswissenschaften zugänglicher machen und in gesellschaftliche Debatten einbringen

Mitwirkende an den Best Practice-Beispielen in der Taskforce

  • Dr. Matthias Begenat, Center for Advanced Internet Studies

  • Dr. Meik Bittkowski, Science Media Center Germany

  • Gesine Born, Bilderinstitut

  • Prof. Dr. Ekkehard Felder, Universität Heidelberg

  • Nicole Hillebrand, Universität Freiburg

  • Sandra Kirschbaum, CATALPA, FernUniversität in Hagen

  • Lucas Laux, Stifterverband | KI-Campus

  • Dr. Norbert Lossau, Wissenschaftsjournalist

  • Prof. Dr. Annette Leßmöllmann, Karlsruher Institut für Technologie

  • Rosa Esther Martin Peña, Deutsches Forschungszentrum für Künstliche Intelligenz

  • Silvio Schwartz, Max-Delbrück-Centrum für Molekulare Medizin in der Helmholtz-Gemeinschaft

  • Kerstin Sellerberg, SICP – Software Innovation Campus Paderborn, Universität Paderborn

Prompts Bilder, generiert mit midjourney von Gesine Born

Titelbild: a diorama of an office with female scientist working with computers, --style raw --v 6.1 --s 50

Bild 01: a diorama showing a university campus with students, working all together with laptops in front of a big screen with binar code, utopic --v 6.1 --s 50 --style raw

Bild 02: a futuristic diorama showing a people playing a chess game as a symbol of strategy in AI --v 6.1 --s 150 --style raw

Bild 03: Rosalind Franklin wearing an evening dress, laughing, portrait photo in a foto studio from 1960, kodak portra colors, dark blue backround, holding a medal in her hand and shows it to the camera, --v 5

Bild 04: a diorama showing a black old female scientist, looking in a mirror in a futuristic white and green binar world, as a symbol of the biases of AI, the mirror is showing just binar code --v 6.1 --s 50 --style raw

Bild 05: a miniature foto showing an elderly female scientist talking to a computer in a binar world, as a symbol of dialog with ai --v 6.1 --s 50 --style raw

Bild 06: a diorama showing binar code behind many milky panes of glass and can only be vaguely recognized --v 6.1 --s 50 --style raw

Bild 07: a diorama of a film set of the landing of the moon, from 1965 --style raw --v 6.1 --s 50

Bild 08: a diorama showing a female scientist holding a huge pile of books in a room full of social media --v 6.1 --s 50

Bild 10: a diorama showing a bridge, on one side people and a real world, on the other side a binor code as a symbol of data and science, unrealistic --v 6.1 --s 50 --style raw

Bildnachweis Bild 09

Bild 09: Shady Sharify / Better Images of AI / Who is AI Made Of / CC-BY 4.0

Impressum

Die Taskforce KI ist  Teil der #FactoryWisskomm und eine Initiative des Bundesministerium für Forschung, Technologie und Raumfahrt.

Herausgeber

Dr. Matthias Begenat
Center for Advanced Internet Studies
matthias.begenat[at]cais-research.de

Nicole Hillebrand
Albert-Ludwigs-Universität Freiburg
nicole.hillebrand[at]unr.uni-freiburg.de

Gesine Born
Bilderinstitut
bilderinstitut[at]gesine-born.de

Prof. Dr. Ekkehard Felder
Universität Heidelberg
ekkehard.felder[at]gs.uni-heidelberg.de

Stand

Mai 2025