Cross-Cutting AI: Erfolgreicher gemeinsamer NFDI-Workshop zu „LLM in Scientific Publishing“

Expert*innen aus verschiedenen Disziplinen diskutierten über den Einsatz von KI im wissenschaftlichen Betrieb.

LLM-Workshop-2025

Am 11. Februar 2025 trafen sich mehr als 60 Expert*innen aus Wissenschaft, Verlagen und Start-ups am DIPF in Frankfurt, um beim Workshop „Large Language Models and the Future of Scientific Publishing“ über den Einsatz von generativer KI in der Wissenschaft zu diskutieren. Die gemeinsame Veranstaltung der NFDI-Konsortien KonsortSWD, NFDI4Chem, NFDI4DataScience, NFDI4Earth, NFDI-MatWerk und Text+ schuf eine außergewöhnliche Plattform für den Dialog zwischen den Disziplinen – von den Sozialwissenschaften bis zu den Materialwissenschaften. Dies ermöglichte multiperspektivische Diskussionen, die über institutionelle und disziplinäre Grenzen hinausgingen.

Den Auftakt der Veranstaltung bildeten zwei kontrastreiche Keynotes: Prof. Sandra Geisler von der RWTH Aachen demonstrierte in „Prompt or Perish“ konkrete LLM-Anwendungen entlang des Forschungsdatenzyklus – von der Ontologieauswahl bis zur automatisierten Jupyter-Notebook-Erstellung. Ihr Appell: Trotz Effizienzsteigerung bleibt die kritische Prüfung unerlässlich, insbesondere bei Modellen, die zu Halluzinationen neigen. In „Beyond the Hype“ skizzierte Markus Kaindl von der Verlagsgruppe Springer Nature eine Zukunft, in der KI die ersten Entwürfe von Publikationen übernimmt und Forscher sich auf ihre Kernkompetenzen konzentrieren. Sein Ausblick auf kostengünstige kleine Sprachmodelle und KI-gestützte Trendanalysen für Verlage wurde in der Diskussion häufig aufgegriffen.

In ausführlichen Sitzungen wurden zwiespältige Ansichten deutlich: Einerseits ermöglichen LLM automatische Plagiatsprüfungen, die Vervollständigung von Metadaten und ein effizienteres Peer-Review-Management. Andererseits werfen KI-generierte Inhalte urheberrechtliche Fragen auf, die Überprüfung von KI-generierten Vorschlägen nimmt Zeit in Anspruch und der Energieverbrauch großer Modelle wirft Umweltfragen auf. Moderatorin Wendy Patterson vom Beilstein-Institut ging auch auf Fragen im Zusammenhang mit Vorschriften und Richtlinien für den Einsatz von KI-gestützten Tools in der Verlagslandschaft ein. Die Zunahme „synthetischer“ Publikationen – von maschinell aufgeblähten Textpassagen bis hin zu schwer verständlichen KI-generierten Datensätzen – war ein besonders kontroverses Diskussionsthema unter den Teilnehmer*inen.

In der abschließenden Diskussion, die von Philippe Genêt (Deutsche Nationalbibliothek) moderiert wurde, verdichteten sich die kontroversen Positionen zu einem zentralen Leitmotiv: KI-Werkzeuge müssen als unterstützende Instrumente verstanden werden, die menschliches Fachwissen ergänzen – nicht ersetzen – können. Die Debatte offenbarte ein Spannungsfeld zwischen technologischem Potenzial und gesellschaftlicher Verantwortung.

Die produktive Vernetzung verschiedener Akteur*innen erwies sich als Erfolg der Veranstaltung: Start-ups präsentierten KI-Lösungen, z. B. für die automatische Generierung von Abstracts, Verlage stellten Qualitätssicherungssysteme vor, Forscher tauschten ihre Erfahrungen mit Prompt-Engineering sowie der allgemeinen Nutzung von KI aus. Die Tatsache, dass sechs NFDI-Konsortien gemeinsam an diesem Thema arbeiteten, unterstreicht die Relevanz des Themas im Forschungskontext und für Forschungsinfrastrukturen. Die lebhaften Debatten – vom Umgang mit synthetischen Daten bis zur Reform des Peer-Review-Systems – markieren den Beginn einer intensiveren Auseinandersetzung mit LLM in der NFDI.

Dieser Gastbeitrag wurde geschrieben von Bernhard Miller von KonsortSWD.