KI in Forschung und Hochschule: Internationales Team definiert acht Prinzipien für verantwortungsvollen Einsatz
Generative KI wie ChatGPT ist innerhalb kürzester Zeit Teil des Forschungs- und Hochschulalltags geworden. Sie unterstützt bei Literaturrecherche, Schreibprozessen oder der Analyse großer Datenmengen. Doch wie lässt sich sicherstellen, dass diese Werkzeuge transparent, verantwortungsvoll und wissenschaftlich präzise eingesetzt werden?
Ein internationales Forschungsteam aus 20 Wissenschaftler:innen hat nun ein Rahmenwerk mit acht zentralen Prinzipien sowie einer praxisnahen Checkliste entwickelt, die Orientierung für Forschung, Lehre und Abschlussarbeiten bietet. Die Studie "Core principles of responsible generative AI usage in research" ist Open Access im Journal AI and Ethics erschienen.
Warum ein neues Rahmenwerk nötig ist
"Wir wollten keine Momentaufnahme zur Technik, sondern etwas Dauerhaftes, das auch die nächste Modellgeneration überlebt", erklärt Florian Buehler, Mitautor und Hochschullehrer im Fachbereich Wirtschaft an der FHV - Vorarlberg University of Applied Sciences.
Der Ansatz des Teams: Nicht jede neue KI braucht neue Regeln. Stattdessen sollen Forschende, Lehrende und Studierende sich einige wenige, aber zentrale Fragen stellen, bevor sie KI einsetzen.
Wie die Prinzipien entstanden
Die acht Prinzipien wurden in einem mehrstufigen Delphi-Verfahren entwickelt. Hierbei handelt es sich um ein etabliertes wissenschaftliches Konsensverfahren. Sie decken Themen wie Datenschutz, Transparenz, Energieverbrauch, wissenschaftliche Integrität und Auswirkungen auf Arbeitsprozesse ab.
Ergänzend dazu hat das Team eine frei zugängliche Checkliste veröffentlicht, die zum Beispiel für Lehrveranstaltungen oder Abschlussarbeiten genutzt werden kann. Diese wird zur Dokumentation genutzt und gibt an, wo KI eingesetzt und wo eigenständige wissenschaftliche Leistung erbracht wurde.
"Es geht nicht um Angst vor KI, sondern um klare Regeln"
"Wenn wir offenlegen, wo und wie KI im wissenschaftlichen Prozess zum Einsatz kommt, stärkt das sowohl das Vertrauen in Forschungsergebnisse als auch in die Wissenschaft insgesamt", so Buehler.
Mit seiner Mitwirkung bringt er - gemeinsam mit Forschenden aus Europa, Asien, Nordamerika und dem Mittleren Osten - die Expertise der FHV in eine globale Diskussion ein. Das Forschungsteam setzt damit ein starkes Signal: Zukunft digital gestalten heißt auch, Verantwortung zu übernehmen.
Kurzinterview mit Florian Buehler
1. Warum war es Ihnen wichtig, an dieser Studie mitzuwirken?
„KI ist längst Teil unseres wissenschaftlichen Alltags. Mit unserem Rahmenwerk wollten wir ein Werkzeug schaffen, das nicht morgen schon veraltet ist, sondern Forschenden – unabhängig vom konkreten Tool - Orientierung gibt.“
2. Was macht Ihr Rahmenwerk anders als bisherige Richtlinien?
„Wir setzen nicht auf starre Regeln für einzelne Systeme, sondern auf Prinzipien, die sich auf jede neue KI-Generation anwenden lassen. Das ist unserer Ansicht nach sehr entscheidend, da sich die Technik extrem schnell weiterentwickelt.“
3. Welches der acht Prinzipien ist besonders wichtig?
„Transparenz. Wer KI nutzt, sollte offenlegen, wie und wofür. Das schafft Vertrauen – bei Kolleg:innen, in der Lehre und in der Gesellschaft.“
4. Wie können Studierende profitieren?
„Sie können ihre KI-Nutzung strukturiert dokumentieren und gemeinsam mit der Arbeit einreichen. So wird sichtbar, wo die KI unterstützt und wo eigenständige Leistung erbracht wurde.“
5. Was ist Ihre Botschaft an Hochschulen und Forschungseinrichtungen?
„Keine Angst vor KI zu haben, aber klare Spielregeln zu definieren. Die verantwortungsvolle Nutzung macht KI zu einem wertvollen Werkzeug.“
Die Studie in Kürze
-
Titel: Core principles of responsible generative AI usage in research
-
Journal: AI and Ethics (Open Access)
-
Autor:innenteam: 20 Forschende aus mehreren Kontinenten, u. a. aus Psychologie, KI-Forschung, Sozialwissenschaften, Recht, Ethik und wissenschaftlichem Publizieren.
-
Methode: Anonymisiertes Delphi-Verfahren mit 16 internationalen Expert:innen und drei Bewertungsrunden bis zum Konsens über acht Kernprinzipien.
-
Output: Rahmenwerk mit acht Prinzipien plus praxisnaher Checkliste und Online-Tool zur Bewertung von GenAI-Anwendungen in der Forschung und im Hochschulkontext.
Knöchel, T. D., Schweizer, K. J., Acar, O. A., Akil, A. M., Al-Hoorie, A. H., Buehler, F., ... & Aczel, B. (2025). Core principles of responsible generative AI usage in research. AI and Ethics, 1-7.
https://link.springer.com/article/10.1007/s43681-025-00768-8
Bei Fragen: Florian Buehler Hochschullehrer Fachbereich Wirtschaft FHV florian.buehler@fhv.at +43 5572 792 3315