Die DFG torpediert sich selbst

https://www.dfg.de/de/aktuelles/neuigkeiten-themen/info-wissenschaft/2025/ifw-25-102

AI‑Systeme, jedenfalls wie sie heute existieren, beruhen ausschließlich auf historischen Daten und statistischen Mustern aus bereits vorhandenem Wissen. Sie können nicht wirklich verstehen oder originell urteilen, sondern nur bekannte Konzepte extrapolieren. Dadurch fehlt ihnen die Fähigkeit, bahnbrechende, noch nicht dokumentierte Ideen oder originelle wissenschaftliche Innovationen zu erkennen oder korrekt zu bewerten — was für die Beurteilung von Forschungsanträgen oft zentral ist.

Fachlich versierte Gutachter*innen bringen Erfahrung, kontextuelles Verständnis und Intuition in die Bewertung ein — Qualitäten, die KI‑Modelle noch nicht besitzen. KI kann bei Routine‑Checks oder formalen Aspekten helfen, aber sie kann nicht subtile wissenschaftliche Originalität, methodische Raffinesse oder neuartige Denkansätze zuverlässig bewerten. Definitiv nicht.

KI‑Modelle lernen aus Datensätzen, die bereits menschliche Vorurteile und strukturelle Verzerrungen enthalten. Wenn solche Systeme zur Begutachtung eingesetzt werden, riskieren sie, historische Ungerechtigkeiten und systematische Biases zu reproduzieren – etwa gegenüber bestimmten Fachrichtungen, Regionen oder Methoden – selbst wenn „Verantwortung bei den Gutachter*innen“ verbleibt. Angeblich.

Bei der Eingabe von Anträgen oder vertraulichen wissenschaftlichen Daten in KI‑Systeme besteht das Risiko, dass diese Informationen nicht vollständig kontrolliert oder gespeichert werden. Obwohl DFG‑Richtlinien Vertraulichkeit fordern, bleibt die technische Umsetzung anspruchsvoll und juristisch heikel. Oder haben wir unbegrenzt Zeit für das Review.

Auch wenn die DFG betont, dass die Verantwortung bei den gutachtenden Personen bleibt, besteht die Gefahr, dass Bewertende kognitiv auf KI‑Ausgaben „verlassen“ (sog. cognitive offloading). Das kann dazu führen, dass Gutachter*innen ihr eigenes kritisches Denken weniger anwenden, wodurch die Qualität der Begutachtung insgesamt leidet.

Es gibt dokumentierte Fälle, in denen Forschende versuchen, KI‑gestützte Reviewprozesse durch versteckte Prompt‑Techniken gezielt zu beeinflussen – ein Risiko, das bei Einsatz von KI‑Tools in Begutachtungen weiter zunehmen kann, wenn entsprechende Schutzmechanismen fehlen.

Sagt chatGPT selbst…

 

CC-BY-NC Science Surf accessed 09.01.2026 VG Wort note save PDF