Ein wichtiges Dokument für die Nutzung von künstlicher Intelligenz in der Forschung

In einem in der Fachzeitschrift Proceedings of the National Academy of Sciences erschienenen Editorial fordert eine interdisziplinäre Arbeitsgruppe die Wissenschaftsgemeinde auf, sich bei der Nutzung von künstlicher Intelligenz in der Forschung an fünf Prinzipien der Verantwortlichkeit zu halten. (1) Die Autor:innen regen ferner die Einrichtung eines Strategic council on the responsible Use of AI in science an, der Handlungsempfehlungen erstellt und eine ständige Überwachung des verantwortlichen Umgangs und der Best Practices garantiert, während sich die Technologie weiterentwickelt.

Das Editorial betont, dass die Fortschritte der generativen KI bedeutende Veränderungen in der Wissenschaft bewirken, welche die wissenschaftliche Forschung beschleunigen, aber auch grundlegende Regeln und Werte der Wissenschaft wie Verantwortung, Transparenz und Reproduzierbarkeit zur Diskussion stellen werden. „Wir sind aufgeschlossen für die Fortschritte, die KI auf allen wissenschaftlichen Gebieten bewirkt, doch müssen wir auch wachsam sein und bestehende wissenschaftliche Normen und Werte verteidigen“, erklärt Marcia McNutt, die Präsidentin der National Academy of Sciences, und  eine der Autorinnen des Editorials. „Wir hoffen, dass unser Artikel die Forschenden zum Nachdenken anregt und die Grundlagen für gemeinsame Anstrengungen schafft, um die Integrität der Wissenschaft zu schützen, denn generative KI wird in der Forschung immer öfter genutzt.“

Die 24 Autor:innen des Dokuments wurden von der Academy of Sciences, dem Annenberg Public Policy Center der Universität von Pennsylvania und dem Annenberg Foundation Trust at Sunnylands gebeten zu untersuchen, vor welche neuen Herausforderungen die Anwendung von KI die Forschung stellt, sowie einen möglichen Weg für die Wissenschaftsgemeinde zu umreißen. Die Gruppe setzte sich aus Expert:innen in Verhaltens- und Sozialwissenschaften, Ethik, Biologie, Physik, Chemie, Mathematik und Informatik sowie leitenden Persönlichkeiten aus den Bereichen Hochschulbildung, Recht, Governance und wissenschaftliche Kommunikation zusammen. Grundlage der Debatte war eine Reihe von in Issues in Science and Technology veröffentlichten Dokumenten, in denen verschiedenen Aspekte von KI untersucht wurden, von der Nutzung bis zur KI-Governance.

Wie eingangs erwähnt fordern die Autor:innen des Editorials die Wissenschaftsgemeinde auf, fünf Grundsätze zu beachten, wenn sie bei ihrer Forschung IA nutzen: Transparenz der Verbreitung und Zuschreibung; Überprüfung der Inhalte und der KI-generierten Analysen; Dokumentation der KI-generierten Daten; Beachtung von Ethik und Gleichheit; kontinuierliche Beobachtung, Überwachung und Engagement für die Allgemeinheit. Jeder Grundsatz geht mit bestimmten Verhaltensregeln für Wissenschaftler:innen, Entwickler:innen von Modellen, die KI nutzen, und weitere Interessierte einher. Forschende zum Beispiel sollen offenlegen, dass bei der Forschungsarbeit generative KI – einschließlich der verwendeten Tools, Algorithmen und spezifischen Ansätze – genutzt wurde, die Informationsquellen und Anregungen präzise benennen und dabei zwischen „menschlichen“ und KI-generierten Beiträgen unterscheiden.

Der angeregte Strategierat soll bei der Nationalen Akademie der Naturwissenschaften, der Ingenieurswissenschaften und der Medizin angesiedelt werden, sich mit der Wissenschaftsgemeinde abstimmen und regelmäßig aktualisierte Vorschläge für den angemessenen Umgang mit KI vorlegen. Der Rat soll die sich weiterentwickelnde Nutzung von KI in der Wissenschaft, neue ethische und gesellschaftliche Bedenken, einschließlich von Gleichheitsgrundsätzen, und neue Bedrohungen für die wissenschaftlichen Regeln beobachten, überwachen und in Angriff nehmen. Überdies soll er seine Erkenntnisse mit den unterschiedlichen Fachgebebieten austauschen und Best Practices entwickeln und verfeinern.

Fonte

Blau W, Cerf VG, Enriquez J, et al. Protecting scientific integrity in an age of generative AI. Proceedings of the National Academy of Sciences 2024;121(22):e2407886121.

Tags: