Intelligenza artificiale e ricerca scientifica: un documento importante

Un editoriale pubblicato sui Proceedings of the National Academy of Sciences, un gruppo interdisciplinare di esperti sollecita la comunità scientifica a seguire cinque principi di responsabilità nel ricorso all’intelligenza artificiale nella ricerca. Gli autori chiedono inoltre l’istituzione di uno Strategic council on the responsible Use of AI in science, per garantire una guida e una supervisione continue sulle responsabilità e sulle best practice, man mano che la tecnologia si evolve.

L’editoriale sottolinea come i progressi dell’IA generativa rappresentino un momento importante di trasformazione per la scienza, che accelererà la ricerca scientifica ma metterà anche in discussione norme e valori fondamentali della scienza, come la responsabilità, la trasparenza, la replicabilità e la responsabilità umana. “Accogliamo con favore i progressi che l’IA sta portando avanti in tutte le discipline scientifiche, ma dobbiamo anche essere vigili nel sostenere norme e valori scientifici di lunga data”, ha dichiarato la presidente della National Academy of Sciences Marcia McNutt, una delle coautrici dell’editoriale. “Ci auguriamo che il nostro articolo stimoli la riflessione dei ricercatori e ponga le basi per sforzi concertati volti a proteggere l’integrità della scienza, dato che l’IA generativa viene sempre più utilizzata nel corso della ricerca”.

I 24 autori del documento sono stati invitati dalla National Academy of Sciences, dall’Annenberg Public Policy Center dell’Università della Pennsylvania e dall’Annenberg Foundation Trust at Sunnylands a esplorare le sfide emergenti poste dall’uso dell’IA nella ricerca e a tracciare un percorso da seguire per la comunità scientifica. Il gruppo comprendeva esperti di scienze comportamentali e sociali, etica, biologia, fisica, chimica, matematica e informatica, nonché leader nel campo dell’Istruzione superiore, del Diritto, della governance e della comunicazione scientifica. Il confronto si è basato su una serie di documenti che hanno esplorato vari aspetti dell’IA, del suo uso e della sua governance, pubblicati su Issues in Science and Technology.

Come detto in apertura, nell’editoriale gli autori esortano la comunità scientifica ad attenersi a cinque principi nella conduzione di ricerche che utilizzano l’IA: disseminazione e attribuzione trasparenti; verifica dei contenuti e delle analisi generate dall’IA; documentazione dei dati generati dall’IA; attenzione all’etica e all’equità; monitoraggio, supervisione e impegno pubblico continui. Per ogni principio, gli autori identificano azioni specifiche che dovrebbero essere intraprese dagli scienziati, da coloro che creano modelli che utilizzano l’IA e da altri soggetti. Per esempio, per i ricercatori, la trasparenza della divulgazione e dell’attribuzione comprende la chiara dichiarazione dell’uso dell’IA generativa nella ricerca – compresi gli strumenti, gli algoritmi e le impostazioni specifiche utilizzate – e l’attribuzione accurata delle fonti delle informazioni o delle idee, distinguendole tra “umane” e riconducibili all’IA.

Lo Strategic council proposto dovrebbe essere istituito dalle Accademie nazionali di scienze, ingegneria e medicina, dovrebbe coordinarsi con la comunità scientifica e fornire indicazioni regolarmente aggiornate sugli usi appropriati dell’IA. Il Council dovrebbe studiare, monitorare e affrontare l’evoluzione dell’uso dell’IA nella scienza, esplorando ciò che di preoccupante emergerà dal punto di vista etico e riguardante l’impatto sociale, compresa l’equità, e le minacce emergenti alle regole della ricerca scientifica. Dovrebbe inoltre condividere le proprie conoscenze tra le varie discipline e sviluppare e perfezionare le migliori pratiche.

Fonte

Blau W, Cerf VG, Enriquez J, et al. Protecting scientific integrity in an age of generative AI. Proceedings of the National Academy of Sciences 2024;121(22):e2407886121.