E oggi, come mai in precedenza, si sente il bisogno di una ridefinizione, se non di un cambiamento di quel paradigma, sostiene Tom Jefferson in un interessantissimo editoriale pubblicato su BMJ Evidence-Based Medicine.
Negli ultimi dieci anni in particolare, si sono accumulate prove che hanno messo in discussione l’assioma della credibilità assoluta delle pubblicazioni sulle riviste scientifiche.
Il primo problema da affrontare è quello della “massa pura”. Per ogni pagina dell’articolo di una rivista, possono esserci fino a 8000 pagine di dati regolatori sulla stessa sperimentazione clinica (ciò che Jefferson chiama “fattore di compressione”).
Il secondo problema è il bias. La selezione più o meno radicale di informazioni e dati è ineludibile, e in mancanza di informazioni sui criteri di questa selezione, si introduce un bias tanto insondabile quanto inevitabile, un bias a volte in grado di distorcere i report e, conseguentemente, le revisioni sistematiche.
La prova di questa distorsione proviene principalmente da studi che confrontano articoli di riviste con altre fonti di informazione. In particolare, i report degli studi clinici, che fino a qualche anno fa erano secretati, stanno venendo alla luce dai regolatori e da fonti dell’industria in modo apparentemente inarrestabile.
A guidare questo cambiamento è stato il Nordic Cochrane Center’s con il sostegno dell’Ombudsman dell’Unione Europea che alla fine ha portato anche l’EMA a cambiare le sue politiche di accesso.
Da questo allargamento della base dati emergono elementi sufficienti per effettuare analisi stratificate e non solo che spesso conducono a risultati rilevanti per il paziente (per esempio rispetto al modo con cui si guardano e analizzano i danni provocati).
Qual è la soluzione allora rispetto al quesito iniziale? Ignorare gli articoli delle riviste biomediche, si chiede Jefferson?
Dal punto di vista di un revisore Cochrane (quale è Jefferson), l’impossibilità di individuare le fonti di bias, rende le revisioni perennemente a rischio di riprodurre i “problemi” degli articoli di partenza (Garbage In Garbage Out). In più c’è da considerare che, mentre i “problemi” sono quasi sempre neutrali, gli articoli invece spesso non lo sono, anzi possono rappresentare tasselli di una invisibile strategia di marketing. L’unica soluzione che prospetta Jefferson a riguardo è smettere di produrre revisioni basate soltanto su articoli, attingendo invece a fonti che consentano spiegazioni e conclusioni alternative a partire da un set di dati dettagliato e quasi completo.
Come ridefinire a questo punto il paradigma “E”? Jefferson cita l’esempio di un’indicizzazione Cochrane degli studi comparativi prospettici sul vaccino contro il papillomavirus umano. Un’operazione che ha richiesto 3 mesi a partire dalla corrispondenza con i regolatori e aggiungendo studi identificati mediante cross-referencing da diversi altre fonti: industria, registri e altri documenti regolatori.
Non è quindi così semplice come un ricerca di pubblicazioni in database elettronici. Ma è proprio questo il punto, secondo Jefferson. È più difficile e complesso proprio perché ci si avvicina con una buona approssimazione a quello che è successo nei trial e a come sono stati davvero condotti.
L’indicizzazione, almeno per ora, richiede un uso più intensivo di risorse rispetto alle ricerche nei database elettronici. Ma i due tipi di ricerca possono essere eseguiti insieme e forse dovrebbero essere combinati. In questo modo, conclude Jefferson, saranno in grado di darci un’idea accettabile di ciò che manca e di quali sono i limiti delle nostre revisioni.