revisioni sistematiche

Uova, dinosauri e revisioni sistematiche

Tech no tech, Distanza|

A quale distanza di tempo la letteratura scientifica è da ritenere obsoleta? Difficile dirlo. Da una parte, c’è chi ritiene che ogni due anni sia necessario fare il punto sulle conoscenze date per acquisite, così da verificare la necessità di un aggiornamento. Dall’altra, le vere novità capaci di modificare realmente i comportamenti clinici non sono purtroppo molto frequenti…

Prendi una bacinella d’acqua, sciogli un pugno di sale e poggiaci sopra un articolo scientifico. Se va a fondo vuol dire che quello che ci è scritto è ancora valido. Purtroppo, il trucco che si usa per verificare se un uovo è ancora buono da mangiare con la letteratura scientifica non funziona: più un contenuto è leggero e galleggia, maggiori sono le probabilità che ci si possa fidare. Con qualche acrobazia, è questo il messaggio che possiamo trarre dall’esperienza. Che la pesantezza sia un elemento da non trascurare lo sosteneva anche un “padre” della clinica medica, il professor Tony Mitchell che, recensendo il Price, classico trattato di Clinica medica, sosteneva che ai manuali di Medicina interna sarebbe toccata la stessa sorte dei dinosauri: estinti proprio per la loro pesantezza e per la conseguente incapacità a rispondere rapidamente ai cambiamenti dell’ambiente. Argomento che fu raccolto nel 1995 da Sir Iain Chalmers che, in un’audizione alla House of Lords britannica, mise in guardia i parlamentari sul rischio concreto che la salute dei cittadini del Regno Unito fosse in pericolo proprio a causa della obsolescenza dei contenuti delle monografie su cui i medici fondavano il loro sapere. Chalmers è uno dei fondatori della Cochrane Collaboration, una rete internazionale di ricercatori e di clinici che ha come obiettivo quello di verificare la qualità delle conoscenze medicoscientifiche, mettendo a disposizione – attraverso le revisioni sistematiche della letteratura – il distillato delle evidenze su cui il clinico dovrebbe basare le proprie decisioni al letto del paziente.

Proprio la Cochrane da anni si interroga su questa questione: a distanza di quanto tempo possiamo gettare una revisione sistematica nel cestino perché ormai superata?

 

Il gap tra le revisioni sistematiche che andrebbero rivedute e quelle che vengono realmente aggiornate è in aumento: se ne producono sempre di nuove e le meno recenti restano al palo. È uno dei problemi con cui si confronta la Cochrane Collaboration.

Dopo una serie di discussioni, nell’ambito del network si è giunti alla conclusione di aggiornare i documenti ogni due anni. In realtà, facile solo a dirsi: ad oggi (aprile 2015) la banca dati della Cochrane contiene quasi 9 mila revisioni e, considerate le caratteristiche dei documenti, ogni anno andrebbero aggiornati circa 3000 articoli. Oltre a tutti quelli da produrre ex novo: dunque, come fare? La strada da seguire, secondo il gruppo di lavoro costituito dalla Cochrane, era quella di stabilire delle priorità e di accostarsi ai diversi argomenti potenzialmente oggetto di revisione con un approccio molto pragmatico e ricorrendo ad un algoritmo: è una questione ancora attuale? Se sì, ci sono novità emerse negli ultimi mesi o anni che possono aver modificato lo scenario clinico? Sono stati condotti e pubblicati nuovi studi? Queste ricerche hanno prodotto informazioni nuove, tali da modificare le conoscenze consolidate? Qualsiasi strumento capace di guidare la valutazione dello stato dell’arte del sapere, però, non può prescindere dalla consultazione costante della letteratura internazionale, secondo quello che è stato definito il proactive monitoring delle nuove evidenze che emergono dalla ricerca internazionale (1). E, per quanto riguarda la determinazione delle priorità, viene certamente in aiuto la rete: uno strumento importante come Clinical Evidence, pubblicato dal BMJ, tiene in grande considerazione i download e, più in generale, il traffico generato dai propri contenuti per prendere decisioni riguardo le schede da aggiornare più tempestivamente (2). Un gruppo di ricercatori australiani ha proposto di avvalersi di uno strumento semi-informatizzato che permetta un monitoraggio costante degli articoli pubblicati sulle principali riviste internazionali, tale da allertare i revisori segnalando la necessità di specifici aggiornamenti e fornendo una prima base di nuove evidenze meritevoli di essere considerate nella nuova stesura delle raccomandazioni (3). Ciò che viene sempre riaffermato è la necessità di un approccio “su misura”: in altre parole, non esiste una regola che possa valere per tutti gli argomenti e per tutte le discipline. Fin qui, una rapida panoramica sui metodi di aggiornamento delle evidenze su cui oggi si interroga la comunità scientifica. Ma quali criteri possono informare le decisioni del medico impegnato nell’assistenza al paziente? Di nuovo: a distanza di quanto tempo possiamo considerare “superata” un’informazione scientifica?

In questo caso è ancora più difficile rispondere. O, meglio, anche in questo caso non esistono risposte “giuste”. L’inquietudine è aumentata da quando diversi studi hanno mostrato la vulnerabilità delle conoscenze basate su dati della ricerca non sufficientemente solidi: l’articolo con cui John Ioannidis evidenziava la mole di informazione inaffidabile disponibile in letteratura (5) ha sollevato molta sorpresa ma è ormai un riferimento indiscusso e ha contribuito a sollecitare una più attenta riflessione critica sulla qualità della ricerca. Altro aspetto da considerare è la fragilità della “innovazione” che viene costantemente proposta ai professionisti sanitari: “dobbiamo smettere di celebrare come una ‘innovazione’ qualsiasi novità tecnologica che ci venga presentata”, ha scritto il bioeticista statunitense Ezekiel Emanuel in un editoriale del New York Times (6): qualsiasi novità che aumenti il costo dell’assistenza sanitaria senza modificare sostanzialmente la salute del paziente non è innovazione. Ne consegue che qualsiasi “aggiornamento” della base di conoscenze utili al decisionmaking clinico o sanitario che sia basato su innovazioni solo presunte dovrebbe essere considerato poco rilevante.

Allora, che fare? Forse, affidarsi proprio al test della bacinella: tanto più un contenuto avrà il dono della leggerezza, tanto maggiore sarà la facilità con la quale potremmo condividerlo con la nostra rete multidisciplinare di colleghi, conoscenti e amici, da sfidare ad una riflessione collettiva e partecipata. Come ricorda il “motto” di Waze, la app che ci aiuta a districarci nel traffico, Nothing can beat real people working together: decideremo insieme e non da soli quando sarà il momento di cambiare strada o di riconsiderare i nostri percorsi quotidiani.

“Perché laurearsi se c’è il wi-fi?”

…diceva il Dr. House. E tutto sommato non aveva mica torto: secondo una ricerca di qualche anno fa l’intero “corpo” di conoscenze mediche raddoppia ogni tre o quattro anni, una quantità di informazioni che non solo qualsiasi studente di medicina farebbe fatica a padroneggiare, ma che, anche se ci riuscisse, si rivelerebbe comunque “datata”. Quindi, anche per gli studenti si prospetta la sfida lanciata dall’“information overload”: più che inseguire la chimera di sapere tutto, gli studenti dovrebbero migliorare la loro abilità nel trovare, valutare e sintetizzare le informazioni e le conoscenze disponibili.

È il punto di vista dell’articolo “Would Doctors Be Better If They Didn’t Have To Memorize?” di John Henning Schumann professore di medicina interna alla University of Oklahoma School of Community Medicine, di cui vi consigliamo la lettura insieme ai commenti dei lettori.

Si avvicina il momento di appendere il mouse al chiodo…?

Se lo chiede Tom Jefferson, che da più di 20 anni prepara lavori di sintesi per la Cochrane Collaboration.

Nel suo ultimo libro “L’ABC delle revisioni sistematiche” segnala un interessante articolo (4) “che passa in rassegna tutte le principali fasi della preparazione di un lavoro di sintesi esaminando le potenzialità di automatizzazione di ciascuna fase (…) Per la fase di stesura del protocollo (…) in futuro potrebbe diventare possibile l’applicazione al testo dei software di controllo logico, per individuare errori di logica, contraddizioni e inconsistenze e produrre un protocollo nel quale siano assenti tutti i potenziali di distorsione.”

BIBLIOGRAFIA

1. Keister D, Tilson J. Proactively monitoring for newly emerging evidence: the lost step in EBP? Evid Based Med 2008; 13: 69.
2. Nuts, bolts, and tiny little screws: how Clinical Evidence works. 2013.
3. Tsafnat G, Dunn A, Glasziou P, Coiera E: The automation of systematic reviews. BMJ 2013;346(f139).
4. Tsafnat G, Glasziou P, Choong MK, Dunn A, Galgani F, Coiera E. Systematic review automation technologies. Systematic Reviews 2014 3: 74.
5. Ioannidis JPA. Why Most Published Research Findings Are False. PLoS Med 2005;2(8): e124. DOI:10.1371/ journal.pmed.0020124
6. Emanuel E. In medicine, falling for fake innovation. New York Times 2012;27 maggio.

Last modified: 20 Ottobre 2017