obsolescenza tecnologica

Supporti digitali vs supporti tradizionali: chi resiste all’obsolescenza tecnologica?

Tech no tech, Resistenza|

Obsolescenza tecnologica, supporti digitali.  Come far durare le informazioni che crediamo di “salvare” per sempre sui nostri pc? Il problema è serio se addirittura Vint Cerf (colui che ha scritto il protocollo TCP/IP, in parole povere le “regole di comunicazione” che rendono possibile il dialogo tra computer e la connessione a Internet), attuale Chief Internet Evangelist di Google, ha affermato:

“Se ci sono delle foto a cui tenete davvero molto, fatene delle copie fisiche. Stampatele.”

Il discorso di Cerf durante il meeting annuale dell’American Association for the Advancement of Science non riguarda solo le immagini, ma investe tutti i dati e i contenuti digitali del 21° secolo, che rischierebbe di diventare per le generazioni future un “secolo buio” (Digital dark age), a causa di quello che sempre Cerf chiama “deserto digitale”: assistiamo quotidianamente all’aggiornamento di software e di sistemi operativi che se, da una parte, garantiscono il futuro dei nostri computer e dei nostri device, dall’altra rischiano di rendere progressivamente inaccessibile la quantità di dati salvati (Cerf parla proprio di “putrefazione di bit”) perché sparisce l’ecosistema in cui sono stati creati. La tecnologia guarda avanti, non indietro.

Anche il salvataggio su hard disk, USB, memory card, CD e DVD è una soluzione che non garantisce la sopravvivenza dei dati a lungo termine, perché i supporti si degradano e potrebbero tradirci da un momento all’altro e perché, anche qualora resistessero ai processi di degradazione, potrebbe essere sparita la tecnologia che rendeva possibile leggerli (la parola “floppy disk” vi ricorda qualcosa?).

Anche la “cloud”, sdoganata nel 2010 dall’amministrazione Obama, è tutto fuorché quello che lascerebbe pensare il suo nome: non è uno spazio fluttuante nell’universo, eterno, indisturbato e sicuro, fatto per durare per sempre. Al contrario, è un luogo fisico, degradabile e “finito”: i server.

Facciamocene una ragione. La stele di Rosetta sarà ancora lì, ma non possiamo essere sicuri di poter dire la stessa cosa dei nostri dati tra 2.000 anni.

La crescita esponenziale di immagini cliniche

Solo negli Stati Uniti, le immagini diagnostiche occuperanno 2 miliardi di Terabyte tra cinque anni, e in Italia, da qui al 2020, ci si aspetta un aumento del 30% delle immagini cliniche (“Imaging al banco del futuro, miliardi di megabyte al servizio della salute”).

Insomma, quello dell’imaging diagnostico è uno dei più stabili contribuenti alla questione dei “Big data” in sanità. L’ideazione di un sistema integrato per la gestione digitale delle immagini diagnostiche risale agli anni ’80: il cosidetto PACS (Picture Archiving Communications System). Eppure, ancora oggi, all’infuori della Radiologia, “circa l’80% delle bioimmagini prodotte dai vari reparti (endoscopia, ostetricia, dermatologia, oculistica, cardiologia, etc..) non sono oggetto di alcun processo né procedura sistematica di archiviazione.” (dal workshop “Collaborazione clinica: una sfida da vincere”).

Le immagini devono poter viaggiare da un dipartimento all’altro, da un ospedale a un altro, tra MMG e specialisti, tra medici e caregiver, devono cioè poter essere parte integrante dei percorsi diagnosticiterapeutici, con accesso anche in remoto a differenti professionalità specialistiche per eliminare le inutili, a volte anche dannose, sicuramente costose ripetizioni degli esami.

La scelta del sistema di archiviazione delle immagini, di come potrà essere “interrogato”, la garanzia di accessibilità all’archivio, sono tutti snodi la cui valutazione non potrà prescindere da un passo precedente: come si vuole organizzare il processo di cura e di assistenza?

La vera sfida per l’imaging diagnostico è di tipo gestionale: si gioca sul presente, il futuro può aspettare.

Last modified: 4 luglio 2017