Le frontiere dell’Intelligenza Artificiale

Frontiere, Tech no tech| A cura della Redazione

Il tempo medio per sviluppare un nuovo farmaco è di 10 anni. Pensiamo però al mondo digitale, a 10 anni fa. Era il 2008 e Apple lanciava il suo Apple Store: parliamo di preistoria no?
Il mondo della medicina e quello della tecnologia digitale sono andati davvero a due velocità differenti, ma a un determinato punto della storia le loro strade si sono incontrate e strettamente intrecciate, tanto che non ha più senso parlarne in contrapposizione. Se si parla di sanità, si parla anche di sanità digitale.
Guardiamo ad esempio nella figura seguente il confronto fra il trend delle ricerche su Google della parola chiave “digital health” da parte del pubblico così detto “laico” (in azzurro) e da parte delle persone che lavorano all’interno del settore sanitario (in verde).

In un domani non troppo lontano potremmo vedere lo stesso risultato con la parola chiave “intelligenza artificiale”, già trending topic di questo 2017, le cui promesse a volte vengono percepite da chi lavora nella sanità come “minacce”: sostenere (o sostituire?) il medico nelle decisioni cliniche, consentire (o imporre?) al sistema sanitario di risparmiare evitando test costosi e non necessari, permettere (obbligare a?) diagnosi più accurate attraverso l’uso di algoritmi informatici.
Secondo alcuni esperti di Oxford e Yale l’intelligenza artificiale potrebbe superare le performance degli esseri umani in molte attività entro i prossimi decenni, nella fattispecie: tradurre le lingue (entro il 2024), scrivere saggi per le scuole superiori (entro il 2026), guidare un camion (entro il 2027), lavorare nel commercio al dettaglio (entro il 2031), scrivere un bestseller (entro il 2049) e operare come chirurgo (entro il 2053). Esiste una probabilità del 50% che l’intelligenza artificiale superi gli umani in tutte le attività in 45 anni.
Secondo un report del McKinsey Global Institute l’impatto dell’intelligenza artificiale sul mondo del lavoro è addirittura “impensabile”, nel senso che non possediamo un modello mentale per comprenderne a pieno il potenziale.
Ma se leggiamo larticolo di Ziad Obermeyer ed Ezekiel Emanuel , alle frontiere dell’intelligenza artificiale ci dobbiamo ancora arrivare. Ad esempio siamo fermi al non poter comprendere il “come”: come il computer arriva alla conclusione che ci mostra. Il “machine learning” non funziona attraverso l’imposizione di regole, ma al contrario, attraverso l’immissione di grandi quantità di dati e la richiesta di imparare una regola. Ma al passaggio successivo, quando al computer viene ad esempio rivolta la domanda se un gruppo di pazienti specifico (di cui sono stati condivisi i dati) svilupperà la malattia, la logica sottostante alla risposta noi non la conosciamo. O non ancora.
Oltre a questo, che non rappresenterebbe una novità nel panorama della medicina (anche in quella tradizionale spesso sappiamo che una cosa funziona, ma non sappiamo “come”), per arrivare alle frontiere del machine learning dobbiamo superare ancora alcuni fondamentali ostacoli legati sia alla fase di input (i dati sono spesso disordinati ed è difficile connetterli tra loro) che alla fase di output (la mancanza di studi rigorosi che dimostrino che l’uso di applicazioni di intelligenza artificiale migliora la cura delle persone).
Ma il vero “nemico” se vogliamo parlare in questi termini apocalittici dell’intelligenza artificiale è il pensiero critico umano.
Prendiamo la relazione medico-paziente e proviamo a scomporla: empatia, gestione delle informazioni, applicazione delle competenze in contesti differenziati, capacità di negoziare con più parti interessate, capacità di fronteggiare quella che è la risposta imprevedibile della fisiologia e della personalità del paziente. Ecco, al vero paradosso già ci siamo arrivati: per arrivare a capire cosa significa “essere umani”, c’è voluta una macchina.

Last modified: 17 Gennaio 2018