riconoscimento facciale

Riconoscimento facciale e salute: possiamo fidarci?

Autenticità, Tech no tech| A cura della Redazione

Il software di riconoscimento facciale di cui si è sentito parlare di più, Rekognition, appartiene ad Amazon ed è attualmente in fase di test presso le forze di polizia dell’Oregon: si tratta della tecnologia (simile a quella implementata anche dalla Apple sugli iPhone con Face ID) che permette a un software di intelligenza artificiale di riconoscere e identificare una persona in base alle sue caratteristiche facciali.

Attualmente, le critiche più realistiche (e non distopiche) alle tecnologie di riconoscimento facciale riguardano i bias di genere e di etnia che si porta dietro dagli albori del suo sviluppo: come per altri campi, nell’ambito del machine learning la qualità dei risultati dipende strettamente dalla qualità dei dati ineriti nel sistema, se questi dati di partenza sono di scarsa qualità o non sono corrispondenti alla complessità del reale, i risultati non potranno che essere fallaci (“garbage in, garbage out”). E sappiamo già che le immagini utilizzate per addestrare i software non sono state tratte da un pool sufficientemente diversificato dal punto di vista etnico, tanto da indurre il sistema a produrre risultati distorti.

Quindi, ad esempio, se per un uomo di razza bianca con capelli corti e barba il software consente di avere una accuratezza prossima al 98%, per una donna di colore con i capelli corti, le cose si cominciano a complicare…

Come riportato in un articolo su Sentichiparla.it la “fallibilità” del software riguarda anche altri gruppi di persone:

“‘Se sei un uomo o una donna cisgender il sistema non avrà problemi a riconoscerti correttamente. Ma se sei una donna transessuale, non proprio. Se sei invece un uomo transessuale, secondo il sistema di riconoscimento di Amazon, hai circa appena il 61 per cento di possibilità di essere riconosciuto’, conferma in un’intervista Jed Brubaker, assistente alla Boulder University in Colorado, che ha condotto un esperimento mirato proprio a capire quanto questi sistemi siano discriminatori.”

Gli algoritmi sembrerebbero quindi basarsi su luoghi comuni e stereotipi propri degli ingegneri che li sviluppano.

Un tipo di limitazione le cui implicazioni diventano decisamente più pericolose se pensiamo che uno dei campi sanitari in cui i software di riconoscimento facciale hanno trovato subito applicazione è stato quello della diagnosi di sindromi genetiche che si manifestano proprio con alcune alterazioni dei lineamenti del viso: l’app più famosa in questo ambito si chiama Face2Gene, ed è stata sviluppata dalla startup FDNA di Boston.

Il corrispettivo “umano” di Face2Gene è il medico Maximilian Muenke, da poco nominato nuovo CEO dell’American College of Medical Genetics and Genomics, ma la differenza rispetto alla app Face2Gene è che della intrinseca discriminazione dei criteri diagnostici basati su anomalie facciali delle sindromi genetiche delle popolazioni non caucasiche, lui era consapevole fin dall’inizio e senza che vi fosse alcuna intelligenza artificiale di mezzo: “In ogni singolo libro di testo sui cui mi sono formato in Germania e nei principali libri di testo qui negli Stati Uniti, ci sono solo foto di individui di origine nord europea”, ha detto Muenke.

Per risolvere questo problema, sia l’algoritmo a cui sta lavorando Muenke che quello di Face2Gene hanno bisogno dell’aiuto dei ricercatori di tutto il mondo che possano caricare più facce possibili dei pazienti, ma è più facile a dirsi che a farsi (in Africa non esiste un laboratorio di genetica iscritto nel registro del National Institute Health).

Ancora una volta, le tecnologie digitali non fanno che rispecchiare quelli che sono limiti reali del nostro mondo occidentale. E ancora una volta, Tech No Tech si chiude con un pareggio.

Last modified: 15 Gennaio 2020