“Io, poetessa del codice, lotto contro le discriminazioni degli algoritmi”

di ROSITA RIJTANO su Repubblica.it

Una fascia a sorreggere i ricci ribelli e sguardo indomito. Joy Buolamwini, ventenne afroamericana, è così. Pluripremiata studentessa di una delle università di ricerca più prestigiose al mondo, il Massachusetts Institute of Technology, si definisce “una poetessa del codice”. “Lotto contro le forme di discriminazione del nuovo millennio”, dice. Responsabili non sono esseri umani. Ma algoritmi, cioè software che vengono sfruttati per accelerare le decisioni in ogni campo. Mamma artista, papà scienziato, Joy ha optato per l’informatica. Ha capito che qualcosa non andava sul campo: stava lavorando a un robot e scoperto che per testarlo era più facile usare il viso del coinquilino, di carnagione più chiara, anziché il suo. “Ho scelto questa professione credendo nella neutralità della tecnologia. Quando mi sono imbattuta in questi problemi, mi sono resa conto che è un’illusione”.

Da qui la scelta di fondare l’Algorithmic Justice League: un’organizzazione che prende di petto la questione, puntando su un mondo hi-tech più inclusivo nei confronti delle minoranze di razza e genere. Un progetto finanziato con 50mila dollari, da tenere d’occhio. Perché i pc avranno un ruolo chiave nelle scelte di domani. Saranno in prima fila per selezionare il personale, stabilire prestiti e sentenze, scremare le ammissioni agli atenei, o consigliare le giuste medicine. Con conseguenti disparità, documentate da studi scientifici e un libro “Armi di distruzione matematica” scritto con cognizione di causa dalla matematica Cathy O’Neil, che in Italia sarà pubblicato a settembre da Bompiani. Annunci online di lavoro ben pagati mostrati solo a uomini, condanne più severe comminate a persone di colore, tecnologie che riconoscono solo determinati volti. “Nessuno è completamente immune dai loro pregiudizi”.
Buolamwini, lei si definisce “una poetessa del codice”. Ci spiega che vuol dire?
“I poeti evidenziano le storture della società in cui vivono. Quella contemporanea è plasmata dalla programmazione e lo diventerà sempre di più con l’automazione. Io, come poetessa del codice, sto facendo luce sui modi in cui questo processo può diffondere pregiudizi dannosi, su larghissima scala e a una velocità mai vista prima”.
Come?
“Gli algoritmi di intelligenza artificiale sono sempre più utilizzati per prendere decisioni in ogni ambito della vita quotidiana: selezionare il personale, scremare le ammissioni alle università, concedere prestiti o assicurazioni, persino per stabilire le sentenze penali e le cure mediche migliori. Però l’apprendimento automatico, alla base di questi software intelligenti, impara dai dati. E quelli oggi a disposizione non rappresentano ugualmente la popolazione”.
Con quali conseguenze?
“Faccio un esempio: negli Stati Uniti le malattie cardiovascolari contribuiscono alla morte di una donna su tre. Tuttavia, è rosa meno di un quarto di chi partecipa alle ricerche in materia. Un’intelligenza artificiale allenata con queste informazioni, farà predizioni più adatte agli uomini che alle donne. Ma qualsiasi settore in cui i dati vengono sfruttati per l’automazione delle scelte è a rischio di codificare i pregiudizi”.
Perché è importante intervenire?
“Se non affrontiamo e risolviamo le discriminazioni degli algoritmi ora, siamo destinati a un futuro di esclusione. Creeremo una società dove decisioni automatiche apparentemente oggettive limitano l’accesso alle opportunità e ai benefici dell’intelligenza artificiale a pochi privilegiati. È un problema che interessa tutti, nessuno è completamente immune. Mascherare la questione con la scusa che le macchine sono neutrali, ci rende solo impotenti”.
Che fare, allora?
“Chi scrive i software è importante, al pari del come e del perché lo si fa. Abbiamo bisogno di più donne e persone di colore nel mondo della tecnologia, che sappiano programmare. Gli algoritmi non sono intenzionalmente sviluppati per fare discriminazioni. Queste sono, in parte, dovute al fatto che a crearli sono team omogenei e non testano i prodotti in tal senso. Invece, un gruppo di lavoro rappresentativo delle diversità può accorgersi che qualcosa non va. Dobbiamo, poi, assicurarci che i dati sfruttati riflettano la popolazione e ci sia trasparenza”.
In questo contesto si inserisce l’Algorithmic Justice League, organizzazione che ha fondato per contrastare il problema.
“Sì, chiunque può dare un mano, contribuendo a vari livelli. Primo: sensibilizzare l’opinione pubblica sul tema. Poi: creare strumenti che identifichino i pregiudizi. Infine, ridurli. Sviluppare software ad hoc sarà l’obiettivo del mio dottorato”.
Annunci

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione / Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione / Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione / Modifica )

Google+ photo

Stai commentando usando il tuo account Google+. Chiudi sessione / Modifica )

Connessione a %s...