Culture

Le macchine ci giudicano: "Training Humans" in Fondazione Prada

 

Milano, 13 set. (askanews) - L'intelligenza artificiale sta già governando il nostro mondo, anche se ancora i robot umanoidi non circolano per le strade. Ma bastano parole come "algoritmo", per dare la misura della vicenda, così come basta guardare alla diffusione dei social network per farsi un'idea della mole di dati personali che, volontariamente, lasciamo in rete. Dati che oggi sono utilizzati da soggetti pubblici e privati, senza alcun bisogno di chiedere il consenso, per scopi come la classificazione e, di conseguenza, la sorveglianza. Di questo tratta la mostra "Training Humans", concepita dalla studiosa di intelligenza artificiale Kate Crawford insieme all'artista Trevor Paglen e presentata nell'Osservatorio di Fondazione Prada a Milano. Un'esposizione che, per la prima volta, porta davanti al pubblico i repertori di immagini utilizzate dagli scienziati per insegnare ai sistemi artificiali a vedere e classificare il mondo. Quindi a interpretarlo. Partendo da azioni ormai per noi divenute naturali, come l'utilizzo, per esempio, di Facebook."Queste immagini - ha spiegato Kate Crawford - sono usate nel sistema di rilevamento nascosto, invisibile all'utente: riconoscimento facciale, del genere, delle emozioni, ma anche verifica della salute o della malattia mentale, valutazione delle capacità lavorative. Negli Stati Uniti questi stessi set vengono usati per determinare se una persona è o non è un buon impiegato. Voi non vedrete mai questo processo usando Facebook, ma nello stesso tempo sarete valutati e giudicati".L'idea iniziale del progetto era quella di considerare le immagini usate per il training delle macchine come "fotografie vernacolari" che informano la creazione di una visione artificiale. Ma poi, addentrandosi nella ricerca, ciò che è emerso ha preso caratteristiche più inquietanti, che per Crawford e Paglen ricordano pratiche come la frenologia e l'eugenetica del passato."Se pensiamo in termini di lungo periodo - ha aggiunto l'artista americano - quando il sistema di training che si basa su questi dati diventerà onnipresente, non possiamo in nessun modo pensare che sia neutrale: in questa mostra vediamo in che modo i valori e le visioni del mondo sono costruiti negli stessi dati e nello stesso sistema. E che tipo di società possiamo immaginare quando queste strutture impongono le loro politiche in questo modo". Nelle computer vision e nei sistemi di IA i criteri di misurazione perdono la loro supposta oggettività e diventano dei surrogati, per usare una parola cara all'Osservatorio, di giudizi morali. Ma chi controlla e determina questa morale?"Quello che è importante in questa prima esposizione pubblica - ha concluso Kate Crawford - è che ora potete guardare dentro la macchina e dentro la logica e a volte l'illogica che guida il sistema".Importante poi è anche il fatto che Fondazione Prada ci offra un pensiero di questo tipo sulla fotografia contemporanea, che è anche un modo - complesso, di certo, ma non poteva essere altrimenti - di fare avanzare e crescere l'idea di cosa significhi guardare in faccia l'arte contemporanea in tutte le sue forme.