News
L’intelligenza artificiale condanna a morte una donna: senza norme sarà solo il far west
Senza norme, senza trasparenza, senza controllo umano, l’AI non è uno strumento: è una sentenza. Il commento

Ci sono storie, come quella di Lisa, che devono essere raccontate anche se l’algoritmo dice che non funzionano....
Si chiama Viogen, è un algoritmo predittivo e da 15 anni aiuta la polizia spagnola a prendere decisioni e a classificare il rischio di violenza di genere caso per caso. Dovrebbe, quantomeno. Perché secondo quanto riporta la BBC la signora Lisa, da tempo in cattivi rapporti con l’ex, è stata uccisa dall’uomo nonostante l’algoritmo avesse classificato la situazione come “mediamente pericolosa”.
E allora? Allora Lisa è morta. E con lei dovrebbero finire anche le illusioni da Silicon Valley, le promesse salvifiche di un’intelligenza artificiale che tutto vede, tutto prevede, tutto corregge. Perché finché ci sarà un uomo – o peggio, uno Stato – che si affida ciecamente a un algoritmo opaco per decidere se una donna vive o muore, non stiamo parlando di progresso. Stiamo parlando di abdicazione. Di resa. Di deresponsabilizzazione mascherata da efficienza.
Il caso di Lisa – come già fu quello di Compass negli Stati Uniti – dimostra che senza norme, senza trasparenza, senza controllo umano, l’AI non è uno strumento: è una sentenza. Una sentenza cieca. E non è una metafora: le autorità spagnole hanno negato la misura restrittiva sulla base del punteggio attribuito da Viogen. La macchina ha parlato. Gli esseri umani si sono messi in silenzio.
Il professor Matteo Flora parla giustamente di mathwashing: quel meccanismo per cui ci si lava le mani delle decisioni dietro il paravento “scientifico” di un algoritmo. Ma l’algoritmo non ha coscienza. Non ha contesto. Non sa riconoscere l’urlo silenzioso di chi ha paura. E soprattutto, non ha colpa. La colpa è di chi lo costruisce. E ancora di più di chi lo usa per sostituirsi al giudizio, all’etica, all’empatia.
E no, non è una crociata contro l’AI. È un appello. A non piegarsi. A non diventare servi del codice. Anche noi, ad Affaritaliani, l’algoritmo dobbiamo seguirlo. È il prezzo da pagare per restare visibili, per non annegare nel mare dei contenuti. Ma ci rifiutiamo di esserne schiavi. Ogni titolo che scriviamo, ogni notizia che scegliamo, è un compromesso tra ciò che vogliamo dire e ciò che lui vuole che si dica. E ogni giorno cerchiamo di ribaltare il rapporto: non essere noi a servire l’algoritmo, ma costringerlo a lavorare per noi. Per la verità. Per il giornalismo.
Ecco perché non ci accontentiamo di “quello che funziona”. Perché ci sono titoli che cliccano, certo. Ma ci sono titoli che fanno pensare. Ci sono contenuti che informano. E ci sono storie – come quella di Lisa – che devono essere raccontate anche se l’algoritmo dice che non funzionano.
La tecnologia può aiutare. Ma se non la governiamo, ci governerà. E allora sarà davvero il Far West. Un Far West digitale dove il più forte non è chi ha ragione, ma chi ha il codice migliore. E chi ha la voce più umana, semplicemente, viene silenziato.
Siamo sicuri che è questo il futuro che vogliamo?