L’IA è razzista: Non dire mai alle intelligenze artificiali che sei di Napoli

di Italia Mele

 

Il Dr. Nicolas Kayser-Bril ricercatore, ha provato a fare una domanda insolita a diversi sistemi di intelligenza artificiale: non ha chiesto direttamente quale città fosse “più intelligente”, perché i modelli tendono a rifiutare quesiti di questo tipo, ma ha aggirato il limite confrontando le città a coppie.

 

Risposta dopo risposta, ha ricostruito una classifica implicita.

Il risultato è stato sorprendente: alcune città europee risultavano costantemente associate a giudizi positivi, mentre altre — tra cui Napoli — finivano sistematicamente in fondo.

Non si tratta di una presa di posizione delle macchine.

Gli esperti spiegano che questi sistemi non ragionano come persone: apprendono analizzando enormi quantità di testi presi da internet, libri e archivi digitali.

Se nei dati di partenza sono presenti stereotipi, luoghi comuni o narrazioni negative su un luogo, il modello tende a riprodurli. In altre parole, l’intelligenza artificiale non inventa i pregiudizi: li riflette e li amplifica.

Il dato più significativo è che modelli diversi, sviluppati da aziende differenti e addestrati su dataset diversi, mostrano schemi simili.

Questo suggerisce che certi bias non siano isolati ma diffusi nel materiale online globale.

Il tema diventa delicato perché questi sistemi stanno entrando in ambiti decisionali concreti — dalla selezione dei candidati al lavoro fino alla valutazione automatica di profili e richieste.

Se nei dati il nome di una città è più spesso associato a contesti negativi, esiste il rischio che questo influisca, anche indirettamente, su valutazioni automatizzate.

Lo studio ha comunque dei limiti:

i risultati possono variare tra un test e l’altro e servono ricerche più ampie per misurare l’impatto reale.

Ma il punto sollevato è chiaro: l’intelligenza artificiale non è neutrale per definizione.

Porta con sé l’impronta culturale dei dati da cui impara — e questo significa che anche discriminazioni radicate nella società possono finire dentro gli algoritmi.