Mi è stato spesso detto: "I dati non mentono". Tuttavia, questa non è mai stata la mia esperienza. Per me i dati mentono quasi sempre, scrive Deborah Raji. I risultati della ricerca di immagini di Google per "pelle sana" mostrano solo donne dalla pelle chiara e una ricerca su "ragazze nere" restituisce molta pornografia. Il set di dati sui volti CelebA (un noto strumento per l'addestramento e il test di modelli per il rilevamento dei volti, in particolare per il riconoscimento degli attributi facciali) ha etichette di "naso grande" e "labbra grandi" che sono assegnate in modo sproporzionato a volti femminili dalla pelle più scura come il mio. I modelli formati da ImageNet (uno strumento simile tramite vasto database) mi etichettano come una "persona cattiva", un "tossicodipendente" o un "fallimento". Nei set di dati per la rilevazione del cancro della pelle mancano campioni di tipi di pelle più scura.
La supremazia bianca appare spesso violentemente - in colpi di arma da fuoco a un affollato Walmart o un servizio in chiesa, nell'aspro commento di un'accusa alimentata dall'odio o di una spinta violenta per strada - ma a volte assume una forma più sottile, come queste bugie. Quando quelli di noi che costruiscono sistemi di intelligenza artificiale continuano a consentire che la palese menzogna della supremazia bianca sia incorporata in tutto, dal modo in cui raccogliamo i dati a come definiamo i set di dati e come scegliamo di usarli, comporta una tolleranza inquietante.
I non bianchi non sono valori anomali. A livello globale, siamo la norma e questo non sembra cambiare rapidamente. I set di dati così specificamente costruiti per i bianchi rappresentano la realtà costruita, non quella naturale. Avere la precisione calcolata in assenza della mia esperienza vissuta non solo mi offende, ma mi mette anche in serio pericolo.
Compra il mio ultimo libro A morte i razzisti
Commenti
Posta un commento