Google ha annunciato che il suo algoritmo di riconoscimento delle foto non etichetterà più le persone in base al sesso. Secondo una e-mail inviata nei giorni scorsi ai clienti di Cloud Vision API, l’intelligenza artificiale del programma non utilizzerà più etichette di genere come “donna” o “uomo” ma si limiterà a dire “persona”. Scopriamo perché.
Google e le etichette di genere
La modifica si applica all’ API di Cloud Vision, che gli sviluppatori possono utilizzare per taggare le foto in base a ciò che il computer riconosce all’interno del frame. Lo strumento può rilevare facce, punti di riferimento, loghi di marchi, contenuti espliciti e dispone persino di un algoritmo di riconoscimento per le varie specie animali.
“Dato che il sesso di una persona non può essere dedotto dall’apparenza,” si legge nell’email inviata da Google, “abbiamo deciso di rimuovere queste etichette per allinearci con i Principi di Intelligenza Artificiale di Google, in particolare il secondo principio: Evitare di creare o rafforzare ingiusti pregiudizi. ” (come se potessero esistere pregiudizi giusti, ndr).
Il tipo di errori ai quali si riferisce Google sono il risultato di un imperfetto riconoscimento, che può capitare visto che l’algoritmo si limita ad avanzare ipotesi. Chiunque non rispetti i canoni sui quali è stato tarato il programma può essere confuso per un esponente dell’altro sesso (o peggio, come vedrete), ad esempio una ragazza con i capelli corti può essere scambiata per un giovane uomo. Questo è quello che Google sta tentando di evitare.
Ecco come appaiono adesso i tag dati dall’intelligenza artificiale:
Gli errori del passato
Questi errori dell’intelligenza artificiale sono un argomento ampiamente discusso, con tutte le conseguenze che ne possono derivare. Un esempio fra tutti è il fatto che l’algoritmo di riconoscimento facciale sbagli ad identificare le persone di colore più frequentemente rispetto a quelle bianche. Questo aveva raggiunto il suo apice nel 2015, quando era stato notato che gli algoritmi di riconoscimento immagini di Google Foto avevano catalogato un ragazzo di colore come “gorilla”. Google aveva promesso di risolvere il problema, ma si era semplicemente limitato ad impedire ai suoi algoritmi di riconoscere i gorilla.
Il Principio di Intelligenza Artificiale che Google menziona nell’e-mail afferma specificamente che Google deve cercare di “evitare impatti ingiusti sulle persone”, soprattutto quando si riferisce a caratteristiche delicate e sensibili ad esempio razza, etnia, sesso, nazionalità, reddito, orientamento sessuale, capacità e convinzioni politiche e religiose, e l’orientamento sessuale.
Google: persone oltre le cose…ah non era così?
L’idea di fondo è corretta e l’iniziativa riscuote in grande successo nel web, noi di Fotonerd crediamo che non sia possibile riconoscere il sesso di una persona in base ad una foto visto che in alcuni casi è difficile determinarlo anche dal vivo. Però in questo caso ci rimane il dubbio che ancora una volta, per non sbagliare, Google stia impedendo ai suoi programmi di “riconoscere i gorilla” invece di risolvere il problema alla radice.