Intelligenza Artificiale, un algoritmo individua l'orientamento sessuale da una fotografia

Un algoritmo sviluppato all'Università di Standford individua l'identità di genere basandosi sull'analisi della foto del volto. Orientamento sessuale identificato dalle caratteristiche morfologiche, non più il risultato di una libera scelta ma presente nel nostro DNA. Polemiche e preoccupazioni riguardo la tutela della privacy e le discriminazioni sociali.

Intelligenza Artificiale, un algoritmo individua l’orientamento sessuale da una fotografia

Secondo una nuova ricerca della prestigiosa università americana di Stanford, l’intelligenza artificiale può indovinare con precisione se le persone sono gay o etero basandosi semplicemente sulle foto dei loro volti.
I risultati di questo esperimento, presto pubblicati sul Journal of Personality Social Psychology e anticipati dall’Economist, mostrano come questo algoritmo sia riuscito a a distinguere correttamente fra persone omosessuali ed eterosessuali nell’81% dei casi quando si è trattato di uomini e nel 74% in occasione di immagini di donne.
Si tratta di uno studio destinato a fare molto scalpore, andando a rinnegare il fatto che l’orientamento sessuale non sia frutto del libero arbitrio bensì di una predisposizione genetica, comportando inoltre enormi rischi legati alla privacy e alla discriminazioni di persone LGBT.

Intelligenza artificiale,le applicazioni sull’uomo

Un sistema di intelligenza artificiale è in sostanza un algoritmo che mima le caratteristiche del cervello umano, e addestrato con una grande quantità di dati a compiere certi compiti. In questo caso, all’inizio dell’esperimento sono stati fornite al sistema 130.741 foto di 36.630 uomini e 170.360 immagini di 38.593 donne rese pubbliche su un sito statunitense di appuntamenti.Tale materiale è stato oggetto di processi di “deep learning”, l’apprendimento profondo che consente di stabilire gerarchie di fattori e parametri ricorrenti.

Identità di genere riconoscibile dal volto

Il software da cui è nata questa sorta di “faceprint” si chiama Vgg-Face. Secondo i responsabili della ricerca, Michal Kosinksi e Yilun Wang, uomini e donne omosessuali disporrebbero caratteristiche di genere atipiche, quali espressioni, strutture morfologiche e atteggiamenti . Secondo i dati analizzati esisterebbero anche alcune tendenze ricorrenti –anche queste destinate a fare scalpore- secondo le quali i gay avrebbero la mascella più affusolata e sottile, nasi più lunghi e fronti più ampie degli eterosessuali mentre le lesbiche presenterebbero mascelle più massicce e fronti più piccole comparate alle donne eterosessuali. In sintesi, i gay apparirebbero più femminili e viceversa.
Persone umane, sottoposte allo stesso esperimento,hanno ottenuto risultati peggiori dell’algoritmo di Stanford, individuando l’orientamento sessuale solo nel 61% dei casi per gli uomini e nel 54% per le donne. Inoltre, quando al software sono state fornite 5 foto della stessa persona, il tasso di successo si è innalzato al 91% nel primo caso e all’83%nel secondo. Questo, secondo gli autori,significherebbe che “i volti contengono molte più informazioni sull’orientamento sessuale di quante ne possa percepire e interpretare il cervello umano”.

Orientamento sessuale, non più una scelta

I risultati forniscono dunque un forte sostegno alla teoria che l’orientamento sessuale derivi dall’esposizione di alcuni ormoni prima della nascita, direttamente nell’utero, in particolare il testosterone, che interverrebbero già nello sviluppo delle strutture facciali. Sulla base di queste teorie, la propria indole sessuale non sarebbe più il risultato di una scelta, ma si tratterebbe di una predisposizione biologica già scritta nel DNA, sulla quale solo successivamente andranno ad influire altri fattori, quali l’ambiente,la cultura o l’educazione.
L’inferiore tasso di successo dell’algoritmo per le donne, conferma ,secondo gli autori ,una maggiore fluidità dell’orientamento sessuale femminile.

Discriminazioni sociali, possibili conseguenze dell’algoritmo

Ovviamente i risultati dell’indagine non possono ancora essere considerati affidabili al 100%. Nell’esperimento infatti, non erano presenti né persone di colore né orientamenti sessuali differenti, come trasgender o bisessuali.
Se tuttavia i risultati di questo esperimento dovessero venire confermati, costituirebbero un’intromissione enorme e spaventosa all’interno della privacy del singolo individuo,andando ad aggravare gli episodi di discriminazione e di violenza a cui ogni giorno sono soggetti gli individui non eterosessuali.

Privacy a forte rischio

Un algoritmo del genere potrebbe portare a delle conseguenze terribili, se utilizzato per le ragioni sbagliate e specialmente nell’uso dei social network dove i database con miliardi di foto potrebbero perfino essere incrociati con quelli di amministrazioni e governi e portare a un vera e propria “caccia al diverso”.
In uno scenario ipotetico, governi e associazioni che continuano a discriminare e perseguire le persone LGBT potrebbero utilizzare questa AI per identificare e colpire le loro vittime, semplicemente aprendo Facebook .
Per Kosinksi,è quindi importante intendere la ricerca come un campanello d’allarme: tutele e protezioni sono da considerarsi priorità assolute nonché una regolamentazione delle intelligenze artificiali in modo da limitarle nel loro campo d’azione, e non essere utilizzate per secondi e malati fini.