Femminile digitale

Quando l’algoritmo discrimina: i volti, le voci e i corpi femminili nelle mani dell’intelligenza artificiale

today15 Maggio, 2025 2

Sfondo
share close

Non ti somiglia. Sei venuta più bella. Sembri un’altra.”

Me l’ha detto una persona guardando un video in cui avevo sperimentato uno di quei filtri visivi intelligenti che promettono perfezione automatica. In effetti, la mia voce era stata modificata: suonava leggermente più acuta, quasi come se fosse uscita da un assistente vocale programmato per sembrare gentile e rassicurante. La pelle era più chiara, gli occhi più grandi. Il filtro aveva reso la mia immagine “ottimizzata” secondo un’idea di bellezza standard. Non una bellezza mia. Quella frase mi è rimasta dentro come una puntura lenta: chi sono io, quando è un algoritmo a decidere come dovrei apparire?

Negli spazi digitali che abitiamo ogni giorno – dai social alla ricerca vocale, dai chatbot ai generatori di immagini – ci relazioniamo costantemente con intelligenze artificiali che ci suggeriscono, interpretano, rimodellano. Ma c’è una domanda che mi torna spesso: a chi somigliano queste intelligenze? E soprattutto: come rappresentano le donne, i corpi femminili, le voci femminili?

Pensiamo spesso alla tecnologia come a qualcosa di oggettivo. Invece, gli algoritmi vengono addestrati su dati esistenti: testi, immagini, video, interazioni, tutto ciò che la società ha prodotto. E la società, lo sappiamo, non è neutra. Numerosi studi hanno ormai dimostrato che gli strumenti di AI presentano bias di genere:software di riconoscimento facciale meno accurati nel riconoscere volti femminili, soprattutto se non bianchi; intelligenze artificiali che sessualizzano o infantilizzano le immagini di donne; assistenti vocali quasi sempre con voce femminile e tono servizievole (Siri, Alexa, Cortana), come se la “tecnologia che assiste” dovesse essere anche gentile e compiacente; generatori di immagini che restituiscono corpi femminili standardizzati e sessualizzati, anche in contesti non richiesti.

Questi non sono solo dettagli tecnici. Sono scelte che modellano l’immaginario, che ci dicono, in modo subliminale, cosa è desiderabile, cosa è affidabile, cosa è autorevole. E troppo spesso, queste qualità vengono associate a mascolinità bianche, giovani, cisgender.

Se la voce dell’esperta, della professoressa, della professionista viene rappresentata con toni più acuti, meno autorevoli, oppure non viene rappresentata affatto, cosa interiorizzano bambine e adolescenti su chi può dirsi competente? E quando ci guardiamo in uno specchio digitale – una foto filtrata, una voce registrata, un avatar generato – che tipo di riconoscimento ci viene restituito?

Parlare di algoritmi può sembrare distante. Ma riguarda ogni singola volta in cui le donne non si sentono rappresentate, o sono imitate, travisate, ridotte. Riguarda le donne che non vedono il proprio corpo aderire a nessun filtro. Riguarda le lavoratrici che si sentono dire che la loro voce “non suona abbastanza professionale”. Riguarda le nostre figlie, sorelle, amiche che crescono in un ecosistema digitale che le dice di essere “migliori” solo se sembrano qualcun’altra. Eppure esistono altre strade. Reti internazionali di donne che si occupano di etica dell’AI, come Women in AI o il DAIR Institute di Timnit Gebru. Progetti artistici e attivisti che interrogano il corpo e l’identità nell’era degli algoritmi. Donne che si chiedono: e se fosse la tecnologia a adattarsi a noi, invece che il contrario?

Perché sì, l’algoritmo può imparare. Ma serve insegnargli anche il dissenso, la complessità, la pluralità delle voci e delle forme. Serve un’immaginazione che non sia costruita sul “correggere”, ma sull’accogliere.

La prossima volta che un filtro ti propone una versione di te più accettabile, ricordati che puoi dire di no. Che la tua voce, il tuo volto, la tua storia non hanno bisogno di essere “ottimizzati”.

L’algoritmo può essere riscritto. E anche il mondo, a partire dalle sue righe di codice.

Elisa Spinelli

Scritto da: Radio Glox


Episodio precedente


Scrivici in diretta!
Invia
Radio Glox
Panoramica privacy

Utilizziamo i cookie per personalizzare contenuti ed annunci, per fornire funzionalità dei social media e per analizzare il nostro traffico.

Potremmo condividere inoltre informazioni sull'utilizzo del sito con i nostri partner di analisi dei dati web e social media, i quali potrebbero combinarle con altre informazioni che ha fornito loro o che hanno raccolto dal suo utilizzo dei loro servizi.

Può gestire liberamente il consenso all'utilizzo dei cookie, tuttavia non accettando i cookie, il sito potrebbe non funzionare correttamente.