Quell’America di ieri e di oggi vista da un cronista
A TooDay il giornalista Siegmund Ginzberg racconta personaggi e storie di un Paese che oggi, sotto la presidenza Trump, sembra aver cambiato volto
Listeners:
Top listeners:
Radio Glox Diretta Streaming
play_arrow
L’importanza di Hormuz Pierpaolo Burattini
play_arrow
L’importanza di Hormuz Pierpaolo Burattini
play_arrow
Benzina in altalena Pierpaolo Burattini
play_arrow
Benzina in altalena Pierpaolo Burattini
play_arrow
Identikit della Guida suprema Pierpaolo Burattini
play_arrow
Identikit della Guida suprema Pierpaolo Burattini
Le donne sono davvero indietro nell’AI, oppure stanno semplicemente guardando meglio?
Lo studio che ha riacceso la discussione è stato reso pubblico il 7 gennaio 2026 come preprint su arXiv, con un titolo già programmatico: Women Worry, Men Adopt, che potremmo tradurre con “Le donne si interrogano, gli uomini adottano”. La ricerca, firmata da studiose e studiosi affiliati all’Oxford Internet Institute insieme ad altri centri europei, analizza l’adozione dell’intelligenza artificiale generativa — chatbot, strumenti di scrittura automatica, generatori di immagini — e propone una lettura meno scontata del digital gender gap.
Non è una questione di competenze. Basandosi su dati raccolti nel Regno Unito tra il 2023 e il 2024, gli autori costruiscono un indice che misura le percezioni di rischio legate all’AI: privacy, impatto occupazionale, conseguenze sociali, salute mentale, persino impatto ambientale. Questo indice spiega tra il 9% e il 18% della differenza di utilizzo tra uomini e donne, più di quanto facciano istruzione o abilità digitali. In alcuni gruppi giovani e altamente qualificati, il divario supera i 40 punti percentuali.
Il dato è semplice e insieme destabilizzante: le donne usano meno l’AI generativa perché la valutano di più.
Per anni il racconto pubblico del digital gender gap ha insistito su un presunto ritardo femminile. Meno STEM, meno fiducia, meno presenza nei luoghi dell’innovazione. Qui la prospettiva si sposta. La minore adozione non è un deficit tecnico, ma una diversa ponderazione delle implicazioni. Chi ha sperimentato più spesso la vulnerabilità digitale — dalla diffusione non consensuale di immagini ai deepfake, fino all’uso opaco dei dati sanitari — può sviluppare una soglia di cautela diversa.
La prudenza, però, ha un prezzo.
L’AI generativa sta entrando nei flussi di lavoro quotidiani: scrittura, analisi, organizzazione, creatività. Chi la usa accumula familiarità e vantaggio competitivo. Se una parte consistente della popolazione femminile resta più prudente o più lenta nell’adozione, il divario rischia di tradursi in differenza economica e simbolica.
Ecco il paradosso del 2026: la stessa sensibilità che protegge può escludere.
Le domande allora si moltiplicano. Non è se le donne debbano “recuperare”. È chiedersi perché le tecnologie emergenti non generino fiducia, perché la trasparenza sui dataset resti opaca e perché il rischio venga scaricato sull’utente invece che incorporato nel design.
Alla luce di questo, il gender gap nell’AI non racconta una debolezza femminile, ma una fragilità sistemica della tecnologia stessa. Se le donne sono più attente agli effetti sociali, non è un problema da correggere: è un segnale da ascoltare.
Scrivendo di questa ricerca mi accorgo che il punto non è “usare di più” o “usare di meno”. Il punto è poter entrare in uno spazio tecnologico senza dover attivare costantemente difese. Se l’intelligenza artificiale vuole essere davvero generativa, deve generare anche fiducia.
E forse il femminile digitale, ancora una volta, sta indicando il punto in cui l’innovazione deve rallentare per diventare adulta.
Elisa Spinelli
Scritto da: Regia Glox
A TooDay il giornalista Siegmund Ginzberg racconta personaggi e storie di un Paese che oggi, sotto la presidenza Trump, sembra aver cambiato volto
12:30 - 13:00
con Martino Tosti
13:00 - 14:00
14:00 - 15:00
15:00 - 16:00
16:00 - 17:00
Copyright © RADIO AUGUSTA PERUSIA / P.IVA 01850800549
Iscritta al registro periodici del Tribunale di Perugia al n° 680 in data 24/12/1983
Credits