Frammenti di femminismo digitale: la rivoluzione algoritmica
- Penelope Contardi
- 5 ago
- Tempo di lettura: 7 min
Aggiornamento: 7 ago
Rubrica: Libreria femminista
Dal momento in cui realtà femministe utilizzano la tecnologia e le piattaforme fruibili attraverso Internet per fare divulgazione e informazione (come nel caso di questo blog), esse hanno il dovere di interrogarsi sull’eticità dei mezzi che adoperano. Per farlo, una branca della letteratura femminista ci viene in soccorso, proponendosi di analizzare i problemi che lo sviluppo tecnologico porta con sé. Considerando che la tecnologia si è sviluppata - e continua a farlo - per volere e all’interno della nostra società patriarcale e capitalista, è presto chiaro come questi sistemi traggano vantaggi dal suo avanzamento. Tra queste intersezioni lavora il femminismo digitale, che mostra come patriarcato e capitalismo si reggano su storiche oppressioni che la tecnologia a sua volta perpetua e consolida, cercando di costruire realtà digitali più etiche.

Marzia Vaccari, in Appunti di femminismo digitale #2. Algoritmi e intelligenza artificiale, ricostruisce la storia delle discriminazioni radicate sia all’interno dell’ambiente informatico, sia all’interno dell’algoritmo. L’autrice individua come comun denominatore delle fondamentali inventrici donne nell’ambito tecnologico - da Augusta Ada Byron, ideatrice dell’algoritmo per il calcolo dei numeri di Bernoulli, a Hedwig Eva Maria Kiesler, fondamentale per lo sviluppo di tecnologie come Wi-Fi, bluetooth e GPS - una dimenticanza generale di fianco ai loro geniali colleghi uomini. Questo fenomeno è definito Matilda Effect, termine utilizzato per definire il processo di cancellazione sistematica ed esclusione dalla memoria collettiva applicato alle donne nel campo scientifico; ciò alimenta l’idea dell’incapacità congenita del femminile nelle STEM e, in questo caso, nel lavoro informatico: infatti, ad oggi, le donne sono soltanto tra il 3 e l’8% a livello globale nella professione dell’ingegneria del software . Nel caso in cui lo stereotipo di genere non le abbia fermate dallo studiare informatica, o vengono difficilmente assunte o rinunciano alla carriera nella programmazione in quanto ambiente troppo maschile, in cui sarebbero costrette a subire quotidiane discriminazioni.

Per comprendere le basi delle discriminazioni dell’algoritmo, Vaccari ripercorre la storia di quest’ultimo, al fine di attuare ciò che in informatica viene definito Reverse Engineering, processo utile per fare chiarezza sull’algoritmo che troppo spesso viene presentato come un mistero incomprensibile, neutrale e infallibile. In realtà, non è affatto così per due principali motivi: in primo luogo, perché esso necessita ancora di moltissimo lavoro umano per essere costituito, monitorato e corretto; in secondo luogo, perchè esso apprende basandosi sui dati che gli vengono forniti e così facendo assorbe i bias del pensiero dominante di coloro che lo addestrano, di norma uomini bianchi, cisgender, eterosessuali e ricchi.
“Nessuna tecnologia è di per sé opprimente o emancipatoria, e al tempo stesso nessuna tecnologia è neutrale” Lilia Giugni

Storicamente, le basi di questa discriminazione di genere possono essere fatte risalire alla macchina tabulatrice di Hollerith, utilizzata per il censimento negli Stati Uniti: per identificare il termine “maschio” si scelse di utilizzare un foro, mentre per indicare il termine “femmina” semplicemente la mancanza del foro. Questo è definibile il primo algoritmo di genere nella storia, in quanto il sistema utilizzato delineava l’Altro ossia lo 0 femminile, definito per differenza rispetto all’1 maschile.
Un esempio dei bias riprodotti dall’algoritmo che possiamo esperire in prima persona è il pregiudizio sessista che l’AI applica traducendo i pronomi generici inglesi con pronomi maschili italiani, dimostrando ancora l’utilizzo del maschile come genere non marcato; o ancora, la traduzione di professioni neutre come the receptionist, con il femminile "la receptionist", basandosi e perpetuando stereotipi di genere sulle carriere.
La soluzione proposta dall’autrice Paola Rudan nel testo Il problema del codice: differenza, identità e riproduzione nell’età degli algoritmi è quella di applicare codici che rappresentano identità molteplici; è necessario tener conto di tutte le minoranze oppresse a causa di razza, genere, orientamento sessuale, classe sociale, abilità e geografia, che sono state definite “Altro” per differenza rispetto all’uomo bianco, abile, eterosessuale e cisgender.
Lilia Giugni ne La rete non ci salverà. Perché la rivoluzione digitale è sessista (e come resistere) analizza abilmente come l’interconnessione tra tecnologia, patriarcato e capitalismo opprima le donne di tutto il mondo in modi estremamente stratificati e, seppur apparentemente distanti, connessi e consequenziali.. Nonostante il World Wide Web sia stato pubblicizzato come apice della democratizzazione e inclusione, non si è rivelato tale: esso si presenta, infatti, come un ambiente ostile per le donne e per le altre minoranze che, ad esempio, subiscono costanti molestie, commenti d’odio e addirittura minacce - che non di rado si concretizzano.
Un fenomeno che opprime le donne e impone il controllo sui loro corpi via etere largamente preso in esame da Giugni è la condivisione non consensuale di immagini pornografiche, viste, cercate e ricondivise su varie piattaforme. Per arginare il fenomeno, queste ultime danno la possibilità allə utenti di segnalare i contenuti inappropriati. A differenza di quanto potrebbe sembrare, l’attività di visionare e decidere se il materiale segnalato vada effettivamente rimosso nasconde un assiduo lavoro umano: quello di moderatori e moderatrici di contenuti. Il loro compito consiste nell’analizzare circa un centinaio di tickets al giorno, causando importanti ripercussioni psichiche, in quanto costrette a visionare violenze inenarrabili per ore ed ore al giorno: il supporto psicologico richiesto dalle lavoratrici, tuttavia, viene loro negato e sostituito da programmi di “supporto emotivo” e “mental coaching".
L’autrice individua come cuore del problema delle piattaforme dove abbondano contenuti misogini e violenti, il loro stesso business model che ne favorisce la circolazione, poiché essi creano particolare engagement in quanto divisivi, polarizzanti e per molti attraenti; questo è il motivo per cui, ad esempio, risulta così difficile chiedere la rimozione di un contenuto pornografico ed è, invece, così facile caricarne e condividerne. Per nascondere la poca attenzione verso questo tema, le grandi aziende utilizzano il lavoro delle moderatrici, sostenendo che per far godere alcune di una navigazione serena, sia necessario il sacrificio di altre, rispecchiando l’idea molto capitalista che vede la necessaria sofferenza di molti, per il benessere di pochi.

Collegandosi a questo concetto, Paola Rudan, nel saggio Riproduzione sociale e tecnologie del dominio: capitale, dominio maschile, mobilità collega il sacrificio delle moderatrici al ricollocamento dell’attività di cura: il lavoro di cura gratuito (erroneamente ritenuto irrilevante dal marxismo) è, ed è sempre stato, necessario per il capitalismo. Con la rivoluzione industriale, grazie all’introduzione delle macchine, si sono create le condizioni per il lavoro femminile anche al di fuori del nucleo domestico, causando una condizione di doppio sfruttamento della donna, serva in casa e subalterna in fabbrica. Quando le donne più privilegiate, autodeterminandosi al di fuori del contesto domestico, hanno iniziato a rifiutarsi di svolgere il lavoro di cura gratuitamente, esso è diventato il lavoro pagato - seppur svalutato - di donne meno privilegiate.
Nel testo di Lilia Giugni viene spiegato come, nel momento in cui il lavoro di cura deve essere ricollocato, la tecnologia si propone di assolvere a questo compito attraverso delle app che gestiscono l’incontro di domanda e offerta. Il problema di queste applicazioni è che utilizzano maggiormente come dispositivo di controllo delle lavoratrici il rating, solitamente a senso unico. La necessità di una valutazione alta per poter lavorare promuove l’accettazione forzata di ricatti e violenze, confermando in questo modo il concetto bourdieusiano per cui la forma di violenza simbolica più riuscita è spontanea ed insieme estorta. Questi terreni privi di garanzie giuridiche diventano, così, spazi pericolosi: la mancata richiesta di particolari qualifiche rende questi lavori appetibili per le minoranze, come le persone migranti, che diventano i nuovi soggetti ad incarnare, per necessità, la “piena disponibilità”, prima rappresentata dalle donne.
Come il lavoro di cura non retribuito è tanto nascosto quanto necessario al sistema produttivo capitalista, così il lavoro umano è tanto invisibile, quanto fondamentale per lo sviluppo tecnologico; anche nell’era della smaterializzazione, infatti, il capitalismo ha bisogno di corpi che lavorano, ma ha allo stesso modo la necessità di non rappresentarli e disumanizzarli, dando per scontate le loro prestazioni.
Palesare il lavoro di addestratori di algoritmi, moderatori, etichettatori e clickworkers decostruirebbe l’idea di intelligenza artificiale perfetta e superiore all’umano. Ancora prima di queste professioni, incontriamo i corpi che rendono possibile la creazione di apparecchiature elettroniche: dalle lavoratrici delle miniere estrattive dei Paesi del Sud globale, a quelle che si occupano dello step successivo, assemblando i prodotti per aziende tech dislocate, sfruttate e sottopagate.
Altre lavoratrici invisibili, che Giugni rappresenta, sono quelle che utilizzano le applicazioni basate sul gig work: queste ultime sono a forte predominanza maschile, poiché gli ostacoli e le discriminazioni economiche e lavorative con cui le donne e le persone della comunità LGBTQIA+ devono confrontarsi nel diventare autiste, fattorine o riders, ne scoraggiano l’accesso e la permanenza. Ad esempio il lavoro di autiste per Uber non presenta sufficienti tutele per le lavoratrici, che si sentono insicure nel completare corse notturne a causa delle frequenti molestie: ciò crea un gap salariale, poiché nella fascia notturna i guadagni sono maggiori.
La flessibilità e la garanzia di autonomia che il gig work promette a chi fatica a trovare posti di lavoro stabili, come persone migranti o queer, maschera in realtà le serie difficoltà in cui queste ultime incorrono: per citare nuovamente Uber, il riconoscimento facciale per la certificazione dell’identità del profilo riconosce difficilmente le persone transessuali, causandone di frequente il blocco, che impedisce lo svolgimento del proprio lavoro e, di conseguenza, il guadagno. Complessivamente, oltre alle discriminazioni per le categorie marginalizzate, questo è un sistema che si basa su una serie di soprusi, tra cui assenza di ferie, permessi per malattie, tutele e diritti e che favorisce lo sfruttamento di persone spesso in difficoltà.
Per concludere, l’idea che l’algoritmo sia neutrale va sicuramente messa in discussione sottolineando i bias che ha appreso e che riproduce e consolida, proponendoli come oggettivi. Bisogna comunque riconoscere molti meriti a Internet, come aver consentito alle notizie una circolazione più rapida, aver dato la possibilità di creare comunicazioni alternative rispetto a quelle dominanti, aver dato voce ad alcune minoranze e aver dato la possibilità di creare spazi di aggregazione femministi e socialmente utili. Per quanto il Web e il suo utilizzo non siano da demonizzare nel complesso, non si può ignorare come la rete sia monopolizzata dallo sguardo dominante e vi siano moltissime problematiche urgenti da discutere e risolvere.
Come sostengono le autrici i cui testi sono stati analizzati, ci sono delle possibilità per modificare il sistema patriarcale su cui si basa la rete. Seppur esistano delle profondissime problematiche che risultano quasi impossibili da modificare da parte dei semplici fruitori, è invece possibile sovvertire parte delle dinamiche sessiste e discriminatorie dall’interno, aumentando la consapevolezza delle e dellə utenti, creando spazi sicuri e femministi e pretendendo piattaforme più etiche, cercando, dunque - citando Audre Lorde - di distruggere la casa del padrone con attrezzi che al padrone stesso appartengono.
p.c.
Bibliografia:
Lilia Giugni, La rete non ci salverà. Perché la rivoluzione digitale è sessista (e come resistere), Milano, Longanesi, 2022.
Paola Rudan, Il problema del codice: differenza, identità e riproduzione nell’età degli algoritmi, in «Scienza & Politica. Per Una Storia Delle Dottrine», 36(70), 2024.
P. Rudan, Riproduzione sociale e tecnologie del dominio, in Into the Black Box (ed) Capitalismo 4.0. Genealogia della rivoluzione digitale, Milano, Meltemi, 2021.
Marzia Vaccari, Appunti di femminismo digitale #2. Algoritmi e intelligenza artificiale, Independently published, 2021.
Commentaires