Le multinazionali non si limitano a saccheggiare le risorse naturali dell’Africa, essenziali per la produzione di hardware informatico, ma sfruttano anche i lavoratori del continente in condizioni estreme.
L’avvento dell’intelligenza artificiale (IA) richiede l’identificazione a valle di un’enorme massa di dati per consentire agli algoritmi di migliorare la loro efficienza. Per svolgere questi compiti, quasi il 90% delle aziende high-tech ricorre all’outsourcing.
Identificazione dei contenuti
Nel mondo francofono, i risparmi sui costi sono stimati a oltre il 30% per le aziende con sede in Marocco, Tunisia o Mauritius, e al 50% in Madagascar. Il Madagascar ospita quasi 250 agenzie di BPO (Business Process Outsourcing).
Le condizioni di lavoro sono deplorevoli. L’emittente radiofonica francese RFI ha raccontato le esperienze dei dipendenti: “I formatori ci seguono costantemente. Se pensano che stai impiegando troppo tempo per elaborare una semplice immagine, ti danno un avvertimento. Se succede una seconda volta, ti rimandano subito indietro. Se, ad esempio, non hai completato i 200 compiti che dovevi svolgere in un giorno, devi continuare a lavorare. E questo non viene conteggiato come straordinario“.
Per quanto riguarda i salari, essi partono da circa 90 euro al mese e possono arrivare a 500 euro per i dipendenti altamente qualificati. Oltre a questo noioso lavoro di identificazione dei dati, altri BPO offrono servizi di moderazione. Sono utilizzati dalle principali società di social network come Facebook, TikTok, Instagram, Twitter e altre.
Pericolo per la salute mentale
Sama è una di queste società di BPO con sede in Kenya. I suoi dipendenti passano intere giornate a elaborare contenuti ultraviolenti, tra cui omicidi, torture e violenze sessuali su donne e bambini. Li etichettano e li inseriscono negli algoritmi dei filtri dei social network e dell’intelligenza artificiale. Le conseguenze per la loro salute mentale sono gravi, fino al disturbo da stress post-traumatico. L’azienda keniota non ha mai creato strutture di supporto psicologico per i suoi dipendenti.
Peggio ancora, per effettuare le moderazioni nelle lingue locali, Sama ha reclutato giovani laureati, spesso poveri, provenienti da vari Paesi dell’Africa orientale e meridionale. Li ha portati in Kenya senza avvertirli della reale natura del lavoro. L’azienda parlava solo di lavoro amministrativo, omettendo la questione del confronto quotidiano con l’odio online che avrebbero dovuto sopportare. Una volta in Kenya, questi giovani lavoratori sono rimasti intrappolati.
Resistenza e organizzazione
Una prima denuncia nel maggio 2022 contro Meta, la società madre di Facebook, e il suo subappaltatore Sama è stata lanciata dall’ex dipendente Daniel Motaung. La denuncia riguardava le condizioni di lavoro, i problemi di retribuzione e la mancanza di supporto psicologico.
Altre denunce sono seguite quando Sama ha cessato le attività di moderazione e ha licenziato i dipendenti. Il tribunale keniota ha sospeso i licenziamenti in attesa di una sentenza.
Allo stesso tempo, 150 dipendenti hanno creato il primo sindacato africano di moderatori di contenuti, nonostante le politiche di intimidazione dei datori di lavoro. Altri dipendenti, come quelli di Majorel, la società che ha rilevato le attività di moderazione di TikTok, hanno annunciato la loro decisione di aderire al sindacato.
Sebbene disprezzati dai principali gruppi di social network, i moderatori svolgono un ruolo essenziale nella lotta all’odio online. Le mancanze possono avere conseguenze drammatiche. In Etiopia si sta svolgendo un altro processo contro Meta. Durante la guerra in Tigray, per diversi giorni sono circolati su Facebook appelli all’omicidio di un professore universitario tigrino residente nella capitale Addis Abeba. Nonostante le sue rimostranze al social network, i messaggi hanno continuato a circolare. I suoi assassini gli hanno sparato.
*Articolo pubblicato su www.lanticapitaliste.org il 30 luglio 2023. Traduzione in italiano a cura del segretariato MPS.