banner

Blog

Dec 10, 2023

OpenAI ha utilizzato lavoratori kenioti per meno di 2 dollari l'ora: esclusivo

Avviso sui contenuti: questa storia contiene descrizioni di abusi sessuali

ChatGPT è stata acclamata come una delle innovazioni tecnologiche più impressionanti del 2022 al momento del suo rilascio lo scorso novembre. Il potente chatbot di intelligenza artificiale (AI) può generare testo su quasi tutti gli argomenti o temi, da un sonetto shakespeariano reinventato nello stile di Megan Thee Stallion, a complessi teoremi matematici descritti in un linguaggio che un bambino di 5 anni può comprendere. Nel giro di una settimana contava più di un milione di utenti.

Secondo quanto riferito, il creatore di ChatGPT, OpenAI, è in trattative con gli investitori per raccogliere fondi per una valutazione di 29 miliardi di dollari, incluso un potenziale investimento di 10 miliardi di dollari da parte di Microsoft. Ciò renderebbe OpenAI, fondata a San Francisco nel 2015 con l’obiettivo di costruire macchine superintelligenti, una delle aziende di intelligenza artificiale più preziose al mondo.

Ma la storia di successo non è dovuta solo al genio della Silicon Valley. Nel tentativo di rendere ChatGPT meno tossico, OpenAI ha utilizzato lavoratori keniani esternalizzati che guadagnavano meno di 2 dollari l'ora, ha scoperto un'indagine del TIME.

Il lavoro è stato vitale per OpenAI. Il predecessore di ChatGPT, GPT-3, aveva già mostrato un'impressionante capacità di mettere insieme frasi. Ma è stata una vendita difficile, poiché l’app era anche incline a esprimere commenti violenti, sessisti e razzisti. Questo perché l’intelligenza artificiale è stata addestrata su centinaia di miliardi di parole recuperate da Internet, un vasto archivio del linguaggio umano. Quell'enorme set di dati di addestramento era la ragione delle impressionanti capacità linguistiche di GPT-3, ma forse era anche la sua più grande maledizione. Poiché parti di Internet sono piene di tossicità e pregiudizi, non esisteva un modo semplice per eliminare quelle sezioni dai dati di addestramento. Anche un team di centinaia di esseri umani avrebbe impiegato decenni per analizzare manualmente l’enorme set di dati. Solo costruendo un ulteriore meccanismo di sicurezza basato sull’intelligenza artificiale OpenAI sarebbe stata in grado di contenere tale danno, producendo un chatbot adatto all’uso quotidiano.

Per saperne di più: I chatbot con intelligenza artificiale stanno migliorando. Ma un'intervista con ChatGPT rivela i loro limiti

Per costruire quel sistema di sicurezza, OpenAI ha preso spunto dal manuale delle società di social media come Facebook, che avevano già dimostrato che era possibile costruire IA in grado di rilevare linguaggio tossico come l’incitamento all’odio per aiutarlo a rimuoverlo dalle loro piattaforme. La premessa era semplice: nutrire un’intelligenza artificiale con esempi etichettati di violenza, incitamento all’odio e abuso sessuale e quello strumento potrebbe imparare a rilevare quelle forme di tossicità in natura. Quel rilevatore verrebbe integrato in ChatGPT per verificare se stava riecheggiando la tossicità dei suoi dati di addestramento e filtrarli prima che raggiungessero l'utente. Potrebbe anche aiutare a eliminare il testo tossico dai set di dati di addestramento dei futuri modelli di intelligenza artificiale.

Per ottenere quelle etichette, OpenAI ha inviato decine di migliaia di frammenti di testo a una società di outsourcing in Kenya, a partire da novembre 2021. Gran parte di quel testo sembrava essere stato estratto dai recessi più oscuri di Internet. Alcuni descrivevano situazioni in modo dettagliato come abusi sessuali su minori, bestialità, omicidio, suicidio, tortura, autolesionismo e incesto.

Il partner di outsourcing di OpenAI in Kenya era Sama, un'azienda con sede a San Francisco che impiega lavoratori in Kenya, Uganda e India per etichettare i dati per clienti della Silicon Valley come Google, Meta e Microsoft. Sama si presenta come una società di “intelligenza artificiale etica” e afferma di aver contribuito a far uscire dalla povertà più di 50.000 persone.

Gli etichettatori di dati impiegati da Sama per conto di OpenAI ricevevano un salario compreso tra circa 1,32 e 2 dollari l'ora, a seconda dell'anzianità e delle prestazioni. Per questa storia, TIME ha esaminato centinaia di pagine di documenti interni di Sama e OpenAI, comprese le buste paga dei lavoratori, e ha intervistato quattro dipendenti di Sama che hanno lavorato al progetto. Tutti i dipendenti hanno parlato in condizione di anonimato per preoccupazione per il proprio sostentamento.

La storia dei lavoratori che hanno reso possibile ChatGPT offre uno sguardo sulle condizioni di questa parte poco conosciuta del settore dell’intelligenza artificiale, che tuttavia svolge un ruolo essenziale nello sforzo di rendere i sistemi di intelligenza artificiale sicuri per il consumo pubblico. "Nonostante il ruolo fondamentale svolto da questi professionisti dell'arricchimento dei dati, un numero crescente di ricerche rivela le condizioni di lavoro precarie che questi lavoratori devono affrontare", afferma la Partnership on AI, una coalizione di organizzazioni di intelligenza artificiale a cui appartiene OpenAI. "Questo potrebbe essere il risultato degli sforzi volti a nascondere la dipendenza dell'intelligenza artificiale da questa grande forza lavoro quando si celebrano i guadagni di efficienza della tecnologia. Lontano dalla vista è anche lontano dalla mente." (OpenAI non rivela i nomi degli outsourcer con cui collabora e non è chiaro se OpenAI abbia collaborato con altre società di etichettatura dei dati oltre a Sama su questo progetto.)

CONDIVIDERE