Home
News
I lavoratori nascosti dell’AI: chi addestra davvero ChatGPT e gli altri modelli

I lavoratori nascosti dell’AI: chi addestra davvero ChatGPT e gli altri modelli

Pensiamo all’intelligenza artificiale come a una tecnologia capace di apprendere in autonomia, di migliorarsi progressivamente, di operare con un grado crescente di indipendenza dall’intervento umano. È un’immagine potente che alimenta l’idea di sistemi in grado di funzionare quasi da soli, guidati esclusivamente da algoritmi e dati.

Nonostante sia fondata su elementi reali, questa idea tende a semplificare troppo. Dietro al funzionamento dei modelli più avanzati, infatti, esiste una filiera di lavoro che resta in gran parte invisibile, distribuita su scala globale e difficilmente riconducibile a un’unica forma contrattuale o professionale. Non semplice supporto al lavoro autonomo dell’AI, ma un’infrastruttura operativa senza la quale questi sistemi non sarebbero utilizzabili. Classificazione di dati, filtro dei contenuti, valutazione delle risposte: tutte operazioni che richiedono interpretazione, contesto, capacità di giudizio. In altre parole, lavoro umano.  

Cosa significa addestrare un’AI

Parlare di addestramento dell’intelligenza artificiale implica una metafora che richiama l’apprendimento umano, ma che nella pratica si traduce in un processo molto più articolato. I modelli non apprendono in modo autonomo nel senso comune del termine: funzionano sulla base di grandi quantità di dati che devono essere selezionati, organizzati e resi interpretabili.

Una parte significativa di queste attività consiste nell’etichettatura dei dati. Immagini, testi, file audio vengono analizzati e classificati secondo criteri specifici, in modo da permettere agli algoritmi di riconoscere pattern e relazioni. A questo si aggiunge la valutazione delle risposte generate dai modelli: qualcuno deve stabilire se un output è corretto, coerente, appropriato. Non è un’operazione puramente tecnica, ma richiede una forma di giudizio che non può essere completamente codificata.

Altro punto importante sta nella moderazione dei contenuti. Per rendere questi sistemi utilizzabili in contesti pubblici, è necessario filtrare una quantità significativa di materiale problematico: violenza, abusi, propaganda.

Nel complesso, dunque, queste attività occupano una quota rilevante del processo di sviluppo. Alcune stime indicano che la maggior parte del tempo necessario per costruire un sistema di intelligenza artificiale è dedicata proprio alla gestione e alla preparazione dei dati. Questo significa che l’intelligenza dei modelli non è semplicemente il risultato di codice avanzato, ma di una lunga sequenza di interventi umani che ne rendono possibile il funzionamento.

 Chi sono i lavoratori dell’AI

Dietro i sistemi di intelligenza artificiale opera una forza lavoro ampia e poco visibile, composta principalmente da data labelers, moderatori di contenuti e valutatori di output. Il loro compito è rendere i dati utilizzabili e le risposte dei modelli affidabili, intervenendo in modo continuo su ciò che l’AI produce.

Si tratta in gran parte di lavoratori inseriti in circuiti di gig economy o outsourcing, spesso senza una chiara identità professionale riconosciuta. Accanto a loro esistono anche figure più qualificate, coinvolte in task complessi o linguistici, ma rappresentano una quota minoritaria.

Geografia e condizioni del lavoro invisibile

La maggior parte delle attività viene delocalizzata in Paesi del Global South, dove il costo del lavoro è più basso e la disponibilità di manodopera elevata. Kenya, India, Filippine, Venezuela rappresentano alcuni dei nodi principali di questa rete.

Questa organizzazione si basa su una filiera multilivello. Le grandi aziende tecnologiche delegano una parte consistente delle attività a intermediari specializzati, come Scale AI o Sama, che a loro volta distribuiscono i task attraverso piattaforme di crowdwork o reti di collaboratori esterni. Il risultato è una struttura frammentata, in cui il lavoro è distante dal prodotto finale e la responsabilità si disperde lungo più livelli.

Le condizioni dei lavoratori, naturalmente, riflettono questa frammentazione. Il lavoro è instabile, spesso pagato a task e con compensi variabili, generalmente bassi rispetto al valore generato. A questo si aggiunge un sistema di controllo basato su metriche di produttività, monitoraggio continuo e obiettivi difficilmente sostenibili, che tende a comprimere tempi e margini operativi.

Una parte rilevante delle attività riguarda la moderazione di contenuti estremi: violenza, abusi, pornografia, propaganda. L’esposizione continua a questo materiale produce effetti che vanno oltre la dimensione lavorativa, incidendo sulla sfera psicologica, tra desensibilizzazione, stress e disturbi relazionali.

La filiera dell’AI

La presenza di una filiera multilivello non è solo un fatto organizzativo, ma un meccanismo che ridefinisce la distribuzione del valore e della responsabilità. Le grandi aziende tecnologiche che sviluppano modelli e infrastrutture delegano una parte rilevante del lavoro operativo a soggetti esterni, mantenendo il controllo sul prodotto finale e sulla sua valorizzazione economica.

Ma questo assetto consente di isolare le componenti più esposte — sia in termini di costi che di criticità — senza che incidano direttamente sull’immagine o sulla struttura interna delle aziende principali. Il lavoro necessario per rendere l’AI funzionante viene così spostato ai margini, dove è più flessibile, meno regolato e meno visibile.

Il risultato non è solo una catena produttiva frammentata, ma un sistema in cui la responsabilità si distribuisce lungo più livelli. Ne deriva una chiara difficoltà nel determinare in modo diretto le condizioni di lavoro o le pratiche adottate.

Il lavoro invisibile e la narrazione dell’AI

Il punto non riguarda solo le condizioni di lavoro, ma il modo in cui queste attività vengono rimosse dal racconto pubblico. L’intelligenza artificiale viene descritta come un sistema che funziona autonomamente e il contributo umano resta sullo sfondo, spesso implicito. Un’omissione che è tutt’altro che casuale: rende la tecnologia più semplice da comunicare e più coerente con l’idea di automazione. Quello che ne deriva, però, è una percezione distorta, in cui il funzionamento dei sistemi appare più “pulito” e lineare di quanto sia in realtà.

 

Questo contenuto è stato realizzato nel rispetto dei principi di trasparenza e tracciabilità previsti dal Regolamento Europeo AI Act (2025). Tipo di contenuto: AI-assisted

Picture of Chiara Fantasia

by 

Chiara Fantasia
Share the Post:

Altri post