C’è un momento preciso, quasi impercettibile, in cui un algoritmo prende una decisione che ci riguarda. Non è qualcosa che vediamo accadere: appare piuttosto come un suggerimento di contenuto, una raccomandazione didattica, un percorso di apprendimento “personalizzato”. Dietro una proposta che sembra neutrale, frutto di un calcolo oggettivo, si nasconde in realtà una scelta. Una preferenza. Una semplificazione.
Faccio un esempio per chiarire ciò che intendo: immaginiamo che un utente acceda al suo percorso formativo dopo il login sulla piattaforma didattica. L’interfaccia del sistema gli suggerisce di proseguire verso un modulo di leadership, perché l’algoritmo ha notato un interesse per la gestione dei team. Nel frattempo, un altro utente, con profilo simile, riceve dalla stessa piattaforma un’indicazione diversa: per lui o lei, l’intelligenza artificiale ritiene più adatto un corso di comunicazione inclusiva. Nulla di errato, in apparenza. Eppure, in quell’associazione invisibile tra pattern e persona, tra dato e identità, si insinua il germe del bias.
L’illusione di imparzialità è il grande paradosso della formazione algoritmica. Gli strumenti che promettono di ridurre l’errore umano, di razionalizzare la complessità e di ottimizzare l’esperienza di apprendimento, rischiano di riprodurre, e talvolta amplificare, le stesse distorsioni cognitive che vorrebbero correggere.
Come osserva Kate Crawford nel suo Atlas of AI (2021), “ogni sistema di intelligenza artificiale è una condensazione politica: un insieme di scelte umane rese opache dalla matematica”. Nel digital training, questa opacità si manifesta con discrezione: attraverso i criteri con cui vengono aggregati i dati, le logiche di raccomandazione dei contenuti, o gli algoritmi predittivi che stimano la probabilità di completamento di un corso. In questa trama di numeri e correlazioni, chi apprende rischia di diventare un profilo sintetico, parziale, costruito su indicatori comportamentali. E se l’apprendimento è un processo profondamente umano, soggettivo, interpretativo, la sua riduzione a schema previsionale rappresenta una perdita di complessità cognitiva.
Comprendere il bias algoritmico
Ogni algoritmo presuppone un atto di interpretazione. Nel momento in cui traduce la realtà in numeri, opera una riduzione. E in questa riduzione si annidano inevitabilmente scelte, prospettive, assunzioni. Ben Williamson nella sua opera Learning Machines (2019), evidenzia come l’intelligenza artificiale applicata all’educazione non sia un semplice strumento tecnico, ma un “dispositivo politico” che riflette le priorità e i modelli cognitivi di chi l’ha costruita.
Nel campo dell’e-learning, il bias algoritmico assume forme diverse. Può nascere dai dati di addestramento, dai criteri di categorizzazione dei profili, o dai modelli predittivi che interpretano le interazioni dell’utente. In apparenza, tutto si riduce a un problema di qualità dei dati. Ma il punto a mio avviso è più delicato e di stampo squisitamente culturale (o filosofico?): quale idea di apprendimento stiamo traducendo in codice?
Il digital learning contemporaneo, infatti, è costantemente in bilico tra il desiderio di oggettività e controllo e la natura intrinsecamente soggettiva e personale dell’apprendere. Il bias rappresenta la nostra stessa difficoltà a gestire la complessità cognitiva.
L’abbiamo osservato più volte nei progetti di formazione data-driven: i modelli funzionano perfettamente fino a quando non incontrano l’imprevisto umano — la curiosità, la deviazione, l’errore creativo. È lì che l’algoritmo, privo di contesto, mostra la propria fragilità.
La riduzione cognitiva dell’esperienza formativa
Quando un sistema “personalizza” un percorso, lo adatta al profilo dell’utente ma contemporaneamente tende a restringere il campo delle possibilità. Ciò che viene proposto come “in fit” con le esigenze individuali, spesso coincide con un allineamento statistico: ti mostro ciò che utenti simili a te hanno scelto, ti guido verso ciò che è più probabile che tu completi.
Questa dinamica genera una riduzione cognitiva: la complessità dell’apprendimento umano viene compressa in pattern ripetuti. Nella formazione digitale, questo significa che chi apprende rischia di trovarsi immerso in una “bolla cognitiva” ovvero un ecosistema dove tutto è rilevante, ma solo entro i limiti del proprio profilo. Qual è l’effetto collaterale più immediato? Inevitabilmente si riduce l’orizzonte di apprendimento e, con esso, la capacità di stupirsi, di esplorare, di attraversare l’incertezza, di crescere, di distinguersi, in poche parole, di portare contributi innovativi e ricchezza.
Un rischio pedagogico sottile è che l’intelligenza artificiale finisca per sostituire la curiosità con la conformità. Eppure apprendere significa, per sua natura, esercitare una libertà cognitiva, deviare dal prevedibile. Come possiamo allora uscire da questa impasse? Forse accettando la sfida che l’IA ci pone: non tanto quella di eliminare i bias, quanto di resistere alla tentazione della loro comodità.
Formazione data-driven e governance etica
Nel 2023, il rapporto OECD “Artificial Intelligence in Education” ha messo in guardia governi e aziende dal rischio di “governare l’apprendimento attraverso l’analisi dei dati piuttosto che attraverso la conoscenza educativa”. Detto altrimenti; i dati possono informare, ma non devono dettare strategie.
L’etica della formazione algoritmica non si gioca solo sulla trasparenza dei modelli, ma sulla governance cognitiva: chi decide cosa conta come apprendimento, quali variabili sono significative, quali risultati sono desiderabili?
Secondo l’UNESCO (AI and the Futures of Learning, 2023), un sistema di apprendimento equo deve garantire che “gli algoritmi riflettano la diversità dei contesti umani” e che ogni decisione automatizzata sia accompagnata da un controllo umano informato. Questo implica un ripensamento profondo del ruolo dei formatori, dei designer dell’apprendimento, dei decisori strategici ovvero di chi governerà il passaggio da “analisi dei dati” a “decisione educativa”.
Emergeranno certamente nuove figure professionali, e perché no, magari anche quella del “learning ethics designer”, un ruolo capace di dialogare con i data scientist, tradurre le metriche in linguaggio educativo e garantire che la dimensione umana resti al centro.
Lo sguardo dell’esperto: note dal mestiere del sapere digitale
Confesso che, ogni volta che apro un cruscotto di learning analytics, provo una sensazione ambivalente.
Da un lato, l’eleganza dei grafici, la chiarezza dei trend, l’apparente precisione mi rassicurano. Dall’altro, so che dietro quei numeri si nasconde una complessità che nessuna visualizzazione potrà mai restituire del tutto. Ho imparato che leggere un dato significa ascoltare una storia: la storia di chi ha interagito, di chi si è fermato, di chi ha saltato un modulo perché forse non lo sentiva pertinente.
Il compito del formatore digitale, oggi, è imparare a leggere controcorrente: non solo ciò che l’algoritmo mostra, ma ciò che tace.
Molti professionisti della formazione nel settore privato e nella pubblica amministrazione si trovano, spesso inconsapevolmente, a dover mediare tra due culture: quella dell’efficienza e quella della comprensione.
Il bias si insinua proprio qui, nel desiderio di misurare anche ciò che dovrebbe restare in parte indicibile: la motivazione, la fatica, l’apprendimento implicito. Ritengo abbastanza probabile che tra le competenze che dovrò potenziare nei prossimi anni ci sarà la mia capacità di interpretare la complessità dei dati. E forse è questa la frontiera su cui si gioca la formazione del futuro: quella di formatori “consapevoli del limite dell’algoritmo”, capaci di usarlo come alleato, non come oracolo.
Educare all’algoritmo
La questione dei bias algoritmici non riguarda solo la tecnica, ma la cultura del sapere. Ogni volta che una macchina propone un percorso formativo, ci invita implicitamente a condividere la sua visione del mondo: lineare, calcolabile, predittiva. Ma l’apprendimento umano si nutre di discontinuità, di imprevisti, di ambiguità creative. Educare all’algoritmo vuol dire sviluppare una nuova alfabetizzazione cognitiva: saper leggere il funzionamento dei sistemi, riconoscere i loro limiti, comprendere che ogni suggerimento è una narrazione parziale. Non si tratta di respingere la tecnologia, ma di abitarla criticamente.
Nel futuro del digital learning, la vera innovazione non sarà nella precisione delle raccomandazioni, ma nella capacità di formare cittadini cognitivamente autonomi, consapevoli dei meccanismi con cui l’algoritmo interpreta il loro comportamento. Forse, allora, il compito più importante non sarà quello di “eliminare i bias”, ma di imparare a conviverci consapevolmente, trasformandoli in occasione di riflessione. Perché, il modo in cui educhiamo le nostre macchine riflette inevitabilmente il modo in cui educhiamo noi stessi.


