13 Aprile 2026
Cultura

Intelligenza artificiale in classe: un rapporto del Parlamento europeo lancia l’allarme etico

L’intelligenza artificiale sta entrando nelle aule scolastiche di tutta Europa a una velocità che le istituzioni faticano a seguire, e le implicazioni etiche di questa trasformazione silenziosa sono ancora in larga misura ignorate. È l’allarme che lancia un documento di ricerca commissionato dal Parlamento europeo dell’autore Wayne Holmes, intitolato “Artificial Intelligence in Classrooms: Ethical Dimensions”, che offre una delle analisi più complete e critiche mai prodotte a livello istituzionale sul tema.

Il documento non si limita a elencare rischi astratti. Costruisce un’argomentazione sistematica, partendo dai fondamenti della filosofia morale, deontologia, consequenzialismo, etica della virtù, per arrivare a conclusioni concrete e spesso scomode: i bambini rischiano di essere ridotti a dati, i docenti a facilitatori di software, e la scuola a terreno di sperimentazione commerciale non regolamentata.

Il divario digitale si capovolge.

Uno dei passaggi più provocatori del rapporto riguarda quello che gli autori definiscono il “divario digitale capovolto”. Se per anni si è temuto che i ragazzi più poveri restassero indietro per mancanza di accesso alla tecnologia, oggi si profila uno scenario opposto e per certi versi più inquietante: sono gli studenti delle famiglie più abbienti a continuare ad avere accesso a insegnanti in carne e ossa, mentre i loro coetanei meno fortunati vengono affidati sempre più all’istruzione mediata dall’intelligenza artificiale. Un ribaltamento che rischia di produrre nuove e profonde disuguaglianze educative.

Il rapporto dedica poi ampio spazio al tema dell’autonomia professionale degli insegnanti, messa a rischio da una progressiva delega delle decisioni pedagogiche agli algoritmi. L’autore parla esplicitamente di “automated abdication” per descrivere il fenomeno per cui i docenti smettono di esercitare il proprio giudizio professionale, affidandosi ciecamente alle valutazioni e alle raccomandazioni generate dall’IA. Parallelamente, si profila il rischio di “atrofia cognitiva” per gli studenti: il ricorso sistematico all’intelligenza artificiale per svolgere compiti intellettuali rischia di erodere progressivamente le competenze di pensiero critico, analisi approfondita e ragionamento autonomo.

I minori come merce: lo sfruttamento commerciale dei dati.

Particolarmente dura la sezione dedicata ai diritti dei minori. Il documento sostiene che molti sistemi di IA applicati all’istruzione violano di fatto la Convenzione ONU sui diritti dell’infanzia del 1989, trattando i bambini come fonti di dati da estrarre per addestrare modelli commerciali proprietari. In altri termini, le interazioni degli studenti con le piattaforme digitali vengono utilizzate gratuitamente dalle aziende tecnologiche per migliorare i propri prodotti, trasformando i minori in lavoratori non retribuiti e involontari. A questo si aggiunge il rischio di sorveglianza pervasiva, il tracciamento dei movimenti oculari, dei tasti digitati e dei comportamenti in classe, con effetti psicologici potenzialmente devastanti sul clima di apprendimento.

I “ghost workers” dell’IA: un caso emblematico.

Il rapporto porta alla luce anche il lato oscuro della filiera produttiva dell’intelligenza artificiale. I principali sistemi di IA generativa oggi disponibili, compresi quelli utilizzati nelle scuole, sono stati addestrati anche grazie al lavoro di migliaia di lavoratori scarsamente retribuiti nei Paesi del Sud del mondo, i cosiddetti “ghost workers”, incaricati di visionare e filtrare contenuti spesso violenti o traumatici per consentire agli sviluppatori di installare “guardrail etici” nei propri prodotti. Molti di loro hanno sviluppato disturbi psicologici gravi. Dal punto di vista deontologico, osservano gli autori, si tratta di una violazione flagrante dei diritti umani fondamentali, a prescindere dai benefici collettivi che ne sono derivati.

L’alfabetizzazione all’IA non basta: serve la dimensione umana.

Una sezione del documento affronta il tema dell’alfabetizzazione digitale con un approccio critico inusuale per un testo istituzionale. Secondo gli autori, i 115 framework di AI literacy identificati a livello internazionale, inclusi quelli promossi da UE e OCSE, si concentrano quasi esclusivamente su come usare l’IA, ignorando sistematicamente la dimensione umana: l’impatto dell’intelligenza artificiale sulla democrazia, sul pensiero critico, sulle disuguaglianze economiche, sull’ambiente, sui rapporti geopolitici di potere. Un’alfabetizzazione così ridotta, avvertono gli autori, non mette studenti e insegnanti in condizione di fare scelte davvero consapevoli su come utilizzare questi strumenti.

La governance: dalle intenzioni alle regole vincolanti.

Il rapporto si chiude con un appello alla governance concreta e vincolante. Le linee guida etiche esistenti, comprese quelle della Commissione europea, rischiano di restare mere dichiarazioni di intenti se non vengono accompagnate da meccanismi di enforcement reali: valutazioni d’impatto obbligatorie, audit etici certificati, sistemi di responsabilità chiari lungo tutta la filiera di sviluppo e deployment dell’IA. L’obiettivo, scrivono gli autori, deve essere quello di spostare il peso etico dagli utenti finali, studenti e insegnanti, agli sviluppatori e ai fornitori di tecnologia. Finché non accadrà, le aule scolastiche europee continueranno a essere, di fatto, laboratori di sperimentazione su minori senza adeguate protezioni.