9 Luglio 2025

Un articolo di Vincenzo Cascino (Università di Genova)

Cosa succede quando l’intelligenza artificiale entra in classe?

di Liliana Blanco

Cosa succede quando l’intelligenza artificiale entra in classe? Se lo chiede Vincenzo Cascino, docente di Pedagogia Speciale all’Università di Genova, in un articolo pubblicato sull’Italian Journal of Special Education for Inclusion, dove esplora le potenzialità e i rischi dell’IA in ambito scolastico. Il titolo è chiaro: “Artificial Intelligence at school: challenges and opportunities”, e il contenuto lo è ancora di più.

La tecnologia, spiega Cascino, può davvero rivoluzionare il modo in cui si insegna e si impara. Lo fa già, in parte: chatbot che rispondono agli studenti, piattaforme che si adattano al livello del singolo, ambienti virtuali che aiutano i ragazzi con disabilità a partecipare più attivamente alla vita scolastica. Per molti, è un sogno educativo che si realizza.

Ma ogni innovazione porta con sé anche nuove domande. Chi controlla gli algoritmi? Come vengono usati i dati degli studenti? Cosa succede se un’intelligenza artificiale assegna un voto o un percorso personalizzato basandosi su informazioni incomplete o distorte?

Il rischio, sottolinea l’autore, è di trasformare uno strumento potente in un meccanismo opaco e potenzialmente discriminatorio. Gli algoritmi, se non corretti, possono amplificare le disuguaglianze anziché ridurle. E mentre alcuni paesi (come la Francia, che ha vietato gli smartphone a scuola) pongono limiti netti, in Italia il dibattito è ancora aperto e frammentato.

Cascino non si limita a lanciare l’allarme. Indica anche la direzione da seguire: trasparenza, formazione dei docenti, supervisione umana, attenzione all’equità. L’IA, dice, non può essere lasciata sola in cattedra. Deve restare uno strumento nelle mani degli insegnanti, non un sostituto.

Il messaggio finale è chiaro: l’IA può essere una grande alleata della scuola, ma solo se accompagnata da una riflessione profonda sui valori educativi, sull’inclusione e sui diritti degli studenti. Perché l’innovazione tecnologica, se non è anche innovazione pedagogica, rischia di essere solo una scorciatoia pericolosa.bL articolo Approfondisce anche il rapporto tra pedagogia speciale e intelligenza artificiale.

La pedagogia speciale si occupa dell’inclusione educativa di soggetti con disabilità, disturbi specifici dell’apprendimento (DSA) e bisogni educativi speciali (BES), proponendo approcci didattici, metodologie e strumenti personalizzati per garantire pari opportunità nell’accesso al sapere. In questo contesto, l’intelligenza artificiale (IA) sta assumendo un ruolo sempre più centrale come leva per l’innovazione inclusiva.
Cascino sostiene che “L’intelligenza artificiale può rappresentare una risorsa significativa per la pedagogia speciale, nella misura in cui è progettata con attenzione ai principi di accessibilità, adattività e trasparenza”
Ma quali sono le Applicazioni pratiche della IA nella pedagogia speciale?

1.⁠ ⁠Personalizzazione dell’apprendimento:
Attraverso sistemi adattivi basati su IA, è possibile creare percorsi educativi personalizzati, in grado di adattarsi ai bisogni cognitivi ed emotivi dello studente. Piattaforme come AI tutors, learning analytics e sistemi di natural language processing sono già in uso per supportare studenti con DSA o autismo.
A tal proposito Cascino sostiene che “L’IA consente un livello di personalizzazione impensabile con la didattica tradizionale, risultando particolarmente efficace nei contesti speciali”
2.⁠ ⁠Supporto alla comunicazione aumentativa e alternativa (CAA):
Alcune applicazioni di IA, come i sistemi di riconoscimento vocale e le interfacce basate su immagini o eye-tracking, possono agevolare la comunicazione in studenti con disabilità motorie o verbali.
3.⁠ ⁠Diagnosi precoce e monitoraggio:
Sistemi intelligenti sono impiegati per individuare precocemente segnali di difficoltà nell’apprendimento attraverso l’analisi di pattern comportamentali e di rendimento scolastico.
Quali sono dunque le dfide etiche e pedagogiche?
Il potenziale dell’IA in ambito inclusivo si accompagna a rischi significativi, che la pedagogia speciale ha il compito di analizzare criticamente:

Bias algoritmici: se non correttamente addestrati, gli algoritmi possono perpetuare stereotipi e discriminazioni nei confronti degli studenti con disabilità.

Deumanizzazione del rapporto educativo: l’eccessiva delega all’IA rischia di ridurre la componente relazionale, centrale nella pedagogia speciale.

Accesso diseguale alla tecnologia: l’IA può accentuare le disuguaglianze se non accompagnata da politiche di equità digitale.
“L’IA deve essere uno strumento, non un sostituto della relazione educativa. L’empatia, la cura e la capacità di ascolto non sono replicabili da alcun algoritmo.”
Cascino, 2025

Prospettive future

Perché il rapporto tra pedagogia speciale e IA sia fecondo, è necessario che:

le soluzioni IA siano co-progettate con educatori, pedagogisti, famiglie e studenti;

i sistemi siano trasparenti, auditabili e rispettosi della privacy degli studenti;

si sviluppi una nuova alfabetizzazione etico-tecnologica per i professionisti della scuola.

Cascino, così si esprime, “L’innovazione in ambito educativo non può essere lasciata solo agli informatici: deve essere guidata da una visione pedagogica forte”

CONDIVIDI SU