Fonte: La Tecnica della Scuola del 4.04.2024. Gennaro Palmisciano, dirigente Ispettore Tecnico del MIM, scrive su rischi e benefici dell’introduzione dell’intelligenza artificiale nel nostro sistema scolastico.
È recente la notizia di un’intera classe che nel fine settimana aveva svolto un compito scritto ricevuto per casa su ChatGPT. Il docente si era reso conto della variazione di stile, per svolgimenti perfetti, e aveva chiesto agli alunni di integrare verbalmente ponendo alcune domande, con esiti “drammatici”: non sono stati in grado neanche di leggere e capire il testo che avevano consegnato. La soluzione trovata da quel docente mi sembra una buona idea. Ma le questioni sono di più vasta portata.
Il problema non è solo come controllare la veridicità di un testo generato da ChatGPT.
L’uso massiccio dell’intelligenza artificiale (IA o AI) implica gravi rischi connessi, per esempio, al trattamento dei dati personali e ad un aumento di produttività con pochi precedenti nella storia. Siamo posti di fronte a questioni non solo educative ed etiche, ma anche economiche e sociali del tutto inesplorate.
La concentrazione della tecnologia in poche reti dominanti, il fatto di poter fare tutto su una sola piattaforma, facilita la nostra vita. Più scelta, più comodità, più informazioni, a prezzi spesso più bassi. Ma la concentrazione riduce anche la concorrenza e l’innovazione e può lasciare molti indietro. Ci sono persone e imprese in condizioni di svantaggio che rischiano di rimanere ancora più indietro. Alle persone meno giovani e alle aziende meno dinamiche viene chiesto uno sforzo maggiore per rimanere al passo. Oppure pensiamo alle persone o alle aziende che non hanno le risorse necessarie per dotarsi di tecnologia all’avanguardia. C’è perciò il rischio che le diseguaglianze nell’accesso e nella capacità d’uso della tecnologia aumentino le tensioni sociali già esistenti.
L’intelligenza artificiale è comunque uno strumento nelle mani dell’uomo e, se programmato male, può produrre danni terribili: si immagini a quello che potrebbe accadere in seguito ad armi guidate da un’IA fallace.
Il problema di fondo, oggi come ieri, è governare, anziché subire, il progresso tecnologico.
I Governi a vari livelli hanno cercato di dare una risposta.
L’UNESCO
Nel 2021 l’UNESCO ha pubblicato Intelligenza Artificiale e istruzione: indicazioni per i decisori politici, una guida sulle opportunità offerte dall’IA di innovare l’insegnamento e accelerare il progresso verso l’Obiettivo 4 dell’Agenda 2030 (un’educazione di qualità, equa e inclusiva). Inoltre, il documento fornisce indicazioni, basate sui principi di inclusione ed equità, per affrontare i rischi presentati dalla applicazione dell’IA all’istruzione, attraverso un’analisi delle tendenze e delle implicazioni dell’IA per l’insegnamento e l’apprendimento.
Nel settembre 2023 è stata pubblicata la Guida per l’Intelligenza Artificiale generativa nell’educazione e nella ricerca con lo scopo di assicurare uno sviluppo delle nuove tecnologie fondato sull’essere umano, progettare politiche di lungo termine e avviare azioni immediate.
La Guida ha delineato un percorso verso una regolamentazione degli strumenti di Intelligenza Artificiale generativa, a partire dalla protezione dei dati personali e dallo stabilire un limite minimo di età per interagire con le piattaforme di IA generativa. Per un uso appropriato di questi strumenti nei settori dell’educazione e della ricerca, la Guida propone un approccio adeguato alla validazione etica e ai processi di progettazione pedagogica.
L’UNESCO ha chiesto un’attuazione immediata della Raccomandazione. Circa 40 Paesi in tutto il mondo ad oggi hanno risposto all’appello.
L’Unione Europea
“L’intelligenza artificiale ha un grande potenziale: può trasformare l’istruzione e la formazione per gli studenti, gli insegnanti e il personale scolastico, può aiutare gli studenti con difficoltà di apprendimento e sostenere gli insegnanti grazie all’apprendimento personalizzato. L’utilizzo dell’IA e dei dati comporta tuttavia rischi per la vita privata e la sicurezza, in particolare quando riguarda i nostri giovani. Sono quindi lieta che gli orientamenti contribuiranno a garantire che questi rischi siano presi in considerazione e che i nostri figli possano essere protetti e al sicuro” ha affermato Maryia Gabriel, commissaria per l’innovazione, la ricerca, la cultura, l’istruzione e i giovani.
“L’intelligenza artificiale (IA) sta diventando onnipresente nella nostra economia e nella nostra società: influisce sul modo in cui restiamo informati e prendiamo le decisioni. È quindi naturale che abbia raggiunto anche le nostre scuole. L’uso dell’IA nell’istruzione non è più un miraggio lontano. L’intelligenza artificiale – scrive Mariya Gabriel – sta già cambiando le modalità di lavoro di scuole, università ed educatori, e le modalità di apprendimento dei nostri figli. Sta inoltre rendendo i contesti educativi più reattivi aiutando gli insegnanti a rispondere alle necessità specifiche di ciascun discente, e si sta rapidamente convertendo in un elemento fondamentale del tutoraggio personalizzato e della valutazione, mettendo sempre più in luce il potenziale di cui dispone per fornire preziose informazioni sullo sviluppo degli studenti. L’impatto dell’IA sui nostri sistemi di istruzione e formazione è innegabile, e aumenterà ulteriormente in futuro. Ecco perché gli Orientamenti etici per gli educatori sull’uso dell’intelligenza artificiale (IA) e dei dati nell’insegnamento e nell’apprendimento sono non solo utili ma addirittura indispensabili. Se ne allega copia certi che l’UE ha risposto, in questa prima fase, già dal 2022, alle prime sollecitazioni del mondo dell’Istruzione e dell’Università; sostanzialmente della formazione”.
Le linee guida etiche sull’uso dell’intelligenza artificiale e dei dati nell’insegnamento e nell’apprendimento per gli educatori sono un documento della Commissione europea pubblicato nel 2022.
“Le linee guida sono progettate per aiutare gli educatori a comprendere il potenziale che le applicazioni dell’IA e l’utilizzo dei dati possono avere nell’istruzione e per aumentare la consapevolezza dei possibili rischi in modo che siano in grado di impegnarsi in modo positivo e critico ed eticamente con i sistemi di intelligenza artificiale e sfruttarne appieno il potenziale.
L’obiettivo è sfatare pregiudizi diffusi sull’IA che potrebbero causare confusione o timori riguardo al suo utilizzo, in particolare nel settore dell’istruzione. Inoltre, il documento tratta le considerazioni e i requisiti di natura etica offrendo consigli pratici agli educatori e ai dirigenti scolastici su come pianificare un utilizzo efficace dell’IA e dei dati nelle scuole. Ad esempio, gli orientamenti suggeriscono come utilizzare queste tecnologie per adattare l’insegnamento alle abilità di ciascuno studente o come preparare interventi personalizzati per studenti con esigenze speciali. Rappresentano infine una base solida da cui trattare le competenze emergenti per un uso etico dell’IA e dei dati da parte degli insegnanti e degli educatori, proponendo metodi volti a sensibilizzare la comunità e a interagire con essa”.
Nell’aprile 2021, la Commissione ha proposto il primo quadro normativo dell’UE sull’IA. Ha indicato che i sistemi di intelligenza artificiale utilizzabili in diverse applicazioni siano analizzati e classificati in base al rischio che rappresentano per gli utenti. I diversi livelli di rischio comporteranno una maggiore o minore regolamentazione. Una volta approvate, queste saranno le prime regole al mondo sull’IA. Non a caso, all’interno dell’AI Act (ultima edizione 13.3.2024), ovvero il Regolamento (UE) 2024 del parlamento europeo e del consiglio che stabilisce regole armonizzate sull’intelligenza artificiale (legge sull’intelligenza artificiale) e modifica alcuni atti legislativi dell’Unione sono rappresentati dei sistemi di Intelligenza Artificiale con rischio limitato, obbligati a requisiti minimi che possiamo definire di trasparenza. Gli alunni possono e debbono fare scelte informate e stabilire, consapevolmente, se e quando continuare a adoperare l’IA. Nella categoria del rischio limitato abbiamo i sistemi di Intelligenza Artificiale in grado di originare o maneggiare contenuti di immagini, audio o video, quelli che chiamiamo “deepfake”, contenuti i quali devono essere chiaramente etichettati come tali. In questo caso la scuola ha degli obblighi precisi: formare gli alunni a un uso consapevole e responsabile dell’Intelligenza Artificiale.
Il Regolamento vieta i sistemi di riconoscimento delle emozioni sul luogo di lavoro e nelle scuole e i sistemi di identificazione biometrica remota “in tempo reale” in spazi accessibili al pubblico a fini di attività di contrasto disciplinato dal regolamento, ma non altre tipologie di identificazione.
L’approccio adottato nel documento distingue i sistemi di intelligenza artificiale sulla base del livello di rischio che implicano. Ci sono quattro livelli di rischio considerati:
1) Rischio Inaccettabile: Questo è il livello di rischio più elevato e indica che il sistema di IA ha il potenziale per causare danni gravi o inaccettabili alle persone, alle loro vite, ai loro diritti sul lavoro e alla salute e sicurezza. Un esempio è un giocattolo in grado di dialogare con un bambino e di indurlo a comportamenti pericolosi verso se stesso o gli altri. Altro esempio è il social scoring adottato in Cina, sistema nel quale ogni cittadino riceve all’inizio del suo percorso di giudizio un determinato punteggio, che determinate azioni possono abbassare o aumentare: il meccanismo è vulnerabilissimo alle manipolazioni artificiali. Questo livello va correlato a disposizioni molto stringenti o va addirittura proibito.
2) Rischio Elevato: Questo livello indica un rischio significativo associato al sistema di IA, anche se non è considerato inaccettabile. In questa fascia troviamo ad esempio la gestione e l’elaborazione di dati biometrici, gli strumenti di analisi e ranking dei CV dei candidati nell’ambito di un colloquio di selezione, ecc. Vanno previste disposizioni rigorose per minimizzare i rischi e garantire la sicurezza e i diritti delle persone.
3) Rischio Limitato: In questo caso, il sistema di IA è associato a un rischio moderato o limitato. In questo ambito, per esempio, vanno inserite le immagini reali ritoccate da IA che potrebbero prevedere uno speciale contrassegno. Le disposizioni in questo livello saranno meno stringenti rispetto ai livelli di rischio più elevati, ma comunque necessarie per garantire un utilizzo responsabile.
4) Rischio Minimo o Nullo: Questo è il livello di rischio più basso, indicando che il sistema di IA ha un impatto molto limitato o nullo sulle persone, le loro vite e i loro diritti. Qui troviamo i software antispam, i videogiochi e i prodotti di intrattenimento come le chatbots, i quali vanno semplicemente incoraggiati ad aderire a codici di condotta volontari. In questo caso, vanno applicate normative meno rigide.
Il piano d’azione per l’istruzione digitale (2021-2027) dell’UE è l’iniziativa strategica rinnovata dell’Unione europea (UE) a sostegno dell’adattamento sostenibile ed efficace dei sistemi di istruzione e formazione degli Stati membri dell’UE all’era digitale.
Il piano d’azione per l’istruzione digitale:
– offre una visione strategica a lungo termine per un’istruzione digitale europea di alta qualità, inclusiva e accessibile;
– affronta le sfide e le opportunità evidenziate dalla pandemia di COVID-19, che ha portato a un uso senza precedenti della tecnologia nel campo dell’istruzione e della formazione;
– mira a rafforzare la cooperazione a livello dell’UE in materia di istruzione digitale e sottolinea l’importanza di collaborare in tutti i settori per integrare l’istruzione nell’era digitale;
– presenta opportunità, tra cui un maggiore e migliore insegnamento in materia di tecnologie digitali, il sostegno alla digitalizzazione dei metodi di insegnamento e delle pedagogie e la messa a disposizione delle infrastrutture necessarie per un apprendimento a distanza inclusivo e resiliente.
L’OCSE
The Future of Education and Skills: Education 2030 è l’importante documento realizzato dall’OCSE ovvero l’Organizzazione per la Cooperazione e lo Sviluppo Economico che, nella fattispecie ricorda che “Esiste una domanda crescente nei confronti delle scuole perché preparino gli studenti ai cambiamenti economici e sociali più rapidi, ai posti di lavoro che non sono stati ancora creati, alle tecnologie che non sono state ancora inventate e a risolvere problemi sociali che non esistevano in passato”.
Lo scopo del progetto Education 2030: The Future of Education and Skills dell’OCSE è quello di aiutare i Paesi a trovare risposte a due domande di vasta portata: “Di quali conoscenze, abilità, attitudini e valori avranno bisogno gli studenti di oggi per modellare e far prosperare il loro mondo nel 2030?” e “Come possono i sistemi didattici sviluppare queste conoscenze, abilità, attitudini e valori in modo efficace?” Questo documento di posizione dell’OCSE sull’Istruzione 2030 esamina le sfide all’alba del terzo millennio.
E in Italia?
Il Ministero dello Sviluppo Economico è stato l’autore del documento Proposte per una Strategia italiana per l’Intelligenza Artificiale.
Successivamente è stato pubblicato il Programma strategico Intelligenza Artificiale 2022-2024 voluto dal Governo Italiano a cura del Ministero dell’Università e della Ricerca, del Ministero Dello Sviluppo Economico e del Ministro per l’Innovazione tecnologica e la Transizione Digitale. Il primo dei due documenti sottolinea che l’IA “dovrebbe essere adottata come metodo educativo in grado di portare alla formazione del cosiddetto pensiero computazionale, alla multidisciplinarietà intrinseca nella soluzione di problemi e nella trasversalità delle competenze”.
Nel Libro Bianco per l’Intelligenza Artificiale al servizio del cittadino a cura dell’Agenzia per l’Italia Digitale, viene specificato che l’uso di soluzioni di IA nel settore dell’istruzione permetterebbe di diminuire le diseguaglianze sociali. Nel documento si legge “…è ipotizzabile un intervento significativo dei sistemi intelligenti dì supporto all’apprendimento. C’è una lunga tradizione nell’uso del calcolatore per tali scopi: dai sistemi Computer Assisted Instruction (CAI) ai sistemi Intelligent Tutoring Systems (ITS). Negli ITS è sempre presente uno student model, inteso come base di conoscenza in cui sono rappresentate in modo esplicito le caratteristiche e le conoscenze dello studente. Questa soluzione svolge un ruolo di sostegno fornendo un’integrazione ai sistemi di insegnamento tradizionali, contribuendo a colmare le lacune di apprendimento degli studenti con problemi cognitivi”. L’IA nelle scuole ridurrebbe, evidentemente, quello che è il gap linguistico. “L’offerta di servizi di traduzione simultanea adeguatamente modellati potrebbe aiutare a colmare il divario generato dalle nuove ondate migratorie, offrendo dunque una preziosa assistenza allo studio”. L’IA, potrebbe permettere di “superare i limiti posti dall’esigenza di possedere conoscenze specialistiche per svolgere determinate attività”. Grazie all’Intelligenza Artificiale, potrebbero essere attivati nuovi approcci di valutazione basati su proposte personalizzate per fornire ai docenti e agli alunni informazioni più significative in tutte le aree dell’apprendimento. Per non considerare il fatto che la utilizzabilità di Small Data sarebbe da supporto agli insegnanti per accertare quelli che sono i punti di forza e i punti di debolezza nel percorso dell’apprendimento degli alunni e per favorire la personalizzazione dei contenuti. Disporre di dati darebbe lettura immediata ai progressi e alla conoscenza di sé in relazione al percorso scolastico.
Nel Libro Bianco per l’Intelligenza Artificiale al servizio del cittadino a cura dell’Agenzia per l’Italia Digitale, come detto sopra, tra gli esempi di come la Scuola potrebbe trarre beneficio dall’adozione di soluzioni di IA cita:
– strumenti automatici per la valutazione;
– personalizzazione del materiale didattico;
– tutoring automatizzato, per mezzo di strumenti di raccomandazione per tenere viva l’attenzione;
– suggerimenti inerenti variazioni personalizzate da introdurre nel programma scolastico;
– estrazione di indicatori predittivi di rischio di abbandono scolastico.
Se solo recentemente personal digital tutor sono stati introdotti per l’assistenza dei dottorandi (in didattica generale e pedagogia speciale presso Unisa), dove l’Intelligenza Artificiale è stata già applicata da tempo nel campo educativo – si legge sul sito dell’INVALSI – invece, è l’automazione delle attività di tipo amministrativo e quelle di routine e gestione della quotidianità dirigenziale e amministrativa di ciascuna Istituzione Scolastica. È il caso, per esempio, dei sistemi per:
produzione della certificazione digitale che attesta in modo oggettivo il livello di competenze acquisito;
elaborazione delle pagelle elettroniche;
gestione del calendario delle lezioni;
aggiornamento immediato delle presenze e delle assenze.
L’Intelligenza Artificiale apre a prospettive nuove e indirizzate al miglioramento dell’attenzione all’inclusività dell’Istituzione Scolastica. Sono validi esempi, per esempio, le tecnologie multisensoriali e tra queste la robotica sociale, adoperata per incoraggiare l’apprendimento e le relazioni negli alunni con, per esempio, di disturbi dello spettro autistico, o soluzioni adeguate per supportare allievi con BSE e DSA.
In merito alle possibilità offerte dalla realtà aumentata, nelle scuole potrebbero nascere nuovi ambienti educativi innovativi, inclusivi e coinvolgenti, in grado di incentivare l’interazione con e tra gli studenti, coniugando esigenze di formazione e innovazione tecnologica.
L’Intelligenza Artificiale nella scuola può, inoltre, supportare lo studio individuale, come strumento di autovalutazione attraverso la redazione automatica di esercizi aggiuntivi e interrogazioni virtuali.
Insomma, l’IA è uno strumento intelligente se usato in modo intelligente, specie con gli alunni speciali, e può essere uno strumento dannoso, se usato in modo non intelligente.
Gennaro Palmisciano
dirigente Ispettore Tecnico del MIM