Valore aggiunto: utile nel conoscere la differenza di insegnamento


Interesse e utilita’ del valore aggiunto. Ripresa di una articolo del 2002 di Lynn Olson, giornalista presso il settimanale USA di politica scolastica "Education Week". Il calcolo del valore aggiunto conta

Sito Norberto Bottani  -  22 settembre 2015

Il calcolo del valore aggiunto di un insegnante rispetto a un altro e soprattutto rispetto agli apprendimenti degli studenti fu accolto come una pista molto promettente. Tutti sanno infatti che con determinati insegnanti gli studenti apprendono meglio e di più il sapere scolastico che non con altri. Ma l’isolamento di questo effetto si rivela molto più difficile di quanto sospettato. Gli entusiasmi iniziali per il metodo del VA ( acronimo per valore aggiunto) si sono un poco placati ma le indagini proseguono con la speranza di elaborare un metodo corretto, comprensibile per tutti, di misura del VA di un insegnante sulla base dei punteggi conseguiti dai loro studenti nei test. Non è detto che questa via sia percorribile. Molte sono le reticenze e le riserve anche nel mondo scientifico.

 Il dibattito sul calcolo del valore aggiunto di un insegnante rispetto a quanto imparano gli studenti e’ di grande attualità negli USA dove gli specialisti di scienze dell’educazione sono quanto mai divisi tra loro. Il calcolo del valore aggiunto , tutti lo sanno, pone in realtà molti problemi di tipo metodologico che non sono tuttora padroneggiati. Anzi nuove pietre d’inciampo appaiono cammin facendo e ci si rende conto della loro presenza solo dopo averle incontrate.

Lynn Olson, giornalista nel settimanale USA di politica scolastica ha scritto nel 2002 un articolo sull’interesse del calcolo del valore aggiunto, ma da allora in poi, nonostante i progressi , non si e’ riusciti a risolvere i problemi posti dal calcolo per cui non esiste ancora un modello indiscusso di calcolo del valore aggiunto di un insegnante e quindi non esiste neppure una procedura per un uso sistematico, sicuro dei risultati del calcolo del valore aggiunto. Pero’ in compenso si è acquisita una consapevolezza migliore dei fattoirj necessari per rendere attendibile il calcolo del valore aggiunto di un insegnante tramite i punteggi conseguiti dai suoi studenti in un determinato anno nei test di conoscenze. Detta cosi’ si capisce subito quanto delicato possa essere il calcolo del valore aggiunto poiche’ gli elementi da considerare sono molteplici e tutti sono di per sé ardui. A questi elementi occore aggiungerne degli altri , specifici , necessari per attuare un uso corretto del valore aggiunto. Dunque la faccenda è complicata.

 

Riprendiamo qui di seguito in libera traduzione alcuni spunti dell’articolo di Lynn Olson intitolato "Education Scholars Finding New ’Value’ In Student Test Data" , pubblicato il 20 novembre 2002 da "Education Week". L’articolo e’ accessibile solo agli abbonati del settimanale.

Olson illustra l’esperienza principe di calcolo del VA negli USA, ossia quella attuata da William J. Sanders nel Tennessee nota come TVAAS [1]. Nel Tennessee il modello e’ stato applicato dal 1993 e da allora in poi ha fatto macchia d’olio in vari stati degli USA. In questo articolo del 2002 si fa il punto sulla situazione . Se si pensa che in Italia non esiste ancora nessuna sperimentazione seria del VA tranne qualcosa fatto anni fa in Lombardia ci si rende conto del ritardo italiano in questo settore. Del resto la stessa considerazione si puo’ esprimere per la Francia, per la Gran Bretagna o la Germania. In Europa si fa ben poco per perfezionare il modello del calcolo del valore aggiunto. Sanders fin dal 1993 ha applicato la sua teoria che è statistica solo in parte ma che in realtà è politica perché afferma che l’insegnante è il cardine del successo scolastico. La teoria del VA si basa sulla convinzione che i risultati degli studenti dipendono dalla bravura degli insegnanti [2]. Sanders dopo l’esperienza nel Tennesse ha diretto il centro di ricerca sul VA della società’ che gestisce l’applicazione statistica SAS. Dopo di che e’ diventato professore universitario all’università della Carolina del Nord.

 

Analisi statistiche longitudinali

Il metodo di Sanders piuttosto che produrre classifiche di scuola basate sui punteggi rozzi conseguiti degli studenti nei test scolastici, è imperniato sui progressi di ogni singolo studente nel tempo. Quindi il metodo richiede la messa a punto di programmi longitudinali che raccolgono dati sui risultati di ogni studenti da un anno all’altro. 

I metodi del valore aggiunto mirano a produrre stime accurate dei cambiamenti nei punteggi conseguiti nei test scolastici . Nel 2003 il metodo di Sanders fu applicato in distretti scolastici [3] sparsi in 21 stati . In tre stati l’esperienza è stata condotta su vasta scala si tratta della Pennsylvania, del Colorado e dell’Ohio.

Nella Pennsylvania 30 distretti scolastici hanno partecipato all’esperienza.Per partecipare ogni distretto scolastico doveva impegnarsi a testare lo stesso studente ogni anno dalla terza elementare via fino alla fine della scuola media. L’esperienza è partita nell’anno scolastico 2005-06. Le autorità scolastiche hanno precisato che una misura corretta del rendimento scolastico e delle scuole implica che si misuri la situazione in partenza e quella di arrivo. Ci vogliono quindi le due misure per produrre un risultato che si avvicini alla stima del valore aggiunto.

Nell’Ohio 42 distretti scolastici hanno partecipato all’esperimento .

Nel Colorado, circa 40 distretti scolastici hanno lavorato direttamente con Sanders per effettuare analisi del valore aggiunto. Il progetto si è concentrato sulle competenze dei singoli discenti in lettura, scrittura e matematica. Il Colorado ha deciso per legge che a decorrere dall’anno scolastico 2005-06 in tutti i distretti scolastici si misurasse il valore aggiunto negli apprendimenti degli studenti. Il progetto si prefigge di fornire a tutti gli insegnanti strumenti che avrebbero potuto servire a migliorare gli apprendimenti di ogni studente.

 

Critiche

Uno degli aspetti più polemici del metodo di Sanders è la pretesa di misurare l’efficacia di ogni singolo insegnante in base ai progressi annui in classe degli studenti. Nel Tennessee questa informazione è data solo alla scuola e ovviamente agli insegnanti che vi operano. A partire dal 2003 i genitori degli allievi del Tennessee possono consultare un sito Web del dipartimento dell’educazione e trovarvi proiezioni confidenziali riguardanti la probabilità di uno studente di passare il test per accedere al liceo . Le proiezioni vengono fatte sulla base dei risultati conseguiti nei test anteriori. Il sito offre anche una proiezione degli esiti possibili nel test d’ammissione all’università.

 

Condizioni

Uno dei problemi da risolvere consiste nello smontare la credenza secondo la quale non si dovrebbero testare ogni studente ogni anno per evitare che si schedino gli studenti da un anno all’altro. Orbene, per migliorare gli apprendimenti scolastici è necessario seguire da vicino l’evoluzione di quanto impara ( e di come impara) ogni studente.

Il secondo ostacolo è di natura logistica: la misura del VA esige la messa a punto e la padronanza di banche dati longitudinali nelle quali si registrano le prestazioni di ogni discente .

Insomma si deve mirare a collezionare buone informazioni. All’università del Texas a Austin si trova il Centro Nazionale della rendicontazione scolastica [4] che fornisce indicazioni sulle modalità da adottare per costruire sistemi longitudinali . Il Centro usava nel 2003 dati provenienti da sette stati per identificare i fattori che permettono a una scuola di essere molto efficace e quanto invece non fanno le scuole poco efficaci.

 

La creazione di banche dati per provveditorato

Nell’ Arizona, nel 2003, il 20% di 836 000 discenti tra la scuola per l’infanzia e il dodicesimo anno di scuola era registrato in una banca dati longitudinale ed era quindi seguito anno dopo anno. La questione è scottante da un unto di vista politico perché si urta con questioni che riguardano la protezione della sfera privata. Inoltre, molti insegnanti si oppongono a stabilire qualsiasi collegamento tra i punteggi dei discenti nei test e la valutazione dei singoli insegnanti.

A questo punto si inizia a capire che gli ostacoli politici sono probabilmente più insormontabili di quelli tecnici. I ricercatori dal canto loro ricorrono ormai a diversi metodi per effettuare analisi del VA poiché non è chiaro quale sia il metodo migliore. Le tecniche usate sono assai complesse e non possono essere capite né dagli insegnanti né dalle famiglie. In ogni modo è diventato ben chiaro che non è semplice misurare i guadagni nell’apprendimento e che le tecniche del VA potenzialmente erano promettenti ma pericolose perché incerte e quindi con conseguenze rischiose e imprevedibili per le persone ossia per gli insegnanti.

 

Più difficile di quanto ci si aspettava

Le promesse delineate dal calcolo del VA erano allettanti ma l’applicazione si è rivelata ben più ardua di quanto ci si attendeva.I metodi statistici sono diventavano vieppiù elaborati per ridurre il margine di errore ma in questo modo i metodi sono diventati sempre meno comprensibili. Si è persa per strada la trasparenza che era ritenuta una pietra miliare di una effettiva rendicontazione. Una soluzione soluzione sarebbe stata quella di semplificare i metodi, di usare modelli grossolani per salvaguardare la trasparenza dei risultati ma questa soluzione è in genere ritenuta inaccettabile. "Un chirurgo non ricorre a una procedura grossolana semplicemente perché è più comprensibile per il paziente. La procedura deve essere comprensibile sia per il medico che per il paziente". Questa era l’opinione espressa da Harold Doran , direttore di un centro privato non lucrativo di indagini scientifiche , il "New America Schools", sui risultati scolastici basato a Alessandria nello Stato della Virginia. Negli USA diversi enti pubblici e privati analizzano i modelli del VA scolastici e soprattutto i collegamenti tra quanto gli studenti apprendono, su come apprendono e gli insegnanti che hanno. Non si è ancora usciti da questa fase proprio perché questo tipo di indagini si rivela molto più difficile di quanto piaccia. 

 

 

[1] Acronimo per "Tennessee Value Added Assessment System"

[2] Si veda una succinta descrizione delle teorie di Sanders in Wikipedia cliccando qui

[3] L’equivalente dei provveditorati scolastici italiani

[4] "National Center for Educational Accountability

 

 
Salva Segnala Stampa Esci Home