Fisicamente

di Roberto Renzetti

http://www.funzioniobiettivo.it/News/PISA/Rapporto%20PISA/Sintesi%20dell%27indagine%20PISA.htm

SINTESI DELL’INDAGINE

INTRODUZIONE
di Tiziana Pedrizzi
ricercatrice IRRE Lombardia

PISA è un’ indagine campionaria internazionale che dal 2000 coinvolge 32 paesi europei ed extraeuropei  e che mira a valutare in quale misura gli studenti di 15 anni, al termine della scuola dell’obbligo, possiedano le conoscenze e le competenze  necessarie per inserirsi in modo attivo nella società. Questa valutazione viene attuata attraverso la verifica dei  livelli raggiunti nelle abilità di lettura, matematica e scienze. Ogni tre anni, a rotazione, il focus dell’indagine viene posto su una delle tre aree e i risultati sono messi in correlazione con altre informazioni relative ad alcune caratteristiche della scuola e degli studenti  esaminati (genere, background familiare e sociale ecc..).

I risultati di PISA 2000, resi noti nel dicembre 2001, hanno rivelato una situazione seriamente preoccupante per gli adolescenti italiani.

Alcuni dati per orientarci.

  • Su 32 Paesi partecipanti gli studenti italiani sono risultati ventunesimi nella lettura (comprensione di un testo non specialistico), ventitreesimi nelle prove scientifiche e pericolosamente vicini alla maglia nera in matematica : ventiseiesimi. 
  • Mediamente, nei Paesi più ricchi del pianeta, circa il 10 per cento dei ragazzi di quindici anni ha manifestato capacità molto elevate: comprensione di testi complessi, valutazione di informazioni, costruzione di ipotesi, mettendo a profitto conoscenze specializzate.  Il dato sale fino al 15-19 per cento in Australia, Canada, Finlandia, Nuova Zelanda e Regno Unito. L’Italia è lontana anni luce: appena il 5 per cento dei nostri ragazzi dimostra conoscenze e  competenze alte.E’ forse questo il punto più critico della nostra performance : attestati su livelli di mediocrità per le prestazioni medie e basse i nostri studenti lasciano desolantemente semivuota la fascia alta. I livelli socio-culturali superiori che in tutti i Paesi esprimono le capacità più alte qui rimangono a livello della mediocrità. Abbiamo dunque realizzato un egualitarismo al ribasso.
  • La situazione è peraltro anche sconfortante per quanto riguarda la percentuale dei ragazzi che in ciascun Paese si collocano al di sotto della media. Un paragone è significativo: in Finlandia sono  il 7 per cento, in Italia salgono al 19 per cento.
  • La scuola italiana non solo fallisce nel suo compito di istruire i ragazzi, ma non si fa nemmeno benvolere. L’Italia è infatti tra le nazioni dove è più alta la percentuale di studenti che ha in odio la scuola: oltre il 38 per cento.

L’OCSE azzarda un’individuazione dei fattori che maggiormente influenzano il rendimento scolastico: l’autonomia scolastica, il grado di autonomia dei presidi, l’importanza che gli insegnanti assegnano al successo scolastico, le alte aspettative che esprimono nei confronti dei loro studenti, l’impegno e il livello di soddisfazione che traggono dal loro lavoro, la relazione che hanno con i loro studenti, la disciplina in classe.

Di tutti questi elementi non c’è, a nostro avviso, adeguata consapevolezza nelle scuole e fra gli insegnanti. Per questo condividiamo il giudizio espresso da Norberto Bottani a conclusione del suo articolo “Le competenze scolastiche dei quindicenni” (Il Mulino, n.2, 2002): “ Fatalismo e rassegnazione non sono scusabili: questo mi sembra il messaggio pcipale del PISA. Prima di scaricare le responsabilità dei pessimi risultati sulle spalle di altri, dunque, sarebbe bene ponderare quale sia il peso e la responsabilità della scuola. “

Un colpevole disinteresse

Mentre molti Paesi, venuti in possesso dei risultati fin  dal luglio 2001, si sono subito attivati per analizzarli e hanno redatto su di essi significativi rapporti ( presentati, come da protocollo, nel dicembre dello stesso anno), in Italia tutto tace.

Soltanto il 28 Maggio 2002 si è avuta una presentazione pubblica dei risultati a cura  dell’Associazione TREELLE. Prima, solo qualche notizia di stampa in dicembre, pochissimi articoli su riviste specializzate, e un’ interessante, ma non riprodotta, comunicazione al Convegno di Milano di Liberal dell’aprile 2002.

Assuefazione ad esiti  mediocri del nostro sistema formativo ormai costantemente evidenziati dalle indagini internazionali? Mitridatizzazione alimentata dallo scetticismo sulla attendibilità di valutazioni derivanti da indagini giudicate troppo quantitative e “fredde” ( prima ancora di conoscerle)? Autismo e riaffermazione di orgoglio nazionale in chiave anti-modernizzazione ?

C’è da domandarsi se questi atteggiamenti siano così profondi e diffusi nel ventre molle della scuola italiana da far sì che il livello istituzionale ed accademico debba ad essi conformarsi.

Eppure non mancano negli ultimi tempi  segnali in controtendenza: la disponibilità ampia della scuole al Progetto Pilota di Valutazione dell’ Invalsi (2800 volontarie e molte in fila su un totale di circa 10.000) e l’interesse vivace e persino eccessivo (perché non ben orientato) sui temi dell’accreditamento regionale e della certificazione di qualità.

Un nuovo ruolo per le Regioni

E’ importante sottolineare che  ora la partecipazione a questo tipo di indagine internazionale si sta aprendo anche per le singole Regioni italiane. Tutte le regioni sono state infatti recentemente invitate a seguire l’esempio di alcune singole regioni e Lander europei che avevano già avviato nel 2000 tale esperienza, affiancandosi ai campioni nazionali. Infatti solo una partecipazione quantitativamente significativa permette un’ analisi attendibile dei dati per i singoli territori dei diversi paesi.

Anche in funzione di questa nuova prospettiva, riteniamo che  oggi sia molto importante che gli insegnanti  italiani conoscano a fondo questo tipo di indagine.

L’importanza di superare antichi pregiudizi

Solo la diretta conoscenza può consentire di superare molti dei pregiudizi che vengono solitamente espressi dagli insegnanti su queste ricerche.

PISA è infatti interessante anche per la sua impostazione.

I posti cui siamo relegati non derivano da risultati di test chiusi di tipo nozionistico, ma al contrario -come dimostrano gli esempi di alcune prove qui tradotte-  da domande che potremmo definire di analisi,  di collegamento e di approfondimento, secondo un’ impostazione che è sempre stata  il cavallo di battaglia, almeno dichiarato, della scuola italiana.

Per tutto questo pensiamo che questo dossier possa essere di grande utilità per i  colleghi e per tutti coloro che si interessano di scuola, un dossier che risulta particolarmente prezioso per il contributo di analisi e di approfondimento fornitoci da uno dei massimi esperti internazionali in materia, Norberto Bottani, al quale va il ringraziamento di tutti noi.


CHE COS’È PISA
Program for International Student Assessment)
Programma per la valutazione internazionale degli studenti

Una nuova indagine triennale sulle conoscenze e abilità degli studenti di quindici anni nei principali paesi industrializzati.

  • L’indagine, condotta per la prima volta nel 2000, verrà ripetuta ogni tre anni.
  • 265.000 studenti provenienti da 32 paesi hanno preso parte all’indagine.
  • Gli studenti hanno sostenuto esami scritti nelle loro scuole.
  • Gli studenti e i loro presidi hanno anche risposto a questionari su se stessi e sulle loro scuole. Ciò ha permesso a PISA di identificare quali fattori possono essere associati alle migliori e peggiori prestazioni.

Un nuovo modo di analizzare le prestazioni degli studenti.

PISA ha valutato la capacità dei giovani di usare le loro conoscenze e abilità per risolvere problemi reali piuttosto che limitarsi semplicemente a determinare il loro grado di preparazione nelle singole discipline scolastiche.

  • PISA ha valutato l’abilità degli studenti di leggere testi di natura non specialistica, testi matematici e scientifici.
  • Gli studenti dovevano capire concetti chiave, padroneggiare determinati processi e applicare conoscenze e abilità a situazioni diverse.
  • L’inchiesta ha anche raccolto informazioni sugli atteggiamenti degli studenti e sulle loro strategie di apprendimento.

Una collaborazione unica tra paesi per monitorare i livelli di apprendimento.

  • PISA è stato coordinato dai governi dei paesi partecipanti, attraverso l’Organizzazione per la Co-operazione e lo Sviluppo Economico (OCSE).
  • Esperti internazionali hanno elaborato un sistema di valutazione che permettesse di confrontare risultati provenienti da contesti culturali ed educativi diversi.
  • PISA contribuisce a migliorare il livello di informazione sui livelli di apprendimento degli studenti, stabilendo criteri di paragone tra paesi diversi e fornendo regolari aggiornamenti sulla prestazione che gli studenti hanno fornito rispetto a tali criteri
I PAESI PARTECIPANTI

Nel 2000, ventotto paesi dell’OCSE ed altri quattro paesi hanno partecipato alla prima indagine PISA: altri 13 paesi condurranno la stessa inchiesta nel 2002 e i due paesi dell’OCSE che non hanno partecipato all’indagine del 2000 prenderanno parte ad una seconda indagine nel 2003.

Paesi che hanno partecipato all’indagine del 2000:

  • Paesi membri dell’OCSE:
    Australia, Austria, Belgio, Canada, Repubblica Ceca, Danimarca, Finlandia, Francia, Germania, Grecia, Ungheria, Islanda, Irlanda, Italia, Giappone, Corea, Lussemburgo, Mexico, Paesi Bassi, Nuova Zelanda, Norvegia, Polonia, Portogallo, Spagna, Svezia, Svizzera, Regno Unito, Stati Uniti
  • Paesi non appartenenti all’OCSE:
    Brasile, Lettonia, Liechtenstein, Federazione Russa

Paesi che conduranno la stessa indagine nel 2002:

Albania, Argentina, Bulgaria, Cile, Cina, Hong Kong, Indonesia, Israele, Lituania, Macedonia, Perù, Romania, Tailandia.

Paesi membri dell’OCSE che condurranno l’indagine nel 2003:

Repubblica Slovacca, Turchia.

RISULTATI – CHE COSA CI DICE PISA

Sono qui riassunti i risultati di PISA 2000 sulle prestazioni degli studenti e fornite spiegazioni sulle ragioni che hanno determinato tali risultati. Il testo completo del rapporto, “Conoscenze e abilità per la vita – primi risultati di PISA 2000”, è qui disponibile in francese (Connaisances et compétences: des atout pour la vie), può essere ottenuto anche in inglese e tedesco rivolgendosi all’OCSE http://www.pisa.oecd.org/.

… sulla literacy di lettura …

PISA 2000 ha valutato la capacità degli studenti di applicare conoscenze e abilità alla lettura in generale e in particolare all’abilità di leggere testi di natura matematica e scientifica. Queste capacità vengono definite come abilità di lettura di testi di natura non specialistica o “reading literacy”, abilità di lettura di testi matematici o “literacy matematica” e capacità di lettura di testi di natura scientifica o “literacy scientifica” e sono considerate prerequisiti essenziali che tutti gli studenti devono avere per poter affrontare la vita adulta.
PISA non misura l’abilità di lettura applicando un insieme di conoscenze e abilità del tipo “tutto o niente”. Ogni studente viene invece valutato usando una scala continua. Il punteggio ottenuto da ciascun studente indica il più difficile tipo di compito che lo studente è probabilmente in grado di portare a termine in maniera corretta. Ciascun compito di PISA è associato ad un punteggio di questa scala.
La scala di PISA per ciascuna area di literacy è stata elaborata in modo che in tutti i paesi OCSE il punteggio medio fosse di 500 punti e circa i due terzi degli studenti ottenessero tra 400 e 600 punti.
Per quello che riguarda la reading literacy, vengono descritti cinque livelli di literacy di cui 5 è il più alto. I risultati che si riferiscono alla reading literacy, alla literacy matematica, alla literacy scientifica sono di seguito riassunti negli appositi capitoletti.

… sugli stili di apprendimento …

I giovani d’oggi non potranno mai smettere di imparare. PISA ha esaminato alcuni aspetti dei loro stili di apprendimento all’età di 15 anni a ha analizzato fattori quali la loro motivazione, il loro impegno scolastico e le loro strategie di apprendimento.
I risultati relativi agli stili di apprendimento degli studenti sono successivamente riassunti nell’apposito capitoletto.

… sulle differenze di prestazione e impegno fra ragazzi e ragazze …

I risultati di PISA indicano che ci sono differenze nella prestazione, nell’impegno scolastico e nelle strategie di apprendimento di ragazzi e ragazze. I risultati relativi a queste differenze sono successivamente riassunti nell’apposito capitoletto.

… sul rapporto tra prestazione degli studenti e background familiare …

Gli studenti che vengono da famiglie abbienti tendono ad ottenere risultati migliori a scuola. PISA analizza in dettaglio la portata di questo rapporto e indica come esso vari a seconda dei programmi scolastici e in paesi diversi. I risultati relativi al background familiare sono riassunti successivamente nell’apposito capitoletto.

… sul rapporto tra differenze tra scuole e background familiare …

Le scuole possono contribuire a moderare l’effetto del background familiare? La risposta dipende dal tipo di scuola che studenti con caratteristiche diverse frequentano e da quanto i risultati di queste scuole differiscono. I risultati relativi alle differenze evidenziate tra le scuole sono riassunti successivamente nell’apposito capitoletto


… sulle caratteristiche delle scuole frequentate dagli studenti che hanno ottenuto buoni risultati …

Le scuole differiscono in termini di risorse, politiche e attività didattiche. PISA 2000 ha riscontrato che gli studenti di diversi paesi ottengono risultati migliori in scuole che hanno certe caratteristiche.
I risultati relativi agli effetti che le scuole hanno sugli studenti sono riassunti successivamente nell’apposito capitoletto.

RISULTATI RELATIVI ALLA LITERACY DI LETTURA

Le prestazioni degli studenti nell’ambito della literacy di lettura.

Gli studenti che hanno preso parte all’indagine PISA hanno dovuto rispondere a domande su testi scritti di diversa natura, tra cui brevi storie, messaggi su Internet e informazioni presentate in forma grafica. Gli studenti sono stati valutati in relazione alla loro capacità di individuare determinate informazioni, di interpretare quanto avevano letto e sul modo di riflettere su queste informazioni e di valutarle avvelendosi delle conoscenze da loro già acquisite. Per ciascuno di questi tre aspetti è stato attribuito un punteggio basato sulla difficoltà del compito che gli studenti dovevano portare a termine. I punteggi così ottenuti sono stati poi sommati in modo da ottenere un unico risultato relativo alla loro abilità di lettura.
Sulla base di questi punteggi, è stato assegnato a ciascun studente un livello di lettura da uno a cinque (vedi tabella a apag 5). Le pagine successive riportano esempi di compiti di diversi livelli.

LIVELLI E RELATIVI PUNTEGGI
LIVELLO 5oltre 625 punti
LIVELLO 4da 553 a 625 punti
LIVELLO 3da 481 a 552 punti
LIVELLO 2da 408 a 480 punti
LIVELLO 1da 335 a 407 punti
SOTTO AL LIVELLO 1sotto i 335 punti

La tabella qui sotto indica la percentuale degli studenti che hanno raggiunto ciascun livello nel totale dei paesi dell’area OCSE ed in ciascun specifico paese. In questa tabella i diversi paesi sono stati classificati in base alla percentuale di studenti che hanno raggiunto il Livello 3 o livelli superiori al 3. Circa il 60% degli studenti di 15 anni dell’area OCSE è riuscito a completare questi compiti (vedi pagina 7 per esempi di questi compiti), ma i risultati variano in maniera significati dai tre quarti degli studenti in Finlandia e Corea a meno della metà in Brasile, Lettonia, Lussemburgo, Portogallo e Federazione Russa.

Percentuale degli studenti che hanno raggiunto ciascun livello nel totale dei Paesi dell’Ocse
LIVELLO 510%
LIVELLO 422%
LIVELLO 329%
LIVELLO 222%
LIVELLO 112%
SOTTO AL LIVELLO 16%


Nessun singolo indicatore può riassumere in maniera adeguata la prestazione di studenti appartenenti a paesi diversi. Le cifre date nelle pagine seguenti indicano parti diverse della distribuzione della prestazione degli studenti.
In generale, non si sono evidenziate grandi differenze nelle prestazioni di studenti appartenenti a paesi diversi per quello che riguarda I diversi aspetti della reading literacy – individuare, interpretare, riflettere e valutare – anche se in alcuni paesi esistono differenze significative tra le prestazioni degli studenti in compiti che richiedevano di identificare e interpretare informazioni e in quelli che richiedevano attività di riflessione e valutazione (vedi Tabelle 2.1b, c e d nel testo completo del rapporto).


… uno su dieci studenti ha completato i compiti più difficili di PISA …

Alcuni esempi delle prove più difficili:

  1. Agli studenti sono stati mostrati un grafico della popolazione in età lavorativa di un paese e descrizioni dello status lavorativo di questi lavoratori. Gli studenti dovevano decidere a quale categoria del grafico appartenesse ciascun lavoratore: per far ciò dovevano desumere dalla struttura e dal contenuto del grafico i criteri da usare per classificare i lavoratori e attingere ad informazioni date in note a piè di pagina e quindi non in modo evidente. A questo compito è stato associato un punteggio di 727 punti sulla scala relativa alla capacità di interpretare informazioni.
  2. Agli studenti è stato mostrato un avviso prepararto dall’ufficio personale che dava informazioni su un servizio che avrebbe potuto facilitare la mobilità dei lavoratori. Gli studenti dovevano identificare i due modi in cui questo servizio avrebbe potuto aiutare persone che avevano perso il loro posto di lavoro – informazione che era stata data in modo indiretto e doveva essere distinta da altre informazioni simili che avrebbero potuto facilmente essere scambiate per l’informazione che si richiedeva. Punteggio associato al compito: 655 punti sulla scala relativa alla capacità di individuare informazioni.
  3. Dopo aver letto una storia di tre pagine sulle avventure di una donna, agli studenti è stato chiesto di indicare se ritenessero la fine della storia appropriata spiegando il motivo della loro risposta. Per ottenere il punteggio massimo, gli studenti dovevano dimostrare di aver valutato la fine della storia in termini della sua completezza tematica stabilendo relazioni tra l’ultima frase e relazioni centrali, questioni o metafore presentate nella storia. Punteggio associato al compito: 652 sulla scala relativa alla capacità di riflettere e valutare.

Testi integrali degli esempi si trovano nel Rapporto completo

Gli studenti che sono riusciti a raggiungere il Livello 5 sulla scala che combina i vari risultati ottenuti nei compiti relativi alla reading literacy, capacità di lettura, sono capaci di completare compiti di lettura sofisticati quali:

  • gestire informazioni difficilmente reperibili in testi con cui gli studenti non hanno familiarità;
  • mostrare di capire in modo dettagliato tali testi e di desumere quali informazioni fossero pertinenti al compito che dovevano portare a termine;
  • valutare criticamente, formulare ipotesi utilizzando conoscenze specifiche e adattare concetti in un modo diverso da quello che si erano aspettati di dover seguire.

Solo il 10% dei quindicenni nei paesi di area OCSE hanno raggiunto un Livello 5. La percentuale varia da oltre il 15% in Australia, Canada, Finlandia, Nuova Zelanda e Regno Unito a meno del 5% in Brasile, Lettonia, Lussemburgo, Spagna e Federazione Russa

PaesePercentuale livello 5
Nuova Zelanda19%
Finlandia18%
Australia18%
Canada17%
Regno Unito16%
Irlanda14%
Stati Uniti12%
Belgio12%
Norvegia11%
Svezia11%
Giappone10%
media OECD9%
Svizzera9%
Islanda9%
Austria9%
Germania9%
Francia8%
Danimarca8%
Repubblica Ceca7%
Polonia6%
Corea6%
Italia5%
Ungheria5%
Liechtenstein5%
Grecia5%
Spagna4%
Portogallo4%
Lituania4%
Federazione Russa3%
Lussemburgo2%
Messico1%
Brasile1%

Solo il 5% dei quindicenni italiani raggiunge il livello 5 (n.d.r.)


… uno studente su sei è riuscito a completare solo i compiti più semplici …

Alcuni esempi dei compiti più facili

  1. Agli studenti è stato mostrato l’articolo di una rivista per giovani che spiegava il processo e lo scopo dei test sul DNA. Un questionario a scelta multipla richiedeva agli studenti di riconoscere semplicemente che lo scopo principale dell’autore dell’articolo era quello di informare, piuttosto che di divertire, convincere o mettere in guardia i lettori contro questa pratica. Punteggio associato al compito: 406 sulla scale che misura la capacità di interpretazione.
  2. Agli studenti è stata posta una domanda relativa ad una frase in un articolo su delle scarpe sportive in cui venivano discusse caratteristiche della scarpa che potevano prevenire danni ai piedi. Un questionario a scelta multipla richiedeva agli studenti di identificare il rapporto tra due parti della frase, cioè se la seconda parte della frase forniva la soluzione al problema indicato nella prima parte (piuttosto che illustrarla, riferirla o contraddirla). Punteggio associato al compito: 402 punti sulla scala che misura la capacità di riflessione e valutazione.
  3. Dopo aver letto una breve storia di avventura, agli studenti è stato dato un questionario a scelta multipla in cui si chiedeva loro di indicare che cosa era avvenuto dopo una certa parte della storia che veniva riportata. La risposta era indicata in maniera esplicita nella storia ed era facile da individuare sulla base delle informazioni fornite nel compito. Punteggio associato al compito: 367 punti sulla scala relativa alla capacità di trovare informazioni.

Testi integrali degli esempi si trovano nel Rapporto completo

La reading literacy così come è definita in PISA si focalizza sulle conoscenze e abilità di applicare “la lettura all’apprendimento” piuttosto che ad abilità tecniche acquisite nell’ “apprendimento della lettura“. In pieno accordo con le più recenti teorie sulla lettura, PISA si focalizza sulla misurazione di quanto ciascun individuo sia in grado di costruire, espandere e riflettere sul significato di quanto ha letto in un’ampia gamma di testi di contenuto scolastico ed extra-scolastico. I compiti del Livello 1 sono i compiti più semplici che possono venir associati a questa nozione di reading literacy. Gli studenti che hanno raggiunto questo livello sono in grado di completare solo i compiti meno complessi elaborati da Pisa, per esempio localizzare un’informazione, identificare il tema principale di un testo o stabilire una semplice connessione tra conoscenze di tutti i giorni.

In media nei paesi dell’area OCSE il 12% dei quindicenni sono riusciti a raggiungere solo questo livello. Un ulteriore 6% non si è dimostrato capace di portare a termine neppure questi semplici compiti. Ciò non significa che questi studenti non siano capaci di leggere, ma che hanno gravi difficoltà nell’usare l’abilità di lettura come strumento efficace per avanzare e estendere le loro conoscenze e abilità ad altre aree (vedi Tabella 2.1a del testo completo del rapporto).

Complessivamente, solo uno studente su sei (18%) non è riuscito a progredire al di là del Livello 1, ma la percentuale varia in maniera significativa da paese a paese ed è importante sottolineare che in ogni paese ci sono degli studenti che sono solo riusciti a completare compiti di questo livello. Genitori, educatori e politici nei paesi in cui questa percentuale è alta devono riconoscere che un numero significativo di studenti non stanno traendo beneficio dalle opportunità educative loro offerte e non stanno acquisendo le conoscenze e le abilità per poterlo fare in futuro. Solamente in quattro paesi, Canada, Finlandia, Giappone e Corea, solo il 10% o meno dei quindicenni legge a Livello 1 o al di sotto di questo livello. In tre paesi OCSE, Lussemburgo, Messico e Portogallo, più del 25% degli studenti cade in questa categoria.

Grafico: Percentuale degli studenti a Livello 1 o al di sotto del Livello 1



Classificati a seconda della percentuale di studenti a Livello 1 o al di sotto del Livello 1.


… la maggior parte degli studenti non ha abilità di lettura né molto alte né molto basse …

Alcuni esempi di media difficoltà

  1. Agli studenti è stato chiesto di leggere due lettere inviate via Internet che esprimevano opinioni contradditorie riguardo ai graffiti e di indicare quale delle due lettere fosse stata scritta meglio analizzando lo stile di scrittura e la struttura argomentativa piuttosto che il loro contentuto. Per fare ciò, gli studenti dovevano far riferimento alla loro idea di ciò che costituisce lo scrivere bene. Punteggio associato a questo compito: 581 punti sulla scala che misura l’abilità di riflessione e valutazione.
  2. Gli studenti dovevano usare informazioni contenute in due grafici, uno sui livelli d’acqua del lago Chad in diversi periodi storici e l’altro sul periodo in cui alcune specie di animali avevano cominciato a venir rappresentate in dipinti trovati in caverne vicine al lago, al fine di determinare che certi animali erano scomparsi dopo un periodo in cui i livelli di acqua erano diminuiti. Gli studenti dovevano combinare le informazioni date in due modi diversi. Punteggio associato a questo compito: 508 punti sulla scala che misura la capacità di interpretare informazioni.
  3. Dopo aver letto un breve brano di un’opera teatrale di Jean Anouilh, gli studenti dovevano decidere quale fosse il tema dell’opera: un personaggio sta facendo uno scherzo ad un altro. Un questionario a scelta multipla chiedeva loro di determinare lo scopo dello scherzo. Ciò richiedeva un basso livello di inferenza per determinare l’idea centrale del testo. Punteggio associato a questo compito: 423 punti sulla scala che misura la capacità di interpretare informazioni.

Testi integrali degli esempi si trovano nel Rapporto completo

In media nei paesi dell’area OCSE, circa tre quarti dei quindicenni hanno raggiunto i Livelli 2, 3 o 4, ma in alcuni paesi la percentiuale scende ad appena la metà ed in altri è superiore a otto studenti su dieci (vedi Tabella 2.1a del testo completo del rapporto).

  1. Gli studenti che hanno raggiunto il Livello 4 sono in grado di risolvere compiti complessi, per esempio individuare informazioni non facilmente reperibili, analizzare le sfumature di significato del languaggio usato e valutare criticamente un testo.
  2. Gli studenti che hanno raggiunto il Livello 3 sono in grado di risolvere compiti di moderata complessità, per esempio individuare un certo numero di informazioni, stabilire collegamenti tra parti diverse di un testo e ricollegarle a conoscenze a loro familiari.
  3. Gli studenti che hanno raggiunto il Livello 2 sono in grado di risolvere compiti semplici, per esempio individuare informazioni fornite in maniera chiara, operare inferenze di vario tipo ma di basso livello, determinare il significato di una parte ben definita di un testo e usare conoscenze esterne per comprenderla.

Il grafico dato qui sotto presenta i paesi classificati sulla base della percentuale di studenti che hanno raggiunto questi livelli intermedi. Non prendendo in considerazione quei paesi in cui più di un quarto degli studenti ha raggiunto livelli inferiori al Livello 2 (Brasile, Lussemburgo, Lettonia, Messico, Portogallo e Federazione Russa), ciò dà indicazioni su come siano distribuiti i livelli di prestazione nei vari paesi. Prendendo l’esempio della Corea, si può vedere che l’89% dei quindicenni ha raggiunto livelli medi, mentre pochissimi studenti hanno raggiunto livelli molto alti o molto bassi. In Nuova Zelanda, invece, solo due terzi degli studenti si sono attestati su posizioni intermedie, mentre il restante terzo è diviso tra studenti a Livello 5 (il triplo che in Corea) e studenti a Livello 1 o al di sotto del Livello 1 (più del doppio che in Corea).

Grafico Percentuale degli studenti a Livello 1, 2, 3 e 4
Classificati a seconda della percentuale di studenti a Livello 2,3 e 4


Media dei punteggi relativi alla reading literacy, capacità di lettura

Le cifre date qui sotto mostrano il punteggio medio registrato da ciascun paese sulla scala PISA relativa alla reading literacy. Poichè PISA è un’indagine che usa metodi statistici semplici, le stime ottenute sono associate ad un certo grado di incertezza. Le barre attorno alla media indicano la gamma entro cui cade la media con il 95% di certezza. Ulteriori dettagli sulla comparazione dei punteggi medi sono forniti dalla Figura 2.4 nel testo completo del rapporto.

E’ chiaro che poichè i punteggi medi di molti Paesi sono piuttosto simili, la classificazione dei Paesi non può sempre essere determinata in maniera precisa: c’è infatti una sovrapposizione nelle barre che indicano la gamma entro cui si può dire con una certa sicurezza che cadano i punteggi medi di ciascun Paese.


Grafico: Media dei punteggi relativi alla reading literacy: differenze e similarità



La stima della media di ciascun Paese è indicata dalla linea centrale

La gamma in cui si può dire che cada la media (con una certezza del 95%) è indicata dalla barra.
La tabella sotto mostra la gamma delle posizioni di classifica in cui si colloca la media di ciascun Paese con un grado di certezza del 95%.

Media della reading literacy
gamma delle posizioni di classifica di ciascun paese basata su un campione
(con 95% di certezza)

PaesePosizione
più alta possibile
Posizione
più bassa possibile
Finlandia11
Canada24
Nuova Zelanda28
Australia29
Irlanda39
Corea49
Regno Unito59
Giappone310
Svezia911
Austria1116
Belgio1116
Islanda1115
Norvegia1116
Francia1116
Stati Uniti1020
Danimarca1619
Svizzera1621
Spagna1721
Repubblica Ceca1721
Italia1924
Germania2125
Liechtenstein2026
Ungheria2126
Polonia2127
Grecia2328
Portogallo2428
Federazione Russa2729
Lituania2729
Lussemburgo3030
Messico3232
Brasile3232

Un modo per riassumere la prestazione di ciascun paese è di calcolare la media dei punteggi degli studenti. Le cifre date indicano i punteggi medi di ciascun paese.

Vi sono delle differenze significative nella prestazione media degli studenti dei vari Paesi: 125 punti separano i Paesi OCSE che hanno raggiunto i livelli più bassi da quelli che hanno raggiunto i livelli più alti. Se si presuppone che queste differenze possano determinare in futuro le carriere che questi studenti intraprenderanno, si pone il problema della futura competitività di quei paesi in cui un numero elevato di studenti hanno raggiunto solo i livelli più bassi (Tabella 2.3 del testo completo del rapporto).

La differenza nella prestazione media di alcuni paesi è grande, ma la variazione nella prestazione degli studenti all’interno dei singoli Paesi è ancora più grande. Ciò può essere notato osservando la gamma dei punteggi raggiunti dalla metà centrale della popolazione, cioè il divario tra il venticinquesimo e il settantacinquesimo studente in un gruppo di cento studenti classificati a secondo della loro prestazione. Più grande è il divario e più sono diversi i risultati all’interno di quel paese.

In tutti i paesi, la gamma di prestazioni tra il 50% centrale degli studenti supera la grandezza di un livello di prestazione (73 punti) e in Belgio, Germania e Nuova Zelanda il doppio di tale differenza (livelli medi di prestazione OCSE: 1,8) (vedi Tabella 2.3a del testo completo del rapporto).

PISA mostra che una prestazione media alta può accompagnarsi a differenze di bassa entità. I tre paesi con la gamma più piccola nella fascia centrale della popolazione, Finlandia, Giappone e Corea, sono tra i paesi con la più alta prestazione media in reading literacy, mentre la Germania, uno dei tre paesi con la più alta variazione interna di prestazioni, raggiunge punteggi al di sotto della media OCSE.

Questo dimostra che è possibile evitare ampie disparità e che comunque queste disparità non impediscono necessariamente che determinati paesi raggiungano alti livelli di prestazione. Al contrario i risultati suggeriscono che politiche pubbliche possono promuovere pari opportunità e risultati equi di apprendimento per tutti gli studenti.

RISULTATI RELATIVI ALLA LITERACY MATEMATICA

Le prestazioni degli studenti nell’ambito della literacy matematica

Il grafico dato sotto mostra il punteggio medio ottenuto da ciascun paese usando la scala PISA relativa alla capacità di lettura di testi matematici. Poichè PISA è un’indagine che usa metodi statistici semplici, le stime ottenute sono associate ad un certo grado di incertezza. Le barre attorno alla media indicano la gamma entro cui cade la media con il 95% di certezza. Ulteriori dettagli sulla comparazione dei punteggi medi sono forniti dalla Figura 3.2 nel testo completo del rapporto.

E’ chiaro che poichè i punteggi medi di molti paesi sono piuttosto simili, la classificazione dei paesi non può sempre essere determinata in maniera precisa: c’è infatti una sovrapposizione nelle barre che indicano la gamma entro cui si può dire con una certa sicurezza che cadano i punteggi medi di ciascun paese.


Grafico: Media dei punteggi relativi alla literacy matematica: differenze e similarità



La stima della media di ciascun paese è indicata dalla linea centrale

La tabella sotto mostra la gamma delle posizioni di classifica in cui si colloca la media di ciascun paese con un grado di certezza del 95%.

Media della literacy matematica
gamma delle posizioni di classifica di ciascun paese basata su un campione
(con 95% di certezza)

PaesePosizione
più alta possibile
Posizione
più bassa possibile
Giappone13
Corea23
Nuova Zelanda48
Finlandia47
Australia49
Canada58
Svizzera410
Regno Unito610
Belgio915
Francia1015
Austria1016
Danimarca1016
Islanda1116
Liechtenstein918
Svezia1317
Irlanda1619
Norvegia1720
Repubblica Ceca1720
Stati Uniti1623
Germania2022
Ungheria2023
Federazione Russa2125
Spagna2325
Polonia2326
Lituania2528
Italia2628
Portogallo2629
Grecia2730
Lussemburgo2930
Messico3131
Brasile3232

L’abilità di leggere testi matematici e scientifici è importante per capire questioni mediche, economiche e ambientali e altre questioni che regolano aspetti importanti delle società moderne che dipendono grandemente dai progressi tecnologici e scientifici. PISA 2000 fornisce indicazioni sulle prestazioni degli studenti nella lettura di testi matematici e scientifici, ma esamina questa abilità in modo meno dettagliato di quanto fatto per la reading literacy. Ogni studente è stato valutato usando una sola scala, senza l’indicazione di distinti livelli di abilità di lettura, con un punteggio medio di 500 punti come in precedenza.

PISA ha considerato la matematica in relazione ai suoi usi più ampi nella vita quotidiana delle persone.
PISA misura l’abilità degli studenti di leggere testi matematici sulla base della loro capacità di:

  • riconoscere e interpretare problemi matematici che possono incontrare nella vita di tutti i giorni;
  • tradurre questi problemi in un contesto matematico;
  • usare conoscenze e procedure matematiche per risolvere problemi;
  • interpretare i risultati tenendo presente il problema originale;
  • riflettere sui metodi applicati; e
  • formulare e comunicare i risultati.

compiti matematici di PISA variavano in difficoltà secondo una serie di criteri tra i quali:

  • il numero e la complessità dei calcoli richiesti;
  • la necessità di collegare e integrare materiali; e
  • la necessità di rappresentare e interpretare il materiale e riflettere sulle situazioni e sui metodi applicati.

I quindicenni in Giappone hanno dimostrato la più alta abilità di leggere testi matematici, ma la prestazione media del Giappone non si distingue in maniera statisticamente significativa da quella registrata in Corea e Nuova Zelanda. Altri paesi che hanno ottenuti punteggi superiori alla media OCSE sono Australia, Austria, Belgio, Canada, Danimarca, Finlandia, Francia, Islanda, Liechtenstein, Svezia, Svizzera e Regno Unito (vedi Figura 3.2 del testo completo del rapporto).

Un esempio delle prove più difficili di matematica

  • Agli studenti è stato dato un grafico che mostrava i luoghi in cui diversi alberi avrebbero dovuto essere piantati in un frutteto in modo tale che le conifere fornissero sufficiente protezione ai meli. E’ stato quindi chiesto loro di determinare quale tipo di albero sarebbe aumentato numericamente in modo più veloce mentre il frutteto veniva allargato e di spiegare il perchè della loro riposta. Ciò richiedeva loro di capire che il numero dei meli cresceva in rapporto alla radice quadrata del numero delle conifere. Il compito richiedeva agli studenti di pensare in termini matematici e riconoscere un principio generale. Punteggio associato a questo compito: 732 punti.

Un esempio delle prove di matematica di media difficoltà

  • Partendo da una rappresentazione matematica delle dimensioni e della forma di un tetto piramidale di un granaio, gli studenti dovevano calcolare l’area della sua base. Ciò richiedeva agli studenti di identificare ed eseguire un semplice calcolo e capire i concetti generali di spazio e forma. Punteggio associato a questo compito: 492 punti.

Un esempio delle prove di matematica facili

  • Agli studenti è stato dato un grafico che mostrava la velocità di un’auto da corsa su una pista, e un questionario a scelta multipla in cui dovevano indicare in quale punto della pista la macchina andava a minor velocità. Per capire che la velocità più bassa era indicata nel punto più basso del grafico della velocità, gli studenti dovevano dimostrare solo di essere capaci di fare semplici osservazioni e di comprendere il concetto di cambiamento. Punteggio associato a questo compito: 403.

Testi integrali degli esempi si trovano nel Rapporto completo

RISULTATI RELATIVI ALLA LITERACY SCIENTIFICA

Il grafico dato sotto mostra il punteggio medio ottenuto da ciascun paese usando la scala PISA relativa alla capacità di lettura di testi scientifici. Poichè PISA è un’indagine che usa metodi statistici semplici, le stime ottenute sono associate ad un certo grado di incertezza. Le barre attorno alla media indicano la gamma entro cui cade la media con il 95% di certezza. Ulteriori dettagli sulla comparazione dei punteggi medi sono forniti dalla Figura 3.5 nel testo completo del rapporto.

E’ chiaro che poichè i punteggi medi di molti paesi sono piuttosto simili, la classificazione dei paesi non può sempre essere determinata in maniera precisa: c’è infatti una sovrapposizione nelle barre che indicano la gamma entro cui si può dire con una certa sicurezza che cadano i punteggi medi di ciascun paese. La tabella sulla destra mostra la gamma delle posizioni di classifica in cui cade la media di ciascun paese con un grado di certezza del 95%.

Grafico: Media dei punteggi relativi alla literacy scientifica: differenze e similarità



La stima della media di ciascun paese è indicata dalla linea centrale
La gamma in cui si può dire che cada la media (con una certezza del 95%) è indicata dalla barra.

La tabella sotto mostra la gamma delle posizioni in classifica in cui si colloca la media di ciascun paese, con un grado di certezza del 95%.

Media della literacy scientifica
gamma delle posizioni di classifica di ciascun Paese su un campione
(con 95% di certezza)

PaesePosizione
più alta possibile
Posizione
più bassa possibile
Corea12
Giappone12
Finlandia34
Regno Unito37
Canada48
Nuova Zelanda48
Australia48
Austria810
Irlanda912
Svezia913
Repubblica Ceca1013
Francia1318
Norvegia1318
Stati Uniti1121
Ungheria1321
Islanda1420
Belgio1321
Svizzera1321
Spagna1622
Germania1923
Polonia1925
Danimarca2125
Italia2225
Liechtenstein2026
Grecia2529
Federazione Russa2629
Lituania2929
Portogallo2629
Lussemburgo3030
Messico3131
Brasile3232


L’abilità di leggere testi scientifici è stata valutata misurando la capacità degli studenti di:

  • usare conoscenze scientifiche;
  • riconoscere quesiti di natura scientifica;
  • identificare che cosa comporti la ricerca scientifica;
  • mettere in relazione dati scientifici e conclusioni; e
  • comunciare questi aspetti scientifici.

I compiti scientifici di PISA variavano in difficoltà secondo una serie di criteri tra i quali:

  • la complessità dei concetti usati;
  • la quantità dei dati forniti;
  • la serie di ragionamenti richiesti; e
  • la precisione richiesta dalla comunicazione.

Il Giappone e la Corea hanno ottenuto le prestazioni più alte sulla scala che misura l’abilità di leggere testi scientifici. Altri paesi i cui punteggi sono superiori alla media OCSE in maniera statisticamente significativa sono Australia, Austria, Canada, Repubblica Ceca, Finlandia, Irlanda, Nuova Zelanda, Svezia e Regno Unito. (vedi figura 3.5 del testo completo del rapporto).

Esempio di un difficile compito di literacy scientifica

  • Agli studenti è stato mostrato un brano di un diario di uno scienziato del diciannovesimo secolo, una tabella con le sue osservazioni e un testo in cui veniva descritto il caso di un numero elevato di partorienti in due reparti di maternità di un ospedale che erano morte a causa di un particolare tipo di febbre. Gli studenti dovevano indicare perchè non vi erano prove a sostegno della credenza di quel tempo che la febbre era stata causata da un terremoto. Ciò richiedeva loro di spiegare l’importanza dei diversi tassi di decessi nei due reparti. Punteggio associato a questo compito: 666 punti.

Esempio di un compito di literacy scientifica di media difficoltà

  • Dopo aver letto un testo sui rischi associati al buco dell’ozono e le loro implicazioni, agli studenti veniva chiesto di decidere se la ricerca scientifica avrebbe potuto trovare risposta a questi due aspetti del problema. Per rispondere correttamente gli studenti dovevano essere in grado di distinguere tra una problema che richiedeva una soluzione politica e uno che poteva essere risolto scentificamente. Punteggio associato al compito: 529

Esempio di un compito facile di literacy scientifica

  • Agli studenti veniva chiesto di spiegare il motivo per cui lavare ad alta temperatura le lenzuola usate in un ospedale portava alla riduzione dei rischi che i pazienti contraessero febbre. Per rispondere, gli studenti dovevano applicare le loro conoscenze scientifiche a un problema di vita quotidiana facendo riferimento per esempio all’uccisione dei batteri. Punteggio associato al compito: 467.
    Esempi completi disponibili sul sito http://www.pisa.oecd.org.
STILI DI APPRENDIMENTO

Quali sono gli stili di apprendimento dei quindicenni?

Gli studenti devono lasciare la scuola non solo con una buona conoscenza delle materie specifiche studiate e le abilità ad esse relative, ma devono anche essere in grado di continuare nel loro percorso di apprendimento. Per far ciò, devono essere capaci di gestire il proprio apprendimento in maniera autonoma piuttosto che dipendere esclusivamente dai loro insegnanti. Ciò significa che, da un lato, devono essere interessati e motivati ad apprendere e dall’altro devono possedere le strategie necessarie per apprendere in maniera efficace.

PISA ha analizzato quanto detto dagli studenti riguardo a questi due aspetti – motivazione, impegno e strategie di apprendimento. I risultati possono essere correlati alla capacità dimostrata dagli studenti di leggere testi di varia natura al fine di ottenere indicazioni su quale tipo di studente abbia raggiunto prestazioni più elevate all’età di quindici anni.

Risultati più importanti

• Tenendo presente i sostanziali investimenti fatti nel settore dell’istruzione e l’importanza di questo settore sia per la società che per il futuro degli studenti, è stato deludente constatare che un numero ancora significativo, per quanto minoritario, di quindicenni ha dimostrato atteggiamenti negativi nei confronti dell’apprendimento e una mancanza di impegno scolastico. Nella maggior parte dei paesi infatti, più di un quarto degli studenti ha detto che la scuola è un posto in cui non vogliono andare – questo varia da meno del 20% in Danimarca. Messico, Portogallo e Svezia a più del 35% degli studenti in Belgio, Canada, Francia, Ungheria, Italia e Stati Uniti (vedi http://www.pisa.oecd.org).

• Anche l’interesse dimostrato dagli studenti per la lettura e la matematica varia grandemente ed è strettamente correlato alle loro prestazioni. Circa metà dei quindicenni ha un atteggiamento generalmente positivo nei confronti della lettura. Questo varia da paese a paese, con meno di un terzo degli studenti in Belgio e Corea, ma circa due terzi in Danimarca, Messico e Portogallo: in questi paesi gli studenti concordano nel dire che leggere è un’attivita piacevole a cui non vorrebbero rinunciare. L’interesse nei confronti della matematica varia in maniera ancor più significativa da paese a paese: nella maggior parte dei paesi solo una piccola percentuale di quindicenni pensa che valga la pena continuare a studiare la matematica perchè la considera importante per il suo futuro (vedi Tabella 4.2 del testo completo del rapporto). Non solo la mancanza di interesse verso questa materia tende ad essere associata a basse prestazioni degli studenti (vedi Tabelle 4.1 e 4.2 del testo completo del rapporto), ma altre ricerche condotte in questo campo hanno dimostrato che gli studenti scarsamente motivati allo studio scolastico a questa età probabilmente non saranno motivati a proseguire nel loro percorso di apprendimento, all’interno o al di fuori delle istituzioni scolastiche, in fasi successive della loro vita.

• Gli studenti che leggono più di quanto venga loro richiesto a scuola tendono ad avere migliori strategie di lettura, ma questo rapporto non è sempre necessariamente vero. In alcuni paesi questa correlazione è più forte che in altri e alcuni paesi in cui ci sono meno studenti appassionati alla lettura ottengono comunque buoni risultati di media (vedi Tabella 4.3 del testo completo del rapporto).

Avendo preso in considerazioni diversi aspetti degli stili di apprendimento degli studenti, PISA è giunta alle seguenti conclusioni:

L’aspetto che è più strettamente collegato alle prestazioni è “il controllo del processo di apprendimento”.
Agli studenti è stato chiesto fino a che punto:

  • identificano esattamente ciò che hanno bisogno di imparare;
  • individuano quali concetti non hanno veramente capito;
  • cercano informazioni aggiuntive quando non capiscono;
  • si sforzano di controllare se si ricordano quello che hanno imparato;
  • si accertano di ricordare le cose più importanti.

• In ogni paese, la maggior parte del 25% degli studenti che dice di applicare queste strategie ha raggiunto punteggi significativamente più elevati del 25% degli studenti che dice di adottare queste strategie solo raramente. In alcuni paesi il divario corrisponde ad un intero livello – per esempio, la differenza tra lo studente medio con abilità di lettura a Livello 2 e lo studente medio con abilità di lettura a Livello 3. (vedi Tabella 4.5. del testo completo del rapporto).

• Nell’assimilare nuove conoscenze gli studenti usano sia apprendimento mnemonico che strategie di elaborazione, cioè strategie per assimilare nuove informazioni integrandole alle conoscenze da loro già acquisite. I risultati di PISA 2000 indicano che gli studenti che dicono di privilegiare l’apprendimento mnemonico delle informazioni non ottengono sempre risultati migliori, mentre quelli che elaborano ciò che hanno imparato tendono ad ottenere buoni risultati (vedi Tabelle 4.6 e 4.7 del testo completo del rapporto).

• Sia le strategie di apprendimento che richiedono co-operazione che le strategie basate sulla competitività favoriscono l’apprendimento. Gli studenti che dicono di usare strategie di apprendimento competitive tendono ad ottenere risultati migliori di quelli che non le usano. Allo stesso modo, gli studenti che dicono di imparare in maniera co-operativa ottengono risultati migliori di quelli che non adottano queste strategie. Questo risultato sembra suggerire che entrambi gli approcci possono contribuire all’apprendimento in alcune situazioni: sono strategie complementari piuttosto che alternative (vedi tabelle 4.8 e 4.9 del testo completo del rapporto).

E’ difficile affermare senza ulteriore analisi che certe strategie di apprendimento determinino prestazioni migliori: ciò potrebbe semplicemente essere spiegato dal fatto che gli studenti che hanno prestazioni migliori per altri motivi adottino comunque le strategie più efficaci. Ciò nonostante, i risultati indicano quale tipo di apprendimento è assocciato a risultati buoni. Le scuole e i genitori devono cercare di aiutare gli studenti ad adottare tecniche che permettano loro di gestire il proprio apprendimento in maniera efficace.


ABILITÀ DI LETTURA E PIACERE DI LEGGERE

Agli studenti è stato chiesto di indicare quanto leggano per il piacere di leggere. Una percentuale considerevole in ogni paese ha risposto che non legge affatto per piacere. La proporzione varia da una maggioranza di studenti in Giappone a meno del 20% in Brasile, Lettonia, Messico, Portogallo e Federazione Russa, come indicato nella prima colonna della tabella. Tra gli studenti che dicono di leggere per piacere, la maggior parte lo fa per meno di un’ora al giorno. La seconda colonna mostra quanti studenti (l’11% di media nei paesi dell’area OCSE) sono appassionati alla lettura e leggono una o due ore al giorno per piacere.

I ragazzi che amano leggere hanno migliori abilità di lettura? Mediamente in ciascun paese, la risposta è sì. Per esempio, l’ultima colonna della tabella indica che gli studenti australiani che leggono una o due ore al giorno per piacere ottengono di media un punteggio superiori di 92 punti sulla scala che misura l’abilità di lettura rispetto a quelli studenti che non leggono per piacere. Ciò è equivalente a più di un livello – per esempio la differenza tra l’essere in grado di completare compiti di lettura a Livello 3 e compiti di lettura a Livello 4 – vedi esempi a pagina 7.

In ogni caso è importante sottolineare che:

  • Mentre, all’interno dei singoli paesi, si può stabilire una chiara connessione tra il piacere di leggere e le prestazioni ottenute dagli studenti, non è necessariamente vero che i paesi in cui ci sono meno studenti appassionati alla lettura producano anche un numero inferiore di lettori in possesso di buone strategie di lettura. Per esempio, gli studenti giapponesi raramente leggono per piacere, ma ottengono prestazioni di lettura più elevate della media. Al contrario, in Lettonia e Grecia, dove ci sono relativamente molti studenti appassionati alla lettura, la prestazione media rimane al di sotto dei risultati medi.
  • Non è chiaro fino a che punto leggere per piacere porti a sviluppare abilità di lettura più elevate o fino a che punto alcuni aspetti del background degli studenti contribuiscano allo sviluppo o al mancato sviluppo di queste abilità. Ciò nonostante, la correlazione tra il piacere di leggere e lo sviluppo di buone abilità di lettura è una correlazione importante che suggerisce possa essere produttivo incoraggiare entrambe.
PaesePercentuale che legge per piacereDifferenze tra punteggi medi di lettura degli studenti in a) e in b)
a) per niente
%
b) 1-2 ore al
giorno %
Australia331292
Germania42984
Svizzera35883
Finlandia221879
Canada331077
Nuova Zelanda301076
Islanda30773
Svezia36972
———-————-————-—————–
Regno Unito29970
Lituania182067
Francia301167
Norvegia35865
Irlanda331265
Repubblica Ceca261363
Austria41963
Portogallo181262
Stati Uniti41859
Belgio42959
Danimarca27957
Spagna32954
Ungheria261353
Federazione Russa191749
Polonia241649
Corea311241
Italia311341
Paesi Bassi   
————-————–—————————–
Giappone55827
Lussemburgo381225
Brasile191725
Grecia222019
Messico14126
DIFFERENZE DI RISULTATI SULLA BASE DEL SESSO

I politici hanno storicamente attribuito grande importanza alle questioni legate alle pari opportunità, e hanno dato particolare attenzione agli svantaggi che ragazze e donne devono affrontare. I risultati di PISA evidenziano i successi ottenuti da molti paesi in questo campo, ma anche un crescente problema che interessa gli studenti di sesso maschile particolarmente per quello che riguarda l’abilità di lettura di testi di natura non specialistica. In circa metà dei paesi, le studentesse rimangono ancora svantaggiate per quello che riguarda la lettura di testi matematici, mentre non vengono registrate differenze degne di nota nell’abilità di leggere testi di natura scientifica.

Abilità di lettura:
le femmine hanno risultati migliori
in tutti i Paesi
Risultati superiori di
almeno mezzo livello
Punti di vantaggio
nei punteggi medi
Lituania53
Finlandia51
Nuova Zelanda46
Norvegia43
Islanda40
Federazione Russa38
Italia38
Repubblica Ceca37
Grecia37
Svezia37
Polonia36
Germania35
Australia34
Belgio33
Canada32
Ungheria32
Liechtenstein31
Svizzera30
Giappone30
Paesi Bassi30
Francia29
Irlanda29
Stati Uniti29
Lussemburgo27
Austria26
Regno Unito26
Danimarca25
Portogallo25
Spagna24
Messico20
Brasile17
Corea14
Matematica:
maschi ottengono risultati migliori in metà dei paesi (negli altri paesi non c’e differenza statisticamente significativa)
PaesiPunti di vantaggio
nei punteggi medi
Austria27
Brasile27
Corea27
Portogallo19
Spagna18
Lussemburgo15
Danimarca15
Germania15
Svizzera14
Francia14
Irlanda13
Liechtenstein12
Repubblica Ceca12
Norvegia11
Canada10
Scienze
Le femmine ottengono risultati
migliori in tre paesi
PaesiPunti di vantaggio
nei punteggi medi
Lituania23
Federazione Russa14
Nuova Zelanda12
Scienze:
maschi ottengono risultati
migliori in tre paesi
PaesiPunti di vantaggio
nei punteggi medi
Corea19
Austria12
Danimarca12

I risultati più importanti

• In tutti i Paesi le femmine hanno strategie di lettura migliori dei maschi. La differenza più notevole evidenziata da PISA 2000 è che le femmine ottengono costantemente risultati migliori dei maschi nell’abilità di lettura. Come mostra la tabella, la differenza non è piccola. In Nuova Zelanda per esempio, il punteggio medio dei maschi è di 507 punti, vicino al punteggio medio di tutti gli studenti nei paesi OCSE, ma il punteggio medio delle femmine è di 553 punti, più alto della media di tutti gli studenti di qualunque paese (vedi Tabella 5.1a del testo completo del rapporto). In tutti i Paesi OCSE le femmine ottengono di media 45 punti più dei maschi sulla scala che misura l’abilità di riflessione e valutazione, mentre ottengono 29 punti in più sulla scala che misura l’àbilità di interpretare i testi e 24 punti sulla scala che misura l’abilità di trovare informazioni. Queste differenze possono essere influenzate da differenze negli interessi di lettura: i maschi dicono di leggere più fumetti, giornali e pagine web, le femmine più romanzi (vedi tabella 5.1b del testo completo del rapporto).

• Si registrano differenze più contenute tra l’abilità di leggere testi matematici o scientifici e l’abilità di leggere testi di natura non specialistica. Per quello che riguarda l’abilità di leggere testi matematici, i maschi in tutti i paesi OCSE ottengono di media 11 punti in più, ma la differenza è statisticamente significativa solo in metà dei paesi OCSE. Per quello che riguarda l’abilità di leggere testi scientifici, c’è una differenza significativa in favore o dei maschi o delle femmine solo in sei paesi (vedi tabella 5.1a del testo completo del rapporto).

• E’ più probabile che i maschi ottengano punteggi più bassi nella lettura di testi di natura non specialistica, ma non è vero che che le femmine tendano ad ottenere risultati più bassi nella lettura di testi matematici. Un importante fattore da tenere presente nell’ambito delle politiche educative emerge dalle grandi differenze riconducibili al sesso degli studenti che hanno ottenuto i risultati più bassi nella lettura di testi di natura non specialistica. In tutti i paesi che hanno partecipato all’inchiesta, è risultato più probabile che i maschi e non le femmine fossero a Livello 1 o a un livello più basso, per quello che riguarda l’abilità di leggere testi di natura non specialistica: nel caso della Finlandia si è registrata una probabilità tre volte superiore che ciò avvenisse (vedi Tabella 5.2a del testo completo del rapporto). Se è pur vero che i maschi, di media, ottengono risultati migliori delle femmine nella lettura di testi matematici, questo risultato è più riconducibile al fatto che ci sono più maschi che femmine tra gli studenti che hanno ottenuto i risultati migliori e il vantaggio dei maschi scompare quando si prende in esame il numero degli studenti con i punteggi più bassi (vedi Tabella 5.2b del testo completo del rapporto). Questi risultati suggeriscono che il fatto che i maschi non riescano in generale ad ottenere buoni punteggi costituisce un vero problema che le politiche educative devono cercare di risolvere sia in termini di riduzione del divario di prestazione tra i due sessi sia al fine più generale di ridurre la proporzione di studenti che hanno raggiunto solo i livelli più bassi di prestazione.

• Alcuni Paesi mostrano che le grandi differenze tra i due sessi non sono inevitabili. C’è una variazione significativa tra i vari paesi per quello che riguarda le differenze tra i due sessi. I risultati di PISA 2000 suggeriscono infatti che in alcuni paesi entrambi i sessi traggano vantaggio nella stessa maniera dall’ambiente educativo o da un contesto più ampio. Al contrario, le differenze ancora esistenti in alcuni paesi e la diffusa posizione di svantaggio che molti studenti maschi hanno nella reading literacy rendono necessari seri provvedimenti in campo educativo.

• Le femmine tendono ad esprimere un interesse maggiore verso la lettura di testi di natura non specialistica, mentre i maschi mostrano un interesse maggiore per la lettura di testi matematici. Nella media dei paesi OCSE, circa la metà di tutti i maschi, ma solo un quarto delle femmine, dice che legge solo quando è obbligata a farlo (vedi Tabella 5.4 del testo completo del rapporto). Invece le femmine tendono a mostrare un interesse minore dei maschi verso la lettura di testi matematici. La stessa correlazione tra interesse per la materia e prestazione fornita suggerisce che le diverse abitudini e interessi di maschi e femmine possono avere grandi conseguenze sul loro appredimento, conseguenze che le politiche educative devono prendere in esame e risolvere (vedi Tabella 4.1 del testo completo del rapporto).

• Maschi e femmine adottano diverse strategie di apprendimento. E’ più probabile che siano le femmine a dire di assumere responsabilità per il proprio apprendimento, strategia che tende ad essere associata al raggiumgimento di un buon livello di apprendimento. Le femmine tendono altresì anche a far più uso di strategie mnemoniche, strategie che non sono di solito associate a buoni livelli di prestazione al contrario di quelle strategie che richiedono di porre in relazione vecchie e nuove conoscenze, strategie che sembrano essere invece preferite dai maschi (vedi Tabelle 4.5, 4.6 e 4.7 del testo completo del rapporto).

L’IMPORTANZA DELLO STATUS DI ORIGINE DELLA FAMIGLIA

E’ provato che gli studenti che provengono da famiglie con un background migliore in termini di livello di istruzione e professione dei genitori e di risorse disponibili nell’ambiente familiare tendono a ottenere risultati migliori a scuola. PISA ha analizzato a livello internazionale l’importanza di questo rapporto e il suo peso nello spiegare generali differenze tra le prestazioni degli studenti.

I risultati più importanti

L’associazione tra background familiare e prestazione degli studenti varia grandemente da Paese a Paese. Il grafico sotto illustra le differenze medie nei punteggi relativi all’abilità di lettura a seconda della professione dei genitori. PISA ha classificato le professioni usando una scala riconosciuta a livello internazionale e basata sul valore economico delle professioni. Nel grafico, la parte sinistra di ciascuna barra rappresenta la media del punteggio relativo all’abilità di lettura del 25% degli studenti di ciascun paese che hanno genitori la cui professione è catalogata come “bassa”. La parte destra di ogni barra rappresenta la media del punteggio relativo all’abilità di lettura del 25% degli studenti di ciascun paese che hanno genitori la cui professione è catalogata come “alta”. In questo modo la lunghezza di ciascuna barra indica la differenza media nell’abilità di lettura tra gli studenti che vengono dalle famiglie meno abbienti e gli studenti che vengono dalle famiglia più abbienti in base alla professione dei genitori. In Corea è stata registrata una differenza relativamente piccola di 33 punti tra i due gruppi, equivalente a meno della metà di un livello, mentre in Germania e in Svizzera, la differenza è di circa 114 punti, equivalente a più di un livello (vedi Tabella 6.1a del testo completo del rapporto).

Non tutti gli studenti che provengono da famiglie non abbienti ottengono risultati bassi. In alcuni Paesi il 25% degli studenti che provengono da famiglie con il reddito più basso raggiunge comunque punteggi di prestazione medi. Ciò avviene per esempio in Canada, Finlandia e Corea dove questo gruppo di studenti ha comunque ottenuto punteggi superiori alla media dei paesi OCSE.

Differenze nei punteggi relativi all’abilità di lettura di testi di natura non specialistica a seconda della professione dei genitori.



Media del gruppo di studenti che provengono dalle famiglie meno abbienti sulla base della professione dei genitori
Media del gruppo di studenti che provengono dalle famiglie più abbienti sulla base della professione dei genitori



PISA ha preso in considerazione gli effetti di diversi aspetti specifici del background familiare. Oltre alla professione dei genitori, è stato riscontrato che:

• Un livello di istruzione più alto dei genitori ed una maggiore comunicazione sociale e culturale tra i genitori e i loro figli sono associati a prestazioni migliori degli studenti. Gli studenti le cui madri non hanno completato gli studi secondari superiori sembrano essere particolarmente svantaggiati e ottengono, come media tra i paesi OCSE, 44 punti meno degli studenti le cui madri hanno completato gli studi di scuola media superiore (vedi Tabella 6.7 del testo completo del rapporto). Il completamento da parte delle madri di studi a livello di educazione terziaria ha un effetto meno rilevante e costante (vedi Tabella 6.7 del testo completo del rapporto). Il livello di istruzione dei genitori è strettamente correlato ad altri aspetti del background familiare, ma, a parità di altri fattori, ogni ulteriore anno di istruzione da parte dei genitori aggiunge quasi 4,7 punti ai punteggi degli studenti (vedi Tabella 8.2 del testo completo del rapporto). PISA ha anche chiesto agli studenti come interagiscono con i loro genitori, per esempio se discutono di libri o mangiano insieme. Gli studenti che hanno un grado di interazione maggiore ottengono di media punteggi più elevati. La comunicazione culturale, per esempio discutere di libri, ha un ruolo ancora più importante (di media tra i paesi OCSE 59 punti tra il 25% degli studenti che ha riportato i punteggi più alti o più bassi) di quello rivestito dalla comunicazione sociale (in media 30 punti, vedi tabella 6.5).

• Gli studenti che provengono da famiglie abbienti tendono ad ottenere risultati migliori e gli studenti le cui famiglie possegggono beni di cultura classica tendono a ottenere risultati ancora più elevati. Agli studenti è stato chiesto che tipo di beni hanno a casa. Gli studenti provenienti dalle famiglie più abbienti generalmente ottengono risultati migliori degli studenti che provengono da famiglie meno abbienti, ma le differenze tra le loro prestazioni sono modeste (vedi Tabella 6.2 del testo completo del rapporto). Un indicatore più forte di prestazione è legato al possesso da parte degli studenti di beni associati alla “cultura classica”, per esempio opere di letteratura o arte (vedi Tabella 6.3 del testo completo del rapporto). Mentre il poter godere di questi “vantaggi” è riconducibile ad altre caratteristiche del background familiare, è interessante notare che anche quando questi vantaggi sono presi in considerazione in isolamento il loro effetto sulle prestazioni degli studenti rimane costantemente forte (vedi Tabella 8.2 del testo completo del rapporto) e sembra influenzare in maniera più determinante l’abilità di leggere testi di natura non specialistica piuttosto che testi di natura matematica o scientifica. E’ comunque importante sottolineare il beneficio, da un punto di vista educativo, che deriva dalla possibilità di avere accesso a beni letterari o culturali all’interno della propria casa.

• Gli studenti che vivono con solo uno dei genitori tendono ad ottenere risultati inferiori. Nella media dei paesi OCSE, a parità di altri fattori, gli studenti che vivono con un solo genitore ottengono punteggi inferiori di 12 punti nell’abilità di lettura rispetto agli studenti che vivono con entrambi i genitori (vedi Tabella 8.2 del testo completo del rapporto). In alcuni paesi non viene però registrata una differenza significativa tra i due gruppi. E’ interessante notare che i due Paesi in cui è stata registrata la differenza più notevole, il Regno Unito e gli Stati Uniti, sono anche i due paesi con il maggior numero di studenti che vivono con un solo genitore (vedi Tabelle 6.9 e 8.2 del testo completo del rapporto).

• I risultati ottenuti da bambini nati all’estero variano grandemente. In molti Paesi, i bambini nati all’estero ottengono risultati molto più bassi nell’abilità di lettura di testi non specialistici degli studenti che sono nati (e i cui genitori sono anche loro nati) nel Paesi in cui abitano. Gli studenti nati all’estero ottengono almeno 71 punti di meno degli studenti nati nel Paese in 10 dei 15 Paesi con più del 3% di studenti immigrati, ma in alcuni Paesi il divario è molto più piccolo. (vedi Tabella 6.10 del testo completo del rapporto). Una differenza significativa, 26 punti di media tra i Paesi OCSE, permane anche quando vengono presi in considerazione altri fattori del background familiare (vedi Tabella 8.2 del testo completo del rapporto). Questi studenti possono essere svantaggiati da un punto di vista accademico sia perchè sono immigrati che entrano in un sistema scolastico nuovo o perchè devono imparare una nuova lingua in un ambiente familiare che non ne favorisce l’apprendimento. In entrambi i casi essi richiedono una speciale attenzione. PISA ha evidenziato un quadro più variegato nel caso di studenti nati nel paese, ma i cui genitori sono immigrati. In alcuni Paesi, questi studenti non ottengono risultati significativamente diversi da quelli dei ragazzi nativi, ma in quattro Paesi – Belgio, Germania, Lussemburgo e Paesi Bassi – vi è un divario superiore ad un livello tra i due gruppi (vedi Tabella 6.10 del testo completo del rapporto).

LE SCUOLE POSSONO COMPENSARE LE DIFFERENZE SOCIO-ECONOMICHE?

I sistemi scolastici mirano a garantire pari opportunità per tutti i bambini indipendentemente dalle circostanze familiari in cui sono nati. In pratica però, bambini con background familiare diverso raggiungono livelli diversi di prestazioni. Fino a che punto questo dipende dall’ambiente familiare e fino a che punto questo è dovuto ad esperienze scolastiche? PISA fornisce alcune indicazioni che possono essere prese in considerazione nell’elaborazione di strategie miranti a migliorare le prestazioni degli studenti con più difficoltà.

I risultati più importanti

In alcuni Paesi, le differenze nelle prestazioni degli studenti sono chiaramente riconducibili a differenze nella prestazione delle scuole. Come indicato nel grafico, ci sono ampie differenze nelle abilità di lettura tra le scuole di paesi come Austria, Belgio, Germania, Ungheria e Polonia: queste differenze influenzano in maniera significativa la prestazione generale degli studenti. Al contrario, in paesi come Nuova Zelanda e Norvegia le differenze sussistono principalmente all’interno delle scuole. I Paesi in cui sono state registrate le maggiori differenze tendono ad essere quei Paesi in cui gli studenti sono avviati a diversi tipi di scuole secondarie, spesso sulla base dei risultati da loro ottenuti in precedenti cicli di scuola (vedi Tabella 2.4 del testo completo del rapporto).

Variazione della prestazione degli studenti nella lettura


Tra Scuole – Entro le Scuole
Indice di variazione (variazione totale media nei paesi OCSE = 100)

• I diversi risultati registrati all’interno delle singole scuole e tra scuole diverse sono associati al background socio-economico. Gli studenti che frequentano le scuole migliori spesso vengono da famiglie benestanti. PISA ha anche trovato che le prestazioni degli studenti sono influenzate dal loro background socio-economico soprattutto in quei sistemi educativi con sistemi scolastici differenziati rispetto a sistemi in cui il curricolo non varia in maniera significativa da scuola a scuola (vedi Tabella 8.3 del testo completo del rapporto).

• La composizione socio-economica della popolazione studentesca di una scuola è un indicatore ancora più forte della prestazione degli studenti che il background familiare. PISA ha rilevato, per esempio, che due studenti provenienti da famiglie simili ma che frequentano scuole diverse – una con un profilo socio- economico più alto e una con un profilo socio-economico più basso – possono presentare differenze più grandi nelle loro prestazione rispetto a due studenti con background familiare diverso, ma che frequentano la stessa scuola. Sebbene questo fenomeno abbia cause complesse, è comunque indicativo del potenziale rapporto esistente tra la segregazione socio-economica di studenti in scuole diverse e la polarizzazione degli studenti sulla base delle loro prestazioni (vedi Tabella 8.4 del testo completo del rapporto).

• Un miglior ambiente scolastico e la disponibilità di buone risorse sono fattori associati, seppure in maniera diversa, a migliori prestazioni da parte degli studenti. In Belgio, Germania e Lussemburgo, per esempio, le scuole con un background socio-economico più favorevole tendono a reclutare una percentuale maggiore di insegnanti specializzati, spesso perchè questi insegnanti sono utilizzati nei corsi più avanzati che preparano all’entrata nel mondo universitario. Le scuole i cui studenti hanno un background socio-economico più elevato sembrano avere anche un ambiente migliore dal punto di vista disciplinare, fatto riportato in particolare dagli studenti in Italia, Giappone, Spagna, Regno Unito e Stati Uniti. Infine, gli studenti che frequentano scuole con status economico, sociale e culturale basso tendono a non usare regolarmente le risorse scolastiche al contrario di ciò che avviene nelle scuole migliori (vedi Tabelle 8.5 e 8.5a del testo completo del rapporto).

Implicazioni per quello che riguarda le politiche educative

• I risultati di PISA hanno importanti implicazioni per le politiche educative. In alcuni Paesi, gli studenti sono fortemente segregati in base a variabili socio-economiche: ciò è dovuto in parte a fattori riconducibili alla segregazione abitativa o a fattori economici, ma anche ad alcune caratteristiche dei sistemi educativi. Questi Paesi dovrebbero promuovere politiche educative miranti a moderare l’impatto del background familiare sulla prestazione degli studenti, per esempio riducendo il livello di segregazione su basi socio-economiche o distribuendo risorse alle scuole in maniera differenziata. In questi Paesi è importante che si capisca come lo stanziamento dei fondi scolastici all’interno del Paese sia collegato al background socio-economico degli studenti che frequentano le scuole. In altri Paesi, c’è relativamente poca segregazione socio-economica, cioè le scuole non registrano forti differenze tra il background socio-economico degli studenti che le frequentano. Le politiche educative di questi Paesi possono mirare a moderare l’impatto del background familiare attraverso misure finalizzate a migliorare le risorse scolastiche e a ridurre, all’interno della scuola stessa, la segregazione in rapporto allo status culturale, economico e sociale degli studenti. Ciò che conta di più è come queste risorse vengano usate.

CHE COSA POSSONO FARE LE SCUOLE PER CAMBIARE LA SITUAZIONE?

Il background familiare influisce sul successo scolastico e lo status socio-economico delle scuole può rafforzare i suoi effetti. PISA ha identificato molte cose che le scuole posso fare per favorire il successo scolastico. Pur avendo identificato un numero di fattori che interagiscono nell’influenzare il successo scolastico, questo primo rapporto non intende stabilire rapporti casuali tra quello che le scuole fanno e le prestazioni dei loro studenti. Ciò nonostante, i risultati iniziali forniscono alcune indicazioni sulle condizioni scolastiche che sono più strettamente collegate al successo scolastico. I seguenti risultati prendono in considerazione l’effetto individuale di ciascun fattore identificato dopo aver preso in considerazione le associazioni con altri fattori osservati a scuola e nel background familiare. I risultati presentati qui a seguito tendono ad essere simili per l’abilità di lettura di testi di natura non specialistica e testi di natura matematica e scientifica.

• L’uso che gli studenti fanno delle risorse della scuola è un fattore più importante nel determinare il livello delle loro prestazioni che le infrastrutture scolastiche. Agli studenti sono state fatte domande relative al loro uso della biblioteca, computer, calcolatori, laboratori e collegamenti internet disponibili nella loro scuola. Nelle scuole in cui l’uso di queste strutture è relativamente alto, i risultati medi tendono ad essere più elevati, anche quando non vengono presi in considerazione altri fattori (vedi Tabella 8.5 del testo completo del rapporto). Deficenze nella qualità delle infrastrutture scolastiche riportate dai presidi tendono ad avere un impatto di minor rilevanza dell’uso che gli studenti fanno di queste risorse (vedi Tabelle 7.10, 7.11 e 8.5 del testo completo del rapporto).

• La presenza di insegnanti qualificati è tra le risorse più preziose della scuola. PISA ha chiesto ai presidi delle scuole di indicare la percentuale dei loro insegnanti con qualifiche a livello universitario nelle discipline che insegnano. Nella media dei paesi OCSE, la presenza di un numero maggiore di questi insegnanti è riconducibile a miglior risultati da parte degli studenti. Per esempio, per quello che riguarda l’abilità di lettura, un aumento del 25% nella percentuale degli insegnanti con qualifiche a livello universitario nelle discipliche che insegnano è associato ad un vantaggio di 9 punti sull’abilità degli studenti di leggere testi di natura non specialistica (vedi Tabella 8.5 del testo completo del rapporto).

• Il rapporto tra numero di studenti e numero di insegnanti assume importanza laddove sia relativamente alto. Nelle scuole con più di 25 studenti per ogni insegnante la prestazione media degli studenti è chiaramente inferiore e i risultati degli studenti diminuiscono con l’aumentare del rapporto numerico studenti-insegnante. Nei casi più tipici in cui il rapporto studenti-insegnante è tra 10 e 25 vi è una correlazione meno forte con la prestazione degli studenti nella lettura di testi di natura non specialistica. Nelle scuole con meno di 10 studenti per insegnante si registrano punteggi leggermente inferiori alla media dei paesi dell’aerea OCSE, ma questo potrebbe essere spiegato dal fatto che molte di queste scuole sono frequentate da studenti con problemi di apprendimento (vedi Tabella 8.5 del testo completo del rapporto).

• Alcuni aspetti delle politiche e delle attività scolastiche tendono ad essere correlate ad una migliore prestazione degli studenti. I presidi delle scuole ritengono che, nella media dei paesi dell’aerea OCSE, tre di questi fattori siano indicativi di una correlazione positiva e statisticamente significativa con i risultati conseguiti dagli studenti. I tre fattori identificati sono:

  • fattori riconducibili agli insegnanti e che influenzano l’ambiente scolastico, per esempio le aspettitive che gli insegnanti hanno nei confronti dei loro studenti;
  • l’impegno dimostrato dagli insegnanti e il livello di soddisfazione che traggono dal loro lavoro;
  • l’autonomia scolastica.

• Alcuni aspetti delle attività di classe sono correlate a migliori risultati degli studenti. Gli studenti ritengono che tre di questi fattori siano indicativi di una correlazione positiva e statisticamente significativa con i risultati da loro ottenuti. I tre fattori identificati sono:

  • il rapporto tra studenti e insegnanti
  • la disciplina di classe
  • ‘importanza che gli insegnanti assegnano al successo scolastico e le alte aspettative che essi hanno nei confronti dei loro studenti.

    (i primi due fattori sono più forti del terzo).

• Gli studenti che raggiungono risultati positivi tendono a fare i compiti. Un altro fattore direttamente ricollegabile a buoni risultati scolastici è rappresentato dai compiti. All’interno dei singoli paesi, gli studenti che fanno più compiti tendono, di media, a ottenere risultati migliori nella lettura di testi di natura non specialistica. Il 25% degli studenti che fanno il maggior numero di compiti ottengono un punteggio superiore di 44 punti rispetto al 25% degli studenti che fanno il minor numero di compiti. Questa correlazione appare più forte in quei Paesi in cui gli studenti fanno di media più compiti.

E’ necessario continuare la ricerca in questo campo

In generale, l’effetto combinato di questa serie di fattori a livello scolastico spiega il 31% delle differenze nella prestazione relativa alla lettura di testi di natura non specialistica tra le scuole all’interno dello stesso Paese e il 21% delle variazioni registrate tra i vari Paesi. Se associati ai fattori legati al background familiare, questi fattori possono spiegare il 72% delle variazioni tra scuole all’interno dello stesso Paese e il 43% delle variazioni registrate tra i vari Paesi (vedi Tabella 8.5 del testo completo del rapporto).

Queste conclusioni danno una prima indicazione dei risultati dell’inchiesta PISA. Sarebbe necessario condurre ulteriore ricerca e analisi per identificare il peso dei diversi fattori scolastici e il modo in cui interagiscono con il background familiare e influenzano la prestazione delle scuole e degli studenti. Le prossime inchieste del 2002 e del 2003 cercheranno di identificare in maggior dettaglio i motivi per cui alcuni paesi e alcune scuole ottengono risultati migliori e raggiungono obbiettivi di apprendimento in maniera più equa di altri.

IL PROGRAMMA PER LA VALUTAZIONE INTERNAZIONALE DEGLI STUDENTI

(Programma PISA dell’OCSE)

Norberto Bottani
Direttore SRED, Dipartimento della pubblica istruzione,
Cantone Ginevra (Svizzera)

LE CARATTERISTICHE DEL PISA

Nella primavera del 2000, 265.000 studenti quindicenni di 32 paesi hanno partecipato ad un’indagine internazionale, PISA, organizzata dall’Organizzazione di cooperazione e sviluppo economici sulle competenze in lettura, matematica e scienze. I risultati di quest’indagine sono stati resi noti nel dicembre 2001, mentre una nuova indagine dello stesso tipo è in cantiere per la primavera del 2003.Questo ambizioso programma mira ad accertare il livello di competenza nella comprensione di testi scritti e nell’uso di concetti matematici e scientifici alla fine della scuola dell’obbligo. Nel 2000, l’accento è stato posto prevalentemente sulla lettura; nel 2003 sarà sulla matematica e nel 2006 sulla cultura scientifica. Questo vuol dire che in due ore e più di test, ogni volta si riserva la maggior parte delle domande ad uno di questi settori. Le prove mirano ad appurare non tanto quel che si è imparato a scuola, ma come si utilizzano le conoscenze e le competenze apprese a scuola per affrontare, nella vita quotidiana, problemi di natura non scolastica.

L’indagine è molto più complicata di questa descrizione sommaria, ma questo basta per dire che il PISA è senza ombra di dubbio l’operazione scientifica più importante in corso oggigiorno nel settore delle scienze dell’educazione sul piano internazionale. Essa è stata resa possibile grazie all’accordo intercorso tra i paesi dell’OCSE che hanno fornito i fondi necessari per concepire, pianificare, sperimentare, elaborare e condurre una prova su vasta scala, con l’ambizione di raccogliere dati tra loro comparabili.
Questa realizzazione presuppone la creazione di un’infrastruttura efficiente per la raccolta e la verifica dei dati nonché di centri di calcolo potenti per trattarli. Essa soprattutto coinvolge  centinaia di esperti e di ricercatori per la messa a punto dei test e dei questionari e poi per interpretare i dati e scriverne le analisi. I pedagogisti non costituiscono il nucleo prevalente degli specialisti coinvolti in questo lavoro, se al termine “pedagogisti”  assegniamo l’accezione in voga in Italia. Ai lavori partecipano specialisti di varie discipline: economisti, sociologi, psicologi, specialisti di didattica, di statistica, di psicometria, di psicologia sociale, di didattica delle discipline.

A scanso di equivoci, bisogna ribadire che il PISA non è uno sfizio di alcuni comparativisti ma un progetto di ricerca internazionale, comparabile soltanto, per l’ampiezza dei mezzi e per l’ambizione che lo guida, per esempio  ai grandi progetti di ricerca internazionale organizzati nel settore dell’epidemiologia, della sanità, della farmaceutica, della biogenetica.La caratteristica principale del PISA, che lo contraddistingue rispetto ad altre operazioni intraprese negli anni precedenti in questo campo,  é il finanziamento pubblico: il PISA è stato voluto e deciso dai ministeri della pubblica istruzione (uso questa denominazione per convenienza, pur sapendo che le etichette cambiano da un paese all’altro), è finanziato esclusivamente con mezzi pubblici ed è condotto da un gruppo i cui membri sono stati designati dai ministeri. Mai, in precedenza, i ministeri della pubblica istruzione avevano ipotizzato ed accettato di cooperare tra loro nel campo della ricerca pedagogica, poiché tutti ritenevano che i i sistemi scolastici nazionali fossero per natura unici e quindi incomparabili tra loro.

I PRECEDENTI INTERNAZIONALI

       Il progetto INES

Il PISA è un prodotto del progetto dell’OCSE sugli indicatori internazionali dell’istruzione, di cui si celebra quest’anno il decennale. Nell’autunno del 1992, l’OCSE pubblicò il primo insieme d’indicatori internazionali dell’istruzione. La produzione di questo documento fu ostacolata in tutti i modi dai pedagogisti ma conobbe subito un grandissimo successo  e divenne un best seller della pubblicistica internazionale sulla scuola. Per la prima volta fu possibile comparare alcune variabili chiave della scuola nei vari Paesi misurate con criteri comuni.  Questo colpo di mano ( è proprio il caso di utilizzare questa espressione, talmente forte era la coalizione degli interessi che voleva impedire una realizzazione del genere) sfatò il mito della superiorità della scuola di ogni Paese rispetto a quella degli altri e vanificò qualsiasi sentimento di disprezzo e diffidenza nei confronti delle scuole degli altri. Quella pubblicazione decretò la fine dell’isolazionismo scolastico. Questo era appunto il risultato che molti ministeri volevano evitare a tutti i costi per impedire di essere tacciati, presto o tardi, d’incompetenza, di inefficienza o superficialità da chi conosce questi dati. Non è quindi un caso se in taluni Paesi, dopo la pubblicazione di queste informazioni, si faccia di  tutto per  ignorarli.

Quando nel 1992 fu prodotto il primo insieme d’indicatori internazionali del celebre progetto INES dell’OCSE, fu immediatamente denunciata l’assenza d’indicatori sui risultati, in particolare sulle conoscenze e competenze che si insegnano e che si dovrebbero imparare a scuola, a norma di programmi. Gli indicatori davano informazioni sul numero dei diplomati, dei laureati, degli occupati o dei disoccupati in funzione dei titoli di studio, ma non comprendevano nessun riferimento a quel che gli studenti imparavano. Sul piano internazionale non esistevano cioè fonti d’informazione in grado di fornire con regolarità dati attendibili sugli output della scuola. Si sapeva che le intenzioni non corrispondevano alle realizzazioni, che il curricolo ufficiale non era che una pallida copia non solo del curricolo realmente realizzato ma anche e soprattutto di quello appreso, ma non esistevano modalità d’accertamento sistematiche di questi iatus.

Le indagini dell’ IEA

Dagli inizi degli anni Sessanta, l’IEA, l’associazione internazionale per la valutazione dei risultati scolastici (International Association for the Evaluation of Educational Achievement) costituita da una rete di ricercatori che si occupavano del rendimento dei sistemi scolastici, aveva messo in evidenza questo problema e tentava di identificare il sistema scolastico che garantisse un innalzamento dei livelli d’istruzione di tutti gli studenti e una minore disparitàdei risultati tra scuole e tra ceti sociali. L’IEA riuscì a realizzare notevolissime indagini internazionali a tappeto : per esempio, la prima indagine sulle conoscenze in matematica del 1964 coinvolse 130.000 studenti di tredici anni ripartiti in 5.000 scuole di 12 paesi. Purtroppo, i risultati di questi lavori restavano confidenziali e circolavano solo in un cerchia ristretta di persone. I responsabili politici, i docenti, l’opinione pubblica ne ignoravano completamente gli esiti. Occorre anche dire che i ricercatori avanzavano con grande cautela in un campo minato, del tutto nuovo per la ricerca scientifica, e che mancavano le attrezzature tecniche necessarie per trattare in modo rapido la massa di dati raccolta. Ci volevano anni prima di giungere alla pubblicazione dei risultati. Le indagini dell’IEA rimasero quindi un prodotto per addetti ai lavori, ma permisero anche di mettere a punto metodi d’indagine e  tecniche statistiche di trattamento dei dati che divennero d’uso corrente solo più tardi.

Le indagini dell’IAEP

Alla fine degli anni Ottanta, quando ormai ovunque nel mondo si parlava di crisi della qualità dell’istruzione, le difficoltà  dell’IEA  a produrre in modo tempestivo informazioni sugli apprendimenti scolastici indussero il governo americano, che non riusciva a controllare l’IEA, a promuovere un programma concorrenziale in grado di comparare senza ritardi il livello d’istruzione degli studenti americani con quello di altri paesi.

Con un forte finanziamento americano, l’ETS (Educational Testing Service) di Princeton, un’agenzia senza fini di lucro specializzata nella fabbricazione di test, realizzò nel 1989 e nel 1991 due indagini internazionali sulle competenze degli studenti, l’IAEP (International Assessment of Educational Progress), allo scopo di dimostrare che era possibile condurre valutazioni comparate con tecniche meno pesanti di quelle adottate dall’IEA, ma ugualmente rispettose dei  criteri riconosciuti scientificamente validi a livello internazionale.  

La regione Emilia-Romagna  partecipò a quell’indagine e chi  voglia ora avere un’idea del livello al quale si collocavano dieci anni fa gli studenti di questa  regione italiana rispetto a quelli di altri Paesi può consultare quei risultati.

L’esperienza dell’IAEP non fu però totalmente convincente soprattutto perché molti items dei test provenivano da prove strutturate americane e non erano stati convalidati in altri paesi e in altre culture scolastiche.  Agli inizi degli anni Novanta, né l’IEA né l’ETS erano dunque in grado di fornire con tempestività dati sicuri e tra loro comparabili sul profitto degli studenti. Questi due organismi non possedevano l’infrastruttura e l’organizzazione necessarie per gestire operazioni di questo tipo, ma il problema non era tanto di ordine tecnico quanto di natura pedagogica: mancava infatti un forte  consenso su quanto si dovesse misurare e sulle conseguenze, a media e lunga scadenza, di simili valutazioni sui docenti, sui programmi d’insegnamento, sulle politiche scolastiche. Queste erano incognite serie a cui nessuno sapeva rispondere e alle quali non si sa per altro dare una risposta nemmeno ora.

IL FRANGENTE  IN CUI È NATO IL PISA

Il PISA è nato nel frangente sopra descritto,  caratterizzato da :

  • malumore e insoddisfazione nei confronti delle indagini dell’IEA e dell’IAEP
  • timore di non valutare gli obiettivi delle scuole
  • inquietudine rispetto alle conseguenze imprevedibili di queste indagini
  • rischi connessi alla focalizzazione sui saperi scolastici e non sulle competenze fondamentali per inserirsi nella vita attiva oppure per riuscire tout court nella vita (queste erano le espressioni in voga)
  • difficoltà di conciliare rigore scientifico e rapidità dell’informazione
  • forti esigenze d’informazione dell’opinione pubblica sui risultati delle scuoleGli anni Novanta sono stati fertilissimi di dibattiti, ricerche, sperimentazioni (non all’italiana, va da sé) in questo campo.

Gli Stati Uniti non rinunciarono al loro progetto egemonico e si pagarono l’IEA, con un finanziamento straordinario dell’indagine sulle conoscenze in matematica e nelle scienze di tre gruppi d’età diversi (9 anni [terzo e quarto anno di scolarità], 13 anni [settimo e ottavo anno di scolarità], e ultimo anno delle superiori), allo scopo di dimostrare che nell’anno 2000 gli studenti americani sarebbero stati  i migliori al mondo in matematica.

Il progetto TIMSS (Third International Mathematics and Science Study) al quale parteciparono 42 paesi confermò il persistente ritardo degli studenti americani, ma suscitò una serie di indagini satelliti stupende per cercare di capire le ragioni di questo ritardo (per esempio la ricerca sui manuali e sui programmi di matematica dell’Università del Michigan) oppure la ricerca video sull’insegnamento della matematica in classe ( per una analisi dei risultati italiani si veda l’articolo di Angela Martini nel numero speciale degli Annali dell’istruzione pubblicato in occasione degli stati generali dell’istruzione nel dicembre 2001).Il programma PISA deciso e finanziato dai governi degli stati membri dell’ OCSE fu concepito per dare una base solida e almeno in parte neutra a queste valutazioni.
A metà degli anni Novanta, grazie all’IEA e all’IAEP, il terreno era ormai pronto per compiere questo passo e per attingere con regolarità ad una fonte di dati  sulle competenze degli studenti. Nel corso dei lavori preparatori i vari gruppi d’esperti s’imbatterono beninteso negli analoghi problemi e nelle stesse difficoltà incontrati dagli specialisti di psicometria alla testa dell’IEA. La decisione di puntare non più su un’indagine imperniata sulla verifica degli apprendimenti scolastici ma sulla misura della “literacy”, ovverosia sui livelli di competenza nell’uso degli strumenti essenziali della cultura alfa-numerica e scientifica, fu salvifica poiché ha permesso d’inoltrarsi  su nuovi binari, andando però incontro ad un nuovo tipo di problemi mentre se ne evitavano degli altri.

LE PRIME INDICAZIONI CHE EMERGONO dal PISA

I risultati prodotti dal PISA sono talmente abbondanti che ogni Paese dovrebbe fare la sua propria analisi, in funzione del contesto politico-amministrativo che costituisce l’humus  particolare del suo sistema scolastico. Qui ci limitiamo a mettere in evidenza alcune osservazioni o constatazioni che si possono formulare ad una lettura trasversale dei dati,  attenta a reperire  quei fenomeni comuni che a prima vista si scorgono nei risultati di tutti i Paesi. Prima di giungere a conclusioni definitive, occorrerà però verificare, con analisi dettagliate – per ora non ancora messe in cantiere- la validità e la solidità delle constatazioni rilevate, tra cui:

Una media elevata dei punteggi di un Paese può coesistere con una debole disparità dei risultati. Questo vuol dire che si possono conseguire risultati buoni o eccellenti con tutti, e non solo con i migliori studenti. In altri termini, la selezione non è la sola via per conseguire risultati eccellenti ed inversamente, la non selezione non penalizza l’eccellenza. E’ la prima volta che si riesce a dimostrare la validità di questa asserzione. Se ciò fosse vero, se cioè si riuscirà a comprovare con altre verifiche, altri dati in altri contesti, la giustezza di questa osservazione, allora si dovranno modificare tutte le politiche scolastiche e i metodi di valutazioni che pretendono di selezionare i migliori studenti e di scartare quelli deboli. Per altro, il calcolo delle variazioni dei risultati in funzione del gradiente socio-economico mostra che a gradiente socio-economico uguale i risultati variano da un paese all’altro e da una scuola all’altra, smentendo dunque quella che era ritenuta una legge ferrea del rendimento scolastico, ossia la stretta correlazione tra risultati scolastici eccellenti, selezione scolastica e categoria socio-economica. Il PISA fornisce dati strabilianti in merito che obbligano a riesaminare le teorie sociologiche sulla disuguaglianza scolastica.

Nei Paesi con i risultati migliori, le politiche scolastiche e le scuole presentano le seguenti caratteristiche:

  • valorizzazione sociale e politica dell’eccellenza scolastica
  • consenso nell’esigere dagli studenti risultati scolastici elevati
  • accordo sull’importanza di un clima sereno e positivo all’interno delle scuole
  • presenza di rapporti calorosi e di rispetto reciproco tra insegnanti e studenti; gli studenti hanno l’impressione d’essere capiti, aiutati e stimolati dai loro docenti;
  • integrazione della valutazione degli studenti nella politica della scuola e nell’insegnamento : i risultati della valutazione sono utilizzati  dalle scuole per impostare un insegnamento su misura, adattato ai punti forti e deboli di ogni studente
  • alto grado d’autonomia delle scuole (questa conclusione è però contestata perché dedotta da informazioni poco attendibili raccolte presso i presidi con il questionario sulle scuole)

All’interno di uno stesso Paese coesistono  grandi divari tra le scuole.
Quest’informazione, che conferma osservazioni analoghe fatte in altre indagini internazionali dello stesso tipo, è preoccupante perché dimostra l’incapacità dei sistemi scolastici di fornire un’istruzione equivalente su tutto il territorio di propria competenza. Meritevole d’attenzione è poi il fatto che le variazioni tra Paesi sono meno forti di quelle constatate all’interno dei singoli Paesi. Questo significa, per esempio, che è più grave il divario che esiste tra le scuole esistenti in Italia che non tra la media dei risultati degli studenti italiani e quella degli studenti degli altri Paesi.

LE RISPOSTE CHE PISA NON FORNISCE

Per completare il quadro, bisogna anche ribadire che il PISA non fornisce risposte a tutta una serie di domande di natura politica sullo statuto, l’organizzazione, le finalità della scuola.
Per esempio, non si possono usare i dati del PISA per  trattare i temi seguenti :

  • il confronto fra  scuola privata e quella statale;
  • il confronto fra sistemi scolastici centralizzati e sistemi decentralizzati;
  • le relazioni tra spese correnti e profitto scolastico (è vero per esempio che chi più spende ottiene risultati migliori?);
  • la relazione tra numero di studenti per classe e profitto scolastico;
  • l’influsso dell’educazione prescolastica sui risultati ai test a quindici anni;
  • le relazioni tra livello di competenze e di preparazione dei docenti e risultati nei test;
  • le relazioni tra lo statuto sociale dei docenti (misurato per esempio in base allo stipendio) e risultati degli alunni;
  • le relazioni tra l’aggiornamento professionale dei docenti e i risultati;
  • le relazioni tra risultati nei test e l’orientamento precoce degli studenti: con i dati raccolti non si può sostenere che i sistemi che ritardano l’orientamento e la selezione degli studenti per indirizzi di studio diversi o tipi di formazione con esigenze diverse siano migliori di quelli che invece prevedono una selezione precoce e orientano gli studenti verso indirizzi di studio diversi a partire dalla fine della scuola elementare;
  • la relazione tra risultati nei test e organizzazione interna di una scuola : certe scuole prevedono classi per livelli di competenza omogenea; altre invece funzionano con classi a livelli eterogenei.Il PISA non fornisce elementi per dirimere questa questione.

Questa non è che una lista molto limitata di questioni centrali per le politiche scolastiche alle quali il PISA non fornisce nessuna risposta. Bisogna anche dire che il PISA non è stato concepito per questo scopo, ma solo per raccogliere dati su quel che gli studenti sanno o non sanno alla fine della scuola d’obbligo. Questo obiettivo di per sé è già molto complicato da conseguire.

Non si può pretendere dal PISA  quel che non può dare.  E’ comprensibile che i fautori del PISA siano tentati di valorizzare al massimo l’indagine  e di sfruttarne i dati per dimostrarne le potenzialità, ma da un punto di vista scientifico si corre il rischio di commettere gravi errori quando dai dati raccolti per un certo scopo si estrapolano conclusioni che riguardano problemi di tutt’altra natura.

COME È STATO UTILIZZATO IL PISA IN ITALIA E IN ALTRI PAESI

La pubblicazione dei risultati del PISA all’inizio di dicembre del 2001 ha suscitato un grande interesse nei ministeri della pubblica istruzione e nella stampa. In molti Paesi, i ministri dell’istruzione hanno tenuto delle conferenze stampa per commentare i risultati nazionali. A questa prima reazione a caldo è seguita nei mesi successivi  tutta una serie di analisi dettagliate pubblicate sotto forma di rapporti nazionali o di studi particolareggiati sulle varie componenti dell’indagine.

·         Il caso Italia
In Italia non è successo nulla di tutto ciò: ad un anno di distanza dalla pubblicazione dei risultati del PISA non è stato pubblicato nessun rapporto sui risultati italiani.
In Svizzera, Germania, Inghilterra, Francia, Stati Uniti si moltiplicano i seminari e i colloqui sui risultati del PISA. In Italia è stata  una fondazione privata, la Treellle, ad organizzare la sola giornata sul PISA, peraltro non una giornata di studio ma un happening promozionale.

 La responsabilità della partecipazione italiana al PISA  era stata affidata al Servizio nazionale di valutazione dell’istruzione, ora INVALSI, diretto dal Prof. Benedetto Vertecchi. La direzione del PISA in Italia era stata assunta dalla Prof.ssa Emma Nardi. Al momento della ricezione dei risultati, nel giugno del 2001, in Italia è cambiata la maggioranza politica : da un governo di centro sinistra si è passati ad uno di centro destra, con un nuovo ministro, Letizia Moratti, che scopre nel corso dell’estate i risultati italiani, mentre “dimissiona” il prof. Vertecchi  dalla direzione del centro di Frascati.

Mancanza di coordinamento, comunicazione insufficiente, conflitti d’interesse,  pregiudizi e prevenzioni di ogni genere, sia a destra che a sinistra,  hanno ostacolato lo sfruttamento del PISA .
Per l’ennesima volta, non è la prima volta che capita in Italia,  la connessione tra ricerca e politica viene meno, proprio nel momento in cui si sarebbero dovuti interpretare i risultati, sfruttarli al meglio, suscitare un dibattito nazionale, allarmare l’opinione pubblica, lavorare con le associazioni dei docenti per capire la mediocrità della prestazione degli studenti italiani.

I dirigenti della scuola italiana manifestamente non erano stati avvertiti del cambiamento di rotta rappresentato dall’indagine PISA. Prevale l’impressione che l’amministrazione centrale abbia lasciato le mani libere al  servizio di valutazione, come si era fatto in precedenza con tutte le indagini IEA alla quale l’Italia aveva partecipato.

·         I casi di Germania, Svizzera, Canada e Spagna
Orbene, con il PISA le indagini internazionali sul rendimento delle scuole non sono più un appannaggio esclusivo dei ricercatori ma sono operazioni di natura politica che mirano ad informare i responsabili della scuola sullo stato dell’istruzione del Paese. 

Il PISA esige dunque una strategia di pilotaggio del tutto diversa da quella  che era  in auge all’epoca delle indagini IEA.
Vorremmo qui soffermarci su quattro casi diversi che ci consentono di capire gli effetti del sisma pedagogico-politico che è stato il PISA .
I Paesi avevano dovuto decidere se partecipare al PISA o meno nel 1998, quando era stato loro richiesto di sottoscrivere l’impegno finanziario derivante dall’organizzazione dell’indagine. In molti Paesi questa è stata l’occasione per cogliere due piccioni con una fava: in primo luogo, sfruttare l’ operazione scientifica per acquisire o sviluppare il “know how” psicometrico necessario per svolgere indagini su vasta scala sul rendimento degli studenti; in secondo luogo, andare oltre le esigenze imposte dal programma minimo internazionale, estendere il piano di raccolta di dati e beneficiare dell’infrastruttura internazionale del programma per trattarli.
Queste decisioni dovettero essere prese nel 1997-98, prima che si pianificassero tutte le fasi dell’indagine. Mancano le informazioni su quanto è successo a Roma: non si sa  cioè se tra l’ex-CEDE e il ministero (il ministro d’allora era Luigi Berlinguer) ci siano state discussioni sulle modalità della partecipazione italiana.

L’Italia  per finire ha comperato solo il pacchetto di base del PISA, mentre invece la Germania, la Svizzera, il Canada hanno preso un’opzione più ambiziosa e quindi necessariamente più costosa. La Germania chiese di testare non solo un campionamento rappresentativo dei quindicenni del Paese, ma anche un campionamento per ognuno dei sedici Länder. Va notato che mai in Germania si era prima d’allora proceduto ad uno studio comparato di quest’ampiezza tra i sedici Länder, inclusi quindi anche quelli che appartenevano al territorio dell’ex Germania dell’est. 

Stessa cosa, in Svizzera : qui il dibattito fu più virulento, perché i cantoni tedeschi rifiutarono la raccolta di dati rappresentativi per Cantoni. Non fu il caso invece nella Svizzera francese dove i ministri della scuola dei sette cantoni romandi decisero di finanziare l’estensione del campionamento per avere un campione rappresentativo per ogni cantone. La stessa scelta fu fatta dal cantone elvetico di lingua italiana, il Ticino, e da tre cantoni tedeschi : Zurigo, Berna e San Gallo. Gli Svizzeri si complicarono poi l’esistenza perché furono i soli, con i Giapponesi, a sdoppiare il campionamento, ossia a testare non solo i quindicenni, indipendentemente dalle classi frequentate (ci sono quindicenni in prima e seconda media, in prima liceo oppure nelle prime degli istituti tecnici), ma anche tutta la popolazione che frequentava l’ultimo anno della scuola dell’obbligo, indipendentemente dall’età. Il caso elvetico dimostra che il PISA non è un programma a scatola chiusa, da prendere o lasciare in toto, ma un programma flessibile, che permette ai Paesi d’impostare una partecipazione, in un certo senso, su misura, una volta rispettate le condizioni minime richieste dal programma a tutti i partecipanti. Dopo tutto, il programma è finanziato dai Paesi: senza i soldi dei governi, il PISA non si sarebbe potuto fare.

Il caso del Canada è analogo a quello della Germania, con un campionamento nazionale, che corrisponde ai criteri minimi di partecipazione al PISA, e con campionamenti per ognuna delle province. In questo modo i Canadesi possono per la prima volta verificare le perfomances delle scuole delle varie province, ed  in particolare comparare i risultati del Quebec francofono con quelli delle province anglofone. 

In Spagna, il servizio nazionale per la valutazione della qualità della scuola non è stato invece autorizzato a raccogliere dati comparabili per ognuna delle comunità autonome (o a pubblicarli: le nostre informazioni sono imprecise su questo punto). Questa è stata una decisione politica imposta ai ricercatori; tuttavia, altra decisione politica, la Catalogna fu autorizzata a partecipare al PISA per cui ora, alla resa dei risultati, i catalani possono comparare le prestazioni del proprio sistema scolastico con quelli del resto della Spagna.  Nel 2003, il Paese basco seguirà l’esempio della Catalogna e raccoglierà dati sulla propria popolazione scolastica di quindicenni.

·         Un nuovo approccio in Italia? Il possibile coinvolgimento delle regioni
In Italia sembra che l’approccio al PISA stia cambiando: secondo notizie di quest’estate, le regioni sono state informate della possibilità di raccogliere dati rappresentativi per ogni regione.
Sappiamo che il Piemonte si è già mosso in questa direzione e che la Lombardia probabilmente si aggregherà al Piemonte.

Si compirebbe un passo avanti rilevante se si giungesse a coinvolgere più regioni in occasione del prossimo round di PISA, ancorché le infrastrutture universitarie e scientifiche per sfruttare l’operazione non siano in Italia ideali, ma sarebbe proprio auspicabile costruire entro il 2006 una collaborazione regione-INVALSI in grado di trattare e analizzare i dati nazionali ripartiti per regioni, come lo si è fatto in Germania con i 16 Länder.

·         L’effetto in Germania della scomposizione per Länder dei dati PISA
Il 26 giugno di quest’anno, sei mesi dopo la presentazione dei risultati del PISA a livello internazionale, sono stati pubblicati in Germania, in una conferenza stampa apposita,  i risultati dettagliati del PISA per ognuno dei Länder: lo stupore è stato ancora più grande della sorpresa provocata dai dati internazionali che piazzavano la Germania al ventunesimo rango in lettura e al ventesimo in matematica. Questi dati hanno aperto, in piena campagna elettorale, uno scontro durissimo tra maggioranza e opposizione, sui mali della scuola tedesca. Scontro per nulla previsto dalla maggioranza di centro sinistra.   Il sud cattolico, con Länder a maggioranza conservatrice, declassa il nord protestante dominato da maggioranze socialdemocratiche, dove si sono sperimentate tutte le innovazioni scolastiche da più di un trentennio, mentre le scuole del sud sono rimaste piuttosto restie alle novità. Campione in tutte le categorie, la Baviera, che batte la Svizzera e rivalizza con la Svezia, ma è battuta dalla Finlandia, dall’Australia, dalla Gran Bretagna e dal Giappone. Alla sua altezza si situa il Bade-Wurtemberg e la Saxe (il migliore Land dei territori dell’est). Questi tre stati sono guidati da tempo da maggioranze conservatrici (democristiane). In coda ai Länder tedeschi, arriva la città anseatica di Brema e il Brandeburgo (altro stato dell’est) che non fanno meglio del Messico. Brema, che passa per un centro d’avanguardia in educazione, è un bastione della sinistra progressista tedesca. A detta di tutti è a Brema che l’educazione progressiva è stata applicata con maggiore impegno in Germania.

I risultati del PISA, a prima vista, sembrano essere una smentita tremenda della bontà delle innovazioni pedagogiche dell’ultimo ventennio. Va anche però  detto che queste sono battaglie di campanile, perché in generale i risultati di tutti i Länder sono mediocri, come ricorda giustamente il Zeit, un quotidiano di indirizzo liberale. Questa polemica sulla scuola è comunque una prova dell’interesse di queste indagini, che hanno un senso solo se generano ricerche e verifiche dettagliate di quanto si constata, cosa che  implica la presenza di centri di ricerca attrezzati e di laboratori universitari competitivi.

Infatti, di fronte a questi risultati occorre chiedersi:

  • cosa ha in realtà misurato il PISA ?
  • Qual è il quadro riferimento del PISA?
  • E’ lo stesso di quello delle scuole progressive?

La risposta a queste domande è cruciale per evitare interpretazioni  mistificanti e pericolose per il futuro della scuola.

IL PISA E GLI INSEGNANTI

Il programma internazionale di ricerca sulle competenze e gli apprendimenti acquisiti alla fine della scuola dell’obbligo è un’operazione di vertice, che riguarda essenzialmente i ministri, gli altri funzionari della scuola e pochi centri privilegiati di ricerca.

La base della scuola è assente dal dibattito, come pure dall’elaborazione delle prove. Presidi e insegnanti non sono nient’altro che esecutori invitati a collaborare alla realizzazione dell’indagine. In certi Paesi, presidi e docenti marciano al passo, non si pongono troppe domande ed eseguono coscienziosamente le istruzioni che arrivano dall’alto. In questo caso non c’è bisogno di spiegare il PISA e di chiedere a presidi e insegnanti di collaborare all’indagine.

In altri Paesi invece, dove vige una tradizione pedagogica imperniata sulla professionalità dei docenti oppure dove si pratica su larga scala una pedagogia progressiva nella quale si  contesta la validità e l’utilità delle  valutazioni imposte dall’esterno che non rispettano i ritmi di crescita degli studenti, la realizzazione del PISA  nelle scuole ha incontrato opposizioni e resistenze di ogni genere. In taluni casi, la somministrazione dei test è stata anche boicottata. Da qui la necessità di spiegare a fondo il programma d’indagine per convincere la base della sua utilità e ottenere quindi le condizioni migliori d’attuazione delle prove.

Poiché il PISA è un’indagine campionaria, il numero di insegnanti e di scuole che vi partecipano non è che una piccola frazione del totale, ma questo non è un argomento accettabile per rinunciare a spiegare agli insegnanti e alle loro organizzazioni l’indagine, i suoi scopi, l’uso che se ne può fare, tanto più che le conclusioni si applicano a tutta la scuola e producono apprezzamenti estesi all’intero sistema scolastico.
Tre fattori militano a favore di un forte coinvolgimento dei docenti :

  • l’utilità pedagogico-didattica delle prove;
  • la produzione di analisi convincenti e d’interpretazioni corrette dei risultati;
  • le condizioni d’esecuzione dell’indagine.

L’ultimo punto è ovvio: senza il consenso e il sostegno delle scuole, le prove non potrebbero svolgersi in buone condizioni, gli studenti non sarebbero motivati a parteciparvi e i risultati ne risentirebbero. Quindi, almeno per una semplice ragione pratica è indispensabile spiegare agli insegnanti le ragioni e le finalità delle prove.

Il secondo punto è nell’interesse delle autorità scolastiche che devono spiegare all’opinione pubblica o ai parlamenti i risultati. Sono molteplici i parametri che influenzano le risposte degli studenti ai test e, di conseguenza, la media dei risultati e la disparità fra i risultati : per esempio, la composizione delle classi, il grado di selezione, il numero di ore d’insegnamento, le qualifiche dei docenti, la loro esperienza professionale, l’organizzazione delle scuole, e via dicendo. L’identificazione delle cause probabili che spiegano per esempio l’alta percentuale di studenti con un basso livello di competenza in lettura oppure la verifica delle probabili correlazioni esistenti tra un fattore o l’altro esigono l’intervento di specialisti che conoscono benissimo il terreno, ossia la scuola dall’interno. Questo lavoro non può essere fatto dagli esperti internazionali che spesso prendono cantonate solenni, vuoi per presunzione vuoi per mancanza di prudenza nella lettura dei dati. Spesso non può nemmeno essere fatto dai centri nazionali che pilotano l’indagine in un Paese.

Per capire per esempio la percentuale elevata di assenteismo constatata a Ginevra, che è un minuscolo stato dove tutti pensano di conoscere tutto di tutti, si sono dovuti interrogare i presidi delle scuole nelle quali si sono svolte le prove. Certi misteri nei risultati –per esempio la percentuale elevata di errori negli items  semplici e invece la buona percentuale di risposte esatte negli items difficili — non si possono capire senza la collaborazione dei docenti.

Infine, il primo punto: il PISA può rappresentare uno strumento straordinario d’aggiornamento degli insegnanti. Gli items delle prove standardizzate provengono da tutte le parti del mondo, sono stati pensati ed elaborati da specialisti all’avanguardia nella ricerca, riproducono elaborazioni concettuali raffinate e per finire sono stati convalidati statisticamente nei pre-test. Essi sono però anche il frutto di compromessi aspramente combattuti e possono rappresentare scelte poco innovative o coraggiose. Gli insegnanti potrebbero ispirarsi a queste prove per rinnovare l’insegnamento, per riflettere sul proprio lavoro, ma anche per esaminare criticamente i test, discuterli, contestarne la pertinenza, segnalare ai ricercatori i rischi di devianze nascosti nelle formulazioni, che i costruttori delle prove non possono vedere ma che invece gli insegnanti  riescono a reperire perché sono vicini agli studenti che passano le prove.

Purtroppo, si sa ben poco di quel che  i Paesi hanno fatto per spiegare il PISA ai docenti.
L’OCSE si è limitata ad organizzare quest’anno in maggio un incontro con i sindacati dei docenti che a  detta di un partecipante anglosassone da noi interpellato è stato piuttosto banale. Non siamo riusciti a sapere se c’è stata una presenza italiana.
A detta di molti, il lavoro con la base è il punto debole del PISA. In Inghilterra , le TU ( ossia i sindacati dei docenti britannici) sono stati invitati ad un incontro con il ministero per discutere i risultati del PISA, ma la riunione è stata un flop.
E’ andata un po’ meglio nella Svizzera Romanda dove il massimo sindacato dei docenti, il SER, è stato subito informato della decisione di costruire un campione per ogni cantone ed ha ricevuto tutta la documentazione sull’indagine. I contatti tra il servizio di ricerca ed il sindacato non sono mai stati interrotti nel corso della preparazione, dello svolgimento e della presentazione dei risultati. Il sindacato ha così organizzato per proprio conto un seminario interno di formazione sul PISA prima della pubblicazione dei risultati. Quando questi sono stati disponibili, il sindacato è stato invitato a commentarli ed ha potuto presentare il proprio punto di vista nel corso della conferenza stampa organizzata dai sette ministri cantonali dell’istruzione.
La “carta sulla trasparenza” ha permesso di attenuare la diffidenza e l’ostilità di una parte del corpo insegnante nei confronti del PISA. Inizialmente l’indagine fu percepita come l’avvio di un’operazione voluta da un’istituzione, l’OCSE, ligia agli interessi delle forze neoliberali, sostenitrice dell’economia di mercato, per  squalificare la scuola pubblica e prepararne la privatizzazione. Il lavoro del sindacato è stato da questo punto di vista esemplare: ha accettato la sfida, è entrato in una logica d’aggiornamento e formazione ed ha infine concorso a spiegare agli aderenti il senso e i limiti dell’indagine, neutralizzando le tentazioni di una lettura settaria e stereotipata del programma.

GLI APPUNTAMENTI DEL 2003 E DEL 2006

Nell’aprile del 2003 campioni di alunni di quindici anni parteciperanno al secondo ciclo del programma PISA che, come abbiamo detto in apertura, verterà principalmente sulla matematica. Il pretest che è servito per mettere a punto gli items è stato condotto nella primavera di quest’anno. Alcune regioni italiane si sono mosse per partecipare al PISA con campioni rappresentativi propri. E’ quel che occorre fare nel quadro della ridistribuzione delle competenze tra Stato e regioni, imposta dalle norme costituzionali, nonché dalla decantata legge sull’autonomia.

Questo però non basta.
Sono infatti già in corso i lavori preparatori del terzo ciclo che si terrà nel 2006 e che  verteràsulla cultura scientifica, un tema molto scottante, delicato, sensibile dal punto di vista politico. La battaglia sulla costruzione dei test è già iniziata.

Gli indirizzi generali per la costruzione delle prove saranno fissati tra poco. Non abbiamo proprio nulla da dire in merito?

LE COMPETENZE SCOLASTICHE DEI QUINDICENNI

di Norberto Bottani

(“il Mulino”, n. 400 (LI), 2/2002, pp. 293-296.)

Dalle indagini IEA a PISA: un importante salto di qualità
Nella primavera del 2000, l’OCSE ha organizzato un’indagine sui livelli di comprensione della lettura e sui livelli di cultura matematica e scientifica dei ragazzi di quindici anni che erano a scuola a quell’età in 32 Paesi e alla quale hanno partecipato circa 250.000 studenti. A un anno e mezzo di distanza, nel dicembre dello scorso anno, l’OCSE ha pubblicato i primi risultati di questo studio in un rapporto di grande qualità e di elevato livello scientifico. Questa gigantesca operazione, denominata PISA ( Programme for International Student Assessment, ovverossia Programma per la valutazione internazionale del profitto degli studenti) non ha paragone con i primi studi comparati internazionali condotti dall’IEA
( International Association for the Evaluation of Educational Achievement) a decorrere dal lontano 1960 ed ai quali partecipavano una dozzina di Paesi. Con l’indagine del PISA si è senza dubbio fatto un salto di qualità nel campo degli studi comparati sul rendimento delle scuole e sugli apprendimenti. L’Italia, è giusto segnalarlo, è stato uno dei Paesi che ha partecipato a quasi tutte le indagini IEA grazie alla lungimiranza di Aldo Visalberghi, ma purtroppo questa tradizione non ha suscitato in Italia una scuola di specialisti nelle indagini sulla valutazione degli studenti e delle scuole. La partecipazione dell’Italia al PISA è stata diretta da Emma Nardi che ha pilotato lo studio in Italia avvalendosi del sostegno dell’Istituto Nazionale per la Valutazione del Sistema d’Istruzione. I dati riguardanti le prestazioni degli studenti italiani si possono reperire nel rapporto pubblicato dall’OCSE ( in inglese ed in francese) nonché nel sito web dell’OCSE (www.pisa.oecd.org) e solo in parte, ma in modo poco didattico anzi quasi illeggibile per il lettore non avvertito, nel sito http://www.cede.it/ricerche-internazionali/ocse-pisa-ccc/documenti/fasi.pdf. Emma Nardi ne ha fatto un breve commento nel numero degli Annali dell’Istruzione, 1-2 ( 2001), pubblicato in occasione degli Stati Generali dell’Istruzione.


I preoccupanti risultati italiani
I risultati degli studenti italiani sono preoccupanti da tutti i punti di vista. Sia in lettura, che in matematica e scienze i giovani italiani si situano al di sotto della media dell’OCSE. In lettura, nella scala internazionale, l’Italia è nel gruppo dei paesi i cui risultati sono significativamente al di sotto della media internazionale (487 punti rispetto a 500). In questo gruppo si trova pure la Germania, l’Ungheria e la Polonia, mentre la Spagna e la Svizzera sono nella media OCSE. In matematica, che era una componente minore dell’indagine, il livello raggiunto dalla media degli studenti italiani è invece bassissimo e significativamente inferiore alla media dei paesi (457 punti rispetto a 500). Qui l’Italia è in compagnia della Spagna, della Polonia, del Portogallo e della Grecia. Infine, nelle scienze, il livello raggiunto dalla media degli studenti italiani è pure significativamente inferiore alla media dei paesi dell’OCSE (478 punti rispetto a 500), pari a quello della Polonia, della Danimarca e della Grecia, inferiore a quello della Spagna, ma assai meglio del Portogallo.

Tavola 1:
Risultati della valutazione internazionale delle competenze dei quindicenni, 2000

PunteggioComprensione dello scrittoCultura matematicaCultura scientifica
557Giappone
552Corea
547CoreaGiapppone
546Finlandia
537Nuova Zelanda
536Finlandia
534Canada
533Australia; Canada
529Nuova ZelandaSvizzeraCanada
528AustraliaAustralia
527Irlanda
523Regno Unito
522Giappone
517Francia
516Svezia
507Austria
507Belgio
505Norvegia
505Francia
500Francia; Stati Uniti (499)
504Stati Uniti
497DanimarcaBelgio (496); Ungheria (496); Svizzera (496)
494Svizzera
493SpagnaStati Uniti
492Repubblica Ceca
487ItaliaGermania
484GermaniaPolonia (483)
480UngheriaDanimarca (481)
479PoloniaItalia (478)
474Grecia
461Grecia
457Italia
470Portogallo
441LussemburgoLussemburgo (443)
422MessicoMessico

Non tutti i paesi sono inseriti nella tavola

Un dato significativo: l’atteggiamento dei giovani verso la scuola
Dall’insieme delle tavole e dei grafici presentati nel rapporto, una vera e propria miniera d’informazioni a disposizione dei ricercatori che vogliano analizzare lo stato dell’istruzione nei paesi con i sistemi scolastici più avanzati all’inizio del nuovo secolo, si evince che solo il 10 per cento dei quindicenni dei paesi dell’OCSE sono buoni lettori e che ben un quinto dei giovani non sa svolgere che i compiti più facili previsti dalle prove, come per esempio individuare un’ informazione contenuta in un testo semplice, oppure fare collegamenti elementari tra un messaggio inserito in un testo e la vita quotidiana. Questo significa che alla fine della scuola dell’obbligo ci sono più lettori pessimi che buoni. Assocerei questa informazione ad un’altra estratta dalle risposte fornite dagli studenti alla sezione del questionario che li interrogava sul loro modo di imparare. Una proporzione significativa di giovani di 15 anni ha un’attitudine negativa rispetto alla scuola e all’apprendimento (Tavola 2): più di un quarto degli studenti di quindici anni non ha già più nessuna voglia d’andare a scuola. Tra i Paesi che riescono meglio a disgustare i giovani dall’apprendere ci sono il Belgio e l’Italia. E’ interessante notare che i quindicenni dei Paesi più poveri ( il Messico e il Portogallo) sono quelli che invece hanno ancora fiducia nell’insegnamento.

Tavola 2:
La mia scuola è un luogo dove non ho voglia d’andare:

D’accordoTotalmente d’accordoTotale
Belgio25,516,542,0
Italia27,710,338,0
Ungheria25,412,337,7
Francia24,013,037,0
Canada24,512,136,6
Stati Uniti24,910,635,5
Irlanda23,710,834,5
Nuova Zelanda24,79,434,1
Australia24,39,433,7
Spagna20,010,430,4
Corea20,79,430,1
Lussemburgo17,013,130,1
Austria15,413,629,0
Polonia19,68,728,3
Media OCSE18,69,428,0
Regno Unito19,68,227,8
Svizzera16,011,527,5
Finlandia17,88,125,9
Germania14,810,425,2
Giappone16,38,224,5
Islanda13,210,123,3
Norvegia13,69,423,0
Grecia14,38,022,3
Svezia14,94,919,8
Danimarca12,66,018,6
Portogallo9,533,12,8
Messico6,42,58,9

Fonte OCSE: (www.pisa.oecd.org)

I costi per l’istruzione: l’Italia non spende poco
Il costo globale per l’istruzione di uno studente della scuola dell’obbligo ( il calcolo comprende le spese del settore pubblico e privato) mostra che l’Italia non è un Paese che spende poco per l’istruzione, tutt’altro. Però, queste risorse sono male utilizzate perché l’Italia è tra i Paesi che ottengono nei tre settori della prova del PISA risultati inferiori rispetto a quelli che ci si possono aspettare in funzione del livello della spesa pro capite. Gli altri paesi nei quali le prestazioni sono inferiori al livello al quale dovrebbero collocarsi rispetto agli stanziamenti per l’istruzione sono la Danimarca, la Grecia, il Messico, il Portogallo e gli Stati Uniti ( tavola 3).

Tavola 3:
Costo globale di uno studente dall’inizio della scuola elementare fino all’età di quindici anni, in dollari degli Stati Uniti, equiparati con il tasso della parità del potere d’acquisto, 1998

PaesiCosto globale per studente
Austria71 387
Stati Uniti67 313
Danimarca65 794
Svizzera64 266
Norvegia61 677
Italia60 824
Svezia53 386
Giappone53 255
Francia50 481
Belgio46 338
Finlandia45 363
Australia44 623
Regno Unito42 793
Germania41 978
Spagna36 699
Portogallo36 521
Irlanda31 015
Corea30 844
Grecia27 356
Repubblica Ceca21 384
Ungheria20 277
Polonia16 154
Messico11 239

Sfatati i luoghi comuni: occorrono ricerche rigorose
Questa breve nota mostra che molti dati del PISA sfatano tutta una serie di dicerie sulla scuola che circolano in Italia. A questo punto sarebbe indispensabile procedere ad analisi dettagliate delle risposte degli studenti italiani a ciascun quesito, per capire meglio lo sbando constatato nei risultati italiani globali. Emma Nardi offre nel suo breve articolo apparso negli
” Annali dell’istruzione ” alcune anticipazioni di questo lavoro di analisi sui punteggi quando fornisce una prima chiave di lettura dei pessimi risultati italiani in matematica alla fine della scuola dell’obbligo: ” I quesiti che richiedevano agli studenti di spiegare, di verbalizzare, di dimostrare o di giustificare sono stati omessi in percentuali maggiori rispetto ad altri Paesi. Gli studenti italiani sono quindi stati meno pronti nell’esprimere e nell’argomentare le proprie opinioni utilizzando concetti e processi matematici. Le omissioni possono dipendere anche da una minore motivazione a fornire risposte corrette, anche quelle più impegnative e faticose. La stessa motivazione a rispondere, accettando la sfida che proviene da un problema matematico impegnativo e imprevisto, lo stesso impegno nel fornire una risposta ” ricca ” ed argomentata sono un connotato importante del valore e della ” produttività ” di competenze ben interiorizzate e proiettate verso la vita “.

Le responsabilità della scuola
I risultati del PISA trascendono il valore che si può attribuire ai punteggi conseguiti in una prova internazionale. Essi rivelano infatti la presenza di problemi di fondo, direi anzi di malattie gravi, che affliggono la scuola e che sono di portata generale, culturale, e che forse la scuola da sola non può risolvere. A questo proposito vale la pena segnalare il capitolo quarto del rapporto OCSE dedicato alle motivazioni all’apprendimento e alle strategie d’apprendimento usate dagli studenti (impegno e perseveranza nello studio, interesse per la lettura, interesse per la matematica, preferenza per l’apprendimento competitivo o in gruppo) in correlazione con i punteggi conseguiti nelle prove, oppure il capitolo ottavo nel quale si analizzano le correlazioni tra i risultati conseguiti dagli studenti e l’influenza sulle scuole e sugli studenti dell’ambiente da cui provengono gli studenti. La comprensione di questa correlazione è il punto di partenza per un’analisi della ripartizione delle opportunità educative. I dati del PISA dimostrano che l’ambiente socio-economico non è determinante: molti studenti che provengono da ambienti svantaggiati ottengono risultati nettamente superiori alle previsioni basate sugli indici internazionali. Ci sono Paesi in cui gli scarti tra la media dei risultati degli studenti migliori dei ceti superiori e dei ceti bassi è esigua ( in Corea, Giappone, Islanda, e Finlandia) ed altri invece dove la differenza è molto pronunciata ( in Svizzera ed in Germania per esempio). La scuola quindi conta: ci sono sistemi scolastici in cui una media elevata nei risultati non va di pari passo con grandi disuguaglianze. In Italia, succede il contrario: la disuguaglianza nei risultati è relativamente piccola (il doppio però che non in Corea e Giappone) ma la media è bassa. Questo è un sistema scolastico in cui prevale la mediocrità : la prestazione media degli studenti italiani è significativamente al di sotto della media dei Paesi dell’OCSE, ma l’Italia è tra i Paesi in cui l’impatto del contesto socio-economico sulle prestazioni degli studenti è pure inferiore alla media. Il sistema è un po’ più giusto degli altri, ma è penalizzante, perché i risultati sono bassi. L’esempio di Paesi che invece sono altrettanto giusti ma con livelli di prestazioni elevati per tutti (ricchi e poveri) dimostra che si può fare meglio e diversamente senza penalizzare l’obiettivo dell’uguaglianza di trattamento. Le scuole possono cambiare le carte in tavola.
Fatalismo e rassegnazione non sono scusabili: questo mi sembra il messaggio principale del PISA. Prima di scaricare le responsabilità dei pessimi risultati sulle spalle di altri, dunque, sarebbe bene ponderare quale sia il peso e la responsabilità della scuola.

Rispondi

%d blogger hanno fatto clic su Mi Piace per questo: