Scenari > Numeri > Quando i numeri ingannano
 
  
        
   
 
 
Quando i numeri ingannano
di Simona Morini
 
 
 
Questo libro solleva un problema piuttosto grave e urgente. Medici, avvocati, politici, professionisti, amministratori pubblici e comuni cittadini manipolano quotidianamente dati statistici di vario genere senza avere la benché minima competenza per valutarli criticamente. Non esiste aspetto della nostra vita personale - amore, sesso, malattie, lavoro, piaceri, perversioni - che non sia stato oggetto di una indagine statistica. Siamo letteralmente sommersi di dati sulla vita pubblica – disoccupazione, immigrazione, prezzi, inflazione, dati economici, sondaggi politici, ecc. Tutte le nostre paure - incidenti, calamità naturali, delinquenza, minacce nucleari e chimiche, epidemie, rischi ambientali - vengono accuratamente quantificate.
Eppure, benché non esitiamo a qualificare questa massa di informazioni come dati "oggettivi" e "certi" e a usarla per giustificare le nostre opinioni o le nostre scelte, non abbiamo strumenti adeguati per maneggiarla. Siamo bombardati di dati e informazioni, ma non sappiamo né trattarli né valutarli. Interrogati 1000 cittadini tedeschi se 40% voglia dire a) un quarto b) 4 su 10, c) una persona su 40, un terzo di loro ha dato una risposta sbagliata. Giornali e discorsi politici abbondano di esempi di ignoranza delle più elementari nozioni di calcolo delle probabilità. In Italia, il fenomeno non è ancora molto diffuso, dato il peso ancora relativamente scarso degli argomenti statistici, per esempio in campo medico e legale. Ma negli Stati Uniti l'analfabetismo numerico sta rapidamente diventando una piaga sociale.
Non saper calcolare i rischi è un problema: non è facile convincere la gente che è pericoloso eccedere con i fuochi d'artificio a Capodanno e nello stesso tempo far capire alle mamme ansiose che non è il caso di fare una tragedia se si trova un petardo in tasca al proprio figlio. Inoltre, quando questa ignoranza si estende a medici, avvocati e professionisti che fanno uso di statistiche, è chiaro che la situazione diventa allarmante. Mentre l'ignoranza della meccanica non ci impedisce di camminare, saltare o andare in macchina, l'ignoranza della probabilità e della statistica ci può portare ad agire in modo contrario ai nostri interessi individuali o sociali. Ci sono siti interamente dedicati a denunciare gli errori e le mistificazioni contenute negli articoli dei giornali e nelle informazioni divulgate dai media (il migliore è Chance news, www.dartmouth.edu/~chance/) . Vengono pubblicate voluminose "guide pratiche" per stabilire, sulla base del giudizio di esperti e autorevoli scienziati, quali sono gli effettivi pericoli, o i rischi, del mondo che ci circonda (per esempio, Ropeik e Gray, 2002). L'incapacità di leggere i dati matematici e la concomitante possibilità di manipolarli sono fenomeni ugualmente pericolosi e allarmanti sul piano sociale. Ignoranza e manipolazione, infatti, vanno di pari passo.
Naturalmente, molto ha a che vedere con il fatto di definire le statistiche "dati oggettivi". Cosa si intende comunemente per "dati oggettivi" è rivelato da alcune espressioni familiari, come per esempio che le statistiche "fotografano la realtà". Come prescriveva nel 1861 William Farr: "la statistica dovrebbe essere la più arida di tutte le materie". Dovrebbe limitarsi ai fatti, eliminando qualsiasi elemento di valutazione soggettiva. Ma in che senso, per esempio, il fatto che secondo l'Istat l'inflazione sia cresciuta del 2,5 % "fotografa" la realtà per cui, quando vado a fare la spesa al supermercato sotto casa, spendo il doppio di quanto spendevo un anno fa? Giustamente, le massaie insorgono. Giustamente, i tecnici precisano che il tasso di inflazione è determinato dai beni che si mettono nel "paniere". Giustamente, l'Istat ricorda che si tratta di valori medi, calcolati su dati tratti su scala nazionale e su beni diversi. Giustamente, alcuni fanno notare quanto sia facile manipolare questi dati (basta mettere nel paniere, per dirne una, il prezzo dei biglietti ferroviari e applicare gli aumenti ai soli biglietti di supplemento!). La "realtà" di questi dati è assai sfuggente. Come ha mostrato brillantemente Darrell Huff nel suo ormai classico "How to Lie With Statistics" (Come mentire con le statistiche) quel che i dati statistici "fotografano" è, nella migliore delle ipotesi, un costrutto, nella peggiore un imbroglio. Così anziché costituire uno strumento per convivere serenamente (razionalmente) con l'incertezza, il ricorso ai numeri tende a generare nuove "illusioni di certezza" o, semplicemente, "false certezze". Ciò nonostante, questi dati sono "oggettivi" anche nel senso - assai più interessante - che sono determinati in base a parametri e criteri ben precisi che consentono, appunto, di valutarli. Le cifre non sempre "parlano da sé", come spesso si usa dire, ma dicono quel che vogliamo fargli dire, per cui devono essere lette nel modo giusto, interpretate e valutate criticamente.
La capacità di leggere i dati diventa tanto più importante quanto più la raccolta sistematica di informazioni sulle persone, da semplice curiosità e strumento di informazione si è trasformata, in alcuni campi, in un elemento di prova o in un fattore di decisione. Sta avvenendo, per esempio, nel campo della medicina - dove diagnosi e cure si basano sempre di più su dati statistici- o in campo giuridico, dove il test del DNA e certi tipi di rilevamenti statistici possono ormai essere addotti come prove nei processi. E sono proprio questi gli ambiti su cui si sono concentrate le indagini riportate in questo libro.
L'autore, Gerd Gigerenzer, è professore di psicologia , direttore dell'Istituto Max Planck a Berlino, e da anni si occupa di probabilità, statistica e degli aspetti psicologici legati al comportamento in condizioni di incertezza.
In varie sue opere Gigerenzer ha insistito sul fatto che non siamo "attrezzati" ad affrontare razionalmente l'incertezza. La letteratura psicologica, a partire dai primi studi di Kahneman e Tverski negli anni Settanta, non fa che mettere in luce le varie forme in cui si manifesta la nostra "illusione di sapere", quasi che non riusciamo a staccarci dal bisogno di certezze così caratteristico della cultura occidentale post illuminista e ad accettare serenamente e razionalmente l'incerto. I nostri comportamenti effettivi di scelta in condizioni di incertezza si discostano sistematicamente da quelli previsti dai modelli normativi di decisione razionale e mostrano un quadro abbastanza allarmante di irrazionalità e pregiudizio. Questo è dovuto anche al fatto che, mentre siamo abbastanza "allenati" a ricercare certezze (la scuola ci spinge a dimostrare sempre qualcosa: teoremi, tesi, opinioni, ecc.), non abbiamo nessuna dimistichezza con il ragionamento probabilistico e con le indagini statistiche, in cui pure ci imbattiamo assai più spesso, nella vita di tutti i giorni, che nelle dimostrazioni della geometria euclidea o, poniamo, nel calcolo infinitesimale!
I due principali case studies che occupano buona parte di questo libro – i dati sulle mammografie e il processo a O.J. Simpson - mostrano bene il problema. Nel caso del processo al celebre giocatore, sia l'accusa sia la difesa hanno usato due argomenti apparentemente plausibili, ma entrambi scorretti. Per esempio, la difesa ha sostenuto che il temperamento violento di Simpson e il fatto che picchiasse spesso la moglie non sono indizi di colpevolezza, in quanto 4 milioni di donne all'anno sono malmenate da mariti e amanti, dai quali "solo" 1.432 (cioè 1 ogni 2.793) sono successivamente uccise. Peccato che la classe di riferimento rilevante, in questo caso, non siano tutte le donne che hanno subito violenza, ma la classe, assai più ristretta, delle donne picchiate da mariti e amanti e poi uccise da qualcuno. Entro questa classe più ristretta, 8 su 9 sono state uccise dallo stesso uomo che le picchiava. E rispetto a questa classe di riferimento, il fatto che Simpson picchiasse la moglie è un indizio di colpevolezza, anche se, ovviamente, non una prova conclusiva.
Nel caso della mammografia, poi, i dati sono spesso riportati omettendo alcune informazioni, per esempio senza tener conto dei falsi positivi, cioè dei casi di donne che, pur avendo un mammogramma positivo non hanno un cancro al seno. Lo stesso vale per i test dell'AIDS e per le "prove" del DNA. Insomma, ci sono mille modi di fuorviare o di mentire, deliberatamente o involontariamente, con le statistiche. E le informazioni, se non si è in grado di decifrarle e analizzarle criticamente, possono paradossalmente peggiorare l'ignoranza delle persone, con conseguenze anche abbastanza drammatiche (in base a statistiche mal interpretate, alcune donne americane sono state indotte da medici irresponsabili a masterectomizzarsi entrambi i seni per evitare l'insorgenza di un tumore!). Una serie di indagini condotte da Gigerenzer e dai suoi collaboratori su medici e avvocati tedeschi e americani, hanno mostrato che questi stessi professionisti non hanno le competenze necessarie per valutare i dati che utilizzano per diagnosi e sentenze e sono, in generale, incapaci - a vari livelli - di ragionare e comportarsi razionalmente in condizioni di rischio e incertezza.
Secondo Gigerenzer, questa situazione è imputabile al connubio di un elemento culturale (l'illusione di certezza) e di un fenomeno sociale (l'analfabetismo numerico). In un libro di molti anni fa, The Probabilistic Revolution, egli ha mostrato come, con il nascere del calcolo delle probabilità, sia finalmente diventato possibile liberarsi costruttivamente dell'illusione della certezza e convivere razionalmente - e felicemente - con l'incertezza. Le leggi della probabilità - le cui estensioni teoriche più note sono il modello di decisione razionale come massimizzazione dell'utilità prevista e i modelli di inferenza cosiddetti bayesiani - costituiscono, infatti, una "logica dell'incerto", una sorta di "nuova arte di pensare", in grado di indicare regole per agire e giudicare razionalmente in condizioni di incertezza. Ne è emersa una sorta di "concezione probabilistica della mente", di cui una parte importante è il cosiddetto "ragionamento bayesiano", relativo a una vasta classe di problemi - come appunto i case studies analizzati da Gigerenzer - in cui la probabilità di una causa (una certa malattia, il colpevole di un omicidio, ecc) deve essere inferita da un effetto osservato (per esempio, un mammogramma positivo o una testimonianza in tribunale). La regola di Bayes ci dice, in sostanza, come dobbiamo cambiare le nostre credenze e assegnazioni di probabilità alla luce del risultato di un test, di una testimonianza e, in generale, di nuove informazioni. Il problema - come già si è accennato - è che in pratica queste norme di razionalità vengono sistematicamente disattese: la realtà pullula di comportamenti incoerenti e di calcoli sbagliati. Il problema è quali conclusioni trarre da questi risultati.
In un libro del 1999, Simple Heuristics That Make Us Smart [Semplici euristiche per farci furbi], scritto in collaborazione con il suo gruppo di ricerca, Gigerenzer ha sostenuto che c'è bisogno di una "seconda rivoluzione probabilistica" che sostituisca all'immagine di una mente onnisciente - simile a quella del celebre demone di Laplace - capace di eseguire i complessi calcoli richiesti dalla teoria di massimazzione dell'utilità prevista o dalla regola di Bayes, l'immagine più realistica di una mente limitata, che possa però attingere a una "cassetta degli attrezzi" dotata di euristiche "fast and frugal", "rapide ed economiche", come lui le chiama, che ci mettano in grado di far fronte efficacemente alle situazioni di incertezza. Gigerenzer parla di una "razionalità ecologica" , che combini la struttura dell'ambiente e dell'informazione con la nozione di "razionalità limitata" a suo tempo proposta da Herbert Simon. In questa nuova prospettiva, che sembra richiamarsi alla psicologia evoluzionistica, un'euristica è "ecologicamente razionale" se si adatta alla struttura dell'ambiente. In parole povere: se funziona presto e bene. (Gigerenzer, 2000, Tooby e Cosmides, 1992).
Detta così, la proposta è allettante. E' bene tuttavia essere consapevoli di un aspetto teorico e filosofico importante della "seconda rivoluzione" auspicata da Gigerenzer, cioè del fatto che essa si propone esplicitamente di recuperare l'enfasi sull' incertezza della "prima rivoluzione probabilistica", abbandonando però la centralità della teoria della probabilità come descrizione – o come norma – del comportamento razionale e dunque l'idea stessa di una logica dell'incerto. Il programma di Gigerenzer sembra quindi inserirsi nell'ormai diffusa tendenza a privilegiare una concezione delle mente come entità psicologica e "biologica", piuttosto che "logica": una drastica e in effetti rivoluzionaria inversione di rotta rispetto alla cultura del Novecento, incentrata sulla logica e sull'antipsicologismo.
Alla luce di queste considerazioni si può forse comprendere meglio la tesi sostenuta da Gigerenzer in questo libro. E cioè che l'analfabetismo numerico e, in particolare, la difficoltà a ragionare probabilisticamente – il secondo e più importante ostacolo da rimuovere per far fronte efficacemente all'incertezza - non è, come comunemente si sostiene, legato al fatto che l'architettura innata delle nostre menti non si è evoluta in modo tale da trattare l'incertezza, ma è riconducibile a una rappresentazione "esterna" dell'incertezza che non corrisponde al modo in cui funziona "naturalmente" la nostra mente. In altri termini: la difficoltà non è "dentro" le nostre teste, ma "fuori", nella rappresentazione del rischio che scegliamo. Secondo Gigerenzer, infatti, alcune rappresentazioni numeriche sarebbero più "naturali", più "ecologiche" di altre. "Se un generale romano avesse voluto calcolare il numero di soldati nella sua legione, formata da LX unità di XCV uomini ciascuna, avrebbe trovato la soluzione più facilmente usando i numeri arabi, cioè moltiplicando 60x95. Analogamente quando un medico del XXI secolo vuole calcolare la probabilità che una donna con mammogramma positivo abbia effettivamente un cancro al seno, può rispondere in modo più facile e veloce rappresentando l'informazione con le frequenze naturali anziché con le probabilità condizionali" (Gigerenzer et al. 2002, p.343)
Le frequenze naturali, secondo Gigerenzer, "corrispondono al modo in cui gli esseri umani assorbivano le informazioni prima che fosse inventata la teoria della probabilità" e, a differenza delle probabilità e delle frequenze relative, "sono dati osservativi 'grezzi' che non sono stati normalizzati rispetto al tasso di base dell'evento studiato". Un medico, per esempio, ha visitato 100 persone; 10 di queste presentano una nuova malattia. 8 di queste 10 hanno un certo sintomo; ma anche 4 delle 90 senza la malattia hanno quel sintomo. Se spezzettiamo questi 100 casi in quattro classi, con relativi numeri (8 con malattia e sintomo, 2 con malattia e senza sintomo, 4 col sintomo e senza malattia, 86 senza né malattia né sintomo), otteniamo le quattro frequenze naturali 8, 2, 4 e 86. Gli esperimenti condotti da Gigerenzer e dai suoi collaboratori mostrerebbero che le persone commettono meno errori nel valutare i dati e nel fare inferenze di tipo probabilistico, quando le informazioni vengono loro presentate sottoforma di frequenze naturali anziché come probabilità condizionali o percentuali.
Questo risultato, se valido, ha una importante conseguenza pratica. Mentre finora si è pensato che per ovviare ad alcune "irrazionalità" fosse necessario rieducare la mente - insegnare, in qualche modo, a ragionare in modo corretto -, l'analisi di Gigerenzer suggerisce appunto "euristiche rapide e frugali", riformulazioni dei dati più "adatte" a noi. A questo scopo ha anche elaborato un metodo - e un software - che insegna in un'ora ad applicare correttamente la regola di Bayes.
I presupposti teorici di questo metodo, tuttavia, sono piuttosto controversi, anche tra gli psicologi. Non tutti sono d'accordo, per esempio, sul fatto che sia la formulazione in termini di frequenze naturali a facilitare il ragionamento bayesiano. Secondo Macchi e Mosconi (1998 e 2000), per esempio, la riduzione degli errori è dovuta a una semplificazione dei calcoli, secondo Girotto e Gonzalez (2001) alla "struttura", piuttosto che al "tipo" di informazione. E si potrebbe citarne molti altri. Inoltre, non si capisce come una semplificazione nel calcolo di una regola della probabilità, il teorema di Bayes, possa in qualche modo influire sul ruolo centrale che questo stesso teorema, e quindi la probabilità in genere, ha nei processi di decisione in condizioni di incertezza. Né in che senso questa semplificazione dei calcoli renda le frequenze più "naturali", come sostiene Gigerenzer, delle assegnazioni di probabilità, per esempio, ad eventi singoli. Infine, più in generale, non è del tutto chiaro in che senso certe anomalie o certe abitudini sbagliate nel comportamento delle persone possano indurci ad abbandonare dei modelli teorici normativi (in mancanza di modelli alternativi, almeno). Dopotutto, la fisica ingenua è aristotelica o magari newtoniana, ma non per questo la teoria della relatività risulta confutata. Di più, non è necessario insegnare a tutti la meccanica per far funzionare correttamente una lavatrice. Basta che i comandi della lavatrice siano ben studiati o che si disponga di un buon libretto di istruzioni. Ma forse che il dibattito sulla disposizione ottimale dei tasti di una lavatrice o su come compilare un buon libretto di istruzioni e le diverse spiegazioni del fatto che alcune persone confondono il tasto di accensione con quello della centrifuga ci inducono a rivedere le leggi della meccanica? Perché allora parlare di razionalità "ecologica", di rappresentazioni matematiche più "naturali", di fit con la realtà e non, più modestamente, di una razionalità "usabile"? Non ho personalmente nulla contro la buona psicologia. Le ricerche psicologiche hanno avuto il grande merito, negli ultimi anni, di denunciare la distanza esistente tra i modelli teorici e le loro applicazioni pratiche, suggerendo interessanti vie d'uscita al problema. E tuttavia, condivido ancora alcune delle ragioni per cui si è preferito passare alla logica agli inizi del Novecento. Mi sembra più prudente evitare di spingersi nelle secche delle domande sulla "natura umana" o su quel che è più "naturale". In alcuni casi rischiano di generare nuove "illusioni di certezza" e nel passato si sono spesso rivelate difficili e scivolose - talvolta pericolose.


Bibliografia

G.Gigerenzer et al. (1989), The Empire of Chance. How Probability Changed Science and Everyday Life, Cambridge University Press, Cambridge
G. Gigerenzer, P.M.Todd and the ABC Reesearch group (1999), Simple Euristics that Make Us Smart, Oxford University Press, New York
G.Gigerenzer (2000), Adaptive Thinking: Rationality in the Real World, Oxford University Press, New York
V.Girotto, e M.Gonzalez, (2001), "Solving probabilistic and statistical problems", in Cognition, 78, pp.247-76
U.Hoffrage, G.Gigerenzer, S.Krauss, L.Martignon (2002) "Representation facilitates reasoning; what natural frequencies are and what they are not", Cognition, 84, pp.343-52
D.Huff, How to lie with statistics, Penguin Books, 1991 reprint
L.Macchi e G.Mosconi (1998), "Computational features versus frequentist phrasing in the base-rate fallacy, in Swiss Journal of Psychology, 57, pp.417-24
L.Macchi (2000), "Partitive formulation of information in probabilistic problems:beyond heuristics and frequency format explanations", inOrganizational Behavior and Human Decision Processes, 82, pp. 217-36
D.Ropeik e G.Gray (2002), Risk, Houghton Mifflin Company, Boston New York
J.Tooby e L.Cosmides (1992), "The psychological founfations of culture" in J. Barkov, L.Cosmides e J.Tooby (a cura di), The Adapetd Mind:Evolutionary Psychology and the Generation of Culture, pp.19-136, Oxford University Press, New York