Scenari > Numeri > Rischio
 
  
        
   
 
 
La fisica dei mercati
di Ignazio Licata
 
 
 
Non vi è nulla dal punto di vista strettamente scientifico che
Impedisca di considerare come plausibile che all’origine di avvenimenti umani
possa trovarsi un fatto vitale ugualmente semplice, invisibile, imprevedibile

( E. Majorana, 1942)

Recita una massima che “fisica è ciò che fanno i fisici”. La notte tardi, aggiunge una versione. E da sempre la fisica ha tratto nutrimento concettuale da ambiti d’esperienza molto diversi: lo studio del moto, della gravitazione e dell’astronomia ha ispirato le grandi creazioni della meccanica razionale, i comportamenti quantistici hanno modificato radicalmente la visione classica della materia, dello spazio e del tempo, e più recentemente gli sviluppi della fisica statistica e della matematica non-lineare hanno permesso di indagare un gran numero di comportamenti collettivi di sistemi molto diversi tra loro, permettendo una migrazione di metodi ed approcci da problemi tradizionali (sistemi a molti corpi, moto browniano e processi stocastici, transizioni di fase, fenomeni di reazione-diffusione, formazione di patterns, processi caotici e biforcazioni) verso questioni di rilevante interesse biologico e socio-economico. Una rapida visita al sito di ArXiv, la più grande risorsa in rete di pre-print, mostra chiaramente che i fisici oggi non si occupano soltanto di particelle, cosmologia e “teorie del tutto”, ma anche di proteine, mercati, popolazioni di uccelli e insetti, processi cognitivi e meccanismi sociali di scelta. Tra queste aree, quella di maggiore attività è sicuramente lo studio dei mercati finanziari.

Profeticamente Ettore Majorana, nel suo fondamentale scritto “Il Valore delle Leggi Statistiche nella Fisica e nelle Scienze Sociali” pubblicato postumo su Scientia nel 1942 [1], aveva osservato che l’avvento della meccanica quantistica aveva introdotto un elemento di radicale incertezza nei fenomeni che giustificava un ruolo nuovo e fondamentale della probabilità e la statistica nella costruzione di modelli fisici: “ Questa conclusione ha reso sostanziale l’analogia tra fisica e scienze sociali, tra le quali è risultata un’analogia di valore e di metodo”. Vediamo più da vicino questa analogia sostanziale. La fisica statistica tratta sistemi costituiti da molti elementi interagenti. In alcuni di questi casi sarebbe idealmente possibile scrivere per ogni costituente le equazioni dinamiche e risolverle, ma sarebbe non soltanto una scelta impraticabile ( ad esempio in un gas perfetto il numero di particelle in una mole è dato dal numero di Avogadro, 6,022·1023 !), ma inutile: molti comportamenti collettivi infatti possono “vedersi” soltanto se si considera il sistema nella sua globalità. Dover rinunciare ad una descrizione “particella per particella” introduce sicuramente un mutamento profondo nella formulazione teorica, bisogna infatti fare i conti (letteralmente!) con un elevato grado di incertezza e il venir meno del modello deterministico di predittività in dettaglio, sostituendolo con distribuzioni di probabilità e schemi emergenti che diventano sempre più definiti e marcati con l’aumentare del numero di elementi in gioco. E’ questa una caratteristica fondamentale di quella che Pines e Laughlin hanno definito “The Middle Way”[2, 3], i problemi complessi della terra di mezzo, dove la perdita del dettaglio microscopico non è una sconfitta della sfida teorica, ma piuttosto la condizione preliminare della sua riuscita. Consideriamo ad esempio una tipica transizione di fase: le caratteristiche generali sono largamente indipendenti dalla sostanza in esame, ed è possibile individuare uno schema generale che riguarda l’insorgenza di vortici, le correlazioni tra fluttuazioni, le interfacce tra fasi diverse, tutti aspetti che non dipendono dal “dettaglio” delle singole particelle, e non sono neppure prevedibili sulla base di un’analisi “locale”, come nel caso della superfluidità e della superconduttività, che dipendono criticamente dalla statistica, ossia dal “modo di stare assieme” degli oggetti quantistici. Si tratta di una questione sottile, che va considerata con attenzione caso per caso, e non gettata nel rozzo calderone della polemica pro o anti riduzionismo. E’ chiaro che c’è differenza di complessità interna tra le molecole di un gas, una colonia di formiche o gli agenti socioecomici. Relativamente agli ultimi due esempi possiamo qui soltanto accennare agli esseri collettivi [4], modelli di processi biologici o para-biologici in cui un “organismo” mostra “vita”,”identità” e “memoria” che trascendono la mera somma delle parti, e che sono differenti per sistemi costituiti da entità che si interfacciano con un sistema cognitivo uguale ( formiche), o che con sistemi cognitivi individuali diversi ma “sintonizzati” su un fine comune (il “clapping” degli spettatori o il voto degli elettori).
L’esperienza con i sistemi complessi ha insegnato inoltre ai fisici un altro tratto “positivo” dell’incertezza e del disordine: è stato possibile infatti osservare che ogni “casualità” possiede una sorta di “firma caratteristica” connesse profondamente alla natura ed alle dinamiche del sistema, e questo fornisce indizi preziosi per la costruzione di un modello del fenomeno in esame, pur non essendo possibili né forme dettagliate di previsione e neppure di gerarchizzazioni. Molti sistemi complessi infatti dispiegano una grande varietà di comportamenti diversi sostanzialmente equivalenti dal punto di vista energetico, ed è quindi impossibile assegnare a priori dei pesi probabilistici. La “scelta finale” del sistema dipende in modo altamente sensibile dalle influenze ambientali. Bisogna scegliere dunque un approccio metodologico in grado di trascendere le caratteristiche del “qui” ed “ora” e cogliere invece gli aspetti emergenti globali del fenomeno.

Lo sviluppo dell’econofisica [5, 6] è stato reso possibile, come nel caso della genomica e della proteomica, dalla disponibilità di grosse banche dati on-line che registrano fedelmente l’andamento dei mercati e permettono ai ricercatori l’analisi di una pluralità di scale temporali. Due grandi classi di problemi sono al centro della fisica dei mercati: lo studio delle fluttuazioni nei valori dei listini e il comportamento degli investitori. Idealmente, le due questioni sono strettamente connesse, come dice Maximilian Cohen, il matematico protagonista del bel film di Darren Aronofsky “Pi Greco- Il Teorema del Delirio” (1998) : “E allora parliamo della Borsa, di quell'universo composto da numeri che rappresenta l'economia globale, milioni di mani che lavorano, miliardi di cervelli, un'immensa rete umana che grida alla vita: un organismo, un organismo vivente. La mia ipotesi: anche nella borsa esiste uno schema, ed è proprio davanti a me, nascosto fra i numeri: è sempre stato lì” . Su entrambe le questioni gli approcci dell’economia classica si sono mostrati insufficienti. Nel primo caso le fluttuazioni si rivelano di un ordine inafferrabile con le tecniche statistiche tradizionali, mentre l’idea dell’homo oeconomicus- la “particella” dell’economia classica-, in grado di giocare ottimizzando deduttivamente informazioni e profitto si è rivelata fallace. Al di là delle spiegazioni tecniche, è fondamentalmente semplice capire perché: il mercato è un gioco aperto [7], in cui le regole e gli scenari possono mutare rapidamente con la “nascita” o la “morte” della grande varietà e specializzazioni degli esseri collettivi che lo giocano. Del resto, come scrive J. Nash : “Non è necessario assumere che i partecipanti abbiano una conoscenza completa della struttura totale del gioco, o l'abilità e l'inclinazione per riuscire in qualsiasi processo razionale complesso. Ma si suppone che siano in grado di accumulare informazioni empiriche sui vantaggi relativi delle strategie a loro disposizione”[8].

Nel caso dell’andamento dei prezzi e nelle volatilità dei titoli azionari si è rilevata una caratteristica distribuzione a legge di potenza multi frattale, pioneristicamente rilevata da B. Mandelbrot sin dagli anni ‘70 [9] tipicamente non –lineare e ben nota nei fenomeni di turbolenza. Il gruppo di E. Stanley ha mostrato che esiste un’invarianza di scala “nascosta” dal rumore ambientale che rivela una relazione tra la fluttuazione di un prezzo e la quarta potenza dell’inverso della sua frequenza, ed è indipendente dall’ampiezza della fluttuazione. Le relazioni scale-free- che nella teoria delle reti indicano l’esistenza di “nodi” trainanti che influenzano il panorama delle connessioni-, sembrano testimoniare che alcuni agenti e titoli hanno il ruolo di parametro d’ordine nel guidare i mutamenti globali del mercato. In altre parole gli aspetti significativi dello scenario delle fluttuazioni del mercato sta in una zona sottile tra l’estremo disordine ed i picchi singolari (motivo per cui non funzionano i metodi random) e la grande regolarità ( motivo per cui falliscono gi approcci statistici basati su medie, mediane e varianze). La “firma” scale-free dell’andamento dei prezzi ci porta rapidamente all’altra grande classe dei problemi dell’econofisica, quello del modello dei comportamenti collettivi degli investitori e del loro impatto sui prezzi ed in generale sulle variabili economiche aggregate.


La teoria economica attuale ha progressivamente abbandonato l’idea di agenti economici equivalenti e perfettamente razionali che utilizzano procedure deduttive di cristallina chiarezza ragionando su qualche “oggettiva” funzione di utilità. L’interesse si è spostato verso i modelli “bounded rationality”, che nella fisica dei sistemi collettivi è rappresentata da agenti induttivi- adattativi con abilità diversificate, teorizzati da Brian Arthur e dalla Scuola di Santa Fè [10]. L’idea centrale è che l’agente economico segue la strategia più efficace fino a prova contraria, seguendo i giocatori di maggior successo. Un toy model particolarmente famoso è quello dei “Minority Games” in cui è possibile studiare in dettaglio i meccanismi di formazione delle scelte da parte di agenti indipendenti e diversi. Ognuno di loro ha a disposizione molteplici strategie basate sull’esperienza dei propri successi precedenti ed ha interesse a trovarsi nel gruppo minoritario avvantaggiato ( da qui il nome). Una valutazione fatta in base alla teoria classica, con fedeltà ad una singola strategia e dove tutti fanno le stesse scelte porta ad un mercato “frustrato”, ossia inefficiente. Invece le soluzioni analitiche e le simulazioni al computer del Minority Game basato su agenti induttivi-adattativi hanno mostrato un esito realistico verso forme di auto-organizzazione spontanee che fissano le caratteristiche generali del mercato. Particolarmente importante in questi modelli è la correlazione tra strategie “oggettive”, basate ad esempio sulla storia del prezzo,e quelle “soggettive”, basate su una valutazione “valoriale”, perché è il mix tra i due “ingredienti” della scelta che innesca la dinamica necessaria per la vitalità del mercato, dove il feed-back tra i prezzi e i comportamenti collettivi scelte collettive garantisce l’emergenza di quelle forme metastabili di organizzazione che permettono la contrattazione e l’investimento.

I successi teorici della fisica dei mercati non hanno avuto ancora un impatto decisivo sul nucleo forte della comunità degli economisti e sono ben lontani dall’influenzare il comportamento effettivo del mercato. Nel primo caso è decisiva la differenza di percezione sui diversi problemi tra fisici ed economisti e ci si può augurare soltanto una maggiore interazione disciplinare. La seconda osservazione, invece, è a favore dell’econofisica: se i suoi assunti sono corretti, il mercato tende infatti ad auto-organizzarsi, mal sopporta vincoli troppo stretti o interventi “brute force” e non ammette l’esistenza di strategie buone per tutte le stagioni. Un effetto culturale positivo di queste ricerche è la progressiva sostituzione delle vecchie definizioni di economia, affermando l’idea di una scienza dei processi informativi e decisionali tra agenti adattativi[11]. E questo ci riporta a Majorana ed alla affascinante conclusione del suo articolo, perché il compito dell’economia e delle scienze sociali “ non è soltanto quello di stabilire empiricamente la risultante di un gran numero di cause sconosciute, ma soprattutto di dare della realtà una testimonianza immediata e concreta. La cui interpretazione richiede un'arte speciale, non ultimo sussidio dell'arte di governo.”


1. Majorana, E. (1942), Il valore delle leggi statistiche nella fisica e nelle scienze sociali (pubblicazione postuma, a cura di G. Gentile Jr.): Scientia, vol.36, pp.55-66
2. Laughlin, R. B., Pines, D., Schmalian, J. , Stojkovic, B. P. , Wolynes, P. (2000), The Middle Way , PNAS, 97, 1, pp.32-37
3. Licata, I. (2009), Vivere con l’Incertezza Radicale. Il Caso Esemplare del Folding Protein,Riflessioni Sistemiche, 1, pp.66-74
4. Minati, G. (2008), New Approaches for Modelling Emergence of Collective Phenomena, Polimetrica, Milano
5. Mantegna, R. & H. E. Stanley (2000) An Introduction to Econophysics; Correlation and Complexity in Finance, Cambridge Univ. Press
6. Bouchard, J. P. , Potters, M (2000), Theory of Financial Risk, Cambridge Univ. Press
7. Licata, I. (2008), La Logica Aperta della Mente, Codice Edizioni, Torino
8. Nash, J. (2004), John Nash: giochi cooperativi e altri scritti, Zanichelli, Firenze
9. Mandelbrot, B., Hudson, R. (2005), Il Disordine dei Mercati, Einaudi, Torino
10. Waldrop, M. M. (1996), Complessità. Uomini e Idee al Confine tra Ordine e Caos, Instar, Torino
11. Ph. Mirowski, Ph (2002) Machine Dreams: Economy Becomes a Cyborg Science, Cambridge Univ. Press..