Oggi Paolo Benini sviluppa alcune riflessioni che traggono spunto dalla recensione pubblicata da SienaPost al nuovo libro sul Monte dei Paschi dell’amico Marco Parlangeli. Egli ci invita a specificare che la sua valutazione è di tipo scientifico e non intende alcun modo accertare responsabilità di alcuno o stabilire fatti certi. Si tratta di un’analisi scientifica e come tale va letta… (dr)

Negli anni ho assistito a molte ricostruzioni di eventi complessi, dove a freddo si riprendono i fatti e si tenta di leggerli in sequenza: il fatto A ha generato B, B ha portato a C. Ma la verità è che chi prese la decisione A non sapeva — e per cecità sistemica non previde — che avrebbe innescato B e poi C. Quello che oggi appare come un percorso lineare è in realtà la lettura postuma di un processo in cui, al momento delle scelte, la visione d’insieme mancava del tutto.
Io non parlo del disastro MPS né da un punto di vista politico né da un punto di vista storico. Il mio sguardo è professionale: osservo i fenomeni che appartengono alla natura stessa dell’agire umano. E uno di questi è proprio la cecità sistemica, quella mancanza di visione complessiva che sta spesso all’origine delle catastrofi.
Daniel Kahneman ha descritto come, sotto pressione, il pensiero rapido e intuitivo (Sistema 1) prenda il sopravvento sul pensiero analitico e riflessivo (Sistema 2), proprio quando quest’ultimo sarebbe necessario.
Charles Perrow ci ha mostrato come nei sistemi complessi le decisioni parziali e scollegate si concatenino in incidenti normali, fino al disastro finale.
Nassim Taleb ci ha spiegato cosa sia un cigno nero: un evento imprevedibile, raro e devastante. Ma il disastro MPS non fu un cigno nero. Non fu imprevedibile. Fu il frutto di una serie di scelte che, con una reale capacità sistemica, avrebbero potuto essere comprese e corrette in tempo.
Lo stesso Daniel Goleman, nel suo Focus, ha richiamato il tema della cecità sistemica come conseguenza di un’attenzione dispersa, incapace di cogliere la rete dei legami tra i fatti. E accanto alla cecità sistemica, si innestano altri fattori: le situazioni di dolo — laddove la giustizia le abbia accertate — che anch’esse spesso si accompagnano alla mancanza di valutazione delle reali conseguenze delle proprie azioni.
A queste dinamiche si aggiunge il rumore, come lo definisce Olivier Sibony: quell’insieme di interferenze e distorsioni che frammentano l’attenzione, allontanano dalla verifica oggettiva dei processi e contribuiscono ad alimentare una catena di errori.
Spesso, in questi contesti, si assiste a una sopravvalutazione delle proprie capacità, a una visione distorta del sé — o meglio, del sé collettivo — del management, che si illude di poter gestire la complessità con mezzi insufficienti. Si va avanti confidando, più o meno consapevolmente, in un aiuto esterno, in una “mano del destino” che venga a tamponare ciò che non si riesce più a controllare.
Ma la verità è che più ci si avvicina al baratro, più cresce la pressione, e più si accumulano nuovi errori su errori, perché manca la capacità, o il coraggio, di fermarsi per tempo.
Proprio per le scorciatoie cognitive, la sopravvalutazione di sé, il rumore che si genera e la conseguente perdita di focalizzazione, possono accadere situazioni che sfociano in risvolti gravissimi, come nel caso specifico di MPS. Ed è importante ricordare che in questi scenari, proprio per questi fattori, vi è spesso molta più casualità e incertezza rispetto a quanto la storia non suggerisca quando, a posteriori, tenta di ricostruire gli eventi e di dargli un ordine che in realtà, nel vivo delle scelte, non esisteva affatto.
Ed è anche per questo che, quando si lavora in situazioni di alta pressione — grandi o piccole che siano, ma dove la pressione è comunque di considerevole portata — la presenza operativa di persone competenti e preparate nel settore aumenta in modo decisivo l’efficacia delle scelte di chi quelle scelte è chiamato a prendere.