di Mario Abis

Leconomia della finanza è fatta di misure, a cominciare dagli indici semplici che sono quelli basilari delle Borse. Questa economia insiste nella società della complessità, che a sua volte deve ridurre la complessità e misurarla.

Le grandi crisi, quella della guerra attuale ne è un esempio, si basano sulla misura delle variabilità. Il modello quantitativo e misurativo della società contemporanea dovrebbe dare, quindi, certezze e stabilità nei paradigmi decisionali. E invece non è affatto così. Basta considerare l’incertezza con cui vengono gestite da imprese e istituzioni le montagne di data mining generati nelle mille piattaforme di raccolta informativa da misure e misure. Sull’uso di questo modello, che dovrebbe contemporaneamente sostituire il marketing operativo e quello strategico, le imprese sono al palo e tendenzialmente non riescono a dare una lettura intelligente di queste informazioni. Uno dei motivi di questa ambiguità sta nel fatto che la disciplina base che regola i processi di misurazione, la statistica, è sua volta ambigua, con modello instabili  e poco controllati in termini di significanza. La statistica, che inventa la misurazione come pattern socio-economico, è una scienza vecchia di oltre 150 anni (le prime misurazioni dell’opinione pubblica, i sondaggi, avvengono alla fine del 1800) e da allora è poco cambiata. Molta tecnologia applicativa ma la sostanza dell’incertezza anche matematica della statistica è sempre quella: non viene misurata una univocità ma un campo di probabilità, un intervallo (quello del campione), una modalità arbitraria di rappresentare insiemi di frequenze (moda o media) e così via.

La “debolezza”, in termini di controllo del valore di univocità della statistica, è alimentata dal propagarsi dei suoi campi applicativi e dall’estendersi  del sul ruolo di “governatore dei dati”; e in questo vengono a costituirsi vere e proprie catene di falsificazione. 

Basti pensare all’applicazione statistica ai processi di test medico-farmaceutici  dove è distorto il meccanismo di test sull’affidabilità di un farmaco: la selezione dei casi test è casuale e mai governata da un campionamento per rappresentatività. Per cui la valutazione sull’affidabilità di un farmaco è del tutto arbitraria. Lo stesso per le infinite applicazioni di customer satisfaction nei settori sensibili, dalla stessa sanità all’istruzione, dalla logistica ai servizi finanziari. E l’effetto più distorcente di questa corsa cieca al dato e alla misura sta nella costruzione  e nell’uso dei cosiddetti algoritmi che ipotizzano percorsi  per procedure operative progressive che si basano su dati statistici, il più delle volte inaffidabili e incontrollabili. E questo è palesemente distorcente in molti settori “ricchi”, a cominciare da quello finanziario, dove la seduzione del processo nasconde la falsificazione dell’informazione processata. Insomma, mentre si sviluppa la nevrosi della misura, contemporaneamente si esprimono la debolezza dei fondamenti scientifici: tutto è ambiguo a cominciare dalla matematica, come sostiene un grande scrittore matematico come Longo, e da ciò che la applica, appunto la statistica . E la nostra società della misura si trasforma nella società dell’incertezza.