Il processo di L'Aquila, gli scienziati e un'oca

.
“gdc” ha segnalato l’articolo di Boschi, Gasperini e Mulargia scritto nel 1994 e uscito nel 1995 sul Bulletin of the Seismological Society of America, di cui il pm Picuti ha detto:

Nel 1995 l’imputato Boschi aveva previsto con probabilità 1, quindi con certezza, una scossa 5.9 nel ventennio successivo in questa zona. Informazione non fornita nella riunione, non al pubblico ma agli altri componenti della Commissione Grandi Richi. Informazione incompleta, carente e ingannatoria è stata perciò definire ‘improbabili’ forti terremoti e non fare menzione di questo studio.

Mi sembra illustrare bene “l’accusa senza fondamento” alla scienza di cui parlava Thomas Jordan (1) su New Scientist nel settembre 2011, da presidente del comitato di esperti internazionali chiamati dal governo italiano, dopo il terremoto del 2009, a valutare il sistema di previsione – in inglese forecast corrisponde più a proiezione; previsione si dice prediction.
(Sunto della valutazione:  sistema carente, ma non sappiamo indicare un paese che ne abbia uno migliore.)

Non capisco perché il pm Picuti ha scelto questo studio. E’ vecchio, i dati si fermano al 1993; ormai si usano tante tecniche abbinate, in parallelo e una contro l’altra. Questo ne paragona due per “stimare” la distribuzione dei sismi da 5,9 e 6,2  a 5, 20 e 100 anni. Una distribuzione è continua nel tempo, periodica, la gaussiana, e una è discreta, a puntini, la Poisson, con gli eventi così come capitano indipendentemente dagli intervalli di tempo che li separa.

Entrambe le distribuzioni sono definite all’inizio come insoddisfacenti perfino in Italia, il paese con la documentazione storica più lunga, ma piena di buchi. Neppure una serie storica completa consente di dire che si ripeterà uguale in futuro. Il territorio si modifica anche se non ci sembra. E un terremoto non è ricorrente, determinato dal moto della Terra attorno al Sole come le stagioni o dalla Luna come le maree.
Per questi e altri motivi, lo studio esclude ripetutamente la “certezza”.

Faccio un po’ di esempi:
– la gaussiana e la Poisson stimano per l’Aquilano una probabilità 1 “virtuale” e non realistica perché

dopo 3 sismi a distanza di tempo quasi uguale (61 +/- 2 anni), nei successivi 200 anni non è avvenuta alcuna attività di magnitudo.

Come nel caso dei 123 anni di distanza tra tre sismi sullo stretto di Catanzaro

l’osservazione si basa soltanto su 3 eventi il che raccomanda  di accettare questa evidenza con cautela.

Anche nelle scuole italiane, penso, si insegna a non estrapolare alcunché da tre punti su una curva.

Altro motivo d’incertezza, scrivono Boschi et al.,  a “governare l’occorrenza degli eventi” gravi – i meglio documentati – non c’è un legame tra “caratteristiche sismiche” e distribuzione nel tempo. Da un confronto tra le regioni a rischio (la mappa e la figura 3) non salta fuori un legame tra il tipo di faglia e la frequenza. Né in Italia, né in California né altrove.

Un giorno forse si troverà. Un lavoro sia sperimentale che teorico come quello di Stefano Zapperi et al. uscito su Nature giovedì scorso è un passo avanti.

Potrei citare altre frasi dello studio, ma la cosa importante nei modelli di previsione (e in tutta la scienza, matematica a parte) è il margine di incertezza insito negli strumenti usati e quindi nei risultati. In questo caso, i limiti di affidabilità (confidence) sono del 68%. Entro 20 o 100 anni, quella probabilità 1 sarebbe “virtualmente certa” al 68%.

@luk
Per un terremoto era alta, infatti, ma si trattava di un esercizio teorico che per il “quando” dimostrava che né le gaussiane né le Poisson sono affidabili. Se le interessa, questa è una buona panoramica delle ricerche sulla probabilità di vari tipi di terremoto. Conosco anche un modello promettente con un po’ di problemiuno dei quali si sta superando, mi sembra. Ma io ne so poco, forse Riccardo Reitano le suggerisce qualcosa di meglio.

Aggiorn.: Riccardo suggerisce il Rapporto della commissione internazionale, presieduta da Jordan.
*
A margine
Potrei ricordare male, ma quello studio mi sembra inserirsi nel dibattito sulle statistiche che c’era all’inizio degli anni ’90 –  continua, ma su modelli molto più sofisticati – a proposito dei forecast su un terremoti in California (Parkfield Gap?).

In realtà è almeno dai tempi di Blaise Pascal che si calcolano le probabilità di eventi casuali. A lungo termine, per un sistema semplice come un dado, viene benissimo. Per sistemi complessi, con molte variabili che cambiano a ritmi diversi nel tempo e intanto si influenzano l’un l’altra, se non c’è una causa fisica preponderante – come il tasso di mutazione che rende un patogeno resistente agli antibiotici o l’effetto serra dei gas serra, per dire – non ci siamo.

Però ogni mese o due esce una nuova tecnica per ponderare le variabili, scartare le correlazioni ingannevoli, “lisciare” le fluttuazioni casuali e così via. Solo che le varie discipline sono affezionate ai loro strumenti e prima di mollarli per uno nuovo…

(1) Molto bravo, ma dal punto di  vista statistico lo metterei nei frequentisti. E metto anche il ritratto di Gauss, se no dite che sono sciovinista:

2 commenti

  1. Personalmente suggerirei più che articoli scientifici, che ovviamente studiano aspetti particolari del problema, il rapporto della Commissione Internazionale presieduta dallo stesso Jordan citato. Fornisce un quadro ampio della scienza, delle problematiche relative alla protezione civile e anallizza la situazione in vari paesi.

I commenti sono chiusi.