Titolo Il caso e la probabilità
Autore G. Zanardi
Pubblicazione Anno 6 - n.6 -Dicembre 2003
Argomento Epidemiologia

Introduzione

La scienza del caso o teoria matematica della probabilità regola la nostra vita quotidiana. I campi d’applicazione sono svariati e comprendono, ad esempio, le assicurazioni, la diagnosi medica, la definizione di rischio nucleare, i sondaggi, le previsioni meteorologiche o economiche, etc..

Analisi fondate sul calcolo delle probabilità sono utilizzate anche nel campo tecnologico, economico e nelle scienze sociali.

La ormai diffusa applicazione del calcolo della probabilità nella nostra cultura moderna, impone una conoscenza delle nozioni di base di questa teoria, al fine di capire in maniera chiara i messaggi mediatici sul rischio e sulle probabilità di eventi in diversi campi d’interesse.

Abbiamo già usato i termini di caso, probabilità e rischio; storicamente, l’uomo come si pone di fronte a questi concetti?

Etimologicamente, caso e rischio derivano dai giochi degli aliossi o dei dadi (alea), arabi e latini. Nell’antichità il caso coincideva con il destino e il divino e il suo decrittatore era il profeta o il dio, che lo utilizzava come strumento di divinazione, di previsione e di decisione. Era in ogni modo un approccio succubo del Destino, che consentiva unicamente di anticipare quello che sarebbe dovuto accadere.

La differenziazione tra caso e destino inizia a manifestarsi e a consolidarsi quando l’uomo si accorge che il caso può essere gestito, perché le esperienze in cui esso interviene possono essere ripetute; i casi unici, invece, proprio perché unici, continuano ad essere appannaggio del destino o di Dio. La nozione di rarità, infatti, è difficile da definire in maniera universale; per chiarirla si può considerarla in relazione al tempo e in pratica quanto bisogna attendere, perché accada ciò che è raro e se, quando avviene, esiste un meccanismo tipico.

Il caso è una costruzione culturale dinamica, supportata sempre di più dalle scienze matematiche.

Nel XVII secolo, l’elaborazione del concetto di probabilità si fa strada con Pascal e relativamente ai giochi d’azzardo come unico campo di ricerca idoneo a quel tempo per permettere uno studio matematico. La percezione del calcolo della probabilità è quella che fa constatare che su un grande numero di lanci, il numero 3 di un dado esce, più o meno, una volta su sei.

Nel XVIII secolo si assiste ai primi tentativi di assicurazione sulla vita, con l’utilizzo di tabelle di mortalità e la dimostrazione della legge dei grandi numeri, fondamentale nella teoria della probabilità. Essa afferma che la frequenza relativa, con cui accade un evento in un esperimento aleatorio (che si produce indipendentemente dalla volontà umana), tende a stabilizzarsi ad un valore costante, se l’esperimento si ripete infinite volte.

Dalla fine del XVIII all’inizio del XX secolo, matematici come Laplace sviluppano e applicano la teoria della probabilità nel campo demografico e della fisica.

Dopo la seconda guerra mondiale, l’uso della probabilità si generalizza e fornisce l’impulso decisivo nella elaborazione della teoria del segnale e delle telecomunicazioni e nel progresso dell’automazione. Oggigiorno è indispensabile nel campo dei computer, di tecniche come la simulazione, del controllo di qualità, etc..

Definizione di probabilità

La definizione "classica" di probabilità è fondata su conoscenze a priori e permette di calcolare con relativa facilità la probabilità di ottenere testa o croce con una moneta, di avere un numero da 1 a 6 con un dado o in più lanci, di prevedere i possibili ordini d’arrivo in una gara con diversi concorrenti, che rispettino 4 condizioni: gli eventi devono essere casuali, mutuamente esclusivi, ugualmente possibili ed indipendenti. Non si richiede nessun dato sperimentale; i risultati sono conosciuti a priori, senza attendere alcuna rilevazione od osservazione, poiché è sufficiente il solo ragionamento logico per calcolare con precisione la probabilità. Se la moneta, il dado o la gara non sono truccate, le verifiche sperimentali si allontaneranno dai dati attesi solo per quantità trascurabili, determinate da eventi casuali o da errori di misura.

La stima di una probabilità a priori ha limitazioni gravi nella ricerca sperimentale: per calcolare la probabilità di un evento, è necessario conoscere preventivamente le diverse probabilità di tutti gli eventi possibili.

Ogni alterazione dei rapporti di equiprobabilità o dei fenomeni di casualità, i soli che possano essere stimati a priori sulla base della logica, richiede l’esperienza di almeno una serie di osservazioni ripetute.

Nella definizione classica (Bernoulli 1654-1705; Laplace 1749-1827), la probabilità di un evento casuale è il rapporto tra il numero dei casi favorevoli e il numero dei casi possibili, purché siano tutti equiprobabili. Essa si applica quando si considera un numero finito di casi possibili e valgono le condizioni di simmetria (casi ugualmente possibili).

Per evento si intende il manifestarsi di un fenomeno o avvenimento. Esso può essere definito certo, se un avvenimento si verifica certamente nel corso di una data prova, impossibile, se un avvenimento non ha luogo a verificarsi nel corso della prova ed aleatorio, nel caso trattasi di un avvenimento di incerta realizzazione.

Oggetto del calcolo della probabilità è l’impiego di modelli probabilistici.

Il calcolo delle probabilità si propone di associare ad ogni evento un numero, denominato probabilità dell’evento, che ci consente di esprimere rigorosamente "il grado di possibilità" di verificarsi, che l’evento possiede.

Conoscere la probabilità di ciascun evento casuale consente di affermare a priori, quale tra due eventi casuali è dotato di maggior "grado" di possibilità di realizzarsi.

La probabilità frequentista si basa sulla legge empirica del caso secondo cui se sono fatte un gran numero di prove tutte nelle medesime condizioni, la frequenza relativa dei successi si avvicina alla probabilità, e l’approssimazione in genere migliora con l’aumentare del numero di prove.

Quando si ripete per molte volte una prova, la frequenza di un esito, in pratica il rapporto tra il numero di prove che hanno avuto quell’esito e il numero totale di prove, si avvicina molto alla probabilità a priori di quell’esito, calcolata tramite il rapporto tra il numero di casi favorevoli e il numero dei casi possibili (legge empirica del caso).

La legge empirica del caso è differente dalla "legge dei grandi numeri", detta anche "Teorema di Bernoulli" (teorema = affermazione dimostrabile), diciamo che essa è una "verità rilevabile sperimentalmente".

Possiamo identificare la probabilità con la frequenza relativa dei successi in un gran numero di prove fatte tutte nelle medesime condizioni.

Gli aspetti negativi di questa definizione consistono nel fatto che la probabilità è data dalla frequenza relativa di successi in un gran numero di prove fatte nelle medesime condizioni, ma:

  1. non si precisa quanto grande debba essere il numero di prove;
  2. bisogna ripetere le prove nelle medesime condizioni.

Può essere applicata in tutti i casi in cui le leggi dei fenomeni studiati non sono note a priori, ma possono essere determinate solo a posteriori, sulla base dell’osservazione e delle misure statistiche.

I due tipi di probabilità, classica e frequentista, hanno una caratteristica fondamentale in comune: entrambe richiedono che i vari eventi possano essere ripetuti e verificati in condizioni uniformi o approssimativamente tali. In altri termini, si richiede che quanto avvenuto nel passato possa ripetersi in futuro. Ma esistono anche fenomeni che non possono essere assolutamente ridotti a queste condizioni generali, perché considerati eventi unici e irripetibili. Per esempio: "qual è la probabilità che avvenga una catastrofe?" E’ il caso del medico che deve stabilire se il paziente che sta visitando è ammalato, di una giuria che deve emettere un giudizio di colpevolezza o di assoluzione, di tutti coloro che devono decidere in tante situazioni uniche, diverse e irripetibili. Sono situazioni che presuppongono il giudizio di numerosi individui sullo stesso fenomeno o la stima personale di un individuo sulla base di un suo pregiudizio o della sua esperienza pregressa; non possono assolutamente fondarsi né sulla logica matematica né su una serie di esperimenti.

E allora? Parliamo di probabilità soggettiva o personalistica. L’impostazione soggettivista fu sviluppata dal matematico Bruno de Finetti, che affermava: "La probabilità è il grado di fiducia nel verificarsi dell’evento; "pertanto dipende dalla persona che la valuta e dalle informazioni disponibili".

In altri termini, la probabilità è il prezzo equo da pagare per ricevere 1, se l’evento si verifica, e niente nel caso contrario.

La critica più forte mossa a questa definizione è che, così facendo, la probabilità viene ad essere fondata sull’opinione dei singoli. Ma il calcolo delle probabilità, in particolare nella impostazione soggettivistica, viene ad essere indagato come logica dell’incerto.

L’obiezione fondamentale a questa probabilità logica è come misurare un grado di aspettativa, quando è noto che individui diversi attribuiscono probabilità differenti allo stesso fenomeno. E’ una critica che è superata dall’approccio soggettivo, secondo il quale la probabilità è una stima del grado di aspettativa di un evento, secondo l’esperienza personale di un individuo.

La probabilità nell’impostazione soggettivista, detta anche "bayesiana", è intesa come una misura della convinzione circa l’esito di una prova o che accada un certo evento. E’ un approccio che ha vaste ed interessanti applicazioni nelle scienze sociali ed in quelle economiche, dove la sola attesa di un fenomeno o la convinzione di una persona influente sono in grado di incidere sui fenomeni reali, come la svalutazione, i prezzi di mercato, i comportamenti sociali. In medicina, è il caso della decisione sulla cura da prescrivere al paziente. Per la statistica, il problema fondamentale consiste nell’indicare come si debba modificare la probabilità soggettiva di partenza, in dipendenza dei successivi avvenimenti oggettivi, quando non si dispone di repliche.

La teoria della conoscenza di Popper definisce che ogni teoria dovrebbe essere verificabile in senso proprio; in realtà, lo studioso si accontenta di utilizzare una teoria fino a che un’altra la scalza. Non esiste una teoria vera, esistono solo teorie false e quelle che lo diventeranno in futuro, perciò la teoria può essere al massimo verosimile.

Bayes va oltre e pensa che tutte le teorie abbiano la probabilità di essere vere (teoria bayesiana o soggettivistica). Il principio della teoria è semplice e trova riscontro nella regola di condotta nella vita di tutti i giorni; prima di un esperimento non si parte mai dal nulla e si può e deve tener conto della propria esperienza medica o della probabilità che attribuisco al parametro preso in considerazione (probabilità a priori), ad esempio la malattia.