La probabilità
La probabilità di un evento E è il rapporto tra il numero dei casi positivi/favorevoli (f) e il numero dei casi possibili (n), quando i casi sono tutti ugualmente possibili. $$ p(E) = \frac{f}{n} $$
Questa è detta concezione classica della probabilità formulata dal matematico Pierre Simon de Laplace.
Il quoziente fra il numero dei casi favorevoli e quello dei casi possibile fornisce una stima della possibilità che l'evento si verifichi.
La probabilità di un evento aleatorio è un numero compreso tra 0 e 1.
$$ 0 \le p(E) = \frac{f}{n} \le 1 $$
La probabilità di un evento certo è sempre pari a 1 mentre quello di un evento impossibile è sempre pari a 0.
- Se i casi favorevoli sono nulli $ f=0 $ l'evento è impossibile e la sua probabilità è $ P(E)=0 $
- Se $ f=n $ l'evento è certo e la sua probabilità è $ P(E)=1 $.
In tutti gli altri casi, quando la probabilità è compresa tra 0 e 1, l’evento è semplicemente probabile e prevale una condizione di incertezza.
A volte le probabilità vengono espresse in percentuale, dove 0% corrisponde a 0 (evento impossibile) e 100% corrisponde a 1 (evento certo).
$$ 0 \% \le p(E) \le 100 \% $$
Il significato rimane esattamente lo stesso, cambia solo la forma con cui il valore viene rappresentato.
Nota. Ci sono due interpretazioni diverse di probabilità. Secondo un'interpretazione frequentista la probabilità di un esito è una proprietà oggettiva dell'esito stesso. Ripetendo numerose volte l'esperimento la probabilità dell'esito converge a un determinato valore. Secondo un'interpretazione soggettivista, invece, la probabilità è una stima soggettiva da parte di chi analizza un evento. In questo caso ogni studioso può assegnare una propria probabilità a un esito.
L'insieme dei casi possibili di un evento è detto spazio degli eventi (o insieme universo) e spesso si indica anche con la lettera S, U oppure Ω.
L'insieme dei casi favorevoli (F) è, invece, un sottoinsieme dello spazio degli eventi S che contiene soltanto gli esiti favorevoli dell'evento E.
Poiché F è un sottoinsieme di U, l'insieme dei casi favorevoli ha sempre un numero minore o uguale di elementi rispetto all'insieme universo.
$$ |F| \le |U| $$
Nota. Quando l'insieme dei casi favorevoli è vuoto F=Ø l'evento è impossibile. Viceversa, quando l'insieme F coincide con U ossia F=U allora l'evento è certo.
Un esempio pratico
Il lancio di un dado può avere diversi esiti.
Poiché il dado ha sei facce, i casi possibili sono sei.
Lo spazio degli eventi è composto da n=6 elementi (sei casi possibili).
$$ S = \{1,2,3,4,5,6 \} $$
Per misurare la probabilità che esca il numero 3, devo calcolare il rapporto tra il numero dei casi favorevoli (f) e quello dei casi totali (n).
In questo caso, nell'insieme dei casi favorevoli (F) c'è un solo caso favorevole (f=1), quello in cui esca il numero 3.
$$ F=\{ 3 \} $$
Quindi, la probabilità della proposizione A="esce il numero 3" è pari a 0.16
$$ P(A) = \frac{|F|}{|S|} = \frac{f}{n} = \frac{1}{6} = 0.16 $$
In termini percentuali la probabilità dell'evento è pari al 16%.
Esempio 2
Qual è la probabilità che dal lancio del dado esca un numero pari?
In questo caso l'evento E è "esce un numero pari".
Lo spazio degli eventi è sempre lo stesso, è un insieme con n=6 casi possibili.
$$ S = \{1,2,3,4,5,6 \} $$
Nell'insieme dei casi favorevoli ci sono f=3 casi
$$ F = \{ 2 , 4, 6 \} $$
Quindi, la probabilità della proposizione A="esce un numero pari" è pari a 0.5
$$ P(A) = \frac{|F|}{|S|} = \frac{f}{n} = \frac{3}{6} = 0.5 $$
In termini percentuali la probabilità dell'evento è del 50%.
Esempio 3
Qual è la probabilità di estrarre una carta di picche da un mazzo di 52 carte?
In questo caso gli eventi ugualmente possibili sono $ n = 52 $ perché ci sono 52 carte.
Nel mazzo di carte ci sono tredici carte di picche, quindi i casi favorevoli sono $ f= 13 $.
La probabilità di estrarre una carta di picche è 0.25.
$$ P(E) = \frac{f}{n} = \frac{13}{52} = 0.25 $$
In termini percentuali, la probabilità dell'evento è del 25%
Esempio 4
Qual è la probabilità di estrarre una carta di colore rosso da un mazzo di 52 carte?
In un mazzo di $ n=52 $ carte ci sono $ f=26 $ carte rosse (13 carte di cuori e 13 carte di quadri).
Quindi, la probabilità di estrarre una carta rossa è 0.5
$$ P(E) = \frac{f}{n} = \frac{26}{52} = 0.5 $$
In termini percentuali, la probabilità dell'evento è del 50%
Esempio 5
Esempio
Lancio contemporaneamente tre monete.
Qual è la probabilità che escano due croci (C) e una testa (T).
$$ E= \text{due croci e una testa } $$
Le disposizioni con ripetizione possibili $ D_{n,k} = n^k $ con $ n=2 $ risultati possibili e $ k=3 $ lanci sono:
$$ D_{2,3} = 2^3 = 8 $$
In altre parole, le disposizioni possibili sono:
$$ CCC, CCT, CTC, TCC, TTT, TTC, TCT, CTT $$
Le permutazioni con ripetizione $ P_n^{(r,s)} = \frac{n!}{r!s!} $ con $ n=3 $ elementi di cui $ s = 2 $ ripetuti (due C) e 1 diverso (una T) sono:
$$ P_3^{(2,1)} = \frac{3!}{2!1!} = \frac{6}{2} = 3 $$
Quindi, la probabilità dell'evento E è
$$ P(E) = \frac{3}{8} $$
Differenza tra probabilità a priori e a posteriori
La probabilità può essere calcolata in due modi diversi, a seconda della natura del fenomeno o dell'evento aleatorio.
- Probabilità a priori (classica o teorica)
La probabilità a priori viene calcolata senza che siano eseguite delle prove concrete (dati empirici). Si basa su un modello teorico ideale costruito utilizzando la teoria della probabilità classica. In questi casi basta definire la probabilità come quoziente fra il numero dei casi favorevoli (F) e il numero dei casi possibili (N). $$ p = \frac{F}{N} $$ Dove F è un dato teorico ottenuto analizzando il problema.
Esempio. Un esempio tipico è il dado con 6 facce. Ogni faccia ha la stessa probabilità di uscire se il dado non è truccato. Quindi, non occorre fare nessuna stima per calcolare la probabilità. Mi basta sapere che ogni faccia ha una probabilità pari a 1/6.
- Probabilità a posteriori (statistica)
La probabilità a posteriori si determina attraverso l'accumulo di dati empirici reali ottenuti da una serie di prove ripetute, applicando la legge empirica del caso. Questo metodo sfrutta l'esperienza diretta e l'osservazione continua per fornire una stima più accurata e rappresentativa della probabilità di un evento. E' quella maggiormente impiegata nella statistica inferenziale. In pratica, si effettuano N prove e si misura quante volte si verifica un esito favorevole. La probabilità statistica è il quoziente tra i casi favorevoli ottenuti (F) e il numero totale delle prove effettuate (N). $$ p = \frac{F}{N} $$ Dove F è la quantità di eventi favorevoli rilevati durante le prove ripetute e gli esperimenti.
Esempio. Quando un dado è truccato la probabiltà teorica non riflette più la reale probabilità degli esiti. In questi casi ricorro alla probabilità a posteriori, misurando la probabilità dell'evento tramite la frequenza relativa degli esiti favorevoli di una serie di prove, osservazioni o esperimenti. Occorre però fare molte prove per avere una stima affidabile della probabilità. Secondo la legge empirica del caso, quante più osservazioni vengono fatte, tanto più la frequenza relativa (F/N) si avvicina alla reale probabilità dell'evento (P).
Quale delle due usare?
La probabilità a priori (teorica) è molto più affidabile, facile e veloce da calcolare ma non può essere calcolata su tutti gli eventi aleatori.
La probabilità a posteriori (statistica) viene in aiuto quando la probabilità del fenomeno aleatorio non può essere calcolata tramite la probabilità teorica.
Ad esempio, se un dado non è truccato la probabilità a priori è affidabile. Viceversa, se un dado è truccato è necessario calcolare la probabilità a posteriori.
In generale, la scelta dipende anche dal contesto e dal problema che devo affrontare.
La probabilità a priori è meno accurata in certi contesti, ma la probabilità a posteriori è molto più costosa, perché richiede molti dati e tempo per essere affidabile.
Spesso la scelta dipende anche dal proprio atteggiamento nei confronti del rischio e, quindi, è una scelta soggettiva.
Ad esempio, in situazioni dove dispongo di pochi dati, poco tempo per prendere una decisione e dove gli eventi sono già sufficientemente prevedibili, la probabilità a priori (teorica) potrebbe essere una stima accettabile perché più facile e rapida da calcolare, purché il margine di errore/rischio sia contenuto e le conseguenze di un eventuale errore non siano troppo elevate. In questi casi è opportuno scegliere dopo un'attenta analisi costi-benefici.
L'interpretazione frequentista della probabilità
Secondo la concezione frequentista, la probabilità di un evento \( E \) è definita come il valore limite della frequenza relativa con cui l’evento si verifica, quando il numero di prove ( n ) tende all’infinito: \[ P(E) = \lim_{n \to \infty} \frac{m}{n} \] Dove \( m \) è il numero di volte in cui l’evento si verifica, \( n \) è il numero totale di prove effettuate nelle stesse condizioni, \( \frac{m}{n} \) è la frequenza relativa dell’evento.
A differenza della concezione classica, che richiede eventi equiprobabili e conteggi a priori, l’approccio frequentista si basa sull’osservazione a posteriori e sul calcolo della frequenza relativa.
In altre parole, nella concezione frequentista la probabilità è una misura empirica che si ricava dall’esperienza.
Quando è utile?
Questo approccio è molto utile quando non si conosce a priori la probabilità di un evento e occorre stimarla osservando la frequenza dei risultati in un esperimento ripetuto molte volte.
Più è ampio il numero delle osservazioni, più la stima della probabilità sarà affidabile.
Quali sono i limiti di questa probabilità?
Si può stimare la probabilità di un evento solo se questo può essere ripetuto in condizioni identiche o simili.
Nota. L'approccio frequentista non si può usare per stimare la probabilità di eventi singoli e irripetibili, perché è una quantità oggettiva, dedotta sperimentalmente. Per avere una stima precisa della probabilità servono molte ripetizioni a parità di condizioni. Inoltre, rispetto all’approccio soggettivo, è privo di componenti personali, il valore della probabilità dipende esclusivamente dai dati, non dalle opinioni.
Inoltre, in questa interpretazione la frequenza zero $ f(E)=0 $ non equivale a dire che l'evento è impossibile, ma solo che durante gli esperimenti non è stato mai osservato.
Allo stesso modo una frequenza $ f(E)=1 $ non vuol dire che l'evento è certo.
Esempio
Voglio stimare la probabilità che una macchina produca un pezzo difettoso.
Analizzo un lotto di \( n = 1000 \) pezzi e osserviamo che \( m = 27 \) sono difettosi. La frequenza relativa è:
\[ f(E) = \frac{27}{1000} = 0.027 \]
Posso quindi stimare la probabilità dell’evento come:
\[ P(E) \approx 0.027 = 2.7\% \]
Per ottenere una stima più affidabile, è opportuno ripetere l'esperimento più volte mantenendo le stesse condizioni.
Se ripeto l’esperimento una seconda e una terza volta su altri 1000 pezzi, potrei ottenere frequenze leggermente diverse, ad esempio \( 0.030 \) e \( 0.025 \).
Questa variabilità è del tutto normale e rappresenta un effetto della variabilità statistica.
Per ottenere una stima più robusta della probabilità, posso calcolare la media delle frequenze osservate:
\[ P(E) \approx \frac{f_1 + f_2 + \dots + f_k}{k} \]
In questo caso, con tre misurazioni la media delle frequenze è la seguente:
\[ P(E) \approx \frac{0.027 + 0.030 + 0.025}{3} = 0.0273\ldots \]
La probabilità stimata risulta quindi:
\[ P(E) \approx 0.0273 = 2.73\% \]
La media delle frequenze fornisce una stima più vicina alla probabilità reale dell’evento.
Aumento del numero di prove
In generale, al crescere del numero di ripetizioni e della dimensione del campione \( n \), la frequenza relativa tende a stabilizzarsi attorno a un valore costante.
Ad esempio, se, anziché 1000 pezzi, analizzo un campione di \( n = 10000 \) pezzi, la stima sarà più precisa.
Infatti, all’aumentare di \( n \), le oscillazioni casuali della frequenza relativa si riducono, e questa tende a convergere verso la probabilità effettiva dell’evento:
\[ \frac{m}{n} \to P(E) \]
Questo comportamento è descritto dalla legge dei grandi numeri, che garantisce la convergenza della frequenza relativa alla probabilità teorica al crescere del numero di prove.
Tuttavia, aumentare il numero di prove non è sempre possibile. In molti contesti sperimentali, ogni osservazione può comportare un costo economico.
Ad esempio, se per verificare la presenza di un difetto è necessario rompere il pezzo, ogni prova comporta la distruzione del prodotto e una spesa per l’impresa. In questi casi, è necessario trovare un compromesso tra precisione statistica e sostenibilità pratica dell’esperimento.
E così via
