La probabilità

La probabilità di un evento E è il rapporto tra il numero dei casi positivi/favorevoli (f) e il numero dei casi possibili (n), quando i casi sono tutti ugualmente possibili. $$ p(E) = \frac{f}{n} $$

Questa è detta concezione classica della probabilità formulata dal matematico Pierre Simon de Laplace.

Il quoziente fra il numero dei casi favorevoli e quello dei casi possibile fornisce una stima della possibilità che l'evento si verifichi.

La probabilità di un evento aleatorio è un numero compreso tra 0 e 1.

$$ 0 \le p(E) = \frac{f}{n} \le 1 $$

La probabilità di un evento certo è sempre pari a 1 mentre quello di un evento impossibile è sempre pari a 0.

  • Se i casi favorevoli sono nulli $ f=0 $ l'evento è impossibile e la sua probabilità è $ P(E)=0 $
  • Se $ f=n $ l'evento è certo e la sua probabilità è $ P(E)=1 $.

In tutti gli altri casi, quando la probabilità è compresa tra 0 e 1, l’evento è semplicemente probabile e prevale una condizione di incertezza.

A volte le probabilità vengono espresse in percentuale, dove 0% corrisponde a 0 (evento impossibile) e 100% corrisponde a 1 (evento certo).

$$ 0 \% \le p(E) \le 100 \% $$

Il significato rimane esattamente lo stesso, cambia solo la forma con cui il valore viene rappresentato.

Nota. Ci sono due interpretazioni diverse di probabilità. Secondo un'interpretazione frequentista la probabilità di un esito è una proprietà oggettiva dell'esito stesso. Ripetendo numerose volte l'esperimento la probabilità dell'esito converge a un determinato valore. Secondo un'interpretazione soggettivista, invece, la probabilità è una stima soggettiva da parte di chi analizza un evento. In questo caso ogni studioso può assegnare una propria probabilità a un esito.

L'insieme dei casi possibili di un evento è detto spazio degli eventi (o insieme universo) e spesso si indica anche con la lettera S, U oppure Ω.

L'insieme dei casi favorevoli (F) è, invece, un sottoinsieme dello spazio degli eventi S che contiene soltanto gli esiti favorevoli dell'evento E.

Poiché F è un sottoinsieme di U, l'insieme dei casi favorevoli ha sempre un numero minore o uguale di elementi rispetto all'insieme universo.

$$ |F| \le |U| $$

Nota. Quando l'insieme dei casi favorevoli è vuoto F=Ø l'evento è impossibile. Viceversa, quando l'insieme F coincide con U ossia F=U allora l'evento è certo.

Un esempio pratico

Il lancio di un dado può avere diversi esiti.

Poiché il dado ha sei facce, i casi possibili sono sei.

Lo spazio degli eventi è composto da n=6 elementi (sei casi possibili).

$$ S = \{1,2,3,4,5,6 \} $$

Per misurare la probabilità che esca il numero 3, devo calcolare il rapporto tra il numero dei casi favorevoli (f) e quello dei casi totali (n).

In questo caso, nell'insieme dei casi favorevoli (F) c'è un solo caso favorevole (f=1), quello in cui esca il numero 3.

$$ F=\{ 3 \} $$

Quindi, la probabilità della proposizione A="esce il numero 3" è pari a 0.16

$$ P(A) = \frac{|F|}{|S|} = \frac{f}{n} = \frac{1}{6} = 0.16 $$

In termini percentuali la probabilità dell'evento è pari al 16%.

Esempio 2

Qual è la probabilità che dal lancio del dado esca un numero pari?

In questo caso l'evento E è "esce un numero pari".

Lo spazio degli eventi è sempre lo stesso, è un insieme con n=6 casi possibili.

$$ S = \{1,2,3,4,5,6 \} $$

Nell'insieme dei casi favorevoli ci sono f=3 casi

$$ F = \{ 2 , 4, 6 \} $$

Quindi, la probabilità della proposizione A="esce un numero pari" è pari a 0.5

$$ P(A) = \frac{|F|}{|S|} = \frac{f}{n} = \frac{3}{6} = 0.5 $$

In termini percentuali la probabilità dell'evento è del 50%.

Esempio 3

Qual è la probabilità di estrarre una carta di picche da un mazzo di 52 carte?

In questo caso gli eventi ugualmente possibili sono $ n = 52 $ perché ci sono 52 carte.

Nel mazzo di carte ci sono tredici carte di picche, quindi i casi favorevoli sono $ f= 13 $.

La probabilità di estrarre una carta di picche è 0.25.

$$ P(E) = \frac{f}{n} = \frac{13}{52} = 0.25 $$

In termini percentuali, la probabilità dell'evento è del 25%

Esempio 4

Qual è la probabilità di estrarre una carta di colore rosso da un mazzo di 52 carte?

In un mazzo di $ n=52 $ carte ci sono $ f=26 $ carte rosse (13 carte di cuori e 13 carte di quadri).

Quindi, la probabilità di estrarre una carta rossa è 0.5

$$ P(E) = \frac{f}{n} = \frac{26}{52} = 0.5 $$

In termini percentuali, la probabilità dell'evento è del 50%

Esempio 5

Esempio

Lancio contemporaneamente tre monete.

Qual è la probabilità che escano due croci (C) e una testa (T).

$$ E= \text{due croci e una testa } $$

Le disposizioni con ripetizione possibili $ D_{n,k} = n^k $ con $ n=2 $ risultati possibili e $ k=3 $ lanci sono:

$$ D_{2,3} = 2^3 = 8 $$

In altre parole, le disposizioni possibili sono:

$$ CCC, CCT, CTC, TCC, TTT, TTC, TCT, CTT $$

Le permutazioni con ripetizione $ P_n^{(r,s)} = \frac{n!}{r!s!} $ con $ n=3 $ elementi di cui $ s = 2 $ ripetuti (due C) e 1 diverso (una T) sono:

$$ P_3^{(2,1)} = \frac{3!}{2!1!} = \frac{6}{2} = 3 $$

Quindi, la probabilità dell'evento E è

$$ P(E) = \frac{3}{8} $$

Differenza tra probabilità a priori e a posteriori

La probabilità può essere calcolata in due modi diversi, a seconda della natura del fenomeno o dell'evento aleatorio.

  • Probabilità a priori (classica o teorica)
    La probabilità a priori viene calcolata senza che siano eseguite delle prove concrete (dati empirici). Si basa su un modello teorico ideale costruito utilizzando la teoria della probabilità classica. In questi casi basta definire la probabilità come quoziente fra il numero dei casi favorevoli (F) e il numero dei casi possibili (N). $$ p = \frac{F}{N} $$ Dove F è un dato teorico ottenuto analizzando il problema.

    Esempio. Un esempio tipico è il dado con 6 facce. Ogni faccia ha la stessa probabilità di uscire se il dado non è truccato. Quindi, non occorre fare nessuna stima per calcolare la probabilità. Mi basta sapere che ogni faccia ha una probabilità pari a 1/6.

  • Probabilità a posteriori (statistica)
    La probabilità a posteriori si determina attraverso l'accumulo di dati empirici reali ottenuti da una serie di prove ripetute, applicando la legge empirica del caso. Questo metodo sfrutta l'esperienza diretta e l'osservazione continua per fornire una stima più accurata e rappresentativa della probabilità di un evento. E' quella maggiormente impiegata nella statistica inferenziale. In pratica, si effettuano N prove e si misura quante volte si verifica un esito favorevole. La probabilità statistica è il quoziente tra i casi favorevoli ottenuti (F) e il numero totale delle prove effettuate (N). $$ p = \frac{F}{N} $$ Dove F è la quantità di eventi favorevoli rilevati durante le prove ripetute e gli esperimenti.

    Esempio. Quando un dado è truccato la probabiltà teorica non riflette più la reale probabilità degli esiti. In questi casi ricorro alla probabilità a posteriori, misurando la probabilità dell'evento tramite la frequenza relativa degli esiti favorevoli di una serie di prove, osservazioni o esperimenti. Occorre però fare molte prove per avere una stima affidabile della probabilità. Secondo la legge empirica del caso, quante più osservazioni vengono fatte, tanto più la frequenza relativa (F/N) si avvicina alla reale probabilità dell'evento (P).

Quale delle due usare?

La probabilità a priori (teorica) è molto più affidabile, facile e veloce da calcolare ma non può essere calcolata su tutti gli eventi aleatori.

La probabilità a posteriori (statistica) viene in aiuto quando la probabilità del fenomeno aleatorio non può essere calcolata tramite la probabilità teorica.

Ad esempio, se un dado non è truccato la probabilità a priori è affidabile. Viceversa, se un dado è truccato è necessario calcolare la probabilità a posteriori.

In generale, la scelta dipende anche dal contesto e dal problema che devo affrontare.

La probabilità a priori è meno accurata in certi contesti, ma la probabilità a posteriori è molto più costosa, perché richiede molti dati e tempo per essere affidabile.

Spesso la scelta dipende anche dal proprio atteggiamento nei confronti del rischio e, quindi, è una scelta soggettiva.

Ad esempio, in situazioni dove dispongo di pochi dati, poco tempo per prendere una decisione e dove gli eventi sono già sufficientemente prevedibili, la probabilità a priori (teorica) potrebbe essere una stima accettabile perché più facile e rapida da calcolare, purché il margine di errore/rischio sia contenuto e le conseguenze di un eventuale errore non siano troppo elevate. In questi casi è opportuno scegliere dopo un'attenta analisi costi-benefici.

L'interpretazione frequentista della probabilità

Secondo la concezione frequentista, la probabilità di un evento \( E \) è definita come il valore limite della frequenza relativa con cui l’evento si verifica, quando il numero di prove ( n ) tende all’infinito: \[ P(E) = \lim_{n \to \infty} \frac{m}{n} \] Dove \( m \) è il numero di volte in cui l’evento si verifica, \( n \) è il numero totale di prove effettuate nelle stesse condizioni, \( \frac{m}{n} \) è la frequenza relativa dell’evento.

A differenza della concezione classica, che richiede eventi equiprobabili e conteggi a priori, l’approccio frequentista si basa sull’osservazione a posteriori e sul calcolo della frequenza relativa.

In altre parole, nella concezione frequentista la probabilità è una misura empirica che si ricava dall’esperienza.Si basa sulla legge empirica del caso.

Quando è utile?

Questo approccio è molto utile quando non si conosce a priori la probabilità di un evento e occorre stimarla osservando la frequenza dei risultati in un esperimento ripetuto molte volte.

Più è ampio il numero delle osservazioni, più la stima della probabilità sarà affidabile.

Quali sono i limiti di questa probabilità?

Si può stimare la probabilità di un evento solo se questo può essere ripetuto in condizioni identiche o simili.

Nota. L'approccio frequentista non si può usare per stimare la probabilità di eventi singoli e irripetibili, perché è una quantità oggettiva, dedotta sperimentalmente. Per avere una stima precisa della probabilità servono molte ripetizioni a parità di condizioni. Inoltre, rispetto all’approccio soggettivo, è privo di componenti personali, il valore della probabilità dipende esclusivamente dai dati, non dalle opinioni.

Inoltre, in questa interpretazione la frequenza zero $ f(E)=0 $ non equivale a dire che l'evento è impossibile, ma solo che durante gli esperimenti non è stato mai osservato.

Allo stesso modo una frequenza $ f(E)=1 $ non vuol dire che l'evento è certo.

Esempio

Voglio stimare la probabilità che una macchina produca un pezzo difettoso.

Analizzo un lotto di \( n = 1000 \) pezzi e osserviamo che \( m = 27 \) sono difettosi. La frequenza relativa è:

\[ f(E) = \frac{27}{1000} = 0.027 \]

Posso quindi stimare la probabilità dell’evento come:

\[ P(E) \approx 0.027 = 2.7\% \]

Per ottenere una stima più affidabile, è opportuno ripetere l'esperimento più volte mantenendo le stesse condizioni.

Se ripeto l’esperimento una seconda e una terza volta su altri 1000 pezzi, potrei ottenere frequenze leggermente diverse, ad esempio \( 0.030 \) e \( 0.025 \).

Questa variabilità è del tutto normale e rappresenta un effetto della variabilità statistica.

Per ottenere una stima più robusta della probabilità, posso calcolare la media delle frequenze osservate:

\[ P(E) \approx \frac{f_1 + f_2 + \dots + f_k}{k} \]

In questo caso, con tre misurazioni la media delle frequenze è la seguente:

\[ P(E) \approx \frac{0.027 + 0.030 + 0.025}{3} = 0.0273\ldots \]

La probabilità stimata risulta quindi:

\[ P(E) \approx 0.0273 = 2.73\% \]

La media delle frequenze fornisce una stima più vicina alla probabilità reale dell’evento.

Aumento del numero di prove

In generale, al crescere del numero di ripetizioni e della dimensione del campione \( n \), la frequenza relativa tende a stabilizzarsi attorno a un valore costante.

Ad esempio, se, anziché 1000 pezzi, analizzo un campione di \( n = 10000 \) pezzi, la stima sarà più precisa.

Infatti, all’aumentare di \( n \), le oscillazioni casuali della frequenza relativa si riducono, e questa tende a convergere verso la probabilità effettiva dell’evento:

\[ \frac{m}{n} \to P(E) \]

Questo comportamento è descritto dalla legge dei grandi numeri, che garantisce la convergenza della frequenza relativa alla probabilità teorica al crescere del numero di prove.

Tuttavia, aumentare il numero di prove non è sempre possibile. In molti contesti sperimentali, ogni osservazione può comportare un costo economico.

Ad esempio, se per verificare la presenza di un difetto è necessario rompere il pezzo, ogni prova comporta la distruzione del prodotto e una spesa per l’impresa. In questi casi, è necessario trovare un compromesso tra precisione statistica e sostenibilità pratica dell’esperimento.

La probabilità soggettiva

La probabilità soggettiva è una misura del grado di fiducia personale che un individuo attribuisce al verificarsi di un evento.

Non dipende da dati statistici né da frequenze osservate, ma dall’opinione del soggetto sulla situazione.

La probabilità soggettiva di un evento (E) si può esprimere come rapporto:

\[ p(E)=\frac{P}{V} \]

Dove

  • \( P \) è la la somma che la persona è disposta a pagare per partecipare a una scommessa sull’evento;
  • \( V \): la somma che la persona riceverebbe se l’evento si verificasse.

Il rapporto (P/V) traduce questa intuizione in un numero compreso tra 0 e 1, si può interpretare come la stima della probabilità dell'evento \( E \) secondo una singola persona.

Quindi, la probabilità soggettiva è la quota di valore che il soggetto ritiene equa per “acquistare” la scommessa.

Nota.Il modello nasce dall’idea che la disponibilità a pagare rifletta il grado di fiducia dell’individuo. Se io ritengo l’evento molto probabile, sarò disposto a pagare una cifra elevata rispetto alla possibile vincita. Se invece lo ritengo poco probabile, offrirò una cifra molto bassa.

Perché la valutazione sia razionale, deve valere anche la condizione di coerenza:

Chi accetta di pagare \( P \) per ottenere \( V \) se l’evento accade, deve anche essere disposto a ricevere \( P \) per pagare \( V \) nel caso l’evento si verifichi

In altre parole, deve essere disposto anche a mettersi nei panni dell'altro giocatore e accettare la scommessa "al contrario", perché la probabilità soggettiva \( p(E)= \frac{P}{V} \) è sempre la stessa.

Se questa simmetria non fosse accettata, la valutazione sarebbe incoerente

Esempio

Supponiamo che una persona consideri l’evento \( E \) ("domani pioverà") abbastanza probabile.

Questa persona è disposta a pagare 2 euro ( $ P=2 $ ) per partecipare a una scommessa che le paga 10 euro ( $ V=10 $ ) in caso di pioggia.

La sua probabilità soggettiva della pioggia è quindi 0.2, cioè 20%.

\[ p(E)=\frac{P}{V}=\frac{2}{10}=0.2 \]

Ovviamente questo non significa che domani pioverà "oggettivamente" con probabilità 20%.

Significa solo che, sulla base delle informazioni e convinzioni personali, quel soggetto attribuisce all’evento un grado di fiducia pari a 0.2.

Nota (condizione di coerenza). Se questa persona ritiene corretto pagare 2 euro per riceverne 10 in caso di pioggia, allora deve anche ritenere corretto lo scambio opposto ed essere disposto a mettersi nei panni dell'altro giocatore, ossia ricevere 2 euro oggi impegnandosi a pagare 10 euro se domani pioverà. In altre parole, deve parole deve accettare la scommessa al contrario pagando la vittoria 10 a 2. Questo perché In entrambi i casi il rapporto (P/V) è lo stesso $ \frac{2}{10} $, quindi la probabilità soggettiva rimane $ 0.2 $. Se non fosse disposto ad accettare la scommessa "al contrario", ossia a mettersi nei panni dell'altra parte, le sue valutazioni non sarebbero coerenti.

Pertanto, la probabilità soggettiva non descrive il mondo fisico, ma lo stato di conoscenza del soggetto. Non richiede grandi campioni o statistiche, ma solo una valutazione razionale e coerente.

Ogni persona può assegnare probabilità diverse allo stesso evento e la stessa probabilità può cambiare nel tempo se cambiano le informazioni disponibili.

La probabilità soggettiva è utile quando mancano dati oggettivi o quando gli eventi non sono ripetibili.

La definizione assiomatica di probabilità

La probabilità è una funzione \( p \) che associa un numero reale a ogni evento \( E \) appartenente allo spazio degli eventi.

Nell'impostazione assiomatica tutti i possibili risultati (detti "campioni") di un esperimento aleatorio appartengono allo spazio dei campioni \( U \). Questo insieme contiene quindi tutti gli esiti che possono effettivamente accadere.

Ogni evento \( E \) è un sottoinsieme dello spazio dei campioni.

L'insieme delle parti dell'insieme \( U \) è detto spazio degli eventi e comprende tutti gli eventi possibili.

Nota. Nel caso degli eventi elementari, il sottoinsieme è costituito da un solo campione, mentre gli eventi composti sono composti da più campioni. L'evento certo coincide con lo spazio dei campioni \( U \) mentre l'evento impossibile è l'insieme vuoto \( \emptyset \).

La funzione \( p \) non è arbitraria, deve soddisfare alcuni requisiti fondamentali che prendono il nome di assiomi della probabilità.

Quali sono gli assiomi della probabilità?

Gli assiomi sono tre:

  • Primo assioma: \( p(E) \ge 0 \)
    La probabilità di un evento non può essere negativa. Qualsiasi evento deve avere una probabilità almeno pari a zero.
  • Secondo assioma: \( p(U) = 1 \)
    L’evento certo, cioè l’intero spazio degli eventi, ha probabilità 1. Significa che qualcosa deve necessariamente accadere.
  • Terzo assioma: additività
    Se due eventi \( E_1 \) ed \( E_2 \) sono incompatibili, cioè non possono verificarsi insieme \( E_1 \cap E_2 = \varnothing \), allora la probabilità che si verifichi \( E_1 \) oppure \( E_2 \) è la somma delle due probabilità: \[
    p(E_1 \cup E_2) = p(E_1) + p(E_2) \]

In pratica, questi tre assiomi definiscono completamente la probabilità dal punto di vista matematico. Tutte le altre proprietà della probabilità derivano da queste tre regole fondamentali.

Nota. L'impostazione assiomatica è molto utile perché permette di usare la teoria degli insiemi (es. unione, intersezione, complemento, ecc. ) e le operazioni logiche (negazioni, congiunzioni, disgiunzioni, ecc.) al calcolo della probabilità.

Esempio

Considero il classico lancio di un dado a sei facce.

Lo spazio dei campioni è:

\[ U = \{ 1,2,3,4,5,6 \} \]

Ogni numero rappresenta un possibile risultato dell’esperimento.

Supponiamo ora di definire un evento \( E \):

\[ E = {\text{esce un numero pari}} = \{ 2,4,6 \} \]

Si tratta di un evento composto poiché comprende più campioni \( \{2, 4, 6 \} \). Se il dado è equilibrato, ogni campione ha probabilità \( \frac16 \)

\[ p({1}) = p({2}) = \dots = p({6}) = \frac{1}{6} \]

L’evento \( E \) è formato da tre eventi elementari incompatibili. Per l’assioma di additività, la probabilità dell’unione di eventi incompatibili è la somma delle singole probabilità:

\[ p(E) = p({2}) + p({4}) + p({6}) \]

Sostituendo i valori:

\[ p(E) = \frac{1}{6} + \frac{1}{6} + \frac{1}{6} = \frac{3}{6} = \frac{1}{2} \]

Quindi la probabilità dell’evento \( E = \{ 2,4,6 \} \) è \(  \frac12 \). In altre parole, la probabilità che esca un numero pari è pari al 50%.

Applico gli assiomi per verificare se sono rispettati.

  1. Primo assioma: \( p(E) \ge 0 \)
    Poiché la funzione probabilità non può assegnare valori negativi, dobbiamo avere \[ p(E) \ge 0 \] In effetti, ogni evento elementare ha una probabilità non negativa \( p(E) = \frac12 \)
  2. Secondo assioma: \( p(U) = 1 \)
    Lo spazio dei campioni contiene tutti e 6 gli esiti e la probabilità totale deve essere 1. In questo caso lo spazio dei campioni è \( U = \{1,2,3,4,5,6 \} \) e la somma delle probabilità è pari a 1. $$ p(U) = p(1) + p(2) + p(3) + p(4) + p(5) + p(6) $$ $$ p(U) = \frac{1}{6} + \frac{1}{6} + \frac{1}{6} + \frac{1}{6} + \frac{1}{6} + \frac{1}{6} $$ $$ p(U) = \frac{6}{6} = 1 $$
  3. Terzo assioma: additività
    Considero due eventi incompatibili: \[ E_1 = {2}, \quad E_2 = {4} \] Sono incompatibili perché non possono verificarsi insieme: \[ E_1 \cap E_2 = \varnothing \] L’evento “esce 2 oppure 4” è l’unione: \[ E_1 \cup E_2 = \{ 2,4 \} \] Per l’assioma di additività la probabilità che esca uno dei due numeri è: \[ p({2,4}) = p({2}) + p({4}) \] Se il dado è equilibrato, ogni faccia ha probabilità \( \frac16 \). Allora: \[ p({2,4}) = \frac16 + \frac16 = \frac{2}{6} = \frac13 \] In altri termini, l'evento ha il 33,3% di probabilità di verificarsi.

Questo esempio mostra come gli assiomi guidano il calcolo della probabilità e rendono coerente l’intero modello matematico.

In questo esempio lo spazio degli eventi è l’insieme di tutti i sottoinsiemi dello spazio dei campioni, cioè tutti i possibili sottoinsiemi di \( U \).

\[ \mathcal{P}(U) = {\text{tutti i sottoinsiemi di } U} \]

Quindi include:

  • l’evento impossibile \[ \emptyset \]
  • l’evento certo \[ U = {1,2,3,4,5,6} \]
  • i singoli eventi elementari \[ {1}, {2}, {3}, {4}, {5}, {6} \]
  • tutti gli eventi composti, come \[ {1,2}, {2,4,6}, {1,3,5}, {1,2,3,4}, \dots \]

In totale, se \( U \) contiene 6 elementi (le sei facce del dado), lo spazio degli eventi contiene \( 2^6 = 64 \) eventi possibili.

E così via

 

Seguimi anche su YouTube  
 


 

Segnalami un errore, un refuso o un suggerimento per migliorare gli appunti

FacebookTwitterLinkedinLinkedin
knowledge base

Il calcolo delle probabilità