<<<<<<< HEAD ======= >>>>>>> 4c76a5baf8b63bb63b42f0b003cb610c4b3a06d8 CP2 - Lesson 1
UP | HOME

CP2 - Lesson 1

Indice

Eventi e Probabilità

Definizione 1.1. Uno Spazio di Probabilità è una terna ordinata \((\Omega, \mathcal{F}, \mathcal{P})\) tale che:

  • \(\Omega\) è un insieme non vuoto che rappresenta l'insieme dei possibili risultati del fenomeno aleatorio analizzato.
  • \(\mathcal{F}\) è una famiglia di sottoinsiemi di \(\Omega\) detti eventi. Ovviamente si richiede che \(\mathcal{F}\) abbia la proprietà di chiusura rispetto agli operatori insiemistici. Nel caso in cui \(\Omega\) è un insieme finito e numerabile, allora ha senso porre \(\mathcal{F} \equiv 2^{\Omega}\).
  • \(\mathcal{P}\) è una misura di probabilità (vedi definizione successiva).


Definizione 1.2. una misura di probabilità \(\mathcal{P}\) è unafunzione \(\mathcal{P} : \mathcal{F} \to [ 0, \infty )\) tale che \(\mathcal{P}(\Omega) = 1\) e, per ogni successione di eventi \(\{ E_n \}_n\) disgiunti a due a due (cioè tali che \( E_i \cap E_j = \emptyset\) per ogni \(i \neq j\)), si ha \[ \mathcal{P}\Big(\bigcup_n E_n\Big) = \sum_n \mathcal{P}(E_n) \]

Conseguenze della definizione 1.2.

  1. \(\emptyset \in \mathcal{F}\) e \(\mathcal{P}(\emptyset) = 0\).
  2. Per ogni coppia di eventi \(E,F \in \mathcal{F}\) tali che \(E \subset F\) si ha che \(\mathcal{P}(E) \leq \mathcal{P}(F)\).
  3. Dal punto (2) si ricava che per ogni evento \(E \in \mathcal{F}\)
    • \(\mathcal{P}(E) \in [ 0,1 ]\), perché \(E \subseteq \Omega\).
    • \(\mathcal{P}(E) = 1 - \mathcal{P}(E^C)\) e viceversa \(\mathcal{P}(E^C) = 1 - \mathcal{P}(E)\).
  4. Per ogni coppia di eventi \(E,F \in \mathcal{F}\) si ha che \(\mathcal{P}(E) = \mathcal{P}(E \cap F) + \mathcal{P}(E \cap F^C)\), infatti

    \begin{align*} \mathcal{P}(E) &= \mathcal{P}(E \cap \Omega)\\ &= \mathcal{P}(E \cap (F \cup F^C))\\ &= \mathcal{P}((E \cap F) \cup (E \cap F^C))\\ &= \mathcal{P}(E \cap F) + \mathcal{P}(E \cap F^C) \end{align*}

Osserviamo che nel caso in cui \(\Omega\) è discreto e finito, allora avremo che esso sarà pari all'unione delle singole componenti, ovvero \[ \Omega \equiv \bigcup_n \{ \omega_n \} \] Perciò con la sola conoscienza dell'insieme di probabilità \(\lbrace \mathcal{P}( \{ \omega_n \} ) \rbrace_n\) possiamo ricavare la probabilità di qualsias evento \(E \in \mathcal{F}\) \[ E \equiv \bigcup_{n : \omega_n \in E} \{ \omega_n \} \implies \mathcal{P}(E) = \sum_{n : \omega_n \in E} \mathcal{P}(\{ \omega_n \}) \]

Lemma 1.1. Per ogni coppia di eventi \(E_1,E_2 \in \mathcal{F}\) si ha che \[ \mathcal{P}(E_1 \cup E_2) = \mathcal{P}(E_1) + \mathcal{P}(E_2) - \mathcal{P}(E_1 \cap E_2) \]

Proof Osserviamo graficamente che \[ E_1 \cup E_2 = (E_1 \cap E_2^C) \cup (E_1 \cap E_2) \cup (E_1^C \cap E_2) \] [FARE IMMAGINE]

E dato che si tratta di tutti e tre insiemi reciprocamente disgiunti avremo che \[ \mathcal{P}(E_1 \cup E_2) = \mathcal{P}(E_1 \cap E_2^C) + \mathcal{P}(E_1 \cap E_2) + \mathcal{P}(E_1^C \cap E_2) \] Infine sommando e sottraendo per \(\mathcal{P}(E_1 \cap E_2)\) avremo che

\begin{align*} \mathcal{P}(E_1 \cup E_2) &= \mathcal{P}(E_1 \cap E_2^C) + \mathcal{P}(E_1 \cap E_2) + \mathcal{P}(E_1^C \cap E_2)\\ &= \underbrace{\mathcal{P}(E_1 \cap E_2^C) + \mathcal{P}(E_1 \cap E_2)}_{= \mathcal{P}(E_1)} + \underbrace{\mathcal{P}(E_1^C \cap E_2) + \mathcal{P}(E_1 \cap E_2)}_{= \mathcal{P}(E_2)} - \mathcal{P}(E_1 \cap E_2)\\ &= \mathcal{P}(E_1) + \mathcal{P}(E_2) - \mathcal{P}(E_1 \cap E_2) \;\; \square \end{align*}


Lemma 1.2 (Union Bound). Per ogni famgilia finita (o successione) di eventi \(\{E_n\}_n\) si ha che \[ \mathcal{P}(\bigcup_n E_n) \leq \sum_n \mathcal{P}(E_n) \]

Proof consideriamo la seguente successione di eventi \(\{\hat{E}_n\}_n\) tali che

\begin{align*} \hat{E}_1 &= E_1\\ \hat{E}_h &= E_h \cap (E_1 \cup ... \cup E_{h-1})^C \;\; \forall 2 \leq h \leq n \end{align*}

Tale successione ha la seguenti proprietà

  • \(\bigcup_n \hat{E}_n = \bigcup_n E_n\)
  • gli eventi di \(\{\hat{E}_n\}_n\) sono disgiunti a due a due.

Inoltre essendo che \(\hat{E}_n = E_n \cap (E_1 \cup ... \cup E_{n-1})^C \subset E_n\) per ogni \(n\), avremo che \[ \mathcal{P}\Big( \bigcup_n E_n \Big) = \mathcal{P}\Big( \bigcup_n \hat{E}_n \Big) = \sum_n \mathcal{P}( \hat{E}_n ) \leq \sum_n \mathcal{P}( E_n ) \;\square \]


Lemma 1.3 (Principio di inclusione-esclusione) Per ogni famiglia finita di eventi \(\{ E_1 \}_n\) si ha che \[ \mathcal{P}(E_1 \cup ... \cup E_n) = \sum_i \mathcal{P}(E_i) - \sum_{i < j} \mathcal{P}(E_i \cap E_j) + \sum_{i < j < k} \mathcal{P}(E_i \cap E_j \cap E_k) + ... + (-1)^{n-1}\mathcal{P}(E_1 \cap ... \cap E_n) \]

Proof Dimostriamo il principio per induizione su \(n\).

Per \(n = 2\) ciò è vero grazie al Lemma 1.1.

Supponiamo sia vero per \(n-1\), dimostriamo allora per induzione che è vero anche per \(n \geq 3\). Iniziamo ponendo \[ \mathcal{P}(E_1 \cup ... \cup E_n) = \mathcal{P}(E_1 \cup ... \cup E_{n-1}) + \mathcal{P}(E_n) - \mathcal{P}((E_1 \cup ... \cup E_{n-1}) \cap E_n) \] e per distribuzione dell'intersezione rispetto all'unione \[ \mathcal{P}(E_1 \cup ... \cup E_n) = \mathcal{P}(E_1 \cup ... \cup E_{n-1}) + \mathcal{P}(E_n) - \mathcal{P}\Big( \bigcup_{i=1}^{n-1} (E_i \cap E_n) \Big) \] Applicando l'ipotesi induttiva per i primi \(n-1\) eventi avremo che

\begin{align*} &\mathcal{P}(E_1 \cup ... \cup E_n) =\\ &= \sum_{i \leq n-1} \mathcal{P}(E_i) - \sum_{i < j \leq n-1} \mathcal{P}(E_i \cap E_j) + \sum_{i < j < k \leq n-1} \mathcal{P}(E_i \cap E_j \cap E_k) + ... + (-1)^{(n-1)-1}\mathcal{P}(E_1 \cap ... \cap E_{n-1}) + \mathcal{P}(E_n)\\ &= \Big\lbrace \sum_{i \leq n-1} \mathcal{P}(E_i \cap E_n) - \sum_{i < j} \mathcal{P}( (E_i \cap E_n) \cap (E_j \cap E_n) ) + ... + (-1)^{(n-1)-1} \mathcal{P}( (E_1 \cap E_n) \cap ... \cap (E_{n-1} \cap E_n) ) \Big\rbrace\\ &= \sum_{i \leq n-1} \mathcal{P}(E_i) - \sum_{i < j \leq n-1} \mathcal{P}(E_i \cap E_j) + \sum_{i < j < k \leq n-1} \mathcal{P}(E_i \cap E_j \cap E_k) + ... + (-1)^{(n-1)-1}\mathcal{P}(E_1 \cap ... \cap E_{n-1}) + \mathcal{P}(E_n)\\ &- \Big\lbrace \sum_{i \leq n-1} \mathcal{P}(E_i \cap E_n) - \sum_{i < j} \mathcal{P}(E_i \cap E_j \cap E_n) + ... + (-1)^{(n-1)-1}\mathcal{P}(E_1 \cap ... \cap E_{n-1} \cap E_n) \Big\rbrace \end{align*}

Infine, grazie al segno - prima delle parentesi graffe, possiamo combianre \[ \sum_{i \leq n-1} \mathcal{P}(E_i) \mbox{ e } \mathcal{P}(E_n) \] \[ \sum_{i < j \leq n-1} \mathcal{P}(E_i \cap E_j) \mbox{ e } \sum_{i \leq n-1} \mathcal{P}(E_i \cap E_n) \] \[ \sum_{i < j < k \leq n-1} \mathcal{P}(E_i \cap E_j \cap E_k) \mbox{ e } \sum_{i < j} \mathcal{P}(E_i \cap E_j \cap E_n) \] \[ \vdots \] ottenendo così la formula del teorema \(\square\).


Definizione 1.3 (Indipendenza tra eventi). Due eventi \(E,F \in \mathcal{F}\) si dicono indipendenti se \[ \mathcal{P}(E \cap F) = \mathcal{P}(E)\mathcal{P}(F) \] Più in generale, data una sequenza di eventi \(E_1, ..., E_n\) essi sono indipendenti se e solo se dato un qualsiasi sottoinsiemi \(\{ E_{i1}, ..., E_{ik} \}\) di \(k \geq 2\) si ha che \[ \mathcal{P}(E_{i1} \cap ... \cap E_{ik}) = \mathcal{P}(E_{i1}) \cdot ... \cdot \mathcal{P}(E_{ik}) \]


Definizione 1.4 (Probabilità condizionata) Dati due eventi \(E,F \in \mathcal{F}\) tali che \(P(F) \neq 0\), la probabilità condizionata di \(E\) sapendo che si è verificato \(F\) è definita come segue: \[ \mathcal{P}(E \vert F) = \frac{ \mathcal{P}(E \cap F) }{ \mathcal{P}(F) } \]

Conseguenze della definizione 1.4.

  • \(\mathcal{P}(\Omega \vert F) = 1\), infatti \[ \mathcal{P}(\Omega \vert F) = \frac{ \mathcal{P}(\Omega \cap F) }{ \mathcal{P}(F) } = \frac{ \mathcal{P}(F) }{ \mathcal{P}(F) } = 1 \]
  • Se \(E,F\) sono indipendenti, allora \(\mathcal{P}(E \vart F) = \mathcal{P}(E)\), infatti \[ \mathcal{P}(E \vert F) = \frac{ \mathcal{P}(E \cap F) }{ \mathcal{P}(F) } = \frac{ \mathcal{P}(E)\mathcal{P}(F) }{ \mathcal{P}(F) } = \mathcal{P}(E) \] infatti, il termine "indipendenti" si spiega con il fatto che, se si sa che \(F\) si è verificato, allora la probabilità condizionata \(\mathcal{P}(E \vert F)\) non cambia rispetto a quella non condizionata \(\mathcal{P}(E)\).
  • \(\mathcal{P}(E \cap F) = \mathcal{P}(E \vert F)\mathcal{P}(F)\) (banale).


Teorema 1.6 (Probabilità Totali) Sia la successione finita \(\{E_n\}_n\) che formano una partizione di \(\Omega\), ovvero di eventi disgiunti a due a due tali che \(\bigcup_n E_n = \Omega\). Allora per ogni evento \(B \in \mathcal{F}\) è vera la seguente uguagliaza \[ \mathcal{P}(B) = \sum_{n}\mathcal{P}(B \vert E_n)\mathcal{P}(E_n) \]


Data: 2022-03-08 mar 00:00

Autore: Alessandro Straziota

Email: alessandrostr95@gmail.com

<<<<<<< HEAD

Created: 2022-03-11 ven 11:42

=======

Created: 2022-03-14 lun 17:40

>>>>>>> 4c76a5baf8b63bb63b42f0b003cb610c4b3a06d8

Validate