Variabili congiunte

Oltre alle variabili casuali prese singolarmente, si può essere interessati anche a due o più variabili insieme.

Discrete

La probabilità congiunta di due variabili e discrete è: da cui si ricavano le singole funzioni di probabilità marginali delle due variabili:

Per esempio, dati e con distribuzione congiunta, allora: e quindi .

Funzione di ripartizione

La funzione di ripartizione congiunta per le variabili e , è definita come: che può essere calcolata rispetto ad una variabile, e.g. .

Analogamente al caso singolo, se e sono congiunte continue allora .

Continue

La probabilità di due variabili continue è: dove la funzione di densità rispetta le proprietà per cui:

In questo si ricavano le funzioni di densità marginali come:

Per esempio, data la densità congiunta per , allora: oppure:

Variabili indipendenti

Si possono definire due variabili congiunte come indipendenti se: che si può estendere alla funzione di ripartizione e quindi alle marginali:

Per esempio, dato con si può affermare che dato che il dominio di dipende da entrambe e mentre avrebbe dominio .

Inoltre, conoscere le marginali sapendo che sono indipendenti permette di ricavare la probabilità congiunta. Per esempio, se e allora , e così via per ogni e .

Distribuzioni condizionate

La funzione di probabilità condizionata di due variabili discrete e è definita come: che se sono indipendenti diventa .

Per esempio, dati e : allora e quindi e non sono indipendenti.

Nel caso le due variabili e siano continue invece, la probabilità condizionata è definita come: che anche in questo caso se indipendenti diventa .

Valore atteso

Come per variabili singole, una trasformazione di permette di ricalcolarne il valore atteso: nel caso discreto, mentre nel caso continuo: da cui e nel caso siano indipendenti .

Covarianza

La covarianza tra due variabili e misura quanto variano insieme: infatti se sono indipendenti .

Proprietà

La covarianza segue le proprietà per cui:

Correlazione

La correlazione tra e misura quanto il variare di dipende da e viceversa: che nel caso più estremo in cui allora .

Somme di variabili

Media campionaria

La media campionaria di variabili indipendenti con e è definita come: che avrà media e varianza .

Disuguaglianza di Chebyshev

Data una variabile casuale con :

Per esempio, se e allora:

LLN e CLT

Per LLN (Law of Large Numbers), si concentrerà su con l'aumentare del campione (i.e. ):

Mentre per CLT (Central Limit Theorem), si avvicina alla forma di una distribuzione normale: che permette di approssimare la probabilità senza conoscere la distribuzione esatta.