Catene di Markov

Una catena di Markov definisce le relazioni tra variabili discrete con valori : e cioè che il futuro dipende solo dal presente e non dal passato .

Dato che si può definire la matrice di transizione: in cui la riga è lo stato attuale che contiene le probabilità di ogni stato futuro ovvero le colonne , infatti:

Per esempio, partendo dallo stato iniziale su: allora da passo per forza allo stato , quindi e poi su scelgo a caso tra lo stato e :

Transizione a passi

In generale, la probabilità di transizione in passi da uno stato ad uno stato è: che in due passi diventa , per l'esempio precedente:

Probabilità congiunta

Data una successione di variabili, la probabilità congiunta corrisponde a:

Distribuzioni marginali

Dalla distribuzione marginale si ricava la probabilità di essere allo stato dopo passi:

Catene regolari

Una catena si dice regolare se esiste un per cui: che è possibile se esiste sempre un cammino da un qualsiasi nodo ad un altro.

Distribuzione stazionaria

Se è regolare allora possiede una distribuzione stazionaria per cui: che rispetterà le proprietà per cui: