Catene di Markov
Una catena di Markov definisce le relazioni tra variabili discrete con valori : e cioè che il futuro dipende solo dal presente e non dal passato .
Dato che si può definire la matrice di transizione: in cui la riga è lo stato attuale che contiene le probabilità di ogni stato futuro ovvero le colonne , infatti:
Per esempio, partendo dallo stato iniziale su: allora da passo per forza allo stato , quindi e poi su scelgo a caso tra lo stato e :
Transizione a passi
In generale, la probabilità di transizione in passi da uno stato ad uno stato è: che in due passi diventa , per l'esempio precedente:
Probabilità congiunta
Data una successione di variabili, la probabilità congiunta corrisponde a:
Distribuzioni marginali
Dalla distribuzione marginale si ricava la probabilità di essere allo stato dopo passi:
Catene regolari
Una catena si dice regolare se esiste un per cui: che è possibile se esiste sempre un cammino da un qualsiasi nodo ad un altro.
Distribuzione stazionaria
Se è regolare allora possiede una distribuzione stazionaria per cui: che rispetterà le proprietà per cui: