Hängt bei einer stochastischen Kette die Wahrscheinlichkeit eines Ereignisses Xtm+1 nur vom Zustand zum Zeitpunkt tm ab, so spricht man von einer MARKOFFschen Kette, d.h., es gilt
P(Xtm+1 |
= |
 |
|
|
|
 |
(16.110) |
Es seien eine MARKOFFsche Kette sowie die zwei Zeitpunkte tm und tm+1 gegeben. Die bedingten Wahrscheinlichkeiten
P(Xtm+1=j|Xtm=i) =pij(tm,tm+1) |
(16.111) |
heißen Übergangswahrscheinlichkeiten. Die Übergangswahrscheinlichkeit gibt an, mit welcher Wahrscheinlichkeit der Zustand Xtm=i bei tm in den Zustand Xtm+1=j bei tm+1 übergeht.
Ist der Zustandsraum einer MARKOFFschen Kette endlich, d.h.
, so lassen sich die Übergangswahrscheinlichkeiten pij(t1,t2) zwischen den Zuständen zum Zeitpunkt t1 und t2 in einer quadratischen Matrix
, der sogenannten Übergangsmatrix, darstellen:
 |
(16.112) |
Die Zeitpunkte t1 und t2 müssen nicht aufeinanderfolgende Zeitpunkte sein.