Markoffsche Ketten, Übergangswahrscheinlichkeiten

Hängt bei einer stochastischen Kette die Wahrscheinlichkeit eines Ereignisses Xtm+1 nur vom Zustand zum Zeitpunkt tm ab, so spricht man von einer MARKOFFschen Kette, d.h., es gilt

P(Xtm+1 =  
    (16.110)


Es seien eine MARKOFFsche Kette sowie die zwei Zeitpunkte tm und tm+1 gegeben. Die bedingten Wahrscheinlichkeiten
P(Xtm+1=j|Xtm=i) =pij(tm,tm+1) (16.111)


heißen Übergangswahrscheinlichkeiten. Die Übergangswahrscheinlichkeit gibt an, mit welcher Wahrscheinlichkeit der Zustand Xtm=i bei tm in den Zustand Xtm+1=j bei tm+1 übergeht.
Ist der Zustandsraum einer MARKOFFschen Kette endlich, d.h. , so lassen sich die Übergangswahrscheinlichkeiten pij(t1,t2) zwischen den Zuständen zum Zeitpunkt t1 und t2 in einer quadratischen Matrix , der sogenannten Übergangsmatrix, darstellen:
(16.112)

Die Zeitpunkte t1 und t2 müssen nicht aufeinanderfolgende Zeitpunkte sein.