Proprieta di Markov

Enciclopedia della Scienza e della Tecnica (2008)

proprietà di Markov

Giacomo Aletti

Un processo stocastico Xt indicizzato da un insieme totalmente ordinato è detto di Markov (o avere la proprietà di Markov, da Andrey Andreyevich Markov), se la distribuzione di probabilità del processo in un tempo futuro, condizionata a tutta la storia fino all’istante presente, dipende solo dal valore dello stato presente e non dalla storia passata, ossia il processo è condizionatamente indipendente dalle traiettorie del passato dato lo stato presente. Matematicamente, un processo stocastico Xt è detto di Markov se, per ogni tu e per ogni x reale, abbiamo che

P(Xu x Xs, s t) = P(Xu x Xt).

© Istituto della Enciclopedia Italiana - Riproduzione riservata

CATEGORIE
TAG

Distribuzione di probabilità

Processo stocastico