-proces-lea a avut loc evenimentul
, Ea nu depinde de rezultatele testelor anterioare.
De exemplu, dacă secvența de test este un lanț Markov și grup complet este format din patru evenimente mutual exclusive
, și este cunoscut faptul că, în al șaselea eveniment a apărut testul
, atunci probabilitatea condiționată ca evenimentul are loc în a șaptea testul
, Ea nu depinde de ce evenimente au apărut în prima, a doua, ..., al cincilea proces,.
Rețineți că testele independente sunt un caz special al unui lanț Markov. Într-adevăr, în cazul în care studiile sunt independente, apariția unui eveniment specific în orice test nu depinde de rezultatele studiilor anterioare produse. Rezultă că noțiunea unui lanț Markov este o generalizare a conceptului de studii independente.
De multe ori expunerea teoriei lanțurilor Markov dețin o terminologie diferită și vorbesc despre unele dintre sistemul fizic
, că, la fiecare moment de timp stocate într-una din stările:
, și modificări de stat numai în momente diferite
care este, sistemul trece de la o stare la alta (de exemplu, de la
). lanturi Markov probabil merge în orice stat
Depinde numai de starea sistemului a fost la momentul respectiv
, și nu este schimbat din ceea ce sunt cunoscute în stadiul sale anterioare clipe. De asemenea, în special, după ce sistemul de testare poate rămâne în aceeași stare ( „du-te“ de la stat
).
Pentru a ilustra, considerăm un exemplu.
Exemplul 1. Să presupunem că o particulă situată pe linia dreaptă se deplasează de-a lungul liniei drepte, sub influența impactului aleatoare care apar în momente
. Particula poate fi în punctele cu coordonate întregi:
reflectă perete. Fiecare particulă de tracțiune se deplasează spre dreapta cu probabilitate
și a plecat cu probabilitate
, în cazul în care particula nu este împotriva perete. În cazul în care particula este situat la perete, orice impuls transporta la unitatea din interiorul decalajul dintre pereți. Aici vom vedea că acest exemplu de mișcare a particulelor este un lanț tipic Markov.
Astfel, evenimentul se numește starea sistemului și testul - își schimbă starea.
Acum definim un lanț Markov folosind noua terminologie.
lanț Markov este numit un circuit de timp discret, schimbarea care are loc în anumite condiții ori fixe.
lanț Markov este numit un circuit continuu timp, schimbarea de stat are loc în care orice posibile momente aleatorii în timp.
§ 2. Omogeni lanțului Markov. Probabilitățile de tranziție. Matricea de tranziție
Definiția. Numit lanț Markov omogene, în cazul în care probabilitatea condiționată
(Tranziția de la stat
) Nu depinde de numărul de teste. Deci, în loc
.
Exemplul 1. O plimbare aleatoare. Să presupunem că linia
un punct cu coordonate întregi este o particulă de material. În anumite momente particula experiențele tremor. Sub acțiunea particulelor tracțiune cu probabilitate
Acesta este deplasat de unul la dreapta și cu probabilitate
- pe cea din stânga. In mod clar, poziția (coordonate) a particulelor după împingere depinde în cazul în care particula este situată după șocul imediat precedent, și nu depinde de modul în care este deplasat sub efectul altor precedente tremor.
Astfel, aleatoriu plimbare - Exemplu omogen lanțului Markov cu timp discret.
În continuare limita elementele teoriei lanțurilor Markov omogene finite.
numit probabilitatea condiționată ca starea
(În care sistemul a fost rezultatul unui test, ceea ce nu contează numărul), ca urmare a următorului sistem de testare într-un stat
.
Astfel, în notația
primul indice indică numărul anterior, iar al doilea - numărul de stat ulterioare. De exemplu,
- probabilitatea de tranziție de la al doilea stadiu în al treilea.
Fie numărul de stări este finit și egal
.
matricea de tranziție a sistemului este o matrice, care conține toate probabilitățile de tranziție ale sistemului:
Deoarece fiecare rând al matricei sunt plasate evenimente de probabilitate (tranziția de la una și aceeași stare
în orice stare posibilă
), Care formează un grup complet, suma probabilităților acestor evenimente este unul. Cu alte cuvinte, suma probabilităților de tranziție din fiecare rând al matricei de tranziție este egală cu unu:
Aici este un exemplu de sistem de matrice de tranziție, care poate fi în trei stări
; tranziția de la stat la stat are loc schemă de lanț Markov omogene; probabilitățile de tranziție sunt date de matricea:
Aici vedem că atunci când sistemul este într-o stare
, după schimbarea de stat cu un singur pas cu probabilitatea de 0,5 rămâne în aceeași stare cu o probabilitate de 0,5 va rămâne în aceeași stare cu o probabilitate de 0,2 până la o stare
, după tranziție, acesta poate fi în măsură să
; ieși din starea
nu se poate. Ultimul rând al matricei arată că starea
du-te la oricare dintre stările posibile cu aceeași probabilitate de 0,1.
puteți construi o așa-numitele state grafic al sistemului, este numit un grafic stare de marcare se bazează pe sistemul matricei de tranziție. Acest lucru este util pentru vizualizarea lanțului. Procedura pentru construirea graficului uita-te la un exemplu.
Exemplul 2 Pentru un construct dat matrice grafic stare de tranziție.
pentru că matrice a patra comandă, respectiv, sistemul are patru stări posibile.

Graficul nu marchează probabilitatea de tranziție de la un stat la același lucru. Atunci când se analizează sisteme specifice convenabile pentru a construi mai întâi un grafic de stat, apoi determina probabilitatea de tranziție de la o stare la aceeași (bazat pe cerința ca suma elementelor unitare ale rândurilor matricei) și apoi se face o matrice de tranziție a sistemului.
§3. egalitate Markov
Definiția. Vom nota cu
probabilitatea ca, ca urmare a
etapele (test), sistemul se va muta de la stat
în ecuația (3), constatăm că
ecuația satisface (12). Acest lucru dovedește teorema.
§6. Aplicații de Lanțuri Markov
lanțuri Markov sunt o bună introducere în teoria proceselor aleatoare, și anume Teoria secvențelor simple ale unei familii de variabile aleatoare, de obicei, în funcție de un parametru, care, în cele mai multe aplicații servește ca timp. Acesta este conceput în principal pentru o descriere completă a cât de mult timp, iar comportamentul local al procesului. Aici sunt unele dintre cele mai studiate în acest sens probleme.
mișcarea browniană și generalizarea - procese de difuzie și procese cu creșteri independente. Teoria proceselor stocastice a contribuit la adâncirea relației dintre teoria probabilităților, teoria operatorului și teoria ecuațiilor diferențiale, care, printre altele, a fost important pentru fizică și alte aplicații. Alte aplicații includ procese de interes pentru actuariale (asigurare) matematică, teoria, genetica, coadă de control al traficului, teoria circuitelor electrice și teoria contabilității și acumularea de bunuri.
procese staționare. Cea mai veche teorema ergodică cunoscută așa cum sa menționat mai sus, poate fi interpretat ca rezultat descrie comportamentul limitativ al unui proces aleatoriu staționar. Un astfel de proces are proprietatea că toate legile de probabilitate că acesta îndeplinește, rămân schimbări relative de timp invariante. Teoria ergodicității, formulată pentru prima dată de fizicieni ca o ipoteză, poate fi reprezentat ca o declarație că, în anumite condiții, media ansamblu coincide cu media timpului. Acest lucru înseamnă că aceleași informații pot fi obținute din monitorizarea pe termen lung a sistemului și a observațiilor simultane (și simultane) de mai multe copii independente ale aceluiași sistem. Legea numerelor mari nu este celălalt, ca un caz special al teoremei lui Birkhoff ergodică. Interpolarea și predicția comportamentului proceselor gaussiene staționare, înțeles într-un sens larg, reprezintă o generalizare importantă a teoriei clasice a celor mai mici pătrate. Teoria proceselor staționare - un instrument necesar de cercetare în multe domenii, de exemplu, în teoria comunicării, care se ocupă cu studiul și crearea unor sisteme care transmit mesaje pentru prezența zgomotului sau zgomot aleator.
De asemenea, lanț Markov poate fi utilizat pentru generarea de text. Intrarea este câteva texte, apoi construi un lanț Markov probabilitățile de cuvinte unul următor după altul, iar pe baza acestui circuit este creat ca rezultat text. Jucărie se transformă foarte amuzant!
Astfel, în termen de hârtie nostru a fost un sistem de lanturi Markov. domenii în care se aplică și Localizate, teste independente sunt prezentate pe teorema probabilităților marginale într-un lanț Markov, oferit exemple de lanț tipic și omogen Markov, precum și pentru a găsi matricea de tranziție.
Suntem convinși că schema de lanț Markov este o generalizare directă a schemei de studii independente.
Referințe
2. Gnedenko BV Cursul a teoriei probabilității.
3. Gmurman VE Teoria probabilităților și statistica matematică.
4. ES Wentzel Teoria probabilităților și aplicațiile sale de inginerie.
6. M. Katz probabilităților și întrebări legate de fizica.