cadena de Markov
cadena de Markov
- ca cadena de Markov, n f
- es cadena de Markov
- en Markov chain
Enginyeria i arquitectura>Enginyeria elèctrica i electrònica>Enginyeria telemàtica
Definición
Procés estocàstic amb espai d'estats discret que compleix la condició que l'estat actual resumeix tota la història passada del procés.