Taula de continguts:
Definició: què significa la cadena de Markov?
Una cadena de Markov és un procés matemàtic que transita d'un estat a un altre dins d'un nombre finit d'estats possibles. Es tracta d’una col·lecció d’estats i probabilitats diferents d’una variable, on la seva condició o estat futur depèn substancialment del seu estat anterior immediat.
Una cadena de Markov també es coneix com un procés discret de Markov (DTMC) o procés de Markov.
Techopedia explica Markov Chain
Les cadenes Markov s’utilitzen principalment per predir l’estat futur d’una variable o qualsevol objecte en funció del seu estat passat. Aplica enfocaments probabilístics per predir el següent estat. Les cadenes de Markov s’exposen mitjançant gràfics dirigits, que defineixen l’estat actual i passat i la probabilitat de transició d’un estat a un altre.
Les cadenes Markov tenen diverses implementacions en tecnologies informàtiques i d’internet. Per exemple, la fórmula PageRank (r) emprada per la cerca de Google utilitza una cadena Markov per calcular el PageRank d’una pàgina web determinada. També s'utilitza per predir el comportament dels usuaris en un lloc web en funció de les preferències o interaccions anteriors dels usuaris.
