Accueil l'audio Qu'est-ce qu'une chaîne Markov? - définition de techopedia

Qu'est-ce qu'une chaîne Markov? - définition de techopedia

Table des matières:

Anonim

Définition - Que signifie la chaîne de Markov?

Une chaîne de Markov est un processus mathématique qui passe d'un état à un autre dans un nombre fini d'états possibles. Il s'agit d'un ensemble d'états et de probabilités différents d'une variable, où sa condition ou son état futur dépend substantiellement de son état précédent immédiat.

Une chaîne de Markov est également connue sous le nom de chaîne de Markov à temps discret (DTMC) ou processus de Markov.

Techopedia explique la chaîne Markov

Les chaînes de Markov sont principalement utilisées pour prédire l'état futur d'une variable ou de tout objet en fonction de son état passé. Il applique des approches probabilistes pour prédire le prochain état. Les chaînes de Markov sont présentées à l'aide de graphiques dirigés, qui définissent l'état actuel et passé et la probabilité de transition d'un état à un autre.

Les chaînes de Markov ont plusieurs implémentations dans les technologies informatiques et Internet. Par exemple, la formule PageRank (r) utilisée par la recherche Google utilise une chaîne de Markov pour calculer le PageRank d'une page Web particulière. Il est également utilisé pour prédire le comportement des utilisateurs sur un site Web en fonction des préférences précédentes des utilisateurs ou des interactions avec celui-ci.

Qu'est-ce qu'une chaîne Markov? - définition de techopedia