chaîne de Markov
:
![](//upload.wikimedia.org/wikipedia/commons/thumb/2/2b/Markovkate_01.svg/220px-Markovkate_01.svg.png)
Exemple élémentaire de chaîne de Markov, à deux états A et E. Les flèches indiquent les probabilités de transition d’un état à un autre.
Français[modifier le wikicode]
Étymologie[modifier le wikicode]
- D’après Andreï Markov.
Locution nominale [modifier le wikicode]
Singulier | Pluriel |
---|---|
chaîne de Markov | chaînes de Markov |
\ʃɛn də maʁ.kɔf\ |
![](http://upload.wikimedia.org/wikipedia/commons/thumb/2/2b/Markovkate_01.svg/220px-Markovkate_01.svg.png)
chaîne de Markov \ʃɛn də maʁ.kɔf\ féminin (orthographe traditionnelle)
- (Probabilités) Représentation de la prédiction du futur grâce à l’état présent du processus.
Variantes orthographiques[modifier le wikicode]
Dérivés[modifier le wikicode]
Traductions[modifier le wikicode]
- Anglais : Markov chain (en)
- Italien : catena di Markov (it)
Prononciation[modifier le wikicode]
- France (Toulouse) : écouter « chaîne de Markov [Prononciation ?] »
- Lyon (France) : écouter « chaîne de Markov [Prononciation ?] »
Voir aussi[modifier le wikicode]
- chaîne de Markov sur l’encyclopédie Wikipédia