Cadeia de Markov
Abstract
Uma cadeia de Markov é um processo estocástico que modela sistemas que evoluem de um estado para outro, de maneira probabilística, dependendo apenas do estado atual e não do caminho percorrido até ele. Esse conceito tem várias aplicações em diversas áreas, como modelagem de sistemas dinâmicos, economia e teoria de filas.
Introdução
Uma cadeia de Markov é um modelo matemático utilizado para descrever sistemas que transitam entre estados de forma probabilística.
A principal característica das cadeias de Markov é que a transição de um estado para outro depende apenas do estado atual, e não dos estados anteriores. Isso significa que o futuro de um processo é independente do passado, dado o presente, o que é conhecido como a propriedade de Markov.
Esse tipo de processo é amplamente utilizado em áreas como economia, biologia, física e ciência da computação, especialmente em algoritmos de aprendizado de máquina.
Definição
Formalmente, uma cadeia de Markov é um processo estocástico que é descrito por um conjunto de estados e uma matriz de probabilidades de transição. Uma cadeia de Markov pode ser definida como:
- Um conjunto de estados
, que representam as possíveis condições do sistema. - Uma probabilidade de transição
entre os estados, que é dada por uma matriz de probabilidades, onde cada entrada representa a probabilidade de transição do estado para o estado .
A principal propriedade de uma cadeia de Markov é a propriedade de Markov, que pode ser expressa da seguinte forma:
Ou seja, a probabilidade de transitar para o estado
Outra forma de representar a a propriedade da Cadeia de Markov é:
O qual representar a probabilidade de transição do estado
Propriedades
1. Matriz de Transição
A matriz de transição é um componente fundamental da cadeia de Markov. Ela é uma matriz quadrada
As probabilidades em cada linha da matriz somam 1:
Isso garante que, a partir de qualquer estado, o sistema deve transitar para algum outro estado (ou o mesmo), com probabilidade total de 1.
2. Propriedade de Markov
A propriedade de Markov é a condição de memória curta do processo. Isto é, o futuro é independente do passado, dado o estado atual.
Isso é útil, pois simplifica o modelo, pois não é necessário levar em conta toda a história do processo, apenas o estado atual.
3. Estados Absorventes e Transientes
- Um estado absorvente é um estado que, uma vez alcançado, o sistema nunca deixa. Ou seja, a probabilidade de transitar para qualquer outro estado a partir de um estado absorvente é zero.
- Um estado transiente é um estado que o sistema pode deixar eventualmente.
Exemplo
Exemplo 1: Cadeia de Markov com 2 estados
Vamos considerar um sistema com dois estados,