Enciclopedia/Diccionario de Psicología y Neurociencias:
ıllı Modelo oculto de Márkov wiki: info, libros pdf y vídeos
- Detalles
- Categoría: PSICOLOGIA (WIKINFO)
Modelo oculto de Márkov
Un modelo escondo de Márkov o bien HMM (por sus iniciales del inglés, Hidden Markov Model) es un modelo estadístico en el que se acepta que el sistema a modelar es un proceso de Márkov de factores ignotos. La meta es determinar los factores ignotos (o bien ocultos, de ahí el nombre) de dicha cadena desde los factores observables. Los factores extraídos se pueden emplear para realizar consecutivos análisis, por poner un ejemplo en aplicaciones de reconocimiento de patrones. Un HMM se puede estimar como la red bayesiana activa más simple. En un modelo de Márkov normal, el estado es perceptible de manera directa para el observador, con lo que las probabilidades de transición entre estados son los únicos factores. En un modelo escondo de Márkov, el estado no es perceptible de manera directa, sino solo lo son las variables influidas por el estado. Cada estado tiene una distribución de probabilidad sobre los posibles símbolos de salida. Consecuentemente, la secuencia de símbolos generada por un HMM da cierta información sobre la secuencia de estados. Los modelos ocultos de Márkov son singularmente aplicados a reconocimiento de formas temporales, como reconocimiento del habla, de escritura manual, de ademanes, etiquetado gramatical o bien en bioinformática. En el reconocimiento de voz se emplea para modelar una oración completa, una palabra, un fonema o bien trifonema en el modelo acústico. Por servirnos de un ejemplo la palabra "gato" puede estar formada por 2 HMM para los 2 trifonemas que la componen /gat/ y /ato/ El diagrama que se halla más abajo muestra la arquitectura general de un HMM. Cada óvalo representa una variable azarosa que puede tomar ciertos valores. La variable azarosa x(t) es el valor de la variable oculta en el momento de tiempo t. La variable azarosa y(t) es el valor de la variable observada en exactamente el mismo momento de tiempo t. Las flechas señalan dependencias condicionales. Del diagrama está claro que el valor de la variable oculta x(t) (en el momento t) solo depende del valor de la variable oculta x(t-1) (en el momento t-1). A esto se le llama propiedad de Márkov. De forma afín, el valor de la variable observada y(t) solo depende del valor de la variable oculta x(t) (las dos en el momento t). La probabilidad de observar la secuencia Y=y(0),y(1),…,y(L-1) de longitud L está dada por donde la sumatoria se extiende sobre todas y cada una de las secuencias de nodos ocultos X=x(0),x(1),…,x(L-1). El cálculo a la fuerza bárbara de P(Y) es impráctico para la mayor parte de los inconvenientes reales, puesto que el número de secuencias de nodos ocultos va a ser exageradamente alto en tal caso. No obstante, el cálculo puede acelerarse notoriamente utilizando un algoritmo conocido como el procedimiento de avance-retroceso. Una notación frecuente de un MOM es la representación como una tupla (Q,V,p,A,B): La secuencia de observables se indica como un conjunto O=(o1,o2,…,oT). Existen 3 inconvenientes preceptivos asociados con HMM: Imagínese que tiene un amigo que vive lejos y con quien habla diariamente por teléfono sobre lo que hizo a lo largo del día.A su amigo le resultan de interés 3 actividades: pasear por la plaza, salir de compras y adecentar su departamento. Lo que su amigo hace depende solamente del estado del tiempo en ese día. Usted no tiene información clara sobre el estado del tiempo donde su amigo vive, mas conoce tendencias generales. Basándose en lo que su amigo le afirma que hizo en el día, procura adivinar el estado del tiempo. Supóngase que el estado del tiempo se comporta como una cadena de Márkov reservada. Existen 2 estados, "Lluvioso" y "Radiante", mas no los puede observar de forma directa, esto es, están ocultos. Existe asimismo una cierta posibilidad de que su amigo haga una de sus actividades día tras día, en dependencia del estado del tiempo: "pasear", "adquirir" o bien "adecentar". Puesto que su amigo le cuenta sus actividades del día, esas son las observaciones. El sistema completo es un modelo escondo de Márkov. Usted conoce las tendencias generales del tiempo en el área y lo que a su amigo le agrada hacer. En otras palabras, los factores del HMM son conocidos. Pueden escribirse utilizando el lenguaje de programación Python: En esta porción de código se tiene: La probabilidad_inicial que representa el estado en el que piensa que se halla el HMM la primera vez que su amigo lo llama (o sea, sabe que es un tanto más probable que esté lluvioso). La distribución de probabilidades que se utilizó acá no es la de equilibrio, que es (dadas las probabilidades de transición) más o menos . La probabilidad_transicion representa el cambio del tiempo en la cadena de Márkov tras el modelo. En este caso de ejemplo, hay un treinta por ciento de probabilidad de que mañana esté radiante si el día de hoy llovió. La probabilidad_emision representa con cuanta probabilidad su amigo efectúa una actividad determinada día tras día. Si llovizna, hay un cincuenta por ciento de probabilidad de que esté limpiando su departamento; si hay sol, hay un sesenta por ciento de posibilidades de que haya salido a pasear.Ejemplo de transición de estados en un modelo escondo de Márkov
x — estados ocultos
y — salidas observables
a — probabilidades de transición
b — probabilidades de salida Ejemplo de utilización
estados=('Lluvioso','Soleado')observaciones=('caminar','comprar','limpiar')probabilidad_inicial=probabilidad_transicion=probabilidad_emision=
Aplicaciones de modelos ocultos de Márkov