ıllı Portal de Psicología y NeuroCiencias (2018)

Portal wikinfo sobre psicología y neurociencias.

 !Selecciona tu Idioma!

Enciclopedia/Diccionario de Psicología y Neurociencias:

ıllı Modelo oculto de Márkov wiki: info, libros pdf y vídeos

psicologia y neurociencias

salud  Modelo oculto de Márkov 


wikiEjemplo de transición de estados en un modelo escondo de Márkov
x — estados ocultos
y — salidas observables
a — probabilidades de transición
b — probabilidades de salida

Un modelo escondo de Márkov o bien HMM (por sus iniciales del inglés, Hidden Markov Model) es un modelo estadístico en el que se acepta que el sistema a modelar es un proceso de Márkov de factores ignotos. La meta es determinar los factores ignotos (o bien ocultos, de ahí el nombre) de dicha cadena desde los factores observables. Los factores extraídos se pueden emplear para realizar consecutivos análisis, por poner un ejemplo en aplicaciones de reconocimiento de patrones. Un HMM se puede estimar como la red bayesiana activa más simple.


En un modelo de Márkov normal, el estado es perceptible de manera directa para el observador, con lo que las probabilidades de transición entre estados son los únicos factores. En un modelo escondo de Márkov, el estado no es perceptible de manera directa, sino solo lo son las variables influidas por el estado. Cada estado tiene una distribución de probabilidad sobre los posibles símbolos de salida. Consecuentemente, la secuencia de símbolos generada por un HMM da cierta información sobre la secuencia de estados.


Los modelos ocultos de Márkov son singularmente aplicados a reconocimiento de formas temporales, como reconocimiento del habla, de escritura manual, de ademanes, etiquetado gramatical o bien en bioinformática. En el reconocimiento de voz se emplea para modelar una oración completa, una palabra, un fonema o bien trifonema en el modelo acústico. Por servirnos de un ejemplo la palabra "gato" puede estar formada por 2 HMM para los 2 trifonemas que la componen /gat/ y /ato/


El diagrama que se halla más abajo muestra la arquitectura general de un HMM. Cada óvalo representa una variable azarosa que puede tomar ciertos valores. La variable azarosa x(t) es el valor de la variable oculta en el momento de tiempo t. La variable azarosa y(t) es el valor de la variable observada en exactamente el mismo momento de tiempo t. Las flechas señalan dependencias condicionales.


Del diagrama está claro que el valor de la variable oculta x(t) (en el momento t) solo depende del valor de la variable oculta x(t-1) (en el momento t-1). A esto se le llama propiedad de Márkov. De forma afín, el valor de la variable observada y(t) solo depende del valor de la variable oculta x(t) (las dos en el momento t).


La probabilidad de observar la secuencia Y=y(0),y(1),…,y(L-1) de longitud L está dada por

P(Y)=?XP(Y|X)P(X),

donde la sumatoria se extiende sobre todas y cada una de las secuencias de nodos ocultos X=x(0),x(1),…,x(L-1). El cálculo a la fuerza bárbara de P(Y) es impráctico para la mayor parte de los inconvenientes reales, puesto que el número de secuencias de nodos ocultos va a ser exageradamente alto en tal caso. No obstante, el cálculo puede acelerarse notoriamente utilizando un algoritmo conocido como el procedimiento de avance-retroceso.


Una notación frecuente de un MOM es la representación como una tupla (Q,V,p,A,B):



  • El conjunto de estadosQ= . El estado inicial se indica como qt . En el caso de la etiquetación categorial, cada valor de t hace referencia a la situación de la palabra en la oración.
  • El conjunto V de posibles valores observables en todos y cada estado. M es el número de palabras posibles y cada vk hace referencia a una palabra diferente.
  • Las probabilidades inicialesp= , donde pi es la probabilidad de que el primer estado sea el estado Qi .
  • El conjunto de probabilidadesA= de transiciones entre estados.aij=P(qt=j|qt-1=i)q_=i) , esto es, aij es la probabilidad de estar en el estado j en el momento t si en el momento precedente t-1 se estaba en el estado i .
  • El conjunto de probabilidadesB= de las observaciones.bj(vk)=P(ot=vk|qt=j)q_=j) , o sea, la probabilidad de observar vk cuando se está en el estado j en el momento t .

La secuencia de observables se indica como un conjunto O=(o1,o2,…,oT).


Existen 3 inconvenientes preceptivos asociados con HMM:



  • Dados los factores del modelo, compútese la probabilidad de una secuencia de salida particularmente. Este inconveniente se soluciona con el algoritmo de avance-retroceso.
  • Dados los factores del modelo, encuéntrese la secuencia más probable de estados ocultos que puedan haber generado una secuencia de salida dada. Este inconveniente se soluciona con el algoritmo de Viterbi.
  • Dada una secuencia de salida o bien un conjunto de semejantes secuencias, encuéntrese el conjunto de estados de transición y probabilidades de salida más probables. En otras palabras, entrénense a los factores del HMM dada una secuencia de datos. Este inconveniente se soluciona con el algoritmo de Baum-Welch.

Ejemplo de utilización


Imagínese que tiene un amigo que vive lejos y con quien habla diariamente por teléfono sobre lo que hizo a lo largo del día.A su amigo le resultan de interés 3 actividades: pasear por la plaza, salir de compras y adecentar su departamento. Lo que su amigo hace depende solamente del estado del tiempo en ese día. Usted no tiene información clara sobre el estado del tiempo donde su amigo vive, mas conoce tendencias generales. Basándose en lo que su amigo le afirma que hizo en el día, procura adivinar el estado del tiempo.


Supóngase que el estado del tiempo se comporta como una cadena de Márkov reservada. Existen 2 estados, "Lluvioso" y "Radiante", mas no los puede observar de forma directa, esto es, están ocultos. Existe asimismo una cierta posibilidad de que su amigo haga una de sus actividades día tras día, en dependencia del estado del tiempo: "pasear", "adquirir" o bien "adecentar". Puesto que su amigo le cuenta sus actividades del día, esas son las observaciones. El sistema completo es un modelo escondo de Márkov.


Usted conoce las tendencias generales del tiempo en el área y lo que a su amigo le agrada hacer. En otras palabras, los factores del HMM son conocidos. Pueden escribirse utilizando el lenguaje de programación Python:

estados=('Lluvioso','Soleado')observaciones=('caminar','comprar','limpiar')probabilidad_inicial=probabilidad_transicion=probabilidad_emision=

En esta porción de código se tiene:


La probabilidad_inicial que representa el estado en el que piensa que se halla el HMM la primera vez que su amigo lo llama (o sea, sabe que es un tanto más probable que esté lluvioso). La distribución de probabilidades que se utilizó acá no es la de equilibrio, que es (dadas las probabilidades de transición) más o menos .


La probabilidad_transicion representa el cambio del tiempo en la cadena de Márkov tras el modelo. En este caso de ejemplo, hay un treinta por ciento de probabilidad de que mañana esté radiante si el día de hoy llovió.


La probabilidad_emision representa con cuanta probabilidad su amigo efectúa una actividad determinada día tras día. Si llovizna, hay un cincuenta por ciento de probabilidad de que esté limpiando su departamento; si hay sol, hay un sesenta por ciento de posibilidades de que haya salido a pasear.


Aplicaciones de modelos ocultos de Márkov


mas informacion


  ELIGE TU TEMA DE INTERÉS: 


wiki

  PSICOLOGIA (Wikinfo) 

wiki   BUSCADOR PSICOLOGIA    

 

USUARIOS:

Hay 112 invitados y ningún miembro en línea

psicologia y neurociencias

psicologia y neurociencias

 psicologia y neurociencias

Está aquí: Inicio > [ PSICOLOGIA (WIKINFO) ] > ıllı Modelo oculto de Márkov wiki: info, libros pdf y vídeos

Las cookies nos permiten ofrecer nuestros servicios. Al utilizar nuestros servicios, aceptas el uso que hacemos de las cookies. Ver políticas