ıllı Portal de Psicología y NeuroCiencias (2018)

Portal wikinfo sobre psicología y neurociencias.

 !Selecciona tu Idioma!

Enciclopedia/Diccionario de Psicología y Neurociencias:

ıllı Campo aleatorio condicional wiki: info, libros pdf y vídeos

psicologia y neurociencias

salud  Campo aleatorio condicional 


Dada una secuencia de datos O1,...ON este modelo asigna una etiqueta Si para cada elemento Oi. Si bien presenta semejanzas con los modelos ocultos de Márkov, estos son modelos generativos que modelan de manera conjunta la distribución de probabilidad de las etiquetas (o bien estados) y las observaciones, P(S,O), al paso que los campos azarosos condicionales modelan la probabilidad de la secuencia adecuada de etiquetas condicionada por las observaciones, P(S|O)O), o sea, son modelos discriminativos.


Se puede representar con un grafo no dirigidoG=(V,E) en el que cada vértice represente una variable azarosa cuya distribución de probabilidad ha de ser deducida, y cada arista indique una dependencia entre las variables de los vértices que conecta. El grafo obedece la propiedad de Márkov extendida a grafos:

P(Si|O,Sj;i?j)=P(Si|O,Sj;Si~Sj)O,S_;i\neq j)=P(S_

donde ~ quiere decir que los vértices Si y Sj están conectados por una arista. En lo que se refiere a los datos Oi, asimismo llamados observaciones, lo más usual es que sean asimismo una secuencia. Además de esto, es usual que cada Oi sea un vector, no un valor escalar, en tal caso tendríamos observaciones multimensionales.


El grafo puede tener una estructura arbitrariamente compleja, si bien lo más habitual es que sea una cadena o bien un "reja". En una cadena, cada vértice está solamente conectado con el vértice precursor y con sus sucesor (se acepta que los vértices están ordenados). En una reja, cada vértice está conectado con otros cuatro, salvo en los extremos; un vértice Sij va a estar conectado con Si,j-1,Si,j+1,Si-1,j y Si+1,j. En el caso de la cadena la propiedad de Márkov puede reescribirse de la próxima forma:

P(Si|O,Sj;i?j)=P(Si|O,Sj;Si-1,Si+1)O,S_;S_,S_)

Estos modelos precisan ser entrenados con N muestras (O(i),S(i))N1; cada una contiene un conjunto de observaciones como las etiquetas asociadas a esas observaciones. El modelo extrae un conjunto de peculiaridades f(i,Si,Si+1) y g(i,Si,O) que representan las dependencias existentes entre diferentes estados y entre estos y la secuencia de observaciones. A la inversa que en los modelos ocultos de Márkov en donde cada estado Si depende solamente de la observación Oi, acá cada estado puede depender de múltiples observaciones al tiempo, aun de la secuencia completa si fuera preciso. En el adiestramiento del modelo este asigna unos pesos a cada una de esas peculiaridades, señalando su relativa relevancia conforme el caso. Pues el adiestramiento puede ser realmente costoso en tiempo y en espacio, lo común es emplear algoritmos de optimización numérica, como el llamado L-BFGS. En lo que se refiere al empleo, el algoritmo de Viterbi de los modelos ocultos de Márkov puede ser amoldado con sencillez. Asimismo se puede utilizar el algoritmo de propagación de opiniones (belief propagation en inglés).


mas informacion


  ELIGE TU TEMA DE INTERÉS: 


wiki

  PSICOLOGIA (Wikinfo) 

wiki   BUSCADOR PSICOLOGIA    

 

USUARIOS:

Hay 113 invitados y ningún miembro en línea

psicologia y neurociencias

psicologia y neurociencias

 psicologia y neurociencias

Está aquí: Inicio > [ PSICOLOGIA (WIKINFO) ] > ıllı Campo aleatorio condicional wiki: info, libros pdf y vídeos

Las cookies nos permiten ofrecer nuestros servicios. Al utilizar nuestros servicios, aceptas el uso que hacemos de las cookies. Ver políticas