Enciclopedia/Diccionario de Psicología y Neurociencias:
ıllı Comprensión del lenguaje natural wiki: info, libros pdf y vídeos
- Detalles
- Categoría: PSICOLOGIA (WIKINFO)
Comprensión del lenguaje natural
El programa STUDENT (estudiante), escrito en mil novecientos sesenta y cuatro por Daniel Bobrow para su disertación de PhD en el MIT es uno de los primeros intentos conocidos del comprensión por un PC del lenguaje natural. 8 años una vez que John McCarthy declaró el término de inteligencia artificial, la disertación de Bobrow (Entrada del Lengua Natural para un Sistema Solucionador de Inconvenientes Computacionales) mostró como una computadora puede comprender una entrada fácil en lenguaje antural para solventar inconvenientes algebraicos de palabras. Un año después, en mil novecientos sesenta y cinco, Joseph Weizenbaum en el MIT escribió ELIZA, un programa interactivo que sostenía una charla congruente en Inglés sorbe cualquier tema, la mayor parte sobre psicoterapia. ELIZA trabajaba con un parsing fácil y reemplazando palabras claves por oraciones models, y Weizenbaum eludió el inconveniente de dar al programa una base de datos de conocimiento del mundial real o bien un buen léxico. Incluso de esta forma ELIZA consiguió una sorprendente popularidad como proyecto juguete y puede ser visto como temprano predecesor de los sistemas comerciales actuales como aquellos empleados por Ask.com. En mil novecientos sesenta y nueve Roger Schank en la universidad de Stanford introdujo la teoría de dependencia ideal para el comprensión del lengua natural. Este modelo, parcialmente influido por el trabajo de la ciudad de Sydney Lamb, era ampliamente empleado por pupilos de Schank en la Universidad de Yale, como Robert Wilensky, Wendy Lehnert, y Janet Kolodner. En mil novecientos setenta, William A. Woods introdujo la red de transición aumentada (RTA) para representar entrada de lengua natural. En lugar de reglas de estructura de oración, los RTAs empleaban un conjunto equivalente de estado androide finito que era llamado recursivamente. RTAs y su formato más general llamado "RTAs extendidos" prosiguieron siendo utilziados por muchos años. En mil novecientos setenta y uno Terry Winograd acabó de redactar SHRDLU para su tesis de PhD en el MIT. SHRDLU podría comprender oraciones inglesas fáciles en un planeta limitado de bloques de hijos para dirigir un brazo robótico que mueve elementos. La demostración triunfante de SHRDLU mostró la relevancia de la continuidad de la investigación en el campo. Winograd prosiguió siendo una esencial repercusión en el campo con la publicación de su libro Lenguaje como un proceso cognitivo. En Stanford, Winograd después sería el consultor de Larry Page, quien co-creó Google. En los 1970s y los 1980s el conjunto de procesamiento de lenguaje natural en SRI International prosiguió la investigación y el desarrollo en el campo. Se tomaron un número de sacrificios comerciales basados en la investigación, p. ej., en mil novecientos ochenta y dos Gary Hendrix formó Symantec Corporation originalmente como compañía de cara al desarrollo de una interfaz para el lenguaje natural que ayudase a las consultas de bases de datos en ordenadores personales. No obstante, con la llegada del empleo del ratón, las interfaces de usario de Symantec cambiaron de dirección. Otros sacrificios comerciales comenzaron por esos años, p. ej., Larry R. Harris en la Artificial Intelligence Corporation y Roger Schank y su aulmnos de Cognitive Systems corp. En mil novecientos ochenta y tres, Michael Dyer desarrolló en Yale el sistema BORIS el que tiene muchas similitudes con el trabajo de Roger Schank y W. G. Lehnart. El tercer milenio trajo la introducción de los sistemas que emplean aprendizaje de máquina para clasificación de texto, como el IBM Watson. Incluso de esta forma, esto no es CLN. Conforme John Searle, Watson ni tan siquiera comprendió las preguntas. John Ball, inventor y científico cognitivo de la Teoría de Patom (Patom Theory) apoya esta valoración. CLN ha hecho avances en el apoyo a la productividad humana en servicio y comercio electrónicos, mas esto en una gran parte ha sido posible especializando el alcance de la aplicación. Hay miles y miles de formas de solicitar algo en una lengua humana que retan al CLN usual. "Tener una charla significativa con máquinas es solo posible cuando emparejamos cada palabra con su significado adecuado basado en los significados de las otras palabras en la oración – justo como un pequeño de tres años hace sin conjeturas" Patom Teoría El término global "entendimiento del lenguaje natural" puede ser aplicado a un conjunto diverso de aplicaciones de PC, desde pequeñas, parcialmente simples labores, como órdenes cortas para robots, a sacrificios enormemente complejos como la total entendimiento de artículos periodísticos o bien fragmentos de poesía. Muchos aplicaciones del planeta real caen entre los 2 extremos, por servirnos de un ejemplo, la clasificación de texto para el análisis automático de correos y su reenvío a un departamento conveniente en una compañía no requiere un profundo comprensión del texto, mas precisa tratar con un léxico mucho mayor y una sintaxis más diversa que la administración de simples consultas a tablas de bases de datos con esquemas fijos. A través de los años múltiples intentos de procesar lenguaje natural o bien oraciones del inglés en ordenadores han tenido sitio en diferentes grados de dificultad. Ciertos intentos no han resultado en sistemas con una profunda entendimiento, mas han ayudado sobre todo en la usabilidad de sistemas. Por servirnos de un ejemplo, Wayne Ratliff originalmente desarrolló el programa Vulcan con un sintaxis afín al inglés para simular el habla de la computadora en Star Trek. Vulcan después se transformó en dBase, un sistema cuya sintaxis simple de emplear lanzó con eficacia la industria de las bases de datos en ordenadores personales. Sistemas sintaxis simples de emplear o bien afines al inglés son, no obstante, bastante diferentes de sistemas que utilizan un léxico rico y también incluyen una representación interna (con frecuencia como lógica de primera importancia) de la semántica de oraciones en lenguaje natural. Por ello la amplitud y profundidad de "entendimiento" en un sistema determina tanto la dificultad del sistema (y los cambios que implica) y los modelos de aplicaciones que pueda tratar.La "amplitud" de un sistema se mide por los tamaños de su léxico y gramática. La "profundidad" se mide por el grado en el que su entendimiento se acerca al de un hablante nativo fluido. En el más estrecho y más superficial, intérprete de comandos afines al inglés que precisan de una dificultad mínima, mas tienen una gama pequeña de aplicaciones. Los sistemas estrechos mas profundos exploran y modelan mecanismos de entendimiento, mas aún tienen aplicaciones limitadas. Los sistemas que procuran comprender el contenido de un documento como una nueva alén del emparejamiento de las palabras claves fáciles y que responden a su conveniencia para un usuario es más abaracdor y requiere una mayor dificultad, mas son aún un tanto superficiales. Los sistemas que son tanto anchísimos como profundos van alén del actual estado del arte. Sin importar el enfoque utilizado, la mayor parte de los sistemas de entendimiento de lenguaje natural comparten ciertos componentes comunes. El sistema precisa un léxico de la lengua y reglas de parser y gramática para covnertir oraciones a una representación interna. La construcción de un bueno léxico con una ontología conveniente requiere un esmero significativo, p.ej., el léxico de Wordnet requirió mucha personas y años de esmero. El sistema asimismo precisa una teoría semántica para guiar la compresión. Las capacidades de interpretación de un sistema de comprensión del lenguaje depende de la teoría semántica usada. La competencis en las teorías semánticas del lenguaje tienen concretas compensaciones en sus beneficios como las bases de la interpretación semántica automatizada computacionalmente. Esto va desde las semánticas ingenuas o bien análisis semántico estocástico al empleo de la pragmática para conseguir el significando en un contexto. Aplicaciones avanzadas de CLN asimismo procuran agregar inferencia lógica en su marco, lo que es por norma general conseguido mapeando el significado derivado a un conjunto de aseveraciones en lógica de predicado, entonces usando deducción lógica para llegar a conclusiones. Por consiguiente, los sistemas basados en lenguajes funcionales como Lisp precisan incluir un subsistema para representar aseveraciones lógicas, al paso que los sistemas orientados a la lógica como aquellos que emplean el lenguaje Prolog normalmente caen en una extensión del framework de representación lógica built-in. La administración del contexto en CLN puede presentar grandes desafíos. Una pluralidad grande de ejemplos han resultado en aproximaciones múltiples a la modelación formal del contexto, cada quien con debilidades y beneficios concretos.