ıllı Portal de Psicología y NeuroCiencias (2018)

Portal wikinfo sobre psicología y neurociencias.

 !Selecciona tu Idioma!

Enciclopedia/Diccionario de Psicología y Neurociencias:

ıllı Teoría de respuesta al ítem wiki: info, libros pdf y vídeos

psicologia y neurociencias

salud  Teoría de respuesta al ítem 


El origen de la Teoría de contestación al ítem se asocia con el trabajo del matemático danés Georg Rasch (mil novecientos sesenta), como del mismo modo con los desarrollos de Birnbaum, Lord y Novik (mil novecientos sesenta y ocho), Fischer (mil novecientos setenta y cuatro), Hambleton y otros. Las ideas sobre las que se basa este modelo, no obstante, habían sido expuestas ya antes, aun muy de manera temprana, por la parte de los creadores del campo de la psicometría (Louis León Thurstone, mil novecientos doce y Alfred Binet, mil novecientos cinco). Expositores recientes remarcan que esta teoría busca ser aristotélica (en el sentido de poner más atención a los datos y la forma como los humanos responden a instrumentos de medición) que platónica (o sea, basada en una idealización de condiciones cuyos presupuestos prácticamente jamás se comprueban) como sería el caso de la teoría tradicional de los tests, la teoría psicométrica más famosa.


Limitaciones de la teoría clásica


Las primordiales deficiencias y restricciones de la teoría tradicional (TC) están determinadas por la manera como se edifican las pruebas sicológicas bajo este modelo y se han descrito ampliamente. Esencialmente, se trata de lo conflictivo que resultan los indicadores de complejidad, discriminación y relación, conceptos básicos con los que trabaja el modelo, como la utilización de índices cuyos valores dependen del conjunto concreto de sujetos lugar desde donde se consiguieron esos datos y las estimaciones sobre la habilidad de los sujetos examinados (los puntajes reales) dependen de la selección de ítems que conforman la prueba.


La imposibilidad de delimitar en términos objetivos lo que se mide (las variables latentes, como los rasgos de personalidad), hace que existan, por poner un ejemplo, muchos instrumentos para medir depresión, que dan medidas diferentes y también inherentemente inigualables, puesto que no se puede determinar de forma objetiva cuál mide ciertamente ese rasgo, puesto que fueron construidas bajo la teoría tradicional y están sostienes a sus paradojas.


En breve, para poder medir bajo la TC se acepta que el puntaje real del rasgo sicológico a medir (T) está relacionado con el puntaje observado de forma directa (O bien), aunque sujeto a algún fallo (y también), como se expresa en T=O+e. (En esa expresión puede verse ya el platonismo señalado líneas arriba). Conque para saber de qué tamaño es ese fallo y apreciar entonces el puntaje real debe cubrirse un conjunto de requisitos conocidos como tau-equivalencia, el más esencial de los que en este contexto es que deben tenerse múltiples observaciones del rasgo en condiciones (idealmente) iguales. La varianza de estas va a ser distribuida por norma general y su media puede ser estimada muy puntualmente, con lo que se tiene el valor de e al que se sumará O para apreciar T. Esta es la razón de que los instrumentos sicológicos tengan más de un reactivo o bien ítem.


Las paradojas de este enfoque son las siguientes:



  1. Los puntajes observados son solamente de nivel ordinal, no importa qué tan enanos sean los intervalos de contestación, y por lo tanto no está justificado el empleo de la mayor parte de los procedimientos estadísticos multivariados.
  2. Los puntajes están en una escala, mientras que las personas sostienes a evaluación están en otra (n-tiles o bien derivados). En este sentido jamás se mide el rasgo personal, sino más bien el ordenamiento de los sujetos de la muestra en él.
  3. Mientras más reactivos se tenga, mejor estimación de precisión (fiabilidad) se conseguirá, tal y como si los sujetos no variasen.

Estas y otras contrariedades eran conocidas por los profesionales de la medición, en especial del logro académico. Se desarrollaron, aún bajo la TC ciertas soluciones, entre otras muchas la equiparación (equating). Ninguna de ellas daba resultados perfectos, lo que dejaba la acusación de desigualdad en los procesos de medición, por servirnos de un ejemplo de exámenes de ingreso a la universidad o bien al trabajo con cortes esenciales cara algún conjunto social.


Teoría de la generalizabilidad


Tras la teoría tradicional, eminentemente a lo largo de la década de mil novecientos sesenta, se desarrolló un segundo modelo para la construcción de pruebas, conocido como «teoría de la generalizabilidad» o bien «de las facetas», que procuraba complementar el primer modelo tradicional y compensar sus deficiencias. Usando el análisis de varianza, se orientaba a descubrir las fuentes de fallo de los puntajes a través de el término de «faceta», que se empleaba para designar las distintas peculiaridades de una determinada situación de medición que pueden mudar en las diferentes ocasiones en que esta se lleva a efecto y que pueden influir alterando sus resultados. Aplicando análisis de varianza procuraba desarticular la relación entre T, O y e, mas sostenía en lo esencial los presuntos de la teoría tradicional.


La nueva perspectiva desecha la idea de que T y O están relacionadas directamente, postulando en su sitio que esta relación es probabilística, no lineal y abstracta. En contraposición con la teoría tradicional, el enfoque de la TRI se concentra solo en calcular «la probabilidad con la que un sujeto determinado responderá una pregunta determinada de una determinada manera». Esa probabilidad se considera en concordancia con el grado de presencia de la característica en el sujeto sometido a la prueba y con las propiedades del test.


La TRI ha sustituido a la teoría tradicional de medida como marco de cara al desarrollo de tests y construcción de escalas. Tanto en la teoría tradicional de los tests como en la teoría de la generalizabilidad, las puntuaciones de un test son más dependientes de la muestra que de la propia función analizada.


La TRI trata de remediar 2 problemas: El primero hace referencia al fallo en la medida y acepta que las puntuaciones de los sujetos en un test van a estar perjudicadas por un fallo azaroso, atribuible a diferentes causas, dependientes del sujeto, del entorno, del instrumento y del propio proceso de evaluación; el segundo se refiere a la invarianza de las mediciones y las propiedades de los instrumentos.


Los objetivos principales de la TRI son:



  • Obtener puntuaciones independientes de la norma: busca de medidas que sean independientes de las puntuaciones estándar derivadas del conjunto.
  • Elaborar nuevas pruebas que examinen la invarianza de la conducta en sí, de tal modo que un test represente con precisión un dominio gradual de conocimiento relativo a una sola medida.
  • La relación de los 2 conceptos precedentes deja un género de medida en la que los factores de ítem y de persona son los dos invariantes, de tal manera que ni la elección de una muestra de sujetos, ni la elección de los ítems afecte a los factores de complejidad del ítem ni a los de la habilidad.
  • La agilidad en la combinatoria de ítems de test, que pertenezcan a un mismo dominio de conducta, dando paso a la aplicación de tests amoldados al sujeto, dependiendo de la capacidad de las habilidades de cada individuo.

En cuanto al cálculo estadístico, la TRI usa un modelo matemático logístico para describir la relación entre el nivel de habilidad del examinado y la probabilidad de que este dé una contestación adecuada a un ítem del test. Ciertas aplicaciones de la TRI han consistido en la creación de bancos de ítems y los diseños de tests a medida del sujeto o bien test adaptativos computarizados (TAC). Los test de medida consisten en la selección informatizada de los ítems que puedan medir mejor la habilidad de un individuo.


Metodológicamente, los modelos probabilísticos de construcción de pruebas, basados en la teoría de contestación al ítem, superan sin duda a los modelos basados en la teoría tradicional. Sin embargo, se les critica que si bien son más complejos (y por ende acarrean la desventaja de requerir un mayor esmero en su aplicación) no consiguen superar el primordial inconveniente de la aplicación de test sicológicos, consistente en que la valía de todos sería intrínsecamente controvertible, insatisfactoria o bien deficiente. Para solucionar este inconveniente se requeriría sobre un desarrollo de orden teorético, una mejora del edificio teorético del diagnóstico sicológico a nivel de contenidos, más que metodológico. Un aspecto que desata muchas polémicas en el área psicométrica es que los diferentes modelos teóricos sobre el humano y la enfermedad tienen conceptualmente un abordaje muy, muy diferente del inconveniente a medir. Mientras que el modelo médico enfoca las perturbaciones sicológicas como una enfermedad, el modelo psicosocial las define más bien como sistemas de comportamiento aprendidos o bien conformados en el trascurso del desarrollo de una persona y que configuran patrones de comportamiento que fundamentalmente no se desvían del comportamiento normal. El nuevo modelo probabilístico, si bien superior, tampoco conseguiría contestar a estas contradicciones esenciales, que son las que en suma van en menoscabo de la valía de las pruebas sicológicas.


mas informacion


  ELIGE TU TEMA DE INTERÉS: 


wiki

  PSICOLOGIA (Wikinfo) 

wiki   BUSCADOR PSICOLOGIA    

 

USUARIOS:

Hay 18 invitados y ningún miembro en línea

psicologia y neurociencias

psicologia y neurociencias

 psicologia y neurociencias

Está aquí: Inicio > [ PSICOLOGIA (WIKINFO) ] > ıllı Teoría de respuesta al ítem wiki: info, libros pdf y vídeos

Las cookies nos permiten ofrecer nuestros servicios. Al utilizar nuestros servicios, aceptas el uso que hacemos de las cookies. Ver políticas