<img height="1" width="1" style="display:none" src="https://www.facebook.com/tr?id=1238006416535832&amp;ev=PageView&amp;noscript=1">

    Glosario CAT para Mejorar la Selección de Talento en RRHH

    Glosario CAT para Mejorar la Selección de Talento en RRHHPortada del artículo Glosario CAT para equipos de RRHH y People Analytics con una analista revisando gráficos de pruebas adaptativas e IRT junto a métricas de impacto en contrataciones, trabajo operativo y rotación de personal

    En selección de talento, hablar el mismo idioma técnico marca la diferencia entre un proceso preciso y uno que depende del criterio individual de cada reclutador. El glosario CAT reúne los conceptos que todo equipo de RRHH y People Analytics debería dominar para entender cómo funciona el Computer Adaptive Testing (CAT) y la Teoría de Respuesta al Ítem (IRT), dos metodologías que están redefiniendo la evaluación de candidatos en Latinoamérica.

    ¿Por qué importa? Porque las pruebas adaptativas ajustan su dificultad en tiempo real según las respuestas del candidato. Eso entrega resultados más precisos, con menos preguntas y menos fatiga, lo que se traduce en decisiones de contratación basadas en datos confiables y no en intuición.

    En esta guía vas a encontrar los términos clave que conectan la metodología CAT con la práctica diaria del reclutamiento: desde IRT y banco de ítems hasta validez psicométrica y ajuste al cargo.

    Si quieres ver cómo se aplican dentro de un proceso real, agenda una demo con Evaluar y descubre nuestro software de selección con CAT integrado.

     

     

     

     

     

    Tabla de contenidos:

    Introducción al Glosario CAT

    El CAT (Computer Adaptive Testing) es una metodología psicométrica que ajusta la dificultad de cada pregunta en tiempo real según las respuestas previas del candidato. Si responde bien, la siguiente pregunta sube de nivel; si falla, baja. El resultado es una evaluación que mide con precisión el nivel real de la persona usando hasta un 50% menos de preguntas que una prueba lineal tradicional.

    Detrás de esa adaptabilidad está la Teoría de Respuesta al Ítem (IRT), el modelo estadístico que permite calcular el nivel del candidato con cada respuesta. Es la misma base que utilizan exámenes internacionales como el GMAT y el GRE para evaluar a millones de personas con consistencia y validez comprobada.

    Para los equipos de RRHH, esto significa procesos más cortos, candidatos menos fatigados y datos más confiables para decidir. En LATAM, Evaluar es la única plataforma de selección que integra CAT de forma nativa dentro del proceso completo.

    Infografía del flujo de Computer Adaptive Testing CAT que muestra cómo la prueba ajusta la dificultad en tiempo real para evaluar al candidato con menos preguntas y mayor precisión

    Conceptos Clave en la Teoría de Respuesta al Ítem (IRT)

    La Teoría de Respuesta al Ítem (IRT) es el modelo estadístico que sustenta al CAT. En lugar de calificar al candidato por el total de aciertos, analiza cómo se comporta cada ítem frente a personas con distintos niveles de habilidad. Así la prueba se calibra con precisión y se adapta a quien la responde.

    El modelo más usado en evaluación de talento trabaja con tres parámetros:

    • Parámetro a (discriminación): mide qué tan bien una pregunta separa a candidatos con mayor habilidad de los que tienen menor. A mayor valor, mejor diferencia entre perfiles.
    • Parámetro b (dificultad): indica el nivel de habilidad necesario para responder correctamente y permite ordenar los ítems por exigencia para adaptar la prueba al evaluado.
    • Parámetro c (acierto casual): estima la probabilidad de acertar por azar, común en preguntas de opción múltiple. Sin él se sobrestima el nivel real del candidato (Embretson y Reise, 2000).

    Dominar estos parámetros eleva la calidad de cada evaluación. Si quieres aplicarlos en tu proceso de selección, escríbenos para una asesoría. También puedes revisar nuestro artículo sobre pruebas psicométricas y su impacto en la contratación.

    Curva característica del ítem en IRT que muestra los parámetros a de discriminación, b de dificultad y c de acierto casual aplicados a pruebas psicométricas adaptativas

    Parámetros del Modelo IRT

    Más allá de su definición teórica, los parámetros a, b y c son los que determinan si un banco de ítems es realmente útil para seleccionar talento. En RRHH, su aplicación define la calidad de cada prueba y la confiabilidad de los resultados que llegan al reporte final.

    • Aplicación de los parámetros: un banco de ítems calibrado en IRT permite priorizar las preguntas con mayor poder discriminativo (parámetro a alto) para distinguir entre candidatos finalistas; ajustar la dificultad (parámetro b) al nivel del cargo, desde operativo hasta directivo; y descartar ítems donde el acierto casual (parámetro c) compromete la validez del puntaje. Así cada persona responde un set adaptado a su nivel real, no una prueba estándar para todos.

    Este uso fino de los parámetros es lo que diferencia a una prueba moderna de un cuestionario genérico. Permite reducir el tiempo de evaluación, elevar la precisión del puntaje y entregar reportes con argumentos defendibles ante el cliente interno.

    MIRT y su Aplicación en Evaluación de Talento

    El MIRT (Multidimensional Item Response Theory) extiende la lógica del IRT a varias dimensiones al mismo tiempo. En lugar de medir una sola habilidad por prueba, estima de forma simultánea competencias relacionadas como razonamiento numérico, verbal y abstracto, o autonomía, liderazgo y trabajo en equipo. Para los equipos de RRHH, eso significa un perfil más completo del candidato sin alargar el tiempo de evaluación.

    La aplicación del MIRT en selección de talento aporta tres beneficios concretos:

    • Perfil multidimensional con menos preguntas: una misma respuesta entrega información sobre varias competencias correlacionadas, lo que reduce la fatiga del candidato.
    • Mayor ajuste al cargo: permite cruzar el resultado con el modelo de competencias del puesto con más precisión, no con un puntaje global aislado.
    • Reportes útiles para el cliente interno: el reclutador entrega una lectura por dimensión que sostiene la decisión ante el área solicitante, en lugar de una sola cifra.

    Si quieres aplicar este nivel de profundidad en tu proceso, agenda una demo con Evaluar y conoce más sobre evaluaciones de personas.

    Interpretación de SE(θ) y sus Implicaciones

    El SE(θ) (Standard Error of Ability) es el indicador estadístico que mide qué tan precisa es la estimación del nivel de habilidad de un candidato en una prueba basada en IRT. Cuanto más bajo el SE(θ), más confiable es el resultado para tomar decisiones de contratación.

    En una prueba adaptativa (CAT), el algoritmo no se detiene en un número fijo de preguntas. Sigue presentando ítems hasta que el SE(θ) cae por debajo de un umbral predefinido. Eso permite que dos candidatos con perfiles distintos respondan diferente cantidad de preguntas y aun así alcancen el mismo nivel de precisión estadística en su puntaje.

    Para el reclutador, esto tiene tres implicaciones prácticas:

    • Reportes con margen de error explícito, no solo un número aislado.
    • Comparaciones más justas entre candidatos, porque cada estimación tiene la misma calidad estadística.
    • Argumentos defendibles cuando el cliente interno cuestiona una decisión de contratación.

     

    Conclusiones

    Dominar el vocabulario del CAT y el IRT no es un ejercicio académico. Es la diferencia entre aplicar una prueba que solo califica respuestas y aplicar una metodología que estima con precisión el nivel real del candidato, ajusta la dificultad en tiempo real y entrega un resultado defendible ante el cliente interno.

    Tres ideas para llevarse de este glosario:

    • El CAT y el IRT permiten evaluar mejor con menos preguntas, lo que reduce la fatiga del candidato sin sacrificar la precisión del resultado.
    • Los parámetros de discriminación, dificultad y acierto casual definen la calidad de cada banco de ítems y, por lo tanto, la confiabilidad de la decisión final de contratación.
    • El SE(θ) y el MIRT entregan al reclutador profundidad estadística y argumentos sólidos para defender cada selección con datos concretos, no con intuición.

    Si quieres aplicar esta metodología en tu próximo proceso, agenda una demo con Evaluar y conoce nuestro software de selección con metodología CAT integrada.

     

     

     

     

     

    Fuentes

    • Routledge (Taylor & Francis) — Item Response Theory for Psychologists
    • Routledge (Lawrence Erlbaum) — Computerized Adaptive Testing: A Primer
    • Springer (Kluwer Academic Publishers) — Computerized Adaptive Testing: Theory and Practice
    • Springer — Multidimensional Item Response Theory
    • Routledge — Handbook of Item Response Theory
    • mba.com (Graduate Management Admission Council) — GMAT: What Is a Computer-Adaptive Exam?
    • ets.org (Educational Testing Service) — GRE General Test Structure

     

    También te puede interesar

     

    Topics: Software de RRHH, ATS y Metodología

    Andrés Delgado

    Acerca de Andrés Delgado

    Director de Marketing Digital con experiencia en planificación estratégica y ejecución de actividades tácticas. Enfoque en estrategias de branding, comunicación y marketing directo, con especialidad en marketing digital, gestión de bases de datos y leads. Dos veces ganador del Google Contest All Stars, siendo el primer ecuatoriano en recibir capacitación en Google Plex.

    Buscar Blogs Evaluar

      Suscríbete a nuestro blog

      Recent Posts

         
      Nueva llamada a la acción

      Conoce más de nuestros productos