¿Cómo puede saber si una experiencia de aprendizaje (un curso) enseña lo que se pretendía enseñar? ¿Cómo sabe si todos los participantes tuvieron experiencias igualmente exitosas? Hay varias formas de responder a esas preguntas, pero por el bien de los lectores que son nuevos en eLearning, voy a dar una breve historia de la tecnología que hace que la evaluación funcione.
Evaluación básica
Al principio, los resultados del aprendizaje se evaluaron a través de registros administrativos (asistencia y finalización del curso), evaluaciones de los alumnos («hojas de sonrisas») y medidas de criterio (puntajes de exámenes). Todos estos todavía están en uso, aunque solo las pruebas de criterio proporcionan un indicador más o menos objetivo del aprendizaje. En la década de 1990, eLearning proliferó hasta el punto de que cada aplicación de eLearning necesitaba su propio conjunto de productos de apoyo. El Departamento de Defensa de EE. UU. abordó esta situación mediante el diseño de una especificación de gestión de software para garantizar una compatibilidad casi universal de todos los productos de aprendizaje electrónico. Esa especificación llegó a conocerse como SCORM.
SCORM
SCORM (Modelo de referencia de objetos de contenido compartible) es la especificación técnica para los productos de aprendizaje electrónico, cuyo objetivo es garantizar que casi todos los sistemas de gestión del aprendizaje reconozcan el aprendizaje electrónico que se ajuste a la especificación. Este fue un primer intento de medir si se lograron los resultados del aprendizaje, a través de registros administrativos (asistencia y finalización del curso), evaluaciones de los alumnos («hojas de sonrisas») y medidas de criterio (puntajes de exámenes).
¿Qué estaba mal con las medidas de criterio, los registros administrativos y SCORM? En realidad, no miden el aprendizaje y no brindan información confiable sobre la cual mejorar las experiencias de aprendizaje. Una vez más, una organización dentro del Departamento de Defensa de los Estados Unidos (ADL, o Aprendizaje distribuido avanzado) inició un trabajo para corregir estas deficiencias: la Experience API.
xAPI
Experience API (xAPI) es un estándar de datos para informar actividades de aprendizaje. xAPI admite la identificación de lugares donde se pueden necesitar intervenciones de aprendizaje, la medición del impacto de las experiencias de aprendizaje combinado y la documentación de lugares donde se podrían mejorar las experiencias de aprendizaje. El trabajo continúa en la comunidad de eLearning para mejorar la medición del aprendizaje y la compatibilidad cruzada de LMS y aplicaciones de aprendizaje. Pero hay una cosa más. Gran parte del eLearning todavía utiliza pruebas de opción múltiple para evaluar el aprendizaje. Esta es una deficiencia grave, y existe un método probado y confiable para tratarla: el análisis de artículos.
Análisis de artículos
El análisis de ítems era (y sigue siendo) un método estadístico para mejorar algunos tipos de pruebas de criterio (opción múltiple) con el fin de ajustar los ítems de prueba a un nivel uniforme. En otras palabras, para evaluar lo que los estudiantes han aprendido y la confiabilidad de las pruebas en su conjunto. En un momento, el análisis de elementos se realizó utilizando una hoja de cálculo y muchos cálculos estadísticos. Hoy en día existen aplicaciones que hacen el trabajo y xAPI ayudará.
Por lo general, en este tipo de artículo, proporciono enlaces a revisiones de software en la web. Sin embargo, eso no funcionará con este tema: demasiados sinónimos. Le invitamos a hacer su propia búsqueda. Recomendaría términos de búsqueda como «Opción múltiple», «Gestión de pruebas» y «Creador de exámenes» o «Creador de exámenes».
Referencias
En lugar de hacer este artículo más largo de lo que debe ser, voy a citar tres excelentes tutoriales.
María Ann Tobin, PhD. Guía para el análisis de artículos
jason haag, No me dé solo todos los datos: alinee los KPI con xAPI
Peter Berking y Steve Foreman, xAPI y análisis: midiendo su camino hacia el éxito