Tendencias
Learning Analytics: impacto, alcance, buenas prácticas y tecnologías

¿Qué datos se pueden analizar en un proceso formativo? ¿Cómo aprovechar esa información para incrementar el conocimiento del alumno y lograr una mejora continua de las experiencias de aprendizaje? La importancia de Tin Can API. Sugerencias para desarrollar procesos exitosos y herramientas tecnológicas recomendadas. El análisis de dos expertos españoles que participarán en Next Generation Learning 2015.

 

(@americalearning) “El desarrollo de Tin Can y el experience API suministrará una gran cantidad de información para analizar la experiencia de aprendizaje. Aunque aún hay mucho desarrollo por delante, quizás en un medio plazo las empresas sean capaces de rastrear y estudiar cómo ha sido el intercambio y la interacción del alumno durante el proceso de formación. El análisis de estos datos ayudará a entender lo que los participantes han encontrando más útil y efectivo en la adquisición de nuevas competencias y permitirá un proceso de mejora continua de los recursos formativos”. De esta manera, IIR España presenta el panel ‘Learning Analytics: ¿un paso más allá en el análisis del impacto de la formación?’, que se desarrollará en el marco de la séptima edición de su evento Next Generation Learning, a celebrarse el 27 de mayo de 2015 en el Hotel Confortel Pio XII, en la ciudad de Madrid.

 

El panel contará como keynote speakers a Rubén Míguez Pérez, responsable de e-Learning de Gradiant - Centro Tecnolóxico de Telecomunicacions de Galicia, y Pedro José Muñoz Merino, profesor del Departamento de Ingeniería Telemática de la Universidad Carlos III de Madrid, a quienes America Learning Media entrevistó en exclusiva, para investigar en profundidad la actualidad de Learning Analytics y el impacto que está produciendo en los procesos formativos.

 

¿Qué datos se pueden analizar en un proceso formativo y cómo se puede aprovechar esa información para incrementar el conocimiento del alumno y lograr una mejora continua de las experiencias de aprendizaje?

 

Pedro José Muñoz Merino - profesor del Departamento de Ingeniería Telemática de la Universidad Carlos III de Madrid: En la actualidad, la tecnología permite recopilar cualquier tipo de interacción de los usuarios con plataformas y recursos educativos para ser analizados. Así pueden quedar registrados los diferentes tipos de acciones que los usuarios han realizado sobre diferentes recursos educativos así como cuando han realizado dichas acciones y la manera en que las han realizado. Almacenando adecuadamente estas interacciones, se puede tener un seguimiento muy preciso de lo que hace cada usuario. Estas interacciones son datos a bajo nivel que se pueden guardar en bases de datos para ser analizados. Estos datos de bajo nivel no aportan demasiado por si solos sin ninguna transformación y son difícilmente interpretables directamente por los actores del aprendizaje.

La transformación y combinación de esos datos de bajo nivel junto con información semántica (por ejemplo las temáticas de las que trata un recurso educativo o las relaciones entre diferentes recursos educativos) da lugar a información inteligente que aporta información muy relevante sobre el proceso educativo.

Entre esa información inteligente que se puede obtener está aquella para evaluar directamente el proceso educativo, tanto a los usuarios como a los propios recursos educativos. Así se puede conocer la efectividad de los usuarios en la experiencia educativa y con temáticas concretas (por ejemplo si han completado correctamente su interacción con los diferentes recursos), su eficiencia (varios usuarios han podido completar correctamente una serie de recursos pero unos en un menor tiempo o con menor número de intentos) o el tiempo empleado (por ejemplo unos usuarios pueden haber completado tareas incorrectamente pero haber mostrado mucho interés al tener una gran dedicación). También datos como la eficacia, eficiencia o tiempo empleado se pueden aplicar no solo a los usuarios sino asociados a cada recurso educativo para evaluarlo.

También del análisis, combinación y transformación de los datos de bajo nivel se pueden obtener información sobre perfiles de los usuarios relacionados con sus estilos de aprendizaje, comportamientos, emociones o habilidades meta-cognitivas. Ejemplos de estilos de aprendizaje que se podrían detectar serían la detección de alumnos visuales, auditivos o kinestésicos; competitivos, colaborativos o individualistas; apasionados por la gamificación o indiferentes a ella. Ejemplos de comportamientos a detectar serían abusador de pistas, irreflexivo o seguidor de recomendaciones. Ejemplos de emociones a detectar serían alegría, frustración o confusión. Un ejemplo de habilidad meta-cognitiva sería la capacidad para buscar ayuda cuando el usuario la necesita.

Además de información genérica a un conjunto amplio de procesos educativos, se puede también detectar información más concreta de un proceso. Por ejemplo, en un simulador para conducir se podrían detectar características de conducción o errores fruto de la interacción del usuario con el simulador.

En cualquier caso, la información que se puede conseguir y hasta qué grado de precisión se puede detectar, depende del entorno educativo que tengamos. Por ejemplo, en un entorno sin elementos de gamificación no podríamos inferir el perfil del gusto o no por la gamificación.

Toda esta información que proporciona la analítica del aprendizaje se puede utilizar para mejorar los procesos de formación y aumentar lo que aprenden los usuarios, redundando así en una mejora de la productividad para las empresas, las organizaciones y la sociedad. Entre las maneras que se puede aprovechar esta información de la analítica de aprendizaje están las siguientes:

  • Teniendo disponibles indicadores como la efectividad, eficiencia o tiempo invertido en recursos, los profesores pueden comprender qué recursos educativos fallaron o cuales son más difíciles de comprender e incluso que parte de esos recursos tienen problemas y cuáles no o en qué contextos. Esto hace que los profesores puedan mejorar dichos recursos para futuros cursos o en medio de un mismo curso.
  • Los profesores pueden comprender mejor a sus alumnos, conociendo su evolución a lo largo del tiempo, su grado de aprovechamiento, materias concretas donde tiene problemas, perfiles, etc. Con esta información los profesores pueden actuar para dar una realimentación y ayuda al aprendizaje para los alumnos de forma que sea más efectivo.
  • La aplicación de técnicas de predicción, pueden permitir predecir el futuro a partir de un conjunto de indicadores pasados. Así por ejemplo pueden detectar alumnos con riesgo de abandono del curso o que tendrán un aprendizaje bajo o alto. También se pueden inferir qué indicadores influyen en el aprendizaje futuro. De esta forma se puede realizar una intervención temprana para tratar de evitar casos como el abandono de cursos o un aprendizaje bajo.
  • Los alumnos pueden visualizar información sobre ellos mismos, de forma que puedan reflexionar ellos mismos sobre su propio aprendizaje, ver su evolución, perfiles y realizar los cambios que ellos consideren oportunos al ser conscientes de su aprendizaje.
  • Se puede habilitar la adaptación y personalización a los alumnos en función de sus diferentes perfiles para hacer su aprendizaje mejor. Así se pueden habilitar diferentes caminos de aprendizaje dando recursos más adecuados para acelerar el aprendizaje según determinados perfiles.
  • Se puede habilitar recomendadores que guien al alumno en su aprendizaje por ejemplo que ante comportamientos que puedan ser inadecuados (p. ej. abuso de pistas) se le de un determinado mensaje para intentar que sea consciente y que si quiere pueda cambiar para incrementar su aprendizaje y reflexione más antes de ver las pistas.
  • Los gestores de las organizaciones puedan conocer a los mejores profesores, alumnos, cursos, etc. en base a un conjunto de indicadores.
  • Los gestores de las organizaciones puedan conocer más sobre los usuarios y así poder asignar tareas en función de perfiles conocidos fruto de su interacción con las plataformas educativas. Por ejemplo si se detectan perfiles de buscador de información, dar una serie de tareas en la organización adecuadas para quien tiene esa habilidad.

 

Rubén Míguez Pérez - responsable de e-Learning de Gradiant - Centro Tecnolóxico de Telecomunicacions de Galicia: La tipología de datos que es posible analizar es prácticamente ilimitada a día de hoy. Los sistemas de aprendizaje electrónico tienen la facultad de registrar prácticamente cualquier tipo de interacción que realiza el usuario sobre un contenido interactivo. No sólo eso, sino que también es posible capturar acciones "pasivas" por parte del alumno. Nos referimos en este sentido, por ejemplo, a la capacidad de analizar su postura corporal, nivel de atención, concentración, etc. a partir del análisis de expresiones faciales capturadas por una cámara web. Las posibilidades son prácticamente ilimitadas y en Gradiant estamos investigando el potencial que tiene cada una de este tipo de soluciones.

Creo que la pregunta que tenemos que hacernos en este caso no es "qué datos se pueden analizar", sino "cuáles son las preguntas a las que queremos dar respuesta". Es necesario identificar el conjunto mínimo de información útil que necesita un profesor para tener una visión global del alumno y no darle un exceso de datos que lo lleve a la "parálisis por análisis". La analítica del aprendizaje debe ser usada para simplificar el proceso de seguimiento y evaluación del alumno, no para hacerlo más complejo. En este sentido los equipos de learning analytics deben trabajar de la mano de pedagogos y profesores para crear soluciones útiles, capaces de dar respuesta a las necesidades reales de los formadores.

Además, debemos tener en cuenta también que la analítica y tipología de datos a analizar será probablemente distinta en función del sistema que estemos desarrollando. Así, si hablamos de sistemas enfocados al "reporting" y, por tanto, a la creación de informes sobre lo que ha sucedido, las necesidades de información serán muy distintas que si, por el contrario, estamos desarrollando sistemas en tiempo real que deben enviar alertas a un profesor/instructor durante la impartición de una clase.

Es tan amplio este campo de estudio que no es posible dar una respuesta concreta a la pregunta planteada. A modo de ejemplo, la velocidad de acceso a los contenidos y su patrón y nivel de interacción sobre la actividad son datos que pueden utilizarse para estimar el grado de interés y/o concentración en un momento dado de un alumno. Abriéndonos al campo de estudio al terreno de la computación afectiva, la expresión facial de un alumno, el grado en que abre o cierra los ojos, o la manera en que coloca su cuerpo, pueden ser indicadores de su nivel de atención en un momento dado. El análisis de los patrones de acceso a los contenidos, entrega de tareas y tiempos de dedicación estimados nos permite identificar alumnos previsores de aquellos otros que tienden a dejar el trabajo para última hora.  La confianza que tiene un alumno cuando da una respuesta es también un elemento de gran interés para el profesor. Para estimarla es posible utilizar diferentes algoritmos que tengan en cuenta elementos como el tiempo medio de respuesta, el número de selecciones previas realizadas, si se han solicitado pistas, etc. Otro indicador de interés común, utilizado principalmente en el desarrollo de tutores cognitivos, es el indicador del nivel de desafío. Analizando la evolución del porcentaje de aciertos/fallos del alumno y su nivel de confianza medio, es posible crear sistemas capaces de mantener el nivel de desafío de las actividades en un "nivel óptimo". Los videojuegos utilizan este tipo de algoritmia para adaptarse al nivel de cada jugador, logrando así mantener su interés evitando situaciones de aburrimiento (nivel muy fácil) o frustración (nivel excesivamente difícil). Ahora los sistemas de aprendizaje pueden incorporar también este tipo de funcionalidades para crear secuencias de preguntas automáticas o bien, simplemente, darle información al profesor sobre si las actividades del curso encajan o no con el nivel real de sus alumnos.

Otro caso de particular interés es el estudio de las redes sociales de aprendizaje, incluyendo como tales los distintos sistemas de comunicación que integran a día de hoy los LMS (chats, foros, mensajería, etc.). Variantes de la algoritmia analítica utilizada en plataformas sociales como Facebook o Twitter pueden ser utilizadas sobre las redes de conocimiento de un curso para extraer información de interés. A modo de ejemplo, podemos señalar aspectos como: el análisis de las rutas de distribución del conocimiento a través de la red, la identificación de patrones de comportamiento de los alumnos (p.ej. dinamizadores vs seguidores), análisis de opinión en debates, identificación de alumnos aislados o poco supervisados por el instructor, o incluso detectar subgrupos dentro de la red que colaboran activamente entre ellos pero muy poco con elementos externos. Toda esta información puede ayudar a evaluar no sólo el rol y evolución de los alumnos en las actividades sociales, sino también su nivel de efectividad si correlamos estos datos con los resultados que obtienen los alumnos en las pruebas evaluables.

En resumen, los potenciales usos de esta tecnología son ilimitados y dependen, en gran medida, de la tipología de solución que se esté desarrollando. Con toda esta información disponible es posible contribuir en los siguientes campos:

1) Fomentar el aprendizaje autorregulado del alumno: Los propios contenidos pueden darle al alumno información sobre sus fortalezas y debilidades, hábitos de trabajo a corregir y comparativas de evolución.

2) Mejora del diseño instruccional: Analizando el uso que hacen de los contenidos cientos o miles de alumnos es posible obtener información sobre su eficacia e identificar secciones que precisan mejora.

3) Analítica predictiva: Los sistemas analíticos pueden enviar alertas al profesor de determinados comportamientos y ayudar a prevenirlos antes de que desemboquen en una situación de fracaso académico.

4) Gamificación del aprendizaje: El estudio de los comportamientos del alumnado puede permitir generar sistemas de gamificación más potentes y dinámicos. Es posible crear sistemas de asignación de puntos, badges y/o metas individuales personalizadas que favorezcan la implicación del alumnado y su motivación.

5) Aprendizaje adaptativo: Contenidos capaces de adaptarse dinámicamente a las acciones de un alumno y/o conjunto de alumnos y dar información sobre el proceso de aprendizaje.

 

¿Cuáles son las principales recomendaciones que usted sugiere para desarrollar procesos exitosos de Learning Analytics?


Pedro José Muñoz Merino: Mis principales recomendaciones que sugiero para desarrollar procesos exitosos de learning analytics son los siguientes:

  • Hacer conscientes a los diferentes actores de la organización de la importancia de aplicar técnicas de analítica de datos en sus procesos formativos y los beneficios que supone para poder mejorar la formación que redundará en una mejora de la productividad al tener empleados mejor formados para realizar tareas.
  • Que la organización a todos los niveles facilite la implantación de técnicas de analítica de datos, sabedores de su importancia. Que la organización esté dispuesta a estos cambios motivados por sus importantes ventajas, no resistiéndose a ellos y sin poner barreras. Por ejemplo, de nada serviría que profesores quisieran implantar analítica de datos si instancias más altas en una organización no lo permitieran o pusieran muchas dificultades.
  • Considerar todos los aspectos de privacidad, éticos y de protección de datos necesarios y realizar una solución que respete los derechos de los usuarios en estos aspectos.
  • Analizar y ser consciente de lo que se puede obtener y lo que no en términos de información que se puede inferir en el entorno de aprendizaje de la organización.
  • Conocer lo que la organización quiere obtener con la analítica de datos y con qué fin y beneficio se  quiere tener eso.
  • Adoptar una solución de compromiso para cambiar o no y hasta qué grado el entorno de aprendizaje para poder recopilar los datos con la información que se desea.
  • Determinar qué poner para alumnos, profesores, gestores, etc. de funcionalidades de analítica de aprendizaje (visualizaciones, recomendadores, sistemas adaptativos, predictores, etc.). Seleccionar primero en lo posible herramientas existentes que den ese soporte, y considerar implementar nuevas herramientas para lo que se necesite no cubierto por herramientas existentes.
  • Formar adecuadamente a alumnos, profesores, gestores, etc. para poder sacar todo el potencial necesario de las herramientas de analítica de aprendizaje para tomar decisiones que mejoren el aprendizaje y produzcan un beneficio en la organización.

 

Rubén Míguez Pérez: Como comentamos anteriormente, el primer paso es tener claras las preguntas que se quiere responder. No vale analizar datos sin más, sino que debe comenzarse por definir un interrogante claro al que pretendemos dar respuesta. Para ello debe contarse con un equipo multidisciplinar en el que tecnólogos y pedagogos colaboren para definir los requisitos del sistema.

Otra cuestión fundamental es no perder de vista quien es nuestro usuario final. Ni profesores ni alumnos son analistas de datos, por lo que es importante que la información sea pre-procesada y comunicada de forma visualmente atractiva y simple de entender. Esta máxima, en apariencia sencilla, no la cumplen muchos sistemas que parecen más orientados a ofrecer gráficas propias del sector del Business Intelligence que de un entorno educativo. Además, es importante valorar adecuadamente cual es el valor pedagógico de la información mostrada y bajo qué contexto debe mostrarse. La experiencia de usuario (UX) debe ser un eje central del trabajo si se quiere acercar el potencial de esta tecnología a los profesionales del sector educativo.

Una limitación actual de muchos sistemas analíticos es que se centran únicamente en analizar los resultados del alumno, algo que el profesor ya podía ver antes (con mayor o menor esfuerzo), y no en el proceso en sí que le ha llevado a obtener esos resultados. Nosotros trabajamos en esta segunda línea porque creemos que es la que aporta mayor valor. Si realizamos una analogía del proceso de aprendizaje con un iceberg flotante, hasta ahora únicamente teníamos acceso a la parte visible (los resultados de aprendizaje) sobre la que se hacía una analítica muy superficial. A día de hoy, las tecnologías de learning analytics nos permiten realizar una analítica profunda de la parte sumergida, de aquello que no se ve (el proceso de aprendizaje).

En educación interesa el proceso y la evolución, por lo que los sistemas de análisis deben enfocarse fundamentalmente en estas patas.

El otro problema importante a abordar se encuentra en la gestión del cambio en la escuela y en lograr que un formador acepte las conclusiones emitidas por un motor de análisis. En este sentido creemos que lo más importante es integrar al usuario en el proceso y crear sistemas orientados no a sustituir su rol, sino a facilitar su labor. En este punto, es más facil lograr la aceptación de esta tecnología si se utiliza para ayudar al docente y no para dar recomendaciones automáticas a los alumnos sin su participación.

 

¿Cuál es la importancia de Tin Can API en Learning Analytics?

 

Pedro José Muñoz Merino: La importancia de Tin Can API en Learning Analytics radica en proporcionar una solución a un aspecto de la interoperabilidad. En concreto, Tin Can API permite que varios eventos e interacciones de los usuarios en diferentes actividades de aprendizaje (que pueden estar de manera distribuida) se puedan combinar y unir para ser almacenados y recuperados de manera conjunta. Tin Can API supone un paso para que se puedan analizar interacciones de usuarios en diferentes sistemas y no solo en un sistema LMS, MOOC, ITS, etc. La interoperabilidad de análisis de datos entre sistemas de aprendizaje distribuidos es un aspecto relevante en una  época en la que la interacción distribuida de los usuarios con varios sistemas de aprendizaje y herramientas es una realidad creciente.

No obstante, desde mi punto de vista hay otros aspectos más importantes en la actualidad en relación con learning analytics. Creo que lo más importante es determinar para cada plataforma, recursos educativos, etc. cuál es la información inteligente que se puede y debe obtener en dichos entornos y la mejor manera de transformar los datos de bajo nivel, combinarlos, etc. para conseguirla. Así como estudiar cómo afectan esos indicadores al aprendizaje y al proceso educativo (por ejemplo qué comportamientos son buenos o malos) y establecer las mejores formas de utilizar dicha información para el beneficio para el aprendizaje (por ejemplo mediante visualizaciones, recomendadores, sistemas adaptativos, etc.)

En la actualidad hay muchas soluciones de learning analytics que no siguen el Tin Can API y que resultan de gran beneficio por la información que proporcionan a los actores del aprendizaje y por el beneficio que aportan al aprendizaje. Tales soluciones bien solo operan sobre un sistema de aprendizaje o tienen otras soluciones diferentes optimizadas a cada caso para lograr la interoperabilidad para poder analizar interacciones de diferentes entornos y recursos educativos. Desde mi punto de vista, lo más importante es la funcionalidad final que se ofrece a los usuarios (como los indicadores calculados y su precisión, visualizaciones, sistemas de adaptación, etc.) y lo que puede aportar para la mejora del aprendizaje independientemente de la manera tecnológica que haya por debajo para lograrlo y la especificación que se siga para la integración. Muchas de esas soluciones dan una gran funcionalidad de analítica de aprendizaje para los recursos educativos que la plataforma educativa contiene sin utilizar Tin Can API, ya que bien no contemplan una ampliación a nuevas funcionalidades externas en la plataforma (y la formación se puede dar con buenas características con la funcionalidad que ofrecen) o la ampliación para la integración de nuevas funcionalidades utilizaría otra forma diferente.

Actualmente, además de Tin Can API, existen otras propuestas de especificaciones para lograr la interoperabilidad para recopilar información de las interacciones de los usuarios entre diferentes recursos educativos. La importancia de Tin Can API dependerá de si esta especificación tiene una gran adopción entre plataformas, desarrolladores, etc.

Además, Tin Can API resuelve solo una parte de la interoperabilidad para poder considerar diferentes interacciones de usuarios en diferentes recursos educativos, pero no resuelve todo el problema. Para lograr una interoperabilidad real y que se puedan sacar conclusiones útiles de las interacciones de usuarios entre varios sistemas, se necesitan resolver bastantes más cosas, como por ejemplo interoperabilidad a nivel semántico para determinar qué información de alto nivel se puede deducir, cual es la relación entre diferentes actividades de aprendizaje a nivel semántico, cómo combinar información de diferentes actividades de manera distribuida, etc.

En definitiva, creo que es importante la interoperabilidad para poder analizar datos de interacciones de usuarios con diferentes fuentes, y Tin Can API resuelve parte de dicha interoperabilidad, pero creo que falta una parte importante a resolverse de interoperabilidad sobre todo a nivel semántico. Pero ante todo creo que lo más importante es dar servicios que sean realmente útiles de learning analytics de manera que puedan mejorar los procesos formativos, independientemente de la especificación que se utilice por debajo.

 

Rubén Míguez Pérez: Creemos que Tin Can (o xAPI) es un elemento fundamental para la creación de la nueva generación de herramientas de análisis. El uso de esta especificación permite superar las limitaciones actuales de SCORM y desacoplar la información del alumno del LMS. Liberados de las restricciones del entorno navegador-LMS, es posible: (1) capturar interacciones más ricas dotadas de contexto y (2) utilizar esta información para plantear nuevas y mejores métricas. No obstante, la especificación aún tiene lagunas y por ello se encuentra en constante desarrollo por parte de la comunidad internacional. La sintaxis para el intercambio de datos está definida de manera expresa, pero no así los vocabularios a utilizar, lo que obliga a establecer algún tipo de consenso entre consumidores y proveedores de trazas. La adopción a gran escala de la xAPI debe pasar por la definición de perfiles de aplicación específicos que sean seguidos por la industria.

Es también importante recalcar que la xAPI no es la única especificación de interés en este ámbito y es importante estar al tanto de los nuevos desarrollos y publicaciones que haga IMS de su Caliper Framework.

 

¿Qué herramientas tecnológicas usted recomendaría para desarrollar un proceso efectivo de LearnIng Analytics?

 

Pedro José Muñoz Merino: En primer lugar, una determinada organización debe establecer los objetivos que quiere conseguir con la aplicación de learning analytics. Las herramientas tecnológicas a utilizar dependerán de dichos objetivos a conseguir, ya que hay herramientas con muy diversos objetivos.

Algunas de las herramientas software de learning analytics disponibles se pueden utilizar no sólo en una plataforma de aprendizaje sino en varias. Un ejemplo de este tipo de herramientas es SNAPP que permite el análisis de redes sociales. Esta herramienta se puede utilizar no solo en una plataforma de aprendizaje específica sino en varias como Moodle, Blackboard o Desire2Learn.

No obstante las herramientas software existentes de learning analytics a utilizar están condicionadas por el tipo de plataforma de aprendizaje que se esté utilizando para los procesos formativos. Las razones de que una herramienta de learning analytics solo se pueda utilizar en una plataforma son diversas como por ejemplo porque las funcionalidades y semántica de diferentes plataformas de aprendizaje sean diferentes y unos indicadores pueden tener sentido en una plataforma pero no en otras. Otro ejemplo es que el esfuerzo de adaptación (por ejemplo por incompatibilidad de datos o incompatibilidad de presentación final a los usuarios) entre plataformas puede hacer que sea igual o más compleja esa adaptación que hacer la misma funcionalidad directamente en las otras plataformas como módulos independientes.

Así, si la organización está obligada a utilizar una plataforma de aprendizaje, en primer lugar deberá conocer las herramientas software existentes de learning analytics. Así por ejemplo Moodle, una de las plataformas de aprendizaje más utilizadas, tiene como módulos de analítica de aprendizaje por ejemplo Engagement Analytics plugins, Learning Analytics Enriched Rubric, KlassData, Intelliboard o Google analytics for Moodle.

Otro ejemplo de plataforma es la Khan Academy que permite visualizar vídeos y realizar ejercicios online con un entorno de gamificación integrado. El soporte de learning analytics que proporciona esta plataforma por defecto es bueno y propio de la plataforma. Adicionalmente, desde el Laboratorio Gradient de la Universidad Carlos III de Madrid hemos extendido esta funcionalidad para añadir indicadores de comportamiento, efectividad o eficiencia (Ver http://dl.acm.org/citation.cfm?id=2460318, http://www.sciencedirect.com/science/article/pii/S0747563214003689)

Una de las plataformas de MOOCs más extendidas como Open edX tiene un bajo soporte de learning analytics por defecto en este momento. Desde el Laboratorio Gradient de la Universidad Carlos III de Madrid también estamos extendiendo su soporte de learning analytics y en breve dejaremos disponible este módulo adicional para su uso.

También es muy de destacar que puede haber objetivos de la organización relacionados con learning analytics que se pueden conseguir pero que no estén cubiertos por ninguna de las herramientas existentes para las plataformas consideradas. En tales casos, la organización siempre tiene la opción de realizar sus desarrollos propios para incorporar esas características que necesita para cumplir sus objetivos. En muchos casos el realizar estos desarrollos propios tiene un beneficio claramente superior al coste. Además, aún hay mucha investigación por realizar sobre inferencia de indicadores de alto nivel, las causas del aprendizaje o las mejores recomendaciones y plasmarlo en herramientas tecnológicas concretas.

En resumen, la organización debe establecer sus objetivos de learning analytics, valorar si puede elegir las plataformas de formación o vienen dadas, analizar las diferentes herramientas software ya existentes en las plataformas que puede elegir y valorar la necesidad de hacer nuevas herramientas tecnológicas para cubrir los objetivos de la organización. También como criterio a la hora de elegir o realizar nuevas herramientas, es muy importante que estas sean fácilmente utilizables por los actores del aprendizaje y que sean realmente efectivas, ya que por ejemplo de nada sirve una herramienta que proporcione una gran cantidad de información muy difícil de comprender por los actores del aprendizaje.

 

Rubén Míguez Pérez: El ámbito del learning analytics se encuentra en un estado relativamente poco maduro si lo comparamos con otros ámbitos de aplicación del "data science". Así, por ejemplo, mientras que en el campo de la Inteligencia de Negocio se puedan utilizar herramientas más especializadas como Tableau y Pentaho, en el caso particular de learning analytics lo habitual es utilizar herramientas y frameworks genéricos de estadística y/o minería de datos. En función del rol de las personas implicadas y las características particulares del proyecto (analítica en tiempo real, orientación a predicción, tratamiento de grandes volúmenes de datos, etc), puede ser más adecuado un framework u otro. R, Weka, SPSS, RapidMiner o Mahout son algunas de las elecciones habituales. Si hablamos del caso concreto de analítica de redes de aprendizaje social, SNAPP es una solución bastante habitual.

En el caso particular del Academic Analytics sí creemos que puede tener interés la aplicación más o menos directa de soluciones de Inteligencia de Negocio. En el BETT 2015, por ejemplo, Microsoft hizo varias demostraciones del potencial de su solución: PowerBI. La solución de IBM, Watson, podría también tener potencial en esta línea. Ambas soluciones permiten que un usuario haga preguntas en lenguaje natural y reciba información analítica básica a partir de las bases de datos sobre las que están conectadas. Esta funcionalidad puede ser muy útil para directores de centro o coordinadores regionales cuando necesitan extraer datos de manera dinámica de sus sistemas de información.

 

Abril 2015