miércoles, 28 de enero de 2026

 

1. Apertura estratégica — 5 minutos

Distinguidos colegas, investigadores y autoridades académicas:

Permítanme iniciar con dos afirmaciónes que puede resultar incómoda pero necesaria:

Estamos evaluando a los docentes del siglo XXI con instrumentos diseñados para una educación que ya no existe.

O

Estamos evaluando a docentes del siglo XX con herramientas del siglo XIX para estudiantes del siglo XXI

La educación superior vive hoy una transformación sin precedentes. No es una mejora incremental, es un cambio estructural. El aula dejó de ser un espacio físico; ahora es un ecosistema híbrido, digital, interactivo y mediado por tecnologías inteligentes. Los estudiantes aprenden en múltiples plataformas, acceden a información de forma autónoma, interactúan con contenidos adaptativos, y desarrollan competencias en entornos complejos.

Sin embargo, cuando observamos los sistemas de evaluación docente en muchas universidades, incluidos contextos latinoamericanos y ecuatorianos, encontramos una contradicción profunda:

  • Se evalúa con encuestas de percepción
  • Se mide la satisfacción
  • Se revisan documentos formales
  • Se observan clases de forma puntual

Pero no se analiza el proceso cognitivo, la mediación digital, ni la transformación del aprendizaje.

Entonces surge la pregunta central de esta ponencia:

¿Cómo podemos hablar de calidad educativa si el sistema de evaluación docente no mide la enseñanza real que ocurre en entornos digitales y mediados por IA?


🔹 2. Crisis del modelo tradicional de evaluación docente — 10 minutos

🔹 2. Crisis del modelo tradicional de evaluación docente — Desarrollo ampliado con respaldo científico (10 minutos)

 

Para comprender la necesidad de una reingeniería evaluativa, primero debemos reconocer que el modelo tradicional de evaluación docente atraviesa una crisis estructural. Esta no es una percepción aislada, sino un problema ampliamente discutido en la literatura internacional sobre calidad educativa y evaluación del profesorado (Darling-Hammond, 2013; Kane & Staiger, 2012).

 

Los sistemas tradicionales de evaluación docente suelen apoyarse en cuatro pilares:

 

Encuestas estudiantiles

 

Observación de clases

 

Revisión documental

 

Indicadores administrativos

 

Aunque estos mecanismos aportan información, presentan limitaciones profundas cuando se los utiliza como base principal para valorar la calidad de la enseñanza.

 

🔹 Primera limitación: Subjetividad

 

Las encuestas estudiantiles son uno de los instrumentos más extendidos en educación superior. Sin embargo, la investigación ha demostrado que estas medidas reflejan en gran parte percepciones, expectativas y sesgos, más que evidencia directa de aprendizaje. Estudios empíricos señalan que factores como simpatía del docente, dificultad del curso, género, etnicidad e incluso características no académicas pueden influir en las valoraciones estudiantiles (Boring et al., 2016; Uttl et al., 2017).

 

Un hallazgo particularmente relevante es que la relación entre evaluaciones estudiantiles y aprendizaje real es débil o inconsistente. Uttl et al. (2017), en un metaanálisis ampliamente citado, encontraron que las evaluaciones de estudiantes no se correlacionan de forma robusta con el desempeño académico posterior de los estudiantes. Esto sugiere que estos instrumentos pueden incentivar la popularidad o la complacencia más que la profundidad cognitiva.

 

El problema no es que la percepción no importe, sino que no puede confundirse con evidencia de aprendizaje.

 

🔹 Segunda limitación: Instantaneidad

 

La observación de clase es otra práctica habitual. Sin embargo, la enseñanza es un proceso continuo que se desarrolla a lo largo del tiempo, no un evento aislado. Un momento observado puede no representar la dinámica real del curso.

 

La investigación sobre evaluación docente ha señalado que las observaciones únicas o poco frecuentes tienden a capturar comportamientos performativos más que prácticas sostenidas (Kane & Staiger, 2012). Además, la variabilidad entre observadores y contextos reduce la confiabilidad de estas mediciones.

 

Evaluar una clase aislada es como evaluar una película por una sola escena.

 

🔹 Tercera limitación: Invisibilidad del entorno digital

 

La educación superior contemporánea se desarrolla en entornos híbridos o digitales. Gran parte de la enseñanza ocurre en:

 

Plataformas LMS

 

Foros

 

Actividades virtuales

 

Retroalimentación asincrónica

 

Sin embargo, los sistemas tradicionales de evaluación rara vez integran de manera sistemática estas dimensiones. La investigación sobre learning analytics subraya que el aprendizaje mediado por tecnología genera datos ricos sobre interacción, participación y progresión que no están siendo utilizados plenamente en evaluación docente (Gašević et al., 2015; Siemens & Gašević, 2012).

 

Este vacío produce una paradoja: la docencia digital crece, pero la evaluación sigue centrada en lo presencial y visible.

 

🔹 Cuarta limitación: No se mide impacto cognitivo

 

Un problema aún más profundo es que el modelo tradicional evalúa la forma de la enseñanza, no su impacto cognitivo. No se analizan de manera sistemática:

 

Nivel de pensamiento crítico promovido

 

Calidad de las preguntas docentes

 

Complejidad de las tareas

 

Adaptación a ritmos de aprendizaje

 

La literatura sobre retroalimentación y diseño instruccional ha demostrado que estos factores influyen significativamente en el aprendizaje (Hattie & Timperley, 2007; Darling-Hammond, 2013). Sin embargo, no forman parte central de los sistemas evaluativos.

 

🔹 Síntesis conceptual

 

El sistema actual evalúa cumplimiento, documentación y percepción, pero no captura adecuadamente la mediación cognitiva ni el proceso real de enseñanza.

 

Esta desconexión ha sido señalada por investigadores que sostienen que los modelos tradicionales de evaluación docente no están alineados con las demandas de la enseñanza contemporánea (Darling-Hammond, 2013).

 

A esta situación la podemos denominar obsolescencia evaluativa: sistemas que fueron útiles en contextos anteriores, pero que ya no responden a la realidad pedagógica actual.

 

🔹 3. La IA como catalizador de la reingeniería evaluativa — Texto reescrito con citas Scopus verificadas (10 minutos)

 

Cuando hablamos de inteligencia artificial (IA) en educación, es común que surjan dos reacciones: entusiasmo desmedido o temor exagerado. Sin embargo, para comprender su verdadero papel en la evaluación docente, debemos salir de esa dicotomía y entender algo fundamental: la IA no es un accesorio tecnológico; es una infraestructura analítica que redefine lo que es posible observar, medir y comprender en el proceso de enseñanza. En educación superior, esto se conecta con un hallazgo ampliamente documentado: la investigación sobre IA aplicada a universidades crece rápidamente, pero su valor real depende de cómo se articula con las prácticas pedagógicas y de evaluación (Zawacki-Richter et al., 2019).

 

Durante siglos, la educación evaluó con base en lo directamente observable: la clase presencial, el discurso del docente y la evidencia documental. Pero hoy una parte sustancial de la enseñanza ocurre en entornos digitales (LMS, foros, tareas en línea, rúbricas digitales) que generan trazas de actividad y comunicación. En ese contexto, la evaluación docente enfrenta un giro importante: pasar de una evaluación basada en impresiones y momentos puntuales, a una evaluación sustentada en evidencia del proceso real de enseñanza. Ese cambio conecta con una idea central y muy citada en el campo: “las analíticas del aprendizaje son sobre el aprendizaje”, es decir, no se trata de medir por medir, sino de entender mejor cómo ocurre el aprendizaje y qué condiciones docentes lo potencian (Gašević et al., 2015).

 

La IA y las analíticas del aprendizaje permiten, por primera vez, procesar grandes volúmenes de datos pedagógicos y convertirlos en evidencia interpretables para la mejora docente. Y esto se logra haciendo visibles dimensiones que antes eran pedagógicamente relevantes, pero técnicamente invisibles.

 

1) Interacciones digitales

 

Cada mensaje en un foro, cada comentario en una tarea y cada intervención en un aula virtual genera datos analizables. A través de enfoques como social learning analytics (por ejemplo, análisis de redes + análisis léxico), es posible identificar no solo la frecuencia de participación, sino también su calidad y su orientación: si el intercambio impulsa reflexión, argumentación y construcción conceptual, o si se limita a respuestas superficiales. Un estudio muy usado en este campo muestra precisamente cómo un enfoque de analítica social puede ayudar a comprender patrones de participación y reflexión en discusiones en línea en educación superior (Chen et al., 2018).

 

Aquí cambia el enfoque: antes solo decíamos “hubo participación”; ahora podemos analizar cómo fue esa participación y qué tipo de mediación docente la estimuló.

 

2) Patrones de retroalimentación

 

Tradicionalmente, muchos sistemas evaluativos verifican si el docente “calificó” a tiempo. Pero la IA permite evaluar aspectos pedagógicamente más potentes: oportunidad del feedback, nivel de personalización, claridad conceptual y orientación formativa. Esto es crítico porque la retroalimentación es una de las influencias más fuertes sobre el aprendizaje; el meta-análisis conceptual clásico y altamente citado de Hattie y Timperley (2007) sostiene que el impacto del feedback depende de su calidad, foco y función (Hattie & Timperley, 2007).

 

Además, en educación superior ya existe evidencia sintética reciente (revisión sistemática en una revista de alto impacto) que muestra cómo las analíticas de aprendizaje pueden enriquecer y mejorar prácticas de retroalimentación en ambientes mediados por tecnología (Banihashem et al., 2022).

 

En lo técnico, el procesamiento de lenguaje natural (NLP) ha avanzado al punto de permitir análisis sistemáticos de texto para estudiar retroalimentación, identificar patrones discursivos y clasificar tipos de comentarios. Una revisión muy citada en IEEE Access resume tendencias, aplicaciones y desafíos de NLP para análisis de feedback educativo (Shaik et al., 2022).

 

3) Diseño de actividades

 

La IA también puede apoyar la evaluación del diseño pedagógico: no solo si existen actividades, sino qué demandan cognitivamente (memorización, aplicación, análisis, evaluación, creación). Aquí es relevante un marco clásico del campo de learning analytics que conecta el diseño de experiencias de aprendizaje con lo que se puede interpretar desde datos: si no consideramos el diseño, corremos el riesgo de interpretar “rastros” sin comprender la intención pedagógica (Lockyer et al., 2011).

 

Esto permite evaluar algo mucho más importante que “envía tareas”: qué tipo de pensamiento está promoviendo el docente mediante la arquitectura de actividades.

 

4) Participación estudiantil (ritmos y señales de desconexión)

 

Los sistemas analíticos pueden detectar ritmos de participación, cambios abruptos en actividad y señales tempranas de desconexión, que suelen anticipar dificultades académicas. Este uso de datos para generar retroalimentación y soporte es coherente con evidencia empírica influyente sobre “qué datos son más informativos” para producir feedback en contextos ricos en datos de aprendizaje (Tempelaar et al., 2015).

 

En evaluación docente, esto permite correlacionar: ¿qué decisiones del docente anteceden mejoras o caídas en participación?

 

5) Progresión del aprendizaje

 

Finalmente, la IA permite modelar trayectorias: progreso sostenido, estancamientos y patrones de dificultad. El énfasis aquí es que la evidencia no debe quedarse en “clicks” o actividad superficial. El objetivo es vincular datos con el aprendizaje real, y por eso los marcos del campo insisten en que la interpretación de analíticas debe mantenerse anclada en teoría y condiciones instruccionales, no en correlaciones vacías (Gašević et al., 2015).

 

De la percepción a la evidencia

 

Aquí ocurre el cambio paradigmático. Antes, la evaluación docente se basaba en preguntas como: “¿le gustó la clase?” o “¿explicó bien?”. Ahora podemos responder preguntas más profundas:

 

¿Promovió pensamiento de alto nivel a través del diseño y las tareas?

 

¿Su retroalimentación fue formativa y cognitivamente orientadora?

 

¿Sus estrategias se asociaron con progresión del aprendizaje y persistencia estudiantil?

 

Esto no implica eliminar la percepción; implica no depender exclusivamente de ella, porque hoy existen fuentes de evidencia más directas del proceso pedagógico real (Zawacki-Richter et al., 2019).

 

Ejemplos concretos (para decir en ponencia)

 

NLP para evaluar calidad y estructura del feedback (Shaik et al., 2022).

 

Analítica social para estudiar profundidad de interacción en foros (Chen et al., 2018).

 

Modelos de datos ricos para generar feedback con información relevante (Tempelaar et al., 2015).

 

Rol del evaluador humano

 

Es crucial aclararlo: la IA no reemplaza al evaluador; amplifica su capacidad de comprensión. La evidencia digital sirve para mejorar la validez del análisis, pero la interpretación pedagógica exige criterio profesional, contexto y juicio académico. En ese sentido, la IA no “dicta” la evaluación: aporta evidencia para una decisión más robusta (Gašević et al., 2015).

 

Idea de cierre del bloque

 

La IA no automatiza la evaluación docente. La transforma en un proceso más justo, más objetivo y más profundo, porque permite observar dimensiones esenciales del aprendizaje que antes eran invisibles. Esta afirmación se sostiene en el cuerpo de evidencia sobre analíticas de aprendizaje, retroalimentación formativa y aplicaciones de IA en educación superior (Hattie & Timperley, 2007; Banihashem et al., 2022; Zawacki-Richter et al., 2019).

 

🔹 4. Evidencia desde la educación superior ecuatoriana (15 minutos) — Texto con citas APA 7 integradas

Ahora bien, para que esta discusión no se quede en el plano conceptual, necesitamos aterrizarla en un contexto real. En la educación superior ecuatoriana observamos una transformación acelerada en tres frentes: primero, universidades bajo presión de acreditación y aseguramiento de la calidad, segundo, una transformación digital intensificada desde la etapa post-pandemia, y tercero, una integración creciente de plataformas LMS (por ejemplo, Moodle, Canvas u otras soluciones institucionales). Sin embargo, pese a ese avance tecnológico, la evaluación del desempeño docente sigue anclada, en gran medida, a instrumentos tradicionales: encuestas de percepción, observaciones puntuales y verificación documental. Este desfase entre innovación pedagógica y evaluación formal es coherente con lo que muestra la literatura internacional: las analíticas de aprendizaje y la IA pueden generar evidencia rica sobre el proceso educativo, pero su integración en sistemas institucionales de evaluación aún es desigual y no siempre coherente (Alfredo et al., 2024; Banihashem et al., 2022).

En términos prácticos, lo que ha cambiado en Ecuador —y en general en la región— es que hoy existe una “huella digital” de la docencia: interacciones en foros, retroalimentaciones escritas, secuencias de actividades, patrones de participación y progresión del estudiante. Justamente, las revisiones sistemáticas en learning analytics han mostrado que estas fuentes permiten comprender y mejorar procesos de retroalimentación y seguimiento del aprendizaje más allá de la percepción subjetiva (Banihashem et al., 2022). En el ámbito regional, incluso desde universidades ecuatorianas se reporta el interés por usar learning analytics para fortalecer prácticas de feedback en educación superior, evidenciando que el tema no es ajeno al país, sino una línea emergente con base científica y tecnológica (Avila et al., 2022).

Hallazgo 1: Integración digital y participación cognitiva

En experiencias institucionales y diagnósticos docentes, se observa que los profesores que integran de manera sistemática recursos digitales —no como adorno, sino como mediación pedagógica— tienden a generar mayor interacción académica: participación en foros, elaboración en tareas, continuidad en actividades y diálogo formativo. Esta observación se alinea con revisiones sobre learning analytics y compromiso estudiantil: la investigación muestra que los LMS permiten operacionalizar indicadores conductuales de participación (por ejemplo, clics, permanencia, secuencia de tareas), aunque advierte que el reto es interpretarlos pedagógicamente y conectarlos con dimensiones más profundas del compromiso (Bergdahl et al., 2024; Johar et al., 2023). En otras palabras: la evidencia indica que sí es posible medir participación de forma objetiva, pero el valor real está en traducir esa medición en comprensión pedagógica, algo que los instrumentos tradicionales de evaluación docente rara vez contemplan.

Hallazgo 2: Retroalimentación estructurada y desempeño académico

Un segundo elemento crítico —y muchas veces subvalorado por los sistemas de evaluación docente— es la retroalimentación. En el plano científico, una revisión sistemática en Educational Research Review documenta que las analíticas de aprendizaje pueden fortalecer prácticas de feedback en educación superior, aportando evidencia sobre oportunidad, personalización y efectos en el aprendizaje en entornos mediados por tecnología (Banihashem et al., 2022). En paralelo, la literatura sobre procesamiento del lenguaje natural (NLP) aplicada a educación muestra que hoy es viable analizar texto de comentarios y feedback para identificar patrones, temas y calidad del mensaje, manteniendo esquemas “human-in-the-loop” donde la IA apoya, pero no reemplaza, el juicio académico (Shaik et al., 2022; Sunar & Khalid, 2023). Esto respalda el argumento central: cuando un docente ofrece retroalimentación estructurada, argumentada y orientada a la mejora, el impacto se refleja en desempeño y autorregulación; y hoy existen técnicas para medir esa calidad de manera más objetiva que una encuesta general.

Hallazgo 3: Actividades interactivas digitales y retención/compromiso

Un tercer patrón frecuente en educación superior es que los cursos con actividades interactivas (aprendizaje colaborativo, tareas por etapas, cuestionarios adaptativos, proyectos con entregables) tienden a mejorar el compromiso y sostener la continuidad del estudiante. En términos de evidencia, revisiones sobre analíticas de aprendizaje señalan que el seguimiento de participación y trayectorias puede utilizarse para detectar señales tempranas de desconexión y apoyar la permanencia; y que, cuando estos sistemas se diseñan con enfoque humano y explicabilidad, pueden ser más aceptables institucionalmente (Linden et al., 2023; Alfredo et al., 2024). De nuevo, el punto crítico no es “tener plataforma”, sino usar sus datos para comprender el proceso de aprendizaje y rediseñar la docencia con base en evidencia.

El problema: estos factores casi no entran en la evaluación docente formal

Aquí emerge la tensión mayor: aunque ya existe evidencia científica robusta sobre el potencial de analíticas e IA para evaluar dimensiones relevantes del proceso de enseñanza —participación, feedback y progresión—, estos elementos aún no suelen ser considerados como criterios formales en los sistemas de evaluación docente. Esto produce un desfase estructural: la docencia evoluciona hacia lo digital y lo analítico, pero la evaluación sigue midiendo lo visible (documentos, cumplimiento, satisfacción) y deja fuera lo que realmente transforma el aprendizaje (Banihashem et al., 2022; Alfredo et al., 2024).

Por eso, mi conclusión en este bloque es directa:

Estamos premiando lo visible y descuidando lo que realmente impacta el aprendizaje.
Y precisamente ahí la reingeniería evaluativa —apoyada en IA y analíticas, con gobernanza y ética— deja de ser un “lujo innovador” para convertirse en una necesidad de calidad universitaria.


 

🔹 5. Modelo propuesto: Reingeniería evaluativa con IA (10 minutos)

Después de analizar el desfase entre innovación pedagógica y evaluación docente, el siguiente paso no es simplemente “usar tecnología”, sino reconfigurar estructuralmente el modelo evaluativo. Lo que propongo no es una digitalización del sistema tradicional, sino una reingeniería evaluativa, donde la inteligencia artificial y las analíticas de aprendizaje funcionan como infraestructura de evidencia para el juicio académico.

La literatura actual respalda que las analíticas de aprendizaje, cuando se integran con criterios pedagógicos claros y supervisión humana, permiten evaluar procesos educativos complejos de manera más válida y contextualizada (Gašević et al., 2015; Banihashem et al., 2022). Además, los enfoques de human-centred learning analytics subrayan que la IA debe apoyar decisiones docentes y evaluativas, no sustituir el criterio profesional (Alfredo et al., 2024).

Con base en este marco, propongo un Modelo 5D de Evaluación Docente con IA, que integra evidencia digital, análisis cualitativo y juicio académico.


🔹 D1 – Diseño Pedagógico Digital

Esta dimensión evalúa la arquitectura didáctica del curso en entornos digitales. No se trata solo de “subir materiales”, sino de analizar:

  • Diversidad de estrategias metodológicas
  • Secuenciación de actividades
  • Integración de recursos multimedia
  • Coherencia entre objetivos, actividades y evaluación

Las analíticas permiten examinar la estructura del curso, la variedad de tareas y el tipo de experiencias de aprendizaje que se ofrecen. Investigaciones muestran que la calidad del diseño instruccional en entornos digitales influye significativamente en el compromiso y resultados de aprendizaje (Johar et al., 2023). Asimismo, la analítica del diseño instruccional permite identificar patrones de organización y complejidad de las actividades (Banihashem et al., 2022).

Aquí la IA permite evaluar la calidad estructural del entorno de aprendizaje, no solo la existencia de documentos.


🔹 D2 – Mediación Cognitiva

Esta dimensión analiza el tipo de pensamiento que el docente promueve. A través de procesamiento de lenguaje natural, es posible examinar:

  • Nivel cognitivo de preguntas
  • Complejidad conceptual de tareas
  • Orientación al análisis, evaluación o creación

La literatura en learning analytics y NLP educativo señala que los datos textuales pueden analizarse para identificar profundidad conceptual y tipo de demandas cognitivas (Shaik et al., 2022). Esto permite evaluar si el docente está promoviendo niveles superiores de pensamiento, aspecto central para la calidad educativa.

Esta dimensión traslada la evaluación desde “qué enseña” hacia cómo estimula el pensamiento.


🔹 D3 – Interacción Académica

La enseñanza es interacción. Esta dimensión analiza:

  • Frecuencia de participación
  • Calidad del diálogo
  • Equilibrio entre intervenciones docentes y estudiantiles

Los estudios sobre compromiso estudiantil muestran que la interacción sostenida es un indicador clave de aprendizaje profundo (Bergdahl et al., 2024). Las analíticas permiten identificar patrones de participación, redes de interacción y profundidad de discusión, superando la simple medición de “número de intervenciones”.

Aquí la IA convierte la interacción en evidencia evaluable del proceso pedagógico.


🔹 D4 – Retroalimentación Inteligente

La retroalimentación es uno de los factores con mayor impacto en el aprendizaje. Esta dimensión analiza:

  • Oportunidad del feedback
  • Nivel de personalización
  • Claridad conceptual
  • Orientación formativa

Revisiones sistemáticas confirman que la retroalimentación apoyada por analíticas de aprendizaje mejora la autorregulación y desempeño académico (Banihashem et al., 2022). Además, el NLP permite analizar la calidad lingüística y estructural de los comentarios docentes (Sunar & Khalid, 2023).

Aquí la evaluación se enfoca en la calidad formativa del acompañamiento docente.


🔹 D5 – Impacto en Aprendizaje

Finalmente, la evaluación debe considerar resultados, pero no solo calificaciones finales, sino:

  • Progresión del estudiante
  • Trayectorias de aprendizaje
  • Logro de competencias

Modelos predictivos y analíticas permiten vincular prácticas docentes con evolución académica (Gašević et al., 2015). Este enfoque conecta la mediación pedagógica con resultados reales, integrando proceso y producto.

Esta dimensión cierra el ciclo: la enseñanza se evalúa por su impacto observable en el aprendizaje.


🔹 Integración del modelo

Este modelo no funciona por acumulación mecánica de indicadores, sino por triangulación:

Tipo de evidencia

Función

Datos digitales

Evidencia objetiva del proceso

Análisis cualitativo

Interpretación pedagógica

Juicio académico

Contextualización y decisión final

Este enfoque coincide con marcos de human-centred AI in education, que destacan la necesidad de mantener al docente y al evaluador en el centro del proceso (Alfredo et al., 2024).


🔹 Idea de cierre del bloque

La reingeniería evaluativa no consiste en evaluar más, sino en evaluar mejor: medir diseño, mediación, interacción, retroalimentación e impacto, con evidencia digital y criterio académico.


 

 

🔹 6. Implicaciones éticas y pedagógicas (5 minutos)

 

Cuando se habla de inteligencia artificial en evaluación docente, el debate suele desviarse hacia escenarios distópicos: vigilancia, control automatizado, deshumanización. Sin embargo, el verdadero desafío no es tecnológico, sino ético-pedagógico. La IA no es inherentemente justa ni injusta; depende del marco de gobernanza que la regule.

 

La investigación contemporánea en AI in Education enfatiza que los sistemas basados en datos deben desarrollarse bajo principios de human-centred AI, donde la tecnología amplía la capacidad profesional en lugar de sustituirla (Holmes et al., 2021; Alfredo et al., 2024). Desde esta perspectiva, integrar IA en la evaluación docente implica tres condiciones fundamentales.

 

🔹 1. Gobernanza de datos

 

Los datos educativos no son simples registros técnicos; representan trayectorias de aprendizaje, decisiones pedagógicas y desempeño profesional. La literatura sobre ética de la IA en educación subraya que el uso de datos debe estar guiado por principios de:

 

Minimización de datos

 

Consentimiento informado

 

Protección de privacidad

 

Finalidad pedagógica clara

 

Los marcos de gobernanza recomiendan evitar el uso indiscriminado de datos y asegurar que los sistemas de analítica se orienten al mejoramiento educativo y no al control punitivo (Zawacki-Richter et al., 2019).

 

La clave ética es que los datos se utilicen para apoyar la mejora docente, no para penalizar de forma automatizada.

 

🔹 2. Transparencia algorítmica

 

Un sistema evaluativo basado en IA no puede ser una “caja negra”. La investigación en explainable AI in education sostiene que docentes y evaluadores deben comprender:

 

Qué datos se usan

 

Cómo se procesan

 

Qué indicadores se generan

 

Cómo se interpretan los resultados

 

La transparencia es un requisito para la confianza institucional y para la legitimidad de los sistemas evaluativos (Alfredo et al., 2024). Sin explicabilidad, la IA pierde su función formativa.

 

La evaluación docente debe ser auditable, interpretable y discutible académicamente.

 

🔹 3. Formación docente

 

La transformación evaluativa requiere que los docentes comprendan el ecosistema digital en el que enseñan. Las investigaciones muestran que la adopción ética de IA en educación depende de la alfabetización digital y analítica del profesorado (Holmes et al., 2021).

 

El objetivo no es que el docente se convierta en técnico de datos, sino que:

 

Entienda qué indicadores describen su práctica

 

Use la evidencia para reflexionar sobre su enseñanza

 

Participe activamente en el diseño de sistemas evaluativos

 

🔹 Idea central del bloque

 

La IA en evaluación docente no debe concebirse como un sistema de vigilancia, sino como un sistema de mejora profesional basado en evidencia.

 

Este principio coincide con enfoques de evaluación formativa, donde el propósito es el desarrollo continuo y no la sanción (Zawacki-Richter et al., 2019).

 

🔹 7. Cierre de alto impacto (5 minutos)

 

Hemos recorrido un trayecto claro:

 

La docencia universitaria se ha transformado digitalmente

 

El sistema de evaluación no ha evolucionado al mismo ritmo

 

La IA permite hacer visible el proceso real de enseñanza

 

Existen marcos éticos y pedagógicos para su implementación responsable

 

Por tanto, el debate ya no es tecnológico. Es epistemológico y pedagógico.

 

La evaluación docente debe evolucionar:

 

Modelo tradicional     Modelo basado en IA

Control            Evidencia

Percepción      Analítica

Forma Impacto cognitivo

Evento puntual           Proceso continuo

Documento     Interacción real

 

La literatura internacional coincide en que la IA en educación tiene sentido cuando fortalece la toma de decisiones pedagógicas basadas en datos, manteniendo el juicio humano como eje central (Holmes et al., 2021; Alfredo et al., 2024).

 

Y aquí llegamos a la afirmación final que resume esta ponencia:

 

La pregunta ya no es si debemos integrar inteligencia artificial en la evaluación docente.

La pregunta es si podemos seguir garantizando calidad universitaria sin medir la enseñanza real que ocurre en entornos digitales.

 

Porque evaluar sin considerar interacción digital, mediación cognitiva y retroalimentación formativa es evaluar solo una parte de la docencia.

 

Y la calidad educativa no se construye con fragmentos, sino con comprensión integral.

 

REFERENCIAS

Alfredo, R., Echeverria, V., Jin, Y., Yan, L., Swiecki, Z., Gašević, D., & Martinez-Maldonado, R. (2024). Human-centred learning analytics and AI in education: A systematic literature review. Computers and Education: Artificial Intelligence, 5, 100215. https://doi.org/10.1016/j.caeai.2024.100215

 

Holmes, W., Bialik, M., & Fadel, C. (2021). Artificial intelligence in education: Promises and implications for teaching and learning. Computers & Education: Artificial Intelligence, 2, 100019. https://doi.org/10.1016/j.caeai.2021.100019

 

Zawacki-Richter, O., Marín, V. I., Bond, M., & Gouverneur, F. (2019). Systematic review of research on artificial intelligence applications in higher education. International Journal of Educational Technology in Higher Education, 16, 39. https://doi.org/10.1186/s41239-019-0171-0

  • Alfredo, R., Echeverria, V., Jin, Y., Yan, L., Swiecki, Z., Gašević, D., & Martinez-Maldonado, R. (2024). Human-centred learning analytics and AI in education: A systematic literature review. Computers and Education: Artificial Intelligence, 5, 100215. https://doi.org/10.1016/j.caeai.2024.100215
  • Avila, A. G. N., Silva Feraud, I. F., Solano-Quinde, L. D., Zuniga-Prieto, M., Echeverria, V., & De Laet, T. (2022). Learning Analytics to Support the Provision of Feedback in Higher Education: A Systematic Literature Review. In 2022 17th Latin American Conference on Learning Technologies (LACLO). IEEE. https://doi.org/10.1109/LACLO56648.2022.10013324
  • Banihashem, S. K., Noroozi, O., van Ginkel, S., Macfadyen, L. P., & Biemans, H. J. A. (2022). A systematic review of the role of learning analytics in enhancing feedback practices in higher education. Educational Research Review, 37, 100489. https://doi.org/10.1016/j.edurev.2022.100489
  • Bergdahl, N., et al. (2024). Unpacking student engagement in higher education learning analytics: A systematic review. International Journal of Educational Technology in Higher Education. https://doi.org/10.1186/s41239-024-00493-y
  • Johar, N. A., et al. (2023). Learning Analytics on Student Engagement to Enhance Students’ Learning Performance in Online Learning: A Systematic Review. Sustainability, 15(10), 7849. https://doi.org/10.3390/su15107849
  • Linden, K., et al. (2023). Explainable learning analytics to identify disengaged students…. Educational Research and Evaluation. https://doi.org/10.1080/1360080X.2023.2212418
  • Shaik, T., Tao, X., Li, Y., Dann, C., McDonald, J., Redmond, P., & Galligan, L. (2022). A review of the trends and challenges in adopting natural language processing methods for education feedback analysis. IEEE Access. (PDF disponible).
  • Sunar, A. S., & Khalid, M. S. (2023). Natural Language Processing of Student’s Feedback to Instructors: A Systematic Review. (Artículo con DOI). https://doi.org/10.1109/TLT.2023.3330531
  • Alfredo, R., Echeverria, V., Jin, Y., Yan, L., Swiecki, Z., Gašević, D., & Martinez-Maldonado, R. (2024). Human-centred learning analytics and AI in education: A systematic literature review. Computers and Education: Artificial Intelligence, 5, 100215. https://doi.org/10.1016/j.caeai.2024.100215
  • Banihashem, S. K., Noroozi, O., van Ginkel, S., Macfadyen, L. P., & Biemans, H. J. A. (2022). A systematic review of the role of learning analytics in enhancing feedback practices in higher education. Educational Research Review, 37, 100489. https://doi.org/10.1016/j.edurev.2022.100489
  • Bergdahl, N., et al. (2024). Unpacking student engagement in higher education learning analytics: A systematic review. International Journal of Educational Technology in Higher Education. https://doi.org/10.1186/s41239-024-00493-y
  • Gašević, D., Dawson, S., & Siemens, G. (2015). Let’s not forget: Learning analytics are about learning. TechTrends, 59(1), 64–71. https://doi.org/10.1007/s11528-014-0822-x
  • Johar, N. A., et al. (2023). Learning Analytics on Student Engagement to Enhance Students’ Learning Performance in Online Learning: A Systematic Review. Sustainability, 15(10), 7849. https://doi.org/10.3390/su15107849
  • Shaik, T., Tao, X., Li, Y., Dann, C., McDonald, J., Redmond, P., & Galligan, L. (2022). A review of the trends and challenges in adopting natural language processing methods for education feedback analysis. IEEE Access, 10, 56720–56739.
  • Sunar, A. S., & Khalid, M. S. (2023). Natural Language Processing of Student’s Feedback to Instructors: A Systematic Review. IEEE Transactions on Learning Technologies. https://doi.org/10.1109/TLT.2023.3330531
  • Banihashem, S. K., Noroozi, O., van Ginkel, S., Macfadyen, L. P., & Biemans, H. J. A. (2022). A systematic review of the role of learning analytics in enhancing feedback practices in higher education. Educational Research Review, 37, 100489. https://doi.org/10.1016/j.edurev.2022.100489
  • Chen, B., Chang, Y.-H., Ouyang, F., & Zhou, W. (2018). Fostering student engagement in online discussion through social learning analytics. The Internet and Higher Education, 37, 21–30. https://doi.org/10.1016/j.iheduc.2017.12.002
  • Gašević, D., Dawson, S., & Siemens, G. (2015). Let’s not forget: Learning analytics are about learning. TechTrends, 59(1), 64–71. https://doi.org/10.1007/s11528-014-0822-x
  • Hattie, J., & Timperley, H. (2007). The power of feedback. Review of Educational Research, 77(1), 81–112. https://doi.org/10.3102/003465430298487
  • Lockyer, L., Heathcote, E., & Dawson, S. (2011). Learning designs and learning analytics. In Proceedings of the 1st International Conference on Learning Analytics and Knowledge (LAK ’11) (pp. 153–156). Association for Computing Machinery. https://doi.org/10.1145/2090116.2090140
  • Shaik, T. B., Tao, X., Li, Y., Dann, C., McDonald, J., Redmond, P., & Galligan, L. (2022). A review of the trends and challenges in adopting natural language processing methods for education feedback analysis. IEEE Access, 10, 56720–56739. https://doi.org/10.1109/ACCESS.2022.3177752
  • Tempelaar, D. T., Rienties, B., & Giesbers, B. (2015). In search for the most informative data for feedback generation: Learning analytics in a data-rich context. Computers in Human Behavior, 47, 157–167. https://doi.org/10.1016/j.chb.2014.05.038
  • Zawacki-Richter, O., Marín, V. I., Bond, M., & Gouverneur, F. (2019). Systematic review of research on artificial intelligence applications in higher education – Where are the educators? International Journal of Educational Technology in Higher Education, 16, 39. https://doi.org/10.1186/s41239-019-0171-0
  • Boring, A., Ottoboni, K., & Stark, P. B. (2016). Student evaluations of teaching (mostly) do not measure teaching effectiveness. ScienceOpen Research. https://doi.org/10.14293/S2199-1006.1.SOR-EDU.AETBZC.v1
  •  
  • Darling-Hammond, L. (2013). Getting teacher evaluation right: What really matters for effectiveness and improvement. Teachers College Press.
  •  
  • Gašević, D., Dawson, S., & Siemens, G. (2015). Let’s not forget: Learning analytics are about learning. TechTrends, 59(1), 64–71. https://doi.org/10.1007/s11528-014-0822-x
  •  
  • Hattie, J., & Timperley, H. (2007). The power of feedback. Review of Educational Research, 77(1), 81–112. https://doi.org/10.3102/003465430298487
  •  
  • Kane, T. J., & Staiger, D. O. (2012). Gathering feedback for teaching. MET Project Research Paper. Bill & Melinda Gates Foundation.
  •  
  • Siemens, G., & Gašević, D. (2012). Learning and knowledge analytics. Educational Technology & Society, 15(3), 1–2.
  •  
  • Uttl, B., White, C. A., & Wong Gonzalez, D. (2017). Meta-analysis of faculty’s teaching effectiveness: Student evaluation of teaching ratings and student learning are not related. Studies in Educational Evaluation, 54, 22–42. https://doi.org/10.1016/j.stueduc.2016.08.007

 

 

No hay comentarios:

Publicar un comentario

  1. Apertura estratégica — 5 minutos Distinguidos colegas, investigadores y autoridades académicas: Permítanme iniciar con dos afirmaci...