1.
Apertura estratégica — 5 minutos
Distinguidos colegas, investigadores y
autoridades académicas:
Permítanme iniciar con dos afirmaciónes que
puede resultar incómoda pero necesaria:
Estamos evaluando a los docentes del siglo XXI
con instrumentos diseñados para una educación que ya no existe.
O
Estamos evaluando a docentes del siglo XX con
herramientas del siglo XIX para estudiantes del siglo XXI
La educación superior vive hoy una
transformación sin precedentes. No es una mejora incremental, es un cambio
estructural. El aula dejó de ser un espacio físico; ahora es un ecosistema
híbrido, digital, interactivo y mediado por tecnologías inteligentes. Los
estudiantes aprenden en múltiples plataformas, acceden a información de forma
autónoma, interactúan con contenidos adaptativos, y desarrollan competencias en
entornos complejos.
Sin embargo, cuando observamos los sistemas de
evaluación docente en muchas universidades, incluidos contextos
latinoamericanos y ecuatorianos, encontramos una contradicción profunda:
- Se
evalúa con encuestas de percepción
- Se mide la satisfacción
- Se revisan documentos formales
- Se
observan clases de forma puntual
Pero no se analiza el proceso cognitivo,
la mediación digital, ni la transformación del aprendizaje.
Entonces surge la pregunta central de esta
ponencia:
¿Cómo podemos hablar de calidad educativa si el
sistema de evaluación docente no mide la enseñanza real que ocurre en entornos
digitales y mediados por IA?
🔹 2. Crisis del modelo tradicional de evaluación
docente — 10 minutos
🔹 2. Crisis del modelo tradicional de evaluación docente — Desarrollo
ampliado con respaldo científico (10 minutos)
Para comprender la necesidad de una
reingeniería evaluativa, primero debemos reconocer que el modelo tradicional de
evaluación docente atraviesa una crisis estructural. Esta no es una percepción
aislada, sino un problema ampliamente discutido en la literatura internacional
sobre calidad educativa y evaluación del profesorado (Darling-Hammond, 2013;
Kane & Staiger, 2012).
Los sistemas tradicionales de evaluación
docente suelen apoyarse en cuatro pilares:
Encuestas estudiantiles
Observación de clases
Revisión documental
Indicadores administrativos
Aunque estos mecanismos aportan información,
presentan limitaciones profundas cuando se los utiliza como base principal para
valorar la calidad de la enseñanza.
🔹 Primera limitación: Subjetividad
Las encuestas estudiantiles son uno de los
instrumentos más extendidos en educación superior. Sin embargo, la
investigación ha demostrado que estas medidas reflejan en gran parte
percepciones, expectativas y sesgos, más que evidencia directa de aprendizaje.
Estudios empíricos señalan que factores como simpatía del docente, dificultad
del curso, género, etnicidad e incluso características no académicas pueden
influir en las valoraciones estudiantiles (Boring et al., 2016; Uttl et al.,
2017).
Un hallazgo particularmente relevante es que la
relación entre evaluaciones estudiantiles y aprendizaje real es débil o
inconsistente. Uttl et al. (2017), en un metaanálisis ampliamente citado,
encontraron que las evaluaciones de estudiantes no se correlacionan de forma
robusta con el desempeño académico posterior de los estudiantes. Esto sugiere
que estos instrumentos pueden incentivar la popularidad o la complacencia más
que la profundidad cognitiva.
El problema no es que la percepción no importe,
sino que no puede confundirse con evidencia de aprendizaje.
🔹 Segunda limitación: Instantaneidad
La observación de clase es otra práctica
habitual. Sin embargo, la enseñanza es un proceso continuo que se desarrolla a
lo largo del tiempo, no un evento aislado. Un momento observado puede no
representar la dinámica real del curso.
La investigación sobre evaluación docente ha
señalado que las observaciones únicas o poco frecuentes tienden a capturar
comportamientos performativos más que prácticas sostenidas (Kane & Staiger,
2012). Además, la variabilidad entre observadores y contextos reduce la
confiabilidad de estas mediciones.
Evaluar una clase aislada es como evaluar una
película por una sola escena.
🔹 Tercera limitación: Invisibilidad del entorno digital
La educación superior contemporánea se
desarrolla en entornos híbridos o digitales. Gran parte de la enseñanza ocurre
en:
Plataformas LMS
Foros
Actividades virtuales
Retroalimentación asincrónica
Sin embargo, los sistemas tradicionales de
evaluación rara vez integran de manera sistemática estas dimensiones. La
investigación sobre learning analytics subraya que el aprendizaje mediado por
tecnología genera datos ricos sobre interacción, participación y progresión que
no están siendo utilizados plenamente en evaluación docente (Gašević et al.,
2015; Siemens & Gašević, 2012).
Este vacío produce una paradoja: la docencia
digital crece, pero la evaluación sigue centrada en lo presencial y visible.
🔹 Cuarta limitación: No se mide impacto cognitivo
Un problema aún más profundo es que el modelo
tradicional evalúa la forma de la enseñanza, no su impacto cognitivo. No se
analizan de manera sistemática:
Nivel de pensamiento crítico promovido
Calidad de las preguntas docentes
Complejidad de las tareas
Adaptación a ritmos de aprendizaje
La literatura sobre retroalimentación y diseño
instruccional ha demostrado que estos factores influyen significativamente en
el aprendizaje (Hattie & Timperley, 2007; Darling-Hammond, 2013). Sin
embargo, no forman parte central de los sistemas evaluativos.
🔹 Síntesis conceptual
El sistema actual evalúa cumplimiento,
documentación y percepción, pero no captura adecuadamente la mediación
cognitiva ni el proceso real de enseñanza.
Esta desconexión ha sido señalada por
investigadores que sostienen que los modelos tradicionales de evaluación
docente no están alineados con las demandas de la enseñanza contemporánea
(Darling-Hammond, 2013).
A esta situación la podemos denominar
obsolescencia evaluativa: sistemas que fueron útiles en contextos anteriores,
pero que ya no responden a la realidad pedagógica actual.
🔹 3. La IA como catalizador de la reingeniería
evaluativa — Texto reescrito con citas Scopus verificadas (10 minutos)
Cuando hablamos de inteligencia artificial (IA) en
educación, es común que surjan dos reacciones: entusiasmo desmedido o temor
exagerado. Sin embargo, para comprender su verdadero papel en la evaluación
docente, debemos salir de esa dicotomía y entender algo fundamental: la IA no
es un accesorio tecnológico; es una infraestructura analítica que redefine lo
que es posible observar, medir y comprender en el proceso de enseñanza. En
educación superior, esto se conecta con un hallazgo ampliamente documentado: la
investigación sobre IA aplicada a universidades crece rápidamente, pero su
valor real depende de cómo se articula con las prácticas pedagógicas y de
evaluación (Zawacki-Richter et al., 2019).
Durante siglos, la educación evaluó con base en lo
directamente observable: la clase presencial, el discurso del docente y la
evidencia documental. Pero hoy una parte sustancial de la enseñanza ocurre en
entornos digitales (LMS, foros, tareas en línea, rúbricas digitales) que
generan trazas de actividad y comunicación. En ese contexto, la evaluación
docente enfrenta un giro importante: pasar de una evaluación basada en
impresiones y momentos puntuales, a una evaluación sustentada en evidencia del
proceso real de enseñanza. Ese cambio conecta con una idea central y muy citada
en el campo: “las analíticas del aprendizaje son sobre el aprendizaje”, es
decir, no se trata de medir por medir, sino de entender mejor cómo ocurre el
aprendizaje y qué condiciones docentes lo potencian (Gašević et al., 2015).
La IA y las analíticas del aprendizaje permiten, por
primera vez, procesar grandes volúmenes de datos pedagógicos y convertirlos en
evidencia interpretables para la mejora docente. Y esto se logra haciendo
visibles dimensiones que antes eran pedagógicamente relevantes, pero
técnicamente invisibles.
1) Interacciones digitales
Cada mensaje en un foro, cada comentario en una tarea
y cada intervención en un aula virtual genera datos analizables. A través de
enfoques como social learning analytics (por ejemplo, análisis de redes +
análisis léxico), es posible identificar no solo la frecuencia de
participación, sino también su calidad y su orientación: si el intercambio
impulsa reflexión, argumentación y construcción conceptual, o si se limita a
respuestas superficiales. Un estudio muy usado en este campo muestra
precisamente cómo un enfoque de analítica social puede ayudar a comprender
patrones de participación y reflexión en discusiones en línea en educación
superior (Chen et al., 2018).
Aquí cambia el enfoque: antes solo decíamos “hubo
participación”; ahora podemos analizar cómo fue esa participación y qué tipo de
mediación docente la estimuló.
2) Patrones de retroalimentación
Tradicionalmente, muchos sistemas evaluativos
verifican si el docente “calificó” a tiempo. Pero la IA permite evaluar
aspectos pedagógicamente más potentes: oportunidad del feedback, nivel de
personalización, claridad conceptual y orientación formativa. Esto es crítico
porque la retroalimentación es una de las influencias más fuertes sobre el
aprendizaje; el meta-análisis conceptual clásico y altamente citado de Hattie y
Timperley (2007) sostiene que el impacto del feedback depende de su calidad,
foco y función (Hattie & Timperley, 2007).
Además, en educación superior ya existe evidencia
sintética reciente (revisión sistemática en una revista de alto impacto) que
muestra cómo las analíticas de aprendizaje pueden enriquecer y mejorar
prácticas de retroalimentación en ambientes mediados por tecnología (Banihashem
et al., 2022).
En lo técnico, el procesamiento de lenguaje natural
(NLP) ha avanzado al punto de permitir análisis sistemáticos de texto para
estudiar retroalimentación, identificar patrones discursivos y clasificar tipos
de comentarios. Una revisión muy citada en IEEE Access resume tendencias,
aplicaciones y desafíos de NLP para análisis de feedback educativo (Shaik et
al., 2022).
3) Diseño de actividades
La IA también puede apoyar la evaluación del diseño
pedagógico: no solo si existen actividades, sino qué demandan cognitivamente
(memorización, aplicación, análisis, evaluación, creación). Aquí es relevante
un marco clásico del campo de learning analytics que conecta el diseño de
experiencias de aprendizaje con lo que se puede interpretar desde datos: si no
consideramos el diseño, corremos el riesgo de interpretar “rastros” sin
comprender la intención pedagógica (Lockyer et al., 2011).
Esto permite evaluar algo mucho más importante que
“envía tareas”: qué tipo de pensamiento está promoviendo el docente mediante la
arquitectura de actividades.
4) Participación estudiantil (ritmos y señales de
desconexión)
Los sistemas analíticos pueden detectar ritmos de
participación, cambios abruptos en actividad y señales tempranas de
desconexión, que suelen anticipar dificultades académicas. Este uso de datos
para generar retroalimentación y soporte es coherente con evidencia empírica
influyente sobre “qué datos son más informativos” para producir feedback en
contextos ricos en datos de aprendizaje (Tempelaar et al., 2015).
En evaluación docente, esto permite correlacionar:
¿qué decisiones del docente anteceden mejoras o caídas en participación?
5) Progresión del aprendizaje
Finalmente, la IA permite modelar trayectorias:
progreso sostenido, estancamientos y patrones de dificultad. El énfasis aquí es
que la evidencia no debe quedarse en “clicks” o actividad superficial. El
objetivo es vincular datos con el aprendizaje real, y por eso los marcos del
campo insisten en que la interpretación de analíticas debe mantenerse anclada
en teoría y condiciones instruccionales, no en correlaciones vacías (Gašević et al., 2015).
De la percepción a la evidencia
Aquí ocurre el cambio paradigmático. Antes, la
evaluación docente se basaba en preguntas como: “¿le gustó la clase?” o
“¿explicó bien?”. Ahora podemos responder preguntas más profundas:
¿Promovió pensamiento de alto nivel a través del
diseño y las tareas?
¿Su retroalimentación fue formativa y cognitivamente
orientadora?
¿Sus estrategias se asociaron con progresión del
aprendizaje y persistencia estudiantil?
Esto no implica eliminar la percepción; implica no
depender exclusivamente de ella, porque hoy existen fuentes de evidencia más
directas del proceso pedagógico real (Zawacki-Richter et al., 2019).
Ejemplos concretos (para decir en ponencia)
NLP para evaluar calidad y estructura del feedback
(Shaik et al., 2022).
Analítica social para estudiar profundidad de
interacción en foros (Chen et al., 2018).
Modelos de datos ricos para generar feedback con
información relevante (Tempelaar et al., 2015).
Rol del evaluador humano
Es crucial aclararlo: la IA no reemplaza al evaluador;
amplifica su capacidad de comprensión. La evidencia digital sirve para mejorar
la validez del análisis, pero la interpretación pedagógica exige criterio
profesional, contexto y juicio académico. En ese sentido, la IA no “dicta” la
evaluación: aporta evidencia para una decisión más robusta (Gašević et al., 2015).
Idea de cierre del bloque
La IA no automatiza la evaluación docente. La
transforma en un proceso más justo, más objetivo y más profundo, porque permite
observar dimensiones esenciales del aprendizaje que antes eran invisibles. Esta
afirmación se sostiene en el cuerpo de evidencia sobre analíticas de
aprendizaje, retroalimentación formativa y aplicaciones de IA en educación
superior (Hattie & Timperley, 2007; Banihashem et al., 2022;
Zawacki-Richter et al., 2019).
🔹 4. Evidencia desde la educación superior
ecuatoriana (15 minutos) — Texto con citas APA 7 integradas
Ahora bien, para que esta discusión no se quede
en el plano conceptual, necesitamos aterrizarla en un contexto real. En la educación
superior ecuatoriana observamos una transformación acelerada en tres
frentes: primero, universidades bajo presión de acreditación y aseguramiento
de la calidad, segundo, una transformación digital intensificada
desde la etapa post-pandemia, y tercero, una integración creciente de
plataformas LMS (por ejemplo, Moodle, Canvas u otras soluciones
institucionales). Sin embargo, pese a ese avance tecnológico, la evaluación del
desempeño docente sigue anclada, en gran medida, a instrumentos tradicionales:
encuestas de percepción, observaciones puntuales y verificación documental.
Este desfase entre innovación pedagógica y evaluación formal es coherente con
lo que muestra la literatura internacional: las analíticas de aprendizaje y la
IA pueden generar evidencia rica sobre el proceso educativo, pero su
integración en sistemas institucionales de evaluación aún es desigual y no
siempre coherente (Alfredo et al., 2024; Banihashem et al., 2022).
En términos prácticos, lo que ha cambiado en
Ecuador —y en general en la región— es que hoy existe una “huella digital” de
la docencia: interacciones en foros, retroalimentaciones escritas, secuencias
de actividades, patrones de participación y progresión del estudiante.
Justamente, las revisiones sistemáticas en learning analytics han
mostrado que estas fuentes permiten comprender y mejorar procesos de
retroalimentación y seguimiento del aprendizaje más allá de la percepción
subjetiva (Banihashem et al., 2022). En el ámbito regional, incluso desde
universidades ecuatorianas se reporta el interés por usar learning analytics
para fortalecer prácticas de feedback en educación superior, evidenciando que
el tema no es ajeno al país, sino una línea emergente con base científica y
tecnológica (Avila et al., 2022).
Hallazgo 1: Integración digital y participación
cognitiva
En experiencias institucionales y diagnósticos
docentes, se observa que los profesores que integran de manera sistemática
recursos digitales —no como adorno, sino como mediación pedagógica— tienden a
generar mayor interacción académica: participación en foros, elaboración en
tareas, continuidad en actividades y diálogo formativo. Esta observación se
alinea con revisiones sobre learning analytics y compromiso estudiantil:
la investigación muestra que los LMS permiten operacionalizar indicadores
conductuales de participación (por ejemplo, clics, permanencia, secuencia de
tareas), aunque advierte que el reto es interpretarlos pedagógicamente y
conectarlos con dimensiones más profundas del compromiso (Bergdahl et al.,
2024; Johar et al., 2023). En otras palabras: la evidencia indica que sí es
posible medir participación de forma objetiva, pero el valor real está en
traducir esa medición en comprensión pedagógica, algo que los instrumentos
tradicionales de evaluación docente rara vez contemplan.
Hallazgo 2: Retroalimentación estructurada y
desempeño académico
Un segundo elemento crítico —y muchas veces
subvalorado por los sistemas de evaluación docente— es la retroalimentación.
En el plano científico, una revisión sistemática en Educational Research
Review documenta que las analíticas de aprendizaje pueden fortalecer
prácticas de feedback en educación superior, aportando evidencia sobre
oportunidad, personalización y efectos en el aprendizaje en entornos mediados
por tecnología (Banihashem et al., 2022). En paralelo, la literatura sobre
procesamiento del lenguaje natural (NLP) aplicada a educación muestra que hoy
es viable analizar texto de comentarios y feedback para identificar patrones,
temas y calidad del mensaje, manteniendo esquemas “human-in-the-loop” donde la
IA apoya, pero no reemplaza, el juicio académico (Shaik et al., 2022; Sunar
& Khalid, 2023). Esto respalda el argumento central: cuando un docente
ofrece retroalimentación estructurada, argumentada y orientada a la mejora, el
impacto se refleja en desempeño y autorregulación; y hoy existen técnicas para
medir esa calidad de manera más objetiva que una encuesta general.
Hallazgo 3: Actividades interactivas digitales
y retención/compromiso
Un tercer patrón frecuente en educación
superior es que los cursos con actividades interactivas (aprendizaje
colaborativo, tareas por etapas, cuestionarios adaptativos, proyectos con
entregables) tienden a mejorar el compromiso y sostener la continuidad del
estudiante. En términos de evidencia, revisiones sobre analíticas de
aprendizaje señalan que el seguimiento de participación y trayectorias puede
utilizarse para detectar señales tempranas de desconexión y apoyar la
permanencia; y que, cuando estos sistemas se diseñan con enfoque humano y
explicabilidad, pueden ser más aceptables institucionalmente (Linden et al.,
2023; Alfredo et al., 2024). De nuevo, el punto crítico no es “tener
plataforma”, sino usar sus datos para comprender el proceso de aprendizaje y
rediseñar la docencia con base en evidencia.
El problema: estos factores casi no entran en
la evaluación docente formal
Aquí emerge la tensión mayor: aunque ya existe
evidencia científica robusta sobre el potencial de analíticas e IA para evaluar
dimensiones relevantes del proceso de enseñanza —participación, feedback y
progresión—, estos elementos aún no suelen ser considerados como criterios
formales en los sistemas de evaluación docente. Esto produce un desfase
estructural: la docencia evoluciona hacia lo digital y lo analítico, pero
la evaluación sigue midiendo lo visible (documentos, cumplimiento,
satisfacción) y deja fuera lo que realmente transforma el aprendizaje
(Banihashem et al., 2022; Alfredo et al., 2024).
Por eso, mi conclusión en este bloque es
directa:
Estamos premiando lo visible y descuidando lo
que realmente impacta el aprendizaje.
Y precisamente ahí la reingeniería evaluativa —apoyada en IA y analíticas, con
gobernanza y ética— deja de ser un “lujo innovador” para convertirse en una
necesidad de calidad universitaria.
🔹 5. Modelo propuesto: Reingeniería evaluativa
con IA (10 minutos)
Después de analizar el desfase entre innovación
pedagógica y evaluación docente, el siguiente paso no es simplemente “usar
tecnología”, sino reconfigurar estructuralmente el modelo evaluativo. Lo
que propongo no es una digitalización del sistema tradicional, sino una reingeniería
evaluativa, donde la inteligencia artificial y las analíticas de
aprendizaje funcionan como infraestructura de evidencia para el juicio
académico.
La literatura actual respalda que las
analíticas de aprendizaje, cuando se integran con criterios pedagógicos claros
y supervisión humana, permiten evaluar procesos educativos complejos de manera
más válida y contextualizada (Gašević et al., 2015; Banihashem et al., 2022).
Además, los enfoques de human-centred learning analytics subrayan que la
IA debe apoyar decisiones docentes y evaluativas, no sustituir el criterio
profesional (Alfredo et al., 2024).
Con base en este marco, propongo un Modelo
5D de Evaluación Docente con IA, que integra evidencia digital, análisis
cualitativo y juicio académico.
🔹 D1 – Diseño Pedagógico Digital
Esta dimensión evalúa la arquitectura didáctica
del curso en entornos digitales. No se trata solo de “subir materiales”, sino
de analizar:
- Diversidad de estrategias metodológicas
- Secuenciación de actividades
- Integración de recursos multimedia
- Coherencia
entre objetivos, actividades y evaluación
Las analíticas permiten examinar la estructura
del curso, la variedad de tareas y el tipo de experiencias de aprendizaje que
se ofrecen. Investigaciones muestran que la calidad del diseño instruccional en
entornos digitales influye significativamente en el compromiso y resultados de
aprendizaje (Johar et al., 2023). Asimismo, la analítica del diseño
instruccional permite identificar patrones de organización y complejidad de las
actividades (Banihashem et al., 2022).
Aquí la IA permite evaluar la calidad
estructural del entorno de aprendizaje, no solo la existencia de
documentos.
🔹 D2 – Mediación Cognitiva
Esta dimensión analiza el tipo de pensamiento
que el docente promueve. A través de procesamiento de lenguaje natural, es
posible examinar:
- Nivel cognitivo de preguntas
- Complejidad conceptual de tareas
- Orientación
al análisis, evaluación o creación
La literatura en learning analytics y
NLP educativo señala que los datos textuales pueden analizarse para identificar
profundidad conceptual y tipo de demandas cognitivas (Shaik et al., 2022). Esto
permite evaluar si el docente está promoviendo niveles superiores de
pensamiento, aspecto central para la calidad educativa.
Esta dimensión traslada la evaluación desde
“qué enseña” hacia cómo estimula el pensamiento.
🔹 D3 – Interacción Académica
La enseñanza es interacción. Esta
dimensión analiza:
- Frecuencia de participación
- Calidad del diálogo
- Equilibrio
entre intervenciones docentes y estudiantiles
Los estudios sobre compromiso estudiantil
muestran que la interacción sostenida es un indicador clave de aprendizaje
profundo (Bergdahl et al., 2024). Las analíticas permiten identificar patrones
de participación, redes de interacción y profundidad de discusión, superando la
simple medición de “número de intervenciones”.
Aquí la IA convierte la interacción en evidencia
evaluable del proceso pedagógico.
🔹 D4 – Retroalimentación Inteligente
La retroalimentación es uno de los factores con
mayor impacto en el aprendizaje. Esta dimensión analiza:
- Oportunidad del feedback
- Nivel de personalización
- Claridad conceptual
- Orientación formativa
Revisiones sistemáticas confirman que la
retroalimentación apoyada por analíticas de aprendizaje mejora la
autorregulación y desempeño académico (Banihashem et al., 2022). Además, el NLP
permite analizar la calidad lingüística y estructural de los comentarios
docentes (Sunar & Khalid, 2023).
Aquí la evaluación se enfoca en la calidad
formativa del acompañamiento docente.
🔹 D5 – Impacto en Aprendizaje
Finalmente, la evaluación debe considerar
resultados, pero no solo calificaciones finales, sino:
- Progresión del estudiante
- Trayectorias de aprendizaje
- Logro de competencias
Modelos predictivos y analíticas permiten
vincular prácticas docentes con evolución académica (Gašević et al., 2015).
Este enfoque conecta la mediación pedagógica con resultados reales, integrando
proceso y producto.
Esta dimensión cierra el ciclo: la enseñanza
se evalúa por su impacto observable en el aprendizaje.
🔹 Integración del modelo
Este modelo no funciona por acumulación
mecánica de indicadores, sino por triangulación:
|
Tipo de evidencia |
Función |
|
Datos digitales |
Evidencia objetiva del proceso |
|
Análisis cualitativo |
Interpretación pedagógica |
|
Juicio académico |
Contextualización y decisión
final |
Este enfoque coincide con marcos de human-centred
AI in education, que destacan la necesidad de mantener al docente y al
evaluador en el centro del proceso (Alfredo et al., 2024).
🔹 Idea de cierre del bloque
La reingeniería evaluativa no consiste en
evaluar más, sino en evaluar mejor: medir diseño, mediación, interacción,
retroalimentación e impacto, con evidencia digital y criterio académico.
🔹 6. Implicaciones éticas y
pedagógicas (5 minutos)
Cuando se habla de inteligencia artificial en
evaluación docente, el debate suele desviarse hacia escenarios distópicos:
vigilancia, control automatizado, deshumanización. Sin embargo, el verdadero
desafío no es tecnológico, sino ético-pedagógico. La IA no es inherentemente
justa ni injusta; depende del marco de gobernanza que la regule.
La investigación contemporánea en AI in
Education enfatiza que los sistemas basados en datos deben desarrollarse bajo
principios de human-centred AI, donde la tecnología amplía la capacidad
profesional en lugar de sustituirla (Holmes et al., 2021; Alfredo et al.,
2024). Desde esta perspectiva, integrar IA en la evaluación docente implica
tres condiciones fundamentales.
🔹 1. Gobernanza de datos
Los datos educativos no son simples registros
técnicos; representan trayectorias de aprendizaje, decisiones pedagógicas y
desempeño profesional. La literatura sobre ética de la IA en educación subraya
que el uso de datos debe estar guiado por principios de:
Minimización de datos
Consentimiento informado
Protección de privacidad
Finalidad pedagógica clara
Los marcos de gobernanza recomiendan evitar el
uso indiscriminado de datos y asegurar que los sistemas de analítica se
orienten al mejoramiento educativo y no al control punitivo (Zawacki-Richter et
al., 2019).
La clave ética es que los datos se utilicen
para apoyar la mejora docente, no para penalizar de forma automatizada.
🔹 2. Transparencia algorítmica
Un sistema evaluativo basado en IA no puede ser
una “caja negra”. La investigación en explainable AI in education sostiene que
docentes y evaluadores deben comprender:
Qué datos se usan
Cómo se procesan
Qué indicadores se generan
Cómo se interpretan los resultados
La transparencia es un requisito para la
confianza institucional y para la legitimidad de los sistemas evaluativos
(Alfredo et al., 2024). Sin explicabilidad, la IA pierde su función formativa.
La evaluación docente debe ser auditable,
interpretable y discutible académicamente.
🔹 3. Formación docente
La transformación evaluativa requiere que los
docentes comprendan el ecosistema digital en el que enseñan. Las
investigaciones muestran que la adopción ética de IA en educación depende de la
alfabetización digital y analítica del profesorado (Holmes et al., 2021).
El objetivo no es que el docente se convierta
en técnico de datos, sino que:
Entienda qué indicadores describen su práctica
Use la evidencia para reflexionar sobre su
enseñanza
Participe activamente en el diseño de sistemas
evaluativos
🔹 Idea central del bloque
La IA en evaluación docente no debe concebirse
como un sistema de vigilancia, sino como un sistema de mejora profesional
basado en evidencia.
Este principio coincide con enfoques de
evaluación formativa, donde el propósito es el desarrollo continuo y no la
sanción (Zawacki-Richter et al., 2019).
🔹 7. Cierre de alto impacto (5 minutos)
Hemos recorrido un trayecto claro:
La docencia universitaria se ha transformado
digitalmente
El sistema de evaluación no ha evolucionado al
mismo ritmo
La IA permite hacer visible el proceso real de
enseñanza
Existen marcos éticos y pedagógicos para su
implementación responsable
Por tanto, el debate ya no es tecnológico. Es
epistemológico y pedagógico.
La evaluación docente debe evolucionar:
Modelo tradicional Modelo basado en IA
Control Evidencia
Percepción Analítica
Forma Impacto
cognitivo
Evento puntual Proceso
continuo
Documento Interacción
real
La literatura internacional coincide en que la
IA en educación tiene sentido cuando fortalece la toma de decisiones
pedagógicas basadas en datos, manteniendo el juicio humano como eje central
(Holmes et al., 2021; Alfredo et al., 2024).
Y aquí llegamos a la afirmación final que
resume esta ponencia:
La pregunta ya no es si debemos integrar
inteligencia artificial en la evaluación docente.
La pregunta es si podemos seguir garantizando
calidad universitaria sin medir la enseñanza real que ocurre en entornos
digitales.
Porque evaluar sin considerar interacción
digital, mediación cognitiva y retroalimentación formativa es evaluar solo una
parte de la docencia.
Y la calidad educativa no se construye con
fragmentos, sino con comprensión integral.
REFERENCIAS
Alfredo, R., Echeverria, V., Jin,
Y., Yan, L., Swiecki, Z., Gašević, D., & Martinez-Maldonado, R. (2024).
Human-centred learning analytics and AI in education: A systematic literature
review. Computers and Education: Artificial Intelligence, 5, 100215.
https://doi.org/10.1016/j.caeai.2024.100215
Holmes, W., Bialik, M., &
Fadel, C. (2021). Artificial intelligence in education: Promises and
implications for teaching and learning. Computers & Education: Artificial Intelligence, 2, 100019.
https://doi.org/10.1016/j.caeai.2021.100019
Zawacki-Richter, O., Marín, V.
I., Bond, M., & Gouverneur, F. (2019). Systematic review of research on
artificial intelligence applications in higher education. International Journal
of Educational Technology in Higher Education, 16, 39. https://doi.org/10.1186/s41239-019-0171-0
- Alfredo, R., Echeverria, V., Jin, Y., Yan, L.,
Swiecki, Z., Gašević, D., & Martinez-Maldonado, R. (2024). Human-centred
learning analytics and AI in education: A systematic literature review.
Computers and Education: Artificial Intelligence, 5, 100215.
https://doi.org/10.1016/j.caeai.2024.100215
- Avila,
A. G. N., Silva Feraud, I. F., Solano-Quinde, L. D., Zuniga-Prieto, M.,
Echeverria, V., & De Laet, T. (2022). Learning Analytics to
Support the Provision of Feedback in Higher Education: A Systematic
Literature Review. In 2022 17th Latin American Conference on
Learning Technologies (LACLO). IEEE.
https://doi.org/10.1109/LACLO56648.2022.10013324
- Banihashem, S. K., Noroozi, O., van Ginkel, S.,
Macfadyen, L. P., & Biemans, H. J. A. (2022). A systematic review
of the role of learning analytics in enhancing feedback practices in
higher education. Educational Research Review, 37, 100489.
https://doi.org/10.1016/j.edurev.2022.100489
- Bergdahl, N., et al. (2024). Unpacking student
engagement in higher education learning analytics: A systematic review.
International Journal of Educational Technology in Higher Education.
https://doi.org/10.1186/s41239-024-00493-y
- Johar,
N. A., et al. (2023). Learning Analytics on Student Engagement
to Enhance Students’ Learning Performance in Online Learning: A Systematic
Review. Sustainability, 15(10), 7849. https://doi.org/10.3390/su15107849
- Linden, K., et al. (2023). Explainable learning
analytics to identify disengaged students…. Educational Research
and Evaluation. https://doi.org/10.1080/1360080X.2023.2212418
- Shaik, T., Tao, X., Li, Y., Dann, C., McDonald, J.,
Redmond, P., & Galligan, L. (2022). A review of the trends and
challenges in adopting natural language processing methods for education
feedback analysis. IEEE Access. (PDF disponible).
- Sunar, A. S., & Khalid, M. S. (2023). Natural
Language Processing of Student’s Feedback to Instructors: A Systematic
Review. (Artículo con DOI). https://doi.org/10.1109/TLT.2023.3330531
- Alfredo, R., Echeverria, V., Jin, Y., Yan, L.,
Swiecki, Z., Gašević, D., & Martinez-Maldonado, R. (2024).
Human-centred learning analytics and AI in education: A systematic
literature review. Computers and Education: Artificial Intelligence, 5,
100215. https://doi.org/10.1016/j.caeai.2024.100215
- Banihashem, S. K., Noroozi, O., van Ginkel, S.,
Macfadyen, L. P., & Biemans, H. J. A. (2022). A systematic review of
the role of learning analytics in enhancing feedback practices in higher
education. Educational Research Review, 37, 100489. https://doi.org/10.1016/j.edurev.2022.100489
- Bergdahl, N., et al. (2024). Unpacking student
engagement in higher education learning analytics: A systematic review.
International Journal of Educational Technology in Higher Education.
https://doi.org/10.1186/s41239-024-00493-y
- Gašević,
D., Dawson, S., & Siemens, G. (2015). Let’s not forget:
Learning analytics are about learning. TechTrends, 59(1), 64–71.
https://doi.org/10.1007/s11528-014-0822-x
- Johar,
N. A., et al. (2023). Learning Analytics on Student Engagement to
Enhance Students’ Learning Performance in Online Learning: A Systematic
Review. Sustainability, 15(10), 7849. https://doi.org/10.3390/su15107849
- Shaik, T., Tao, X., Li, Y., Dann, C., McDonald, J.,
Redmond, P., & Galligan, L. (2022). A review of the trends and
challenges in adopting natural language processing methods for education
feedback analysis. IEEE Access, 10, 56720–56739.
- Sunar, A. S., & Khalid, M. S. (2023). Natural
Language Processing of Student’s Feedback to Instructors: A Systematic
Review. IEEE Transactions on Learning Technologies. https://doi.org/10.1109/TLT.2023.3330531
- Banihashem, S. K., Noroozi, O., van Ginkel, S.,
Macfadyen, L. P., & Biemans, H. J. A. (2022). A systematic review of
the role of learning analytics in enhancing feedback practices in higher
education. Educational Research Review, 37, 100489. https://doi.org/10.1016/j.edurev.2022.100489
- Chen, B., Chang, Y.-H., Ouyang, F., & Zhou, W.
(2018). Fostering student engagement in online discussion through social
learning analytics. The Internet and Higher Education, 37, 21–30.
https://doi.org/10.1016/j.iheduc.2017.12.002
- Gašević,
D., Dawson, S., & Siemens, G. (2015). Let’s not forget:
Learning analytics are about learning. TechTrends, 59(1), 64–71.
https://doi.org/10.1007/s11528-014-0822-x
- Hattie, J., & Timperley, H. (2007). The power
of feedback. Review of Educational Research, 77(1), 81–112.
https://doi.org/10.3102/003465430298487
- Lockyer, L., Heathcote, E., & Dawson, S.
(2011). Learning designs and learning analytics. In Proceedings of the 1st
International Conference on Learning Analytics and Knowledge (LAK ’11)
(pp. 153–156). Association for Computing Machinery. https://doi.org/10.1145/2090116.2090140
- Shaik, T. B., Tao, X., Li, Y., Dann, C., McDonald,
J., Redmond, P., & Galligan, L. (2022). A review of the trends and
challenges in adopting natural language processing methods for education
feedback analysis. IEEE Access, 10, 56720–56739. https://doi.org/10.1109/ACCESS.2022.3177752
- Tempelaar, D. T., Rienties, B., & Giesbers, B.
(2015). In search for the most informative data for feedback generation:
Learning analytics in a data-rich context. Computers in Human Behavior,
47, 157–167. https://doi.org/10.1016/j.chb.2014.05.038
- Zawacki-Richter, O., Marín, V. I., Bond, M., &
Gouverneur, F. (2019). Systematic review of research on artificial
intelligence applications in higher education – Where are the educators?
International Journal of Educational Technology in Higher Education, 16,
39. https://doi.org/10.1186/s41239-019-0171-0
- Boring, A., Ottoboni, K., & Stark, P. B.
(2016). Student evaluations of teaching (mostly) do not measure teaching
effectiveness. ScienceOpen Research.
https://doi.org/10.14293/S2199-1006.1.SOR-EDU.AETBZC.v1
- Darling-Hammond, L. (2013). Getting teacher
evaluation right: What really matters for effectiveness and improvement.
Teachers College Press.
- Gašević,
D., Dawson, S., & Siemens, G. (2015). Let’s not forget:
Learning analytics are about learning. TechTrends, 59(1), 64–71.
https://doi.org/10.1007/s11528-014-0822-x
- Hattie, J., & Timperley, H. (2007). The power
of feedback. Review of Educational Research, 77(1), 81–112.
https://doi.org/10.3102/003465430298487
- Kane, T. J., & Staiger, D. O. (2012). Gathering
feedback for teaching. MET Project Research Paper. Bill & Melinda
Gates Foundation.
- Siemens, G., & Gašević, D. (2012). Learning and
knowledge analytics. Educational Technology & Society, 15(3), 1–2.
- Uttl, B., White, C. A., & Wong Gonzalez, D.
(2017). Meta-analysis of faculty’s teaching effectiveness: Student
evaluation of teaching ratings and student learning are not related.
Studies in Educational Evaluation, 54, 22–42. https://doi.org/10.1016/j.stueduc.2016.08.007
No hay comentarios:
Publicar un comentario