Florencia cursa quinto año de una escuela pública del barrio porteño de Balvanera. Debe rendir recuperatorio porque desaprobó la prueba de Lengua y Literatura. Recibe la consigna del trabajo práctico: “A partir de la lectura del cuento Casa tomada de Julio Cortázar, explicar el contexto realista en el que se desarrolla la historia y aclarar
Florencia cursa quinto año de una escuela pública del barrio porteño de Balvanera. Debe rendir recuperatorio porque desaprobó la prueba de Lengua y Literatura. Recibe la consigna del trabajo práctico: “A partir de la lectura del cuento Casa tomada de Julio Cortázar, explicar el contexto realista en el que se desarrolla la historia y aclarar cómo y por qué surge lo extraño”. Le pide a ChatGPT que resuelva. Copia y pega la respuesta sin hacer cambios. La nota es un ocho. Nunca leyó el cuento.
Más de la mitad de los niños, niñas y adolescentes de 9 a 17 años usa Inteligencia Artificial (IA) y, de ellos, dos de cada tres lo hacen con fines escolares, según el estudio Kids Online Argentina de Unicef y Unesco. La tendencia no sólo desafía a las y los profesores cuando corrigen, sino que tensiona toda una tradición de aprendizaje y evaluación en las escuelas.
“Hoy no es una alternativa seguir dando clase como se hizo siempre, que los alumnos usen la IA y los docentes hagamos como que aquí no ha pasado nada. Todo esto nos devuelve hacia la pregunta sobre el sentido de la educación”, plantea a Tiempo Mariana Ferrareli, docente, investigadora y directora del Programa de Inteligencia Artificial en Educación de la Universidad de San Andrés (UDESA).
Las posturas frente al fenómeno son variadas. Mientras el Ministerio de Educación de la Ciudad de Buenos Aires difunde una guía que invita a incorporar la IA con “innovación” y “pensamiento crítico”, muchos profesores y profesoras lidian con la frustración y los careos constantes con el alumnado: “¿Esto lo escribiste vos o una inteligencia artificial?”, “¿Podrías explicar lo que redactaste de forma oral?”, “Si siguen resolviendo todo con ChatGPT, vamos a volver a la prueba tradicional”.
«¿Por qué haría ese esfuerzo?»
“Los profes nos dicen que no usemos el chat para trabajos prácticos, pero podemos copiar y pegar lo que nos responde y aprobar. También, pedirle que escriba como una estudiante de 17 años argentina, más o menos formal. A veces me siento culpable y trato de hacer algo yo, pero me cuesta. ¿Por qué haría ese esfuerzo si lo puede resolver el chat?”, reflexiona Florencia, cuyo nombre real fue alterado para este artículo.
Respecto a la posibilidad de utilizar la IA en el nivel superior, responde enfáticamente que no: “Es distinto. Me sentiría muy mal porque es a lo que me quiero dedicar. Con Historia me pasa lo mismo. No lo uso porque me interesa aprender esa materia”.
Emma egresó el año pasado de una escuela de gestión privada de CABA. Acudió a la IA para realizar fichas de estudio y cuadros sinópticos de cara a las pruebas. Resalta que es una herramienta que permite optimizar los tiempos en momentos de muchos exámenes. Pero nunca le pidió que resolviera ensayos o trabajos prácticos: “Lo sentía como una trampa y no me gustaba la idea de entregar textos que no tuviesen mi impronta. Mi límite estaba en la creación, en lo que reemplazara mi capacidad de escribir y formular una idea. Es mil veces más valioso leer lo que está escribiendo un chico de 17 años aunque tenga correcciones. Y más gratificante para quien se esfuerza en hacerlo”.
Para Mariano Caputo, docente de Comunicación en secundaria e investigador de la UBA sobre plataformas, “hay algo del compromiso subjetivo con una tarea escolar que se ve seriamente desafiado en relación con la escritura”. En ese sentido, el salto que implica la IA en comparación con Google es “la automatización de la producción escrita” y la estandarización del lenguaje. Las posibilidades creativas de los estudiantes quedan reducidas a los límites que imponen los patrones lingüísticos que producen los algoritmos.
“Uno de los principales efectos es el deterioro de la capacidad de corrección del docente y de autocorrección del estudiante. Antes, se podían detectar más sencillamente las dificultades en el uso de las reglas gramaticales por parte de un alumno y trabajarlas en el aula. Hoy, la IA aparece como una plataforma seductora para resolver y mejorar el texto y ahorrarle tiempo cuando una tarea no lo motiva”, explica.
Lo que está en juego, dice el docente, es una enseñanza de la escritura que implique “una apropiación personal capaz de lograr que el estudiante se posicione por encima de lo que la Inteligencia Artificial le ofrece para comandar ese proceso y no al revés”. Es decir, que no sea la IA la que entrena al estudiante en cierto tipo de expresión, sino que “el docente logre intervenir y tomar la autoridad en torno a cómo el estudiante se relaciona con el lenguaje”.

La evaluación en jaque
Desde los inicios del sistema educativo, gran parte de las propuestas escolares se asentaron en los esfuerzos de elaboración personal que ahora se ven reducidos o desplazados por la IA. “Históricamente uno creía que si el alumno escribía un ensayo sobre un determinado tema había aprendido y ahora todo ese corpus de prácticas quedó obsoleto”, advierte Ferrareli.
Cuenta que hay países que adoptan estrategias de doble carril. Por un lado, instancias de ensayos o trabajos domiciliarios donde se asume que los estudiantes van a recurrir a la IA y se propone una incorporación crítica o defensa oral. Por el otro, pruebas a mano, desconectadas, en el formato tradicional: “Permite enseñar el uso de la IA, en el primer caso, y recolectar evidencias genuinas de aprendizaje donde no medió ayuda extra en el otro”.
Ferrareli sostiene que un uso reflexivo de la IA es aquel que trasciende el “copiar y pegar” y apunta a desarrollar criterios para incorporarla en los flujos de trabajo de manera responsable, ética y transparente: “No debería haber problema si un alumno dice que pensó el contenido pero la IA mejoró la ortografía, o que le pidió ideas para empezar a escribir un ensayo”.
El asunto es que las y los adolescentes se encuentran en una etapa vital de formación de su escritura y pensamiento. Para Caputo, hoy resulta complejo dirimir hasta dónde llega la IA y hasta dónde la voz del estudiante. Por eso, apunta a una periodización de las instancias de evaluación: “Primero, trabajar la escritura en clase para conocer al grupo y entender dónde está parado cada pibe, avanzar hacia una prueba tradicional y, recién ahí, una vez que se conocen sus condiciones de producción y se construyó un vínculo pedagógico y un diálogo honesto, formular una consigna para que se lleve a la casa”.
Emma coincide: “De lo contrario se pierde un proceso mental que es vital y muy necesario para mantener la concentración y esforzarte por entender algo que a priori parece difícil. Es importante tener la voluntad de investigar y encontrar las respuestas por vos mismo”.
Delfina es docente de Formación Ética y Ciudadana en el nivel medio. Señala una paradoja: la Inteligencia Artificial potenció la búsqueda de consignas más humanas. “Hay trabajos prácticos que ya no tienen ningún sentido si una herramienta los puede resolver en segundos. La IA nos obligó a ir más allá –resalta–. En lugar de resignarnos, muchos empezamos a pensar consignas que pongan en el centro las experiencias vitales de los pibes y pibas: sus recorridos, sus emociones, sus miradas. Porque ahí —en lo singular que no se puede automatizar— hay algo profundamente educativo”. La pregunta es cómo recuperar propuestas que vayan más allá de las trayectorias propias para pensar la otredad, que es la gran búsqueda que la escuela tiene desde sus orígenes: la posibilidad de salirse de uno mismo en el encuentro con el mundo.

Dios
Los avances de la IA son tan acelerados que abruman. Desde acelerar el desarrollo de tratamientos médicos personalizados hasta creer en dios: el contenido religioso creado con IA a través de videos en YouTube y TikTok superan las millones de vistas en pocas semanas.
Docentes que utilizan la Inteligencia Artificial
Cada vez más docentes apelan a la IA generativa para agilizar y potenciar su trabajo. “Permite cargar planificaciones de clases anteriores y adaptarlas, generar rúbricas de evaluación y hasta producir materiales didácticos”, describe Ferrareli.
Agustín Méndez es profesor de Comunicación en secundaria, diplomado en Educación y Nuevas Tecnologías por Flacso y trabaja en política educativa en CABA. Se apoya en la IA para generar consignas de multiple choice “más complejas” que le llevarían mucho tiempo hacerlas sin asistencia: “Le pido diez preguntas de análisis, diez de chequeo de lectura, otras de reflexión sobre un determinado eje; después selecciono con mi criterio”.
“También se puede implementar para lograr actividades más creativas. Cuando trabajemos la Escuela de Frankfurt voy a pedirle a la IA un texto de autores del siglo XX sobre las redes sociales que contenga diez errores; cuestiones que no son compatibles con el pensamiento de esa teoría. Entonces, los alumnos van a tener que identificarlos”, agrega.
Méndez apuesta al uso de esta herramienta entre los estudiantes siempre y cuando tenga un encuadre que delimite cómo. El año pasado, por ejemplo, les pidió que escribieran la letra de una canción a partir del estudio de una teoría y que hicieran la melodía con IA. De esta forma, la Inteligencia Artificial se pone al servicio de modalidades de evaluación más atractivas.
El problema de las alucinaciones
Cuando apareció Google, no faltaron los docentes que denunciaron una degradación cultural a comparación de la investigación en enciclopedias y bibliotecas. Hoy, el buscador está naturalizado en el trabajo escolar. Sin embargo, según Caputo, con la IA hay un punto de quiebre: “Con Google se podían contrastar diferentes fuentes y jerarquizarlas a partir de la intervención de un docente. Además de que la búsqueda no estaba formulada como un texto destinado a una máquina que identifica la intención del estudiante. La IA devuelve una respuesta, un output concluido que está abierto a nuevas preguntas, pero que no implican en ningún momento –salvo que uno lo solicite– optar por otras fuentes que estén por fuera”.
En esa línea, la organización Fundar advirtió en una de sus publicaciones el problema de las alucinaciones: “situaciones en las que el modelo, al intentar completar frases, puede producir respuestas que parecen verosímiles o razonables, pero que son inexactas o irrelevantes por no basarse en datos fácticos, o por la falta de habilidades específicas de la herramienta (como la resolución de problemas matemáticos)”.
A este cuadro se suman “los sesgos —ya sea culturales, de género, raciales o de otra índole—, presentes en los datos de entrenamiento, que puede reflejarse o incluso amplificarse en las respuestas que genera”.
Leave a Comment
Your email address will not be published. Required fields are marked with *