11 de junio 2025
Dólar
Compra 40,10 Venta 42,50
13 de diciembre 2024 - 5:00hs

Como cualquier tecnología, irrumpió sin pedir permiso. La doctora Mariela Questa-Torterolo, docente de la Universidad ORT, reflexiona sobre la inteligencia artificial y la educación.

La académica destaca que esta herramienta no debe verse como una solución mágica, sino como un recurso que requiere objetivos pedagógicos claros y una integración ética.

Por eso, coordinó un libro, llamado Inteligencia artificial en educación: contribuciones desde la teoría, las prácticas pedagógicas y la investigación, donde se reflexiona sobre los desafíos que esta tecnología plantea en el ámbito educativo.

Más noticias

A continuación un resumen de la charla con El Observador sobre este trabajo:

¿Cuándo comenzaron a trabajar en la idea y cómo fue el proceso de coordinación?

El año pasado empezamos a trabajar en la idea y a coordinar con los posibles colaboradores. Armamos una propuesta desde la coordinación, las tres coordinadoras, y empezamos a convocar a las personas. Se sumaron al desafío de escribir, que tenía la particularidad de estar enfocado en la reflexión, no solo en explicar los usos, la teoría que existe al respecto o alguna investigación, sino hacerlo desde un punto de vista crítico para aportar a lo que se puede pensar a futuro como aplicaciones en la educación.

¿Y qué resultados obtuvieron en el trabajo? O sea, más allá de las reflexiones en sí, me imagino, ¿hay alguna conclusión a la que llegaron?

Sí, como conclusión, básicamente esto es algo que evoluciona muy rápido y nos deja a los educadores y a los investigadores en falso, con la sensación de que no estamos abordando todo lo que hay, lo que cambia y las aplicaciones que surgen a nivel educativo. No me refiero a aplicaciones como herramientas, sino a la aplicabilidad de la inteligencia artificial a distintas cuestiones pedagógicas. Esto nos genera el sentimiento de que todo es muy fútil, que todo se va. Hoy aparece algo, mañana cambia, y el sistema educativo no está preparado para estas dinámicas tan cambiantes. Lo que queríamos era dejar unas bases para seguir pensando. El resultado es esto: sensibilizar a docentes e investigadores, y no caer ni en la fascinación ni en el desencanto por la inteligencia artificial. Invitar a pensar en sus usos posibles desde un punto de vista ético, no apabullarse y no pensar que los estudiantes, por ser nativos digitales, van a estar siempre actualizados y que los docentes quedaremos obsoletos. La inteligencia artificial está ahí, y depende de nosotros ver cómo la usamos, qué hacemos con ella, siempre con sentido pedagógico y ético, para no quedarnos por fuera de lo que es la educación 5.0.

Cuando salió ChatGPT se empezó a debatir y a discutir en Uruguay y en el mundo el tema del plagio o de cómo se iban a poder entregar trabajos que no hayan sido escritos por los propios alumnos. ¿Cómo el libro aborda eso y cuál es tu pensamiento al respecto?

Ese tema está en los docentes. Nos deja la responsabilidad a nosotros, no tanto a los estudiantes. Ellos tienen herramientas y las usarán para facilitar su tarea. Nosotros, como docentes, tenemos que diseñar evaluaciones lo suficientemente desafiantes como para que las respuestas del chat no sirvan para completarlas. Puede inspirar, pero no copiar y pegar. El desafío más grande es generar propuestas de evaluación que integren la reflexión de los estudiantes sobre los procesos. En algunas áreas de conocimiento se pueden hacer evaluaciones acumulativas, donde los docentes puedan ver la evolución del estudiante en su proceso reflexivo.

¿Y en tu caso en particular, cómo es que se puede aplicar la inteligencia artificial?

Estamos experimentando con un GPT porque trabajo en posgrados, donde los trabajos de tesis, informes y demás están asociados a la integridad académica. Esto pasa, entre otras cosas, por la aplicación de normas APA, que son un problema para los estudiantes. Revisamos referencias y damos pistas para buscar información de manera correcta. El a GPT potentes, como los de OpenAI, es pago, y para los estudiantes podría implementarse con s docentes con licencias, pero crearlos lleva tiempo y recursos. Aunque distribuirlos sea gratuito, la creación requiere mucha experimentación y pruebas.

¿Este uso limitado por parte de los docentes puede tener algún impacto importante?

Claramente. El tiempo que usamos para experimentar con herramientas no es remunerado, y eso es un problema no solo para la inteligencia artificial, sino también para investigar o reflexionar sobre prácticas. Además, muchas plataformas como CREA o Moodle se manejan centralmente y no permiten integrar herramientas sin alineamientos institucionales. Esto limita la capacidad de experimentar e implementar soluciones más avanzadas.

¿Qué otras herramientas, además de ChatGPT o Bard, consideraron en el libro?

No hacemos hincapié en ninguna herramienta específica porque esto es muy volátil. Nombramos algunas, pero nos pareció que no valía la pena atarse a ninguna, ya que todo cambia rápidamente. Incluso, mientras trabajábamos, algunas herramientas cambiaron de nombre.

¿Cuál fue el mayor hallazgo o sorpresa que tuvieron al investigar y documentar estas experiencias?

Una de las cosas más llamativas es que muchos docentes no saben cómo aplicar la inteligencia artificial. Aquellos que sí lo entienden, muchas veces no tienen tiempo para desarrollos más importantes. También hay limitantes como los s pagos a herramientas avanzadas y la falta de alineamientos institucionales que permitan integrar estas tecnologías de manera práctica.

¿Ves que la gente, incluso los docentes, está usando estas herramientas más como un pasatiempo?

Sí, muchas veces las usan para jugar. Esto no pasa solo con inteligencia artificial. Hubo modas como Kahoot o Padlet, donde la gente las usaba más por diversión que para un uso didáctico pensado. Lo mismo ocurre con herramientas de inteligencia artificial: exploran, se divierten, pero no hay un uso reflexivo o profundo para la enseñanza.

¿Cómo afecta la falta de uso de inteligencia artificial por parte de los docentes?

Puede afectar en varios sentidos. Los alumnos pueden usar herramientas de forma muy instrumental, pero esto no favorece el aprendizaje. También hay un riesgo potencial de que los estudiantes completen evaluaciones copiando del chat. Esto genera preocupación en los docentes, quienes muchas veces no tienen herramientas para determinar si un trabajo fue realizado con inteligencia artificial.

Temas:

Inteligencia Artificial ChatGPT Universidad ORT Uruguay

Seguí leyendo

Te Puede Interesar

Más noticias de Argentina

Más noticias de España

Más noticias de Estados Unidos