El drama de los estudiantes que utilizan IA generativa para sus trabajos

Recursos Humanos 16 de abril de 2024
Robot-whispering-student

Un estudio llevado a cabo por los creadores de la herramienta líder en detección de contenido no original, Turnitin, afirma que a lo largo del año pasado, los estudiantes entregaron como originales más de veintidós millones de ejercicios realizados con la ayuda de herramientas generativas como ChatGPT, Gemini y otras, algo que supone, según algunos, una amenaza y un terrible drama.

Nunca he confiado en herramientas como Turnitin, y como profesor, además, no puedo hacer más que disentir y dudar de sus conclusiones. Desde la primera vez que, a finales de noviembre de 2022, probamos ChatGPT, sabíamos que una innovación como esa iba a cambiar la educación, pero no necesariamente a destruirla. De hecho, como educador, los profesores que se afanan en prohibir ese tipo de herramientas y en tratar de detectarlas a toda costa me preocupan mucho más que los que simplemente toman una aproximación abierta y permiten su uso de manera transparente. A estas alturas de película, me preocupa seriamente que un profesor no sepa usar ChatGPT de manera competente, mucho mejor que sus estudiantes.

En primer lugar, por una cuestión de principios: si una herramienta es capaz de proporcionar una ventaja competitiva a mis estudiantes a la hora de hacer cosas como escribir un texto o crear una presentación, lo que pretendo como profesor no es que la eviten ante el peligro de ser acusados de copiar, sino que aprendan a utilizarla y a sacarle partido de la mejor manera posible.

En segundo, porque todas las herramientas que se dedican a pretender detectar documentos escritos mediante algoritmos generativos fallan, y generan suficientes falsos positivos como para que arriesgarse a denunciar a un estudiante por plagio sea una auténtica lotería, en muchos casos con el futuro del estudiante en juego.

Aproximarse a esta cuestión con un enfoque represivo es errar gravemente el tiro y olvidarnos del verdadero propósito de la educación. Por ejemplo, muchos de mis estudiantes hablan inglés como segunda lengua: ¿es de verdad problemático que utilicen un asistente generativo para asegurarse de que sus trabajo estén correctamente escritos? La legibilidad de sus trabajos ha mejorado muchísimo, y francamente, me parece muy bien, porque antes me sentía profundamente idiota corrigiendo su redacción o sus typos en lugar de centrarme en su contenido. Para Turnitin y otros similares, estoy seguro que esos trabajos que fueron redactados «de manera legítima» por un estudiante tecleando en su ordenador y luego fueron simplemente pasados por el ChatGPT de turno a modo de corrector ortográfico-gramatical, forman parte de esos supuestos veintidós millones de trabajos que califica como «plagiados».

¿Debe un estudiante dedicar horas a redactar algo, cuando puede simplemente alimentar al algoritmo con los datos y las preguntas adecuadas y obtenerlo rápidamente? Lo importante para mí no es que escriba golpeando sus dedos sobre el teclado o no, sino que una vez obtenido un resultado, sea capaz de entender que lo que debe hacer no es copiarlo y pegarlo sin más, sino leerlo detenidamente, corregir lo que haya que corregir y dedicarle el tiempo de supervisión que realmente necesita… que por cierto, es una muy buena forma de reforzar el aprendizaje. Y en cualquier caso, mucho mejor desde un punto de vista didáctico que lo que hacían algunos antes, que era pagar a un estudiante de India, de Kenya o de otros países angloparlantes para que les escribiese el trabajo.

De hecho, lo que más me preocupa es que entiendan que un algoritmo generativo bien utilizado puede disminuir el tiempo dedicado a la creación, pero siempre incrementará el tiempo dedicado a la supervisión. Por eso, además de pedirles que utilicen algoritmos generativos, les pido que me incluyan la consulta que han hecho, con su prompt correspondiente, como referencia, lo que me permite valorar si han hecho o no un uso correcto de la herramienta. En la práctica, me parece mucho más adecuado suspender al alumno que plantea una pregunta de manera superficial y se traga una «alucinación» del algoritmo por no haber revisado la respuesta, que a uno que lo utilizó correctamente. La educación no siempre consiste en evaluar el fin o el resultado obtenido, muchas veces debemos aprender a evaluar los medios.

Dicho esto, lo que sí puede ser un gran fallo que debemos evaluar negativamente es al estudiante que mantiene en su trabajo un error grave «porque ChatGPT dijo que era así». Si usas la herramienta de manera incorrecta, si crees que es una especie de oráculo infalible o te fías de ella sin supervisión alguna, no solo pruebas que no has aprendido, sino que además, evidencias un problema de manejo de esas herramientas.

Nuestros estudiantes van a utilizar ChatGPT y herramientas similares para hacer sus trabajos, por supuesto. Muy tontos serían si no lo hicieran. ¿Qué queremos? ¿Que se dediquen a disimular cambiando absurdamente la redacción, o incluso introduciendo algún typo a propósito, para que «parezca» que lo escribieron ellos? ¿No es esa una aproximación completamente estúpida? En su lugar, permitamos que utilicen ese tipo de herramientas como antes aprendieron a utilizar calculadoras, hojas de cálculo, la Wikipedia o los motores de búsqueda, y centrémonos en enseñarles de verdad cómo aprender y crear buenos trabajos con todas las herramientas que la tecnología pone a su disposición.

Nota:https://www.enriquedans.com/

Te puede interesar