Desafiando a los detectores: ¿humano o máquina?
Uno de los temas recurrentes en los claustros de profesores es el miedo a que el alumnado copie directamente de una inteligencia artificial como ChatGPT. El hecho de copiar no es nuevo, ya que desde hace ya muchos años Internet ha sido una fuente inagotable de recursos de todo tipo. El problema que aporta la IA es que cada vez que se obtiene una respuesta por parte de la IA, esta es distinta, por lo que no es posible reproducirla de nuevo y aparentemente es única y original.
La inteligencia artificial generativa plantea supone un problema para los métodos de evaluación tradicionales. Durante años, la respuesta a la copia ha sido la detección mediante software, pero la evidencia actual indica que esta forma de proceder ha llegado a un punto muerto. Los sistemas antiplagio no funcionan adecuadamente y no existe una certeza absoluta para asegurar que un documento ha sido escrito por una IA y no por una persona.
Las herramientas creadas con este fin, como Turnitin o los detectores específicos de IA, tienen una fiabilidad limitada y generan con frecuencia falsos positivos. Diversos estudios han señalado, además, un sesgo importante contra el alumnado que aprende la lengua como segunda o extranjera (NESE), cuyos textos son clasificados erróneamente como generados por IA en más de la mitad de los casos.
Un trabajo de Perkins et al. (2024) analizó seis detectores de IA frente a textos producidos con ChatGPT y Claude. Los autores encontraron una tasa media de falsos positivos del 33 % y una precisión general de apenas el 39,5 %. Cuando los textos se modificaban mediante prompts antagónicos, instrucciones que buscan engañar a los detectores, como pedir a la IA que escriba de forma similar a un estudiante real, la precisión descendía hasta un alarmante 17,4 %. El uso de este tipo de prompts muestra la inviabilidad de los sistemas de detección actuales y la facilidad con la que pueden eludirse.
Como consecuencia, los resultados de los detectores de IA no deberían utilizarse como base para acusaciones o sanciones sin un grado muy elevado de certeza.
¡Ni ChatGPT ni Gemini ni otros chatbots pueden detectar los textos creados por ellos mismos! Las IA son incapaces de identificar sus propios textos. Por tanto, debemos evitar situaciones extremas, como el caso del profesor de una Universidad de Texas que suspendió a toda su clase por, supuestamente, haber copiado un trabajo de ChatGPT, cuando no era cierto.
La alternativa pasa por replantear las prácticas de evaluación, abandonando un enfoque basado en la desconfianza que, además de ser ineficaz, desvía la energía docente hacia la vigilancia y genera un clima adverso en el aula. En lugar de centrarnos en "pillar al alumnado", debemos diseñar un nuevo modelo evaluativo donde la IA sea una aliada.
Todo esto implica orientar la evaluación hacia el proceso, el desarrollo de competencias y la transparencia a través de acciones concretas como:
- Valorar la investigación y la construcción del aprendizaje, no solo el resultado final.
- Priorizar la oralidad mediante defensas, exposiciones y debates que revelen una comprensión auténtica.
- Diseñar preguntas y tareas contextualizadas, conectadas con la realidad del alumnado, que hagan irrelevante el simple "copia-pega".
- Fomentar la transparencia, solicitando que se justifique y cite el uso de las herramientas de IA empleadas.
- De esta forma, la tecnología actúa como un verdadero catalizador para la actualización pedagógica. Es fundamental promover una alfabetización en IA que enseñe a usar estas herramientas de forma ética y crítica, convirtiéndolas en un potente asistente para el aprendizaje y no en un atajo.
- Kirchner, J. H., Ahmad, L., Aaronson, S., & Leike, J. (2023, January 31). New AI classifier for indicating AI-written text. OpenAI. https://openai.com/blog/new-ai-classifier-for-indicating-ai-written-text/