Intuíamos que la llegada de ChatGPT fue un caos en las escuelas, y en mayo se reveló cuánto. También supimos que la batalla de la IA en las universidades no era un territorio privado de los estudiantes, los profesores también estaban utilizándolo. Lo último: un estudio en Reino Unido ha puesto cifras al uso de ChatGPT entre universitarios.
Es mucho más de lo que pensábamos.
La nueva era del engaño. En las universidades británicas, el fraude académico ha entrado en una nueva dimensión. Más de 7.000 estudiantes fueron sorprendidos utilizando herramientas de inteligencia artificial como ChatGPT durante el ciclo 2023-2024, según una investigación llevada a cabo por el Guardian.
Contaba el medio que mientras el plagio tradicional disminuye, los casos confirmados de uso indebido de IA han aumentado en más de un 200% en apenas un año, y las cifras preliminares sugieren que la tendencia continuará. Esta transformación representa no solo un reto disciplinario para el sistema universitario, sino también una redefinición del significado mismo de la evaluación académica en la era digital.
Del copy al prompt. Hasta la llegada de la IA generativa, el plagio de texto era el principal tipo de conducta fraudulenta. Sin embargo, desde 2022, con el auge de herramientas como ChatGPT, la manera de hacer trampa ha cambiado: los estudiantes ya no copian directamente fuentes, sino que emplean algoritmos para producir textos originales que burlan a los detectores de plagio tradicionales.
De hecho, muchos de ellos recurren a aplicaciones diseñadas para “humanizar” el contenido generado por IA y así evitar su detección. A medida que la tecnología evoluciona, las universidades se enfrentan a un enemigo mucho más difícil de identificar que el plagio convencional: el fraude por creatividad automatizada.
Solo el principio. Aunque esos 7.000 casos confirmados ya representan una preocupación, los expertos afirmaban en el diario británico que se trata apenas de la punta del iceberg. En febrero, una encuesta reveló que el 88% de los estudiantes británicos ha utilizado IA en sus evaluaciones, mientras que pruebas internas realizadas por académicos de la Universidad de Reading mostraron que el 94% de los trabajos generados por IA pasaban desapercibidos.
Qué duda cabe, esto demuestra que la detección actual es insuficiente y que la mayoría de los casos nunca son formalmente identificados o sancionados. Además, más del 27% de las universidades británicas aún no registra el uso indebido de IA como una categoría separada de conducta indebida, lo que indica un desfase regulatorio profundo.
¿Ayuda o trampa? Es, posiblemente, la gran pregunta. A pesar del estigma, muchos estudiantes no perciben su comportamiento como fraudulento. Al contrario, varios entrevistados admiten usar IA para estructurar ideas, generar esquemas o reformular argumentos.
Algunos, incluso, la consideran una herramienta de inclusión: estudiantes con dislexia, por ejemplo, encuentran en la IA un apoyo clave para organizar sus pensamientos y superar barreras de expresión. Esta ambigüedad ha abierto un debate sobre los límites del uso ético de la tecnología en el aula, y si el problema radica realmente en las herramientas o en la rigidez de los modelos de evaluación.
El dilema universitario. Frente a este panorama, algunas instituciones plantean volver a exámenes presenciales, aunque otros expertos señalan que esto no es ni práctico ni deseable. Según el investigador Thomas Lancaster, la solución debe ir más allá de la vigilancia: urge rediseñar las evaluaciones para enfocarse en habilidades que la IA no puede replicar, como la comunicación, la interacción social, la creatividad aplicada o el juicio ético.
La clave estaría en involucrar a los estudiantes en el diseño mismo de las evaluaciones, fomentando una cultura de aprendizaje más participativa y menos punitiva.
El papel del gobierno y tecnológicas. Por último, el estudio del Guardian apunta a otra pata clave del entramado. Las grandes tecnológicas no son ajenas al fenómeno. Google ofrece mejoras gratuitas de Gemini a universitarios, y OpenAI ofrece descuentos en ChatGPT a estudiantes en Estados Unidos y Canadá. Desde el gobierno británico, el secretario de Ciencia y Tecnología, Peter Kyle, ha defendido que la IA tiene potencial para “democratizar” el aprendizaje, sobre todo para estudiantes con dificultades.
No obstante, también ha admitido que su integración en la educación requiere un marco de implementación cuidadoso. El gobierno ha destinado más de 187 millones de libras a programas de capacitación nacional y ha publicado orientaciones sobre el uso de IA en las aulas, aunque todavía no existe una normativa uniforme a nivel universitario.
Entre dos mundos. En resumen, el uso masivo de IA por parte de los estudiantes británicos marca una transición generacional inevitable. Por un lado, revela carencias profundas en los métodos de evaluación tradicionales. Por otro, plantea preguntas complejas sobre el significado de aprender, demostrar conocimientos y ser evaluado en un mundo donde las máquinas pueden generar ideas, textos y estructuras con la misma rapidez que la mente humana.
Toda una paradoja, ya que, si el sistema educativo quiere mantenerse relevante y justo, deberá encontrar un nuevo equilibrio entre tecnología, integridad y pedagogía. Porque no se trata de erradicar la IA del aula, sino de enseñar a convivir con ella sin renunciar al aprendizaje auténtico… y no automático.
Imagen | Pexels
En Xataka Móvil | A los estudiantes les prohibieron el móvil para que no usaran ChatGPT. Nadie imaginó que el problema serían los profesores
En Xataka Móvil | Intuíamos que la llegada de ChatGPT fue un caos en las escuelas. Miles de documentos han revelado hasta qué punto en EEUU
–
La noticia
En Reino Unido el plagio ha caído en las universidades. A cambio, el uso indebido de ChatGPT se ha disparado
fue publicada originalmente en
Xataka Móvil
por
Miguel Jorge
.