- No hay respuestas claras sobre cómo abordar el aumento de plagios y trampas en la educación superior: El uso de ChatGPT en escuelas y universidades desafía la ética y la integridad académica
- La IA generativa desafía la ética y la integridad académica en la educación superior
- El dilema ético y pedagógico
- Una posible solución
No hay respuestas claras sobre cómo abordar el aumento de plagios y trampas en la educación superior: El uso de ChatGPT en escuelas y universidades desafía la ética y la integridad académica
En el contexto de la educación superior, un tema que ha generado gran inquietud y debate en los últimos tiempos es el aumento de plagios y trampas entre los estudiantes. La introducción de herramientas de inteligencia artificial como ChatGPT en escuelas y universidades ha llevado a una situación sin precedentes, donde la ética y la integridad académica se ven cuestionadas. Sin embargo, a pesar de la gravedad del problema, no hay respuestas claras sobre cómo abordar este desafío, lo que ha generado una gran incertidumbre entre los educadores y los responsables de la toma de decisiones.
La IA generativa desafía la ética y la integridad académica en la educación superior
La inteligencia artificial generativa se ha convertido en la vertiente más popular de la sensación tecnológica del momento. Tal es su alcance que, como os contamos unos días atrás, ChatGPT ya es capaz de obtener la licencia médica al aprobar los exámenes para ello. Además, la propia OpenAI permite a los usuarios generar hasta dos imágenes gratis al día, una situación que ha provocado un aumento generalizado del uso de esta tecnología.
La IA alcanzó un hito en 1997 al derrotar por primera vez al mejor jugador de ajedrez del mundo, después de 12 años de desarrollo. Sin embargo, el incremento del uso de la IA generativa también implica un cambio drástico en escuelas y universidades, dado que las trampas han aumentado exponencialmente y los profesores se fían menos del trabajo de los alumnos.
El dilema ético y pedagógico
Según las encuestas, 7 de cada 10 alumnos admiten haber utilizado herramientas como ChatGPT para hacer sus trabajos. Y esto, en esencia, es realmente problemático por la baja efectividad que tienen las herramientas de detección de uso de inteligencia artificial.
Por el momento, la inteligencia artificial generativa está ganando la carrera que le enfrenta a la tecnología de detección. De hecho, el ingenio de los usuarios juega a favor de los que utilizan la IA, ya que OpenAI ha experimentado con marcas de agua digitales para sus textos que, por desgracia, pueden ser alteradas y modificadas de forma sencilla.
Y esto, sumado a que analizar respuestas antes y después de la aparición de ChatGPT también es inútil, solo implica que los métodos innovadores no son tan eficientes como muchos creen.
Una posible solución
John Warner, experto en la materia, propone actualizar los enfoques de la enseñanza y sugerir que los profesores reduzcan el alcance de las tareas y se centren en ejercicios más específicos y significativos. Así, las tareas tradicionales, con formatos rígidos y predecibles, facilitan que la IA produzca trabajos creíbles, lo que sugiere la necesidad de cambios en los métodos de enseñanza.
Por ello, apostar por tareas más personales podría motivar a los estudiantes a realizarlas por su cuenta y, por ende, estos cada vez darían menos importancia a la IA.
Deja una respuesta