La inteligencia artificial ya forma parte de las aulas universitarias. Herramientas como ChatGPT se han convertido en compañeras habituales de estudio: ayudan a redactar textos, generar ideas o entender conceptos complejos. ¿Quiénes no la usan todavía, y por qué?
En nuestro estudio con 737 estudiantes de grado comprobamos que un 70 % de ellos ya lo están usando cotidianamente. Aprecian especialmente la rapidez y la facilidad de la herramienta. Les ayuda a organizar ideas, aclarar dudas y ahorrar tiempo en tareas que de otro modo serían más largas o tediosas. La perciben como un tutor disponible las 24 horas, capaz de explicar de otra manera lo que no entienden en clase.
Los riesgos que frenan su uso
La mayoría del alumnado que participó en la encuesta percibe riesgos en el uso de ChatGPT, tanto a ser acusado de plagio como a recibir información dudosa o falsa o infringir las normas académicas de su universidad. Otras cuestiones que preocupan en menor medida a los estudiantes son el hecho de que la utilización de esta herramienta no esté regulada y la falta de protección de datos y privacidad.
Estos riesgos percibidos resultan decisivos a la hora de optar por usar o no usar ChatGPT. Para el alumnado más consciente de los riesgos, la herramienta deja de percibirse como una ayuda y se convierte en algo que prefieren mantener a distancia. Cuanto más conscientes son de los riesgos, menos la utilizan.
La importancia de la honestidad académica
¿Por qué hay estudiantes que son más sensibles a estos riesgos? En la universidad española, por ejemplo, todavía no existen normas claras ni formación específica sobre el uso de la IA, como hemos analizado en un trabajo reciente. Sin embargo, nuestra hipótesis es que la diferencia no se explica solo por factores externos como la falta de regulación, sino también por algo más interno: la propia percepción del alumnado sobre lo que es honesto y lo que no lo es en el ámbito académico.
La llamada percepción de deshonestidad académica se refiere a las creencias éticas del alumnado sobre qué comportamientos consideran aceptables o inaceptables en su vida universitaria. Estos serían, por ejemplo, hacer trampa en un examen (con chuletas o dispositivos electrónicos), mentir para obtener ventajas académicas (como pedir una prórroga con una excusa falsa) o presentar como propio un trabajo que en realidad ha sido elaborado por otra persona.
El 83 % del alumnado considera deshonesto o muy deshonesto este tipo de comportamientos académicos. Y dentro de este grupo, se observa una correlación llamativa: quienes más desaprueban prácticas poco éticas en el ámbito universitario como copiar en un examen o entregar como propio el trabajo de otra persona, tienden a percibir más riesgos en el uso de ChatGPT. Y esa percepción se traducía en una menor frecuencia de uso y en una baja intención de seguir utilizándolo en el futuro.
El uso de ChatGPT como una decisión ética
Nuestros resultados muestran que, antes de decidir si usar ChatGPT, el alumnado sopesa ventajas y riesgos. En un lado de la balanza colocan la rapidez y la facilidad; en el otro, la privacidad, la calidad de las respuestas o el temor a sanciones académicas. Lo que inclina la balanza no es solo el peso de cada argumento, sino la mirada con que se juzgan. La brújula ética de cada estudiante amplifica los riesgos o, por el contrario, los minimiza, y acaba orientando la decisión final.
Este hallazgo conduce a una conclusión importante: el reto de las universidades será acompañar esa brújula ética individual con normas institucionales claras y formación específica. Esto puede traducirse, por ejemplo, en protocolos sobre el uso de la IA en las diferentes asignaturas y trabajos académicos o en cursos y talleres que enseñen a emplear estas herramientas de manera crítica y responsable.
Elaborar normas colaborativamente
Para ilustrar cómo puede abordarse este reto en la práctica, diseñamos un taller sobre inteligencia artificial generativa para alumnado universitario. Se llevaron a cabo encuestas en vivo, debates sobre mitos y la elaboración colectiva de normas de uso responsable. El 72,8 % afirmó sentirse más preparado para usar la IA de manera correcta y responsable.
Este tipo de iniciativas no solo informan al alumnado y le enseñan a usar mejor la herramienta, sino que también fortalecen su brújula ética. Le ayudan a aprovechar el potencial de la inteligencia artificial sin perder de vista la integridad académica que sostiene la vida universitaria. Lo importante no es tanto lo que la IA es capaz de hacer, sino las decisiones que tomamos sobre cómo queremos usarla en la universidad.
Silvia Ortiz-Bonnin, Profesora titular laboral de Psicología del trabajo, Universitat de les Illes Balears y Joanna Blahopoulou, Profesora ayudante doctora del Departamento de Psicología, Universitat de les Illes Balears
Este artículo fue publicado originalmente en The Conversation. Lea el original.
¿Qué es DUPAO magazine? Somos la revista de Culturizando sobre Series y Películas, Ciencia y Tecnología, Marketing y Negocios, Productividad, Estilo de Vida y Tendencias.