El dilema de la inteligencia artificial en las universidades chilenas
La escena se repite con una frecuencia cada vez menos excepcional. Un estudiante redacta un ensayo frente a su computador con apoyo de inteligencia artificial. Al otro lado, un profesor lo revisa con una sospecha difícil de despejar: ¿cuánto de ese texto pertenece realmente al alumno?
Entre ambos, un terreno difuso donde la tecnología avanza más rápido que las normas que intentan regularla. La irrupción de herramientas de inteligencia artificial generativa, capaz de escribir, programar o resolver problemas complejos, ha instalado uno de los debates más relevantes en la educación superior. No solo por las oportunidades que abre, sino por las tensiones que genera sobre pilares históricos del mundo académico: la autoría, la evaluación y la integridad.
En Chile, las universidades han comenzado a transitar en este escenario con una mezcla de apertura y cautela. No existe una respuesta única. Lo que se observa es un proceso en desarrollo, donde conviven protocolos incipientes, ajustes pedagógicos y una pregunta de fondo que aún no tiene respuesta: ¿Cómo incorporar estas herramientas sin que reemplacen el aprendizaje?
Un estudio reciente realizado por los investigadores, Ignacio Alarcón (U. de Chile) y Jonathan Vásquez (U. Valparaíso), reveló que el uso de ChatGPT en Chile aumenta significativamente al inicio del año escolar y durante los períodos de evaluación.
Esta tendencia, observada a través de Google Trends, sugiere que tanto alumnos como académicos están adoptando la IA como herramienta educativa, aunque también plantea desafíos en su implementación. “Un secreto a voces, donde muchos la usan sin reconocerlo”, agrega Vásquez. Las primeras reacciones frente a la IA oscilaron entre la incertidumbre y los intentos de restricción.
Pero esa lógica rápidamente mostró sus límites. La tecnología ya estaba instalada en la vida cotidiana de los estudiantes. “No es una herramienta frente a la cual podamos cerrar los ojos”, plantea Javiera Figueroa, directora de Docencia de la Facultad de Educación de la Universidad Alberto Hurtado, donde se ha implementado un protocolo que no prohíbe el uso de IA, sino que lo regula.
El enfoque es claro, según cuenta: no se trata de impedir, sino de mediar. Definir cuándo se puede usar, con qué objetivos y bajo qué condiciones. En ese marco, debe ser una herramienta al servicio del aprendizaje, no un sustituto de este.
Una lógica similar se observa en otras instituciones. En la Universidad del Desarrollo, por ejemplo, la estrategia ha sido desarrollar una política institucional que promueve el uso de la IA, pero con reglas explícitas. La apuesta no es contener la tecnología, sino integrarla en distintos niveles: desde la experiencia del estudiante hasta el rediseño del currículum.
Ese giro, desde la prohibición hacia la integración, marca el tono de una transformación que ya no parece reversible. Donde el impacto ha sido más inmediato es en la forma de evaluar. Durante décadas, la educación universitaria se apoyó en ensayos, informes y trabajos escritos.
Hoy, ese modelo enfrenta una crisis silenciosa. La capacidad de la IA para generar textos coherentes y estructurados obliga a replantear qué se entiende por aprendizaje y cómo se mide. En respuesta, han comenzado a proliferar nuevas estrategias: evaluaciones orales, debates en clase, entregas parciales, bitácoras de trabajo o defensas en tiempo real.
El objetivo es desplazar el foco desde el resultado hacia el proceso, dice Daniel Contesse, vicerrector de Innovación y Desarrollo de la UDD. Miguel Reyes, académico e investigador en argumentación, explica que muchos docentes han optado por privilegiar instancias donde el estudiante debe demostrar su razonamiento en el momento. Pero también advierte otro cambio: diseñar evaluaciones que asuman que la IA será utilizada.
Ese enfoque, que hace algunos años habría sido impensable, hoy comienza a instalarse. Parte del aprendizaje, sostiene, es saber interactuar con estas herramientas, formular buenas preguntas y evaluar críticamente sus respuestas. “El enfoque debería ser más sobre dirigir a los estudiantes y docentes hacia un uso correcto de la inteligencia artificial, en lugar de imponer normativas restrictivas”, complementa Vásquez.
El problema del plagio adquiere, en este contexto, una nueva dimensión. A diferencia del plagio tradicional, donde se copia un texto existente, la inteligencia artificial produce contenido original en su forma, pero no necesariamente en su fondo. Esto ha tensionado incluso la definición de fraude académico.
¿Es plagio un texto que no fue copiado de ninguna fuente, pero tampoco fue elaborado por el estudiante? Las herramientas de detección han demostrado ser insuficientes. Sus resultados son imprecisos y fácilmente manipulables.
“Es preocupante la candidez del alumno que piensa que lo que le entrega la IA es algo incuestionable”, advierte también Reyes. Por eso, varias universidades han optado por reforzar la transparencia. En algunos casos, se exige declarar el uso de inteligencia artificial, detallar los prompts -las instrucciones dadas a ChatGPT u otra IA- utilizados o explicar cómo se procesó la información.
Muchas veces, dice el académico, la formulación de preguntas puede sugerir procesos de reflexión que demuestran aprendizaje de los contenidos. Más que perseguir el uso, el énfasis comienza a desplazarse hacia la responsabilidad del estudiante sobre su propio trabajo. Asimismo, a medida que las universidades chilenas comienzan a implementar políticas y guías sobre el uso de inteligencia artificial, surge la necesidad de una alfabetización digital adecuada.
Eso sí, Vásquez advierte que aunque algunas instituciones están creando protocolos de uso, la responsabilidad de fiscalización podría resultar problemática, ya que las herramientas para detectar el uso indebido de inteligencia artificial no son infalibles y pueden generar falsos positivos. En ese tránsito, algunas universidades han comenzado a estructurar respuestas más sistemáticas. Es el caso de la Universidad de Concepción, que creó el programa interdisciplinario genIA UdeC, precisamente para abordar el uso de inteligencia artificial desde una perspectiva institucional.
“No estamos apostando a perseguir el uso de IA, sino a orientar a su comunidad para que estas herramientas se usen con ética, pensamiento crítico e integridad académica”, dice Alejandra Maldonado, directora del programa. La iniciativa articula acciones en alfabetización, formación docente y desarrollo tecnológico, con un enfoque que se distancia de la lógica reactiva. “Este no es un tema que se resuelva jugando al gato y al ratón con la tecnología”, advierte, y además afirma que correr detrás de cada nueva plataforma no es sostenible; “lo importante es fortalecer el juicio pedagógico y rediseñar las evaluaciones”.
“Tenemos que asumir con realismo que muchas y muchos estudiantes ya usan estas herramientas. La tarea no es planificar como si no existieran, sino hacerlo de manera que su uso promueva pensamiento crítico y no lo reemplace”, plantea Maldonado. La propuesta se traduce en cambios concretos: evaluaciones con entregas progresivas, análisis crítico de resultados generados por IA, defensas orales breves y registro de procesos mediante bitácoras o borradores.
La lógica es que, si la evaluación está bien diseñada, deja de centrarse en detectar herramientas y pasa a enfocarse en la comprensión, la autoría y la capacidad de argumentar. Otro eje central es la transparencia. Cuando el uso de la IA está permitida, se promueve que los estudiantes declaren qué herramienta utilizaron, para qué la usaron, cómo verificaron la información y qué aportes fueron propios.
Ese principio de trazabilidad busca reforzar la responsabilidad individual y, al mismo tiempo, generar evidencia del proceso de aprendizaje. “Los detectores automatizados pueden ser un apoyo, pero nunca reemplazan el criterio docente”, subraya Maldonado. En casos de uso indebido, el enfoque también se aleja de la sanción inmediata.
La recomendación es reunir evidencia, contrastar desempeños y generar instancias de conversación antes de activar los procedimientos disciplinarios. El problema, recalcan, no es solo tecnológico, sino de integridad académica. La incorporación de la inteligencia artificial también ha puesto en evidencia una brecha relevante: no todos los docentes ni estudiantes cuentan con las mismas herramientas para enfrentar este cambio.
Por eso, varias universidades han impulsado programas de capacitación. En la U. de Concepción, por ejemplo, se está desarrollando un diploma en inteligencia artificial para la academia, junto con talleres de perfeccionamiento docente.
El objetivo no es solo enseñar a usar herramientas, sino desarrollar capacidades para reflexionar pedagógicamente sobre su uso. En la Universidad Católica, en tanto, se trabaja en integrar competencias de inteligencia artificial de manera transversal en la formación de los estudiantes, combinando una base común con aplicaciones específicas según cada disciplina. El desafío es formar profesionales capaces de interactuar críticamente con estas tecnologías, entendiendo sus alcances, sesgos y limitaciones.
“Nuestro foco como universidad es integrar muy activamente la inteligencia artificial, siempre teniendo como norte que ese uso sea en beneficio”, dice su vicerrectora de Inteligencia Digital, Paula Aguirre. Más allá del fraude, académicos advierten sobre un riesgo menos evidente: la dependencia cognitiva. La posibilidad de delegar tareas como la escritura, el análisis o la síntesis en sistemas automatizados puede afectar el desarrollo de habilidades fundamentales.
Figueroa lo describe como el paso a un uso “reproductivo”, donde el estudiante se limita a replicar información. Para ella, lo importante es generar un desarrollo epistémico de estas herramientas, donde se potencie la reflexión y el pensamiento crítico a través de las preguntas y solicitudes que se puedan trabajar con la IA. A diferencia de otras transformaciones tecnológicas, esta no ha dado tiempo para una adaptación gradual.
Las universidades han debido ajustar sus prácticas en paralelo al avance de la tecnología. El resultado es un sistema en transición, donde conviven iniciativas institucionales, decisiones individuales de docentes y una normativa aún en construcción. No hay un modelo único.
Tampoco una solución definitiva. Lo que sí parece claro es que la discusión dejó de ser si la inteligencia artificial debe estar en las aulas. La pregunta ahora es bajo qué condiciones, con qué objetivos y bajo qué resguardos.
En ese equilibrio, todavía inestable, se juega una parte relevante del futuro de la educación superior.
¿Te pareció importante esta noticia?
Compártela y mantén informado a Chile