Detectores de Inteligencia Artificial: Una herramienta fallida para juzgar la autoría humana
En los últimos años, el avance de la inteligencia artificial -particularmente modelos como ChatGPT- ha generado una preocupación creciente en el mundo académico, periodístico y editorial: ¿cómo distinguir entre un texto escrito por una persona y uno generado por una máquina?. La respuesta tecnológica a esta inquietud ha sido el desarrollo de detectores de contenido IA, tales como GPTZero, Turnitin y Originality. ai.
Sin embargo, lejos de ofrecer certezas, estas herramientas están demostrando ser profundamente imprecisas, al punto de poner en riesgo la credibilidad de procesos de evaluación de autoría. El problema de fondo: confundir estilo con origen Los detectores de IA no tienen la capacidad de rastrear el origen real de un texto. No pueden saber quién lo escribió ni en qué contexto.
Lo único que hacen es analizar patrones lingüísticos, basándose en métricas como la “perplejidad” (qué tan predecible es un texto) y la “variabilidad” del lenguaje. Aquí surge el problema central: los buenos textos humanos -claros, coherentes y bien estructurados- tienden a parecerse a los textos generados por IA. Esto ocurre porque los modelos de inteligencia artificial fueron entrenados precisamente con millones de textos humanos de alta calidad.
En consecuencia, replican ese estilo… y los detectores terminan castigando a quienes escriben bien. Ejemplo 1: el falso positivo académico Imaginemos un ensayo universitario redactado en 2011, mucho antes de la existencia de herramientas como ChatGPT. El texto presenta: Gramática impecableIdeas desarrolladas de forma lógicaUso consistente del lenguaje Al ser sometido a un detector moderno, el resultado arroja un “89% de probabilidad de IA”.
¿La realidad? El texto es completamente humano. ¿La causa del error?
Su alta calidad y coherencia lo hacen “predecible” para el algoritmo, que lo interpreta erróneamente como artificial. Ejemplo 2: textos periodísticos y el sesgo estructural Un artículo de prensa tradicional, con lenguaje formal, párrafos equilibrados y narrativa lineal, puede ser catalogado como generado por IA simplemente por cumplir con estándares profesionales de redacción. Esto revela un sesgo preocupante: los detectores penalizan el estilo periodístico clásico.
En otras palabras, cuanto más profesional es el texto, mayor es el riesgo de ser etiquetado como artificial. Ejemplo 3: el absurdo histórico Diversas pruebas han demostrado que textos anteriores al desarrollo de la inteligencia artificial -incluyendo documentos históricos y literatura clásica- pueden ser identificados como “probablemente generados por IA”. Este tipo de resultados no solo es técnicamente incorrecto, sino que evidencia una falla estructural:los detectores no distinguen tiempo, contexto ni autoría real.
Consecuencias de usar estas herramientas como prueba El uso indiscriminado de detectores de IA puede generar: Falsas acusaciones de fraude académicoDesprestigio de autores legítimosErrores en procesos editorialesDecisiones injustas en evaluaciones laborales o educativas Lo más grave es que muchas de estas decisiones se toman sin comprender las limitaciones de la herramienta. Posición técnica: no son evidencia válida Actualmente, no existe tecnología capaz de determinar con certeza si un texto fue escrito por un humano o por una inteligencia artificial. Por ello, los detectores de IA deben ser considerados únicamente como herramientas orientativas, nunca como prueba concluyente.
De hecho, múltiples expertos en lingüística computacional y ética tecnológica coinciden en que su uso en procesos de validación de autoría es inapropiado y potencialmente dañino. Conclusión: el riesgo de delegar el juicio humano La evaluación de la autoría no puede reducirse a un porcentaje generado por un algoritmo. Hacerlo implica renunciar al análisis crítico, al contexto y a la comprensión profunda del lenguaje.
La paradoja es evidente: en un intento por proteger la autenticidad humana, estamos creando sistemas que dudan de ella. Por ello, es urgente establecer criterios más rigurosos y responsables. La tecnología puede apoyar, pero nunca reemplazar el juicio humano informado.
¿Te pareció importante esta noticia?
Compártela y mantén informado a Chile