Desde la llegada de la Inteligencia Artificial (IA) generativa al entorno académico, se han transformado profundamente las formas en que tanto estudiantes como profesores elaboran sus documentos.
Herramientas como ChatGPT pueden ser muy útiles para investigar, sintetizar e incluso mejorar la redacción y ortografía. Sin embargo, existe una línea roja que no debe cruzarse: aquella que convierte una herramienta de apoyo en una plataforma para materializar el plagio académico.
Esta posibilidad plantea un nuevo desafío para la detección, pues ya no se trata solo de copias de origen humano, sino de establecer el uso ético de la IA sin comprometer la autenticidad intelectual de la producción académica.
La principal disyuntiva ética radica en la autoría de un documento cuando un estudiante entrega un texto generado, total o parcialmente, por la IA.
Aunque el estudiante haya suministrado los elementos necesarios a través de las instrucciones a la IA (prompt) para lograr mayor precisión en la creación, el documento no es íntegramente de su autoría.
Esta situación obliga a repensar el plagio tal como lo hemos concebido históricamente. Si antes se refería a tomar como propios textos de otros seres humanos, ahora se debe incluir la apropiación de contenido creado por un sistema algorítmico que no corresponde a la propia reflexión y análisis del estudiante.
Esto nos exige redefinir el plagio. Tradicionalmente, se entendía como la apropiación del trabajo de otra persona. Ahora, debemos incluir la apropiación no reconocida de contenido generado por un sistema algorítmico, especialmente si se presenta como producto de la reflexión y el análisis crítico personal.
Para mitigar este riesgo, las universidades deben implementar políticas de atribución algorrítmica exigiendo a los estudiantes que declaren el uso de la IA, especificando las herramientas utilizadas y su finalidad.
Además, se debe considerar la IA como una herramienta metodológica y, al igual que se cita un software estadístico, podría ser necesario citar el prompt usado si este fue fundamental para el resultado del trabajo.
La existencia de la IA obliga a las instituciones a dejar de priorizar únicamente el resultado final de un documento y a enfocarse en el proceso de aprendizaje, incluidas las habilidades críticas.
Es evidente que si un texto académico puede ser creado íntegramente por una herramienta de IA, dicho texto no está midiendo las competencias esenciales del estudiante.
Las estrategias para reforzar la ética y la autenticidad pasan por implementar evaluaciones mixtas que integren exámenes orales y diseñar tareas que requieran análisis de datos locales, experiencia personal o trabajo de campo que la IA no pueda replicar.
Se debe ir más allá de la simple extensión de un texto y valorar las integraciones interdisciplinarias y la profundidad del análisis.
Intentar prohibir totalmente el uso de la IA sería una medida ingenua, de espaldas a la realidad, además de ser contraproducente. La IA ya es una habilidad profesional esencial. Una tarea crucial de la universidad es educar a los estudiantes para que sean usuarios responsables y críticos de estas tecnologías.
La ética en la IA para prevenir el plagio no se logra solo con mejores softwares de detección, sino con una cultura de integridad en la que el valor del aprendizaje propio y la honestidad intelectual superen la tentación del atajo. La universidad debe enseñar que la IA es una herramienta muy útil como en su momento lo fueron otras, pero no un sustituto de la mente humana.
Si no abordamos esto con políticas claras y una nueva pedagogía, corremos el riesgo de devaluar el título universitario y minar la confianza en la producción de conocimiento.
