Desde noviembre de 2022, cuando OpenAI lanzó ChatGPT (Chat Generative Pre-Trained Transformer), ha aumentado la preocupación por el uso de la inteligencia artificial; sin embargo, debemos recordar que existe desde hace más de 65 años.
Antes de la Segunda Guerra Mundial, Alan Turing propuso una máquina universal que permitió descifrar los códigos usados por los enemigos de su país (no dejen de ver la película El Código Enigma); ello se considera el inicio de la inteligencia artificial.
Posteriormente, en periodos de auge y de estancamiento marcados por éxitos y fracasos, continuó el avance en el desarrollo y uso de la inteligencia artificial. La normalizamos tanto que ni nos dimos cuenta de los cambios que generaba. ¿Cuántas veces al chatear en el teléfono te has disculpado por el autocorrector que cambió una palabra y puso algo que tú no querías? ¿Hay en tu casa una bocina inteligente que te permite poner música, establecer alarmas y, a veces, si se lo pides, hasta bromea contigo? ¿Sientes que tus redes sociales “te escuchan” porque cuando dices algo varias veces los anuncios son de ese tema? Prueba decir “viaje, Cancún, playa”, y verifica si en tu computadora aparece publicidad relacionada con ello. De la misma forma en las redes sociales, el “algoritmo” indicará los contenidos que te gusta ver y te proveerá de ello.

Lo mismo empezó a pasar en la ciencia y en la academia. De pronto los profesores (mucho después que los alumnos, más avezados en las cuestiones digitales, cibernéticas o como le quieran decir), se dan cuenta que existe la inteligencia artificial y que muchos de los trabajos, ensayos y tareas no las hicieron los alumnos, sino que los “encargaron” a este tipo de herramientas. Y claro, se espantaron, indignaron y acusaron “¡plagio!”.
En la integridad académica y la científica hay tres conductas señaladas de forma casi unánime por la doctrina de la materia como inapropiadas: la fabricación de datos, la falsificación de datos y el plagio (coloquialmente FFP).
El plagio suma dos conductas inapropiadas: el robo que implica usar la obra (incluso las ideas, no sólo el texto) sin dar el reconocimiento al autor y, además, un engaño que es presentarlo como propio.
¿Qué hace ChatGPT? De inicio tengo que decir que es una herramienta, por ende, es neutra: no es buena ni mala por sí misma y dependerá de qué uso le doy. Como su nombre lo indica, es un chatbot (programa que simula una conversación humana que permite la interacción con dispositivos digitales, como Siri o Alexa) que, a partir de acceso a cientos de miles de documentos disponibles en internet, genera textos de forma entrenada. Incluso, cada vez, con cada interacción, mejora e incrementa su efectividad y rendimiento.
Entonces, ¿roba obra de otros? No. Lo que hace en realidad es un “molino” de los textos con los que se alimenta y propone el texto más plausible.
¿Cómo?, ¿el más plausible? Sí. Es decir, genera texto con lo que el programa determina como la opción más común, inventando incluso el contenido de las referencias bibliográficas.
Entonces, desde mi perspectiva, el uso de la Inteligencia Artificial no es plagio; en cambio, omitir la referencia de cómo y para qué se usó sí puede constituir un engaño (fraude), en el sentido de hacer pasar como mío lo que un programa de software generó a partir de una pregunta o instrucción que le di.
Como mencioné, al ser una herramienta es neutra y, por ende, se puede usar bien. Por ejemplo, mientras escribo esto, el procesador de word me está indicando las posibles faltas de gramática o de ortografía (a veces hasta me corrige sin pedírselo), eso es una forma de inteligencia artificial y no tengo que decir que el programa me ayudó a escribir este aporte. Sin tener que ocultarlo les digo: he usado Inteligencia Artificial y me ha ayudado, por ejemplo, al proponerme el índice para desarrollar una idea. Lo que no está bien es que me sustituya y después yo lo firme como mío engañando a todos.
Ha llegado a tal extremo el miedo al uso de la Inteligencia Artificial en las tareas de los alumnos que las desarrolladoras de programas antiplagio han lanzado la versión que detecta el uso de chatbots.
Creo que a las malas conductas científicas y académicas pronto se les agregará una nueva inicial. Ya no sólo será FFP, probablemente se adicionará la E del engaño.
Si te espanta la idea de la Inteligencia Artificial descubre cuántas veces la usas al día sin darte cuenta. Si eres profesor o padre de un alumno, y esto te pareció extraño, entra al Chat GTP y explora lo que puedes hacer con él, y piensa cómo orientar a tus estudiantes o hijos en el uso adecuado y correcto de una herramienta que llegó para quedarse.
Bernardo García Camino
Doctor en Derecho, miembro del Colegio de Bioética A.C.
Agradezco los comentarios y sugerencias de la Dra. Irene Córdova Jiménez
Que entreguen un trabajo de chatgpt como suyo no es peor que cipiarle la tarea al compañero. pero el uso de chatGPT en la educación tiene dos problemas: los ejercicios de investigación y redacción se les dejan a los alumnos para que desarrollen sus cerebros orgánicos, no los cerebros de silicio de las máquinas; el segundo peligro es que creen todo lo que dice la máquina y no verifican los datos.
Es una herramienta útil para generar ideas o traducir textos, y me parecería bien que se rebelen, sobre todos si son armas autónomas que terminen siendo pacifistas.
Para ilustrar los peligros, imaginemos a Elon Musk contruyendo una IA de porpósito general que genere trabajos escolares a granel, pero con la IA entrenada para difundir la visión del mundo del movimiento MAGA.
De hecho no es una situación hipotética. Musk ha comprado miles de chips de IA de Nvidia y, aunque no lo dice abiertamente, planea lograr una IA de propósito general antes de cinco años. Actúa bajo la suposición de que la única diferencia entre la IA actual y el cerebro humanos es el número de interconexiones.
Hay que decir que ya las actuales redes sociales tienen un enorme poder para moldear el pensamiento de la gente, mediante las indicaciones editoriales que le dan a los algoritmos sobre qué mostrar y que no a los usuarios, pudiendo incluso personalizar las sugerencias para cada persona.
El problema reside en que la IA y los chats de lenguaje generativo no son simples «herramientas», como una máquina de escribir. Son sistemas que replicar y pueden suplantar la capacidad lecto-escritora de una persona promedio. Sólo servirían como asistentes si no se pudiera copiar y pegar el texto inédito y original que generan con una simple pregunta. Algunas personas han replicado que sería tan complicado e impráctico prohibirlos para usos escolares, por ejemplo (la IA puede escribir lo que quieran, desde poemas, novelas y hasta tesis filosóficas) como si ahora se prohibieran las calculadoras y el uso del Excel (hojas de cálculo) exigiendo a las personas que realicen todos sus cálculos mentalmente (ayudándose, claro, de los dedos) como prueba de originalidad. Me temo que estas tecnologías llegaron para quedarse (implican un enorme negocio), que mucha gente los usará y dependerá de ellas para leer y escribir (acciones que se tenían que realizar con el propio esfuerzo y entrenamiento personal), y que con ello se debilitarán socialmente nuestras habilidades cognitivas. ¿Soluciones? en concreto, para los trabajos escolares, pidan que se hagan a mano y en papel, en tiempo real, como antes.