Imagen generada por Inteligencia Artificial mediante la plataforma Leonardo AI
En noviembre de 2022, la empresa OpenIA, con sede en San Francisco, California, lanzó ChatGPT, un chatbot de inteligencia artificial que se describe como diseñado “para entender y generar lenguaje humano en forma de texto”. Fue justamente eso, que empleara un lenguaje “natural humano”, lo que causó gran conmoción. Las personas se sorprendían al obtener respuestas a preguntas complejas. Incluso, el famoso ChatGPT desarrollaba textos con mayor complejidad como, por ejemplo, ensayos, canciones o poemas. Meses después, ChatGPT fue incluido como coautor en, al menos, tres artículos científicos.[1] Esto provocó aún más controversia: ¿Puede un chatbot, en este caso ChatGPT, ser considerado como autor científico?
Un autor, según la RAE, es una persona que ha inventado algo o producido alguna obra científica, literaria o artística. El concepto de autor en el discurso científico surge a mediados del siglo XVII, con la fundación de la primera revista científica en 1665.[2] En el ámbito científico, podríamos considerar que un autor es aquel que escribe y publica los resultados de estudios, reflexiones y análisis. Su público meta es el resto del gremio científico en pro del conocimiento y entendimiento de nuestro mundo.
Foucault menciona que los textos relacionados a las ciencias (como la medicina, las ciencias naturales o la geografía) no eran aceptados en la edad media sin la indicación de autoría, a diferencia de otros tipos de textos cuya anonimidad no planteaba dudas en su verdad de valor. Es por ello que propone un marco en donde la concepción de autor está relacionada con la noción de obra:
El nombre de autor funciona para caracterizar un determinado modo de ser del discurso: para un discurso, el hecho de tener un nombre de autor, el hecho de que se pueda decir “esto ha sido escrito por tal” o “tal es su autor”, indica que ese discurso no es una palabra cotidiana, indiferente, una palabra que se va, que flota y pasa, una palabra inmediatamente consumible, sino que se trata de una palabra que debe ser recibida de cierto modo y que en una cultura dada debe recibir un estatuto determinado.[3]
El discurso adquiere reconocimiento y estatus social en una sociedad determinada. Hagamos énfasis en que es una “sociedad determinada”, con un contexto histórico, político y social específico, la que le otorga dicho reconocimiento.
Foucault, en el citado ensayo, escribe sobre “el parentesco de la escritura con la muerte”.[4] Y retoma el debate sobre la “muerte del autor” (su muerte simbólica) de Roland Barthes. Es aquí en donde se puede discutir si un autor científico está vivo o no en sus textos, y si esta posición permite considerar herramientas de inteligencia artificial, por ejemplo ChatGPT, como autores.
La ciencia es una actividad humana creativa que, según Ruy Pérez Tamayo, “aspira a alcanzar el mayor consenso entre los sujetos técnicamente capacitados”. Es decir, es un consenso entre expertos lo que determina la validez de un nuevo conocimiento. Por tanto, en teoría, la presentación de resultados de estudios, reflexiones y análisis es más importante que la figura de su autor.
Si Barthes sentencia que “el nacimiento del lector debe suscitarse a costa de la muerte del autor”, algo similar podría ocurrir con la escritura científica, por ejemplo: los resultados o teorías presentadas pueden tener varias interpretaciones, generar ideas o hipótesis que apoyen o refuten lo publicado. En resumen, y en sintonía con el pensamiento de Barthes, la lectura produce más escritura.
Ahora bien, las revistas científicas tienen criterios que permiten nombrar “autorías”; para ser considerado un autor se deben cumplir con criterios enfocados en “buenas prácticas”; para la publicación en algunas revistas es necesario hacer una carta de presentación que firman todos los autores, con el consentimiento para la publicación del texto, explicando su participación en la investigación y asegurando que el texto es original. Esto es, si bien la figura del autor científico se basa en el reconocimiento de la comunidad científica, esta figura debe aceptar ciertas responsabilidades éticas. La veracidad del contenido y la rigurosidad científica son algunas de las responsabilidades éticas del investigador que firman bajo su nombre. ¿Puede ChatGPT tomar estas responsabilidades?
Aunque no existe un consenso universal sobre los aspectos que determinan el estatus de un coautor, se involucran aspectos éticos y morales. Por ejemplo, un consejo de editores de revistas médicas determina que los:
Chatbots (such as ChatGPT) should not be listed as authors because they cannot be responsible for the accuracy, integrity, and originality of the work, and these responsibilities are required for authorship.[5]
La responsabilidad de la integridad se refiere, por ejemplo, a un apropiado uso de los métodos científicos, un reporte exacto de los resultados y su difusión. Estas responsabilidades también están basadas en consideraciones morales, y su relevancia recae en que la ciencia tiene impacto en la sociedad, en la vida práctica y real de la población. Se puede mencionar, por ejemplo, uno de los casos más infames de falta a esta responsabilidad científica: Andrew Wakefield y doce colaboradores, en 1998, publicaron en The Lancet —una de las revistas médicas con más renombre— un artículo en donde se mostraba fraudulentamente una relación entre la vacuna triple vírica (que protege contra sarampión, paperas y rubéola) y el desarrollo de autismo en niños. La publicación de estos datos falsos (modificados o inventados) provocó la disminución en la aplicación de las mismas y dio un impulso al movimiento antivacunas. Increíblemente, tuvieron que pasar doce años para que el autor se retractara; posteriormente, a Wakefield se le expulsó del ejercicio profesional en Reino Unido, pero tuvo repercusiones. En Estados Unidos, según una encuesta, un tercio de la población cree que las vacunas pueden producir probablemente o definitivamente autismo.[6] Como lo plantea Foucault en la biología y medicina:
(…) la indicación del autor, y la fecha de su trabajo, juegan un papel bastante diferente: no es simplemente un modo de indicar la fuente, sino de dar un cierto índice de “fiabilidad” en relación con las técnicas y los objetos de experiencia utilizados en aquella época o en tal laboratorio.[7]
Es esta responsabilidad la que no permite separar completamente al autor de su texto. Es, hasta cierto punto, su resurrección. Quizá en la literatura es posible “matar” al autor y, ¿por qué no?, enterrarlo. Sin embargo, en la ciencia éste debe resucitar para hacerse cargo de sus hallazgos y métodos.
Finalmente, al autor científico se le asigna una autoridad en el área de especialización. Si se dota de esta cualidad a la inteligencia artificial, ¿existe un riesgo contra la dignidad humana? Es decir, ¿contra esa “calidad única y excepcional a todo ser humano por el simple hecho de serlo, cuya plena eficacia debe ser respetada y protegida integralmente sin excepción alguna”?[8]
La creación y desarrollo de una herramienta que imita el lenguaje y la creación humana revive el debate sobre el autor y la obra, y es una muestra de que estos términos tendrán que ser repensados y definidos. De los tres artículos mencionados al inicio, dos han sido corregidos y se eliminó a ChatGPT como coautor. Así que, por ahora, ChatGPT no es un autor científico.
[1] “Open artificial intelligence platforms in nursing education: Tools for academic progress or abuse?”, de Siobhan O’Connor, en Nurse education in practice, número 66, enero de 2023; “Rapamycin in the context of Pascal's Wager: generative pre-trained transformer perspective”, de Alex Zhavoronkov, en Oncoscience, volumen 9, pp. 82–84, y “Performance of ChatGPT on USMLE: Potential for AI-assisted medical education using large language models”, de Tiffany H. Kung, Morgan Cheatham, Arielle Medenilla, et al., en PLOS Digital Health, febrero de 2023.
[2] Carla Mara Hilário, et al. “Authorship in science: A critical analysis from a Foucauldian perspective”, en Research Evaluation, volumen 27, número 2, abril 2018, pp. 63-72.
[3] Michelle Foucault, ¿Qué es un autor?, Argentina, Ediciones literales, 2010, p. 20.
[4] Ibid., p. 12.
[5] Jelena Spanjol y Charles H. Noble, “From the Editors: Engaging with Generative Artificial Intelligence Technologies in Innovation Management Research—Some Answers and More Questions”, en Journal of Product Innovation Management, volumen 40, número 4, p. 385.
[6] Brian Deer, The Doctor Who Fooled the World: Andrew Wakefield’s war on vaccines, 2020.
[7] Michelle Foucault, op. cit., p. 25.
[8] “Dignidad humana. Su naturaleza y concepto”, Semanario Judicial de la Federación y su Gaceta, Libro I, octubre de 2011, Tomo 3, página 1529.