El artículo "Guidelines for ethical use and acknowledgement of large language models in academic writing", publicado en Nature Machine Intelligence, aborda una problemática contemporánea de gran relevancia: el uso de grandes modelos de lenguaje (LLM, por sus siglas en inglés) en la investigación y la escritura académica. Estos modelos, con capacidades generativas avanzadas, han transformado significativamente la manera en que se conciben y redactan los trabajos académicos, pero su uso plantea desafíos éticos y prácticos en términos de originalidad, atribución y transparencia. Los autores, liderados por Sebastian Porsdam Mann y un equipo multidisciplinario de expertos, proponen un marco ético basado en tres criterios esenciales para garantizar que el uso de estas herramientas contribuya al avance del conocimiento sin socavar los valores fundamentales de la academia.

Los LLM, como herramientas innovadoras, ofrecen un potencial considerable para mejorar la calidad y la eficiencia en la escritura académica. Sus capacidades para generar contenido, desarrollar ideas y estructurar textos superan las funcionalidades de herramientas tradicionales, como procesadores de texto o software estadístico. Sin embargo, los autores destacan que estas características también plantean interrogantes sobre su adecuado uso. Por ejemplo, su naturaleza probabilística, la opacidad en el origen de su contenido y la posibilidad de cometer errores requieren un escrutinio riguroso por parte de los investigadores. Además, el uso de LLM suscita preocupaciones respecto a la autoría y la posible percepción de "plagio automatizado", un fenómeno que puede surgir debido a la falta de trazabilidad en las fuentes utilizadas por estos modelos.

En respuesta a estos desafíos, los autores introducen un marco ético basado en tres criterios: la garantía y revisión humanas, la contribución sustancial de los autores y la transparencia en la declaración del uso de los LLM. El primer criterio establece que al menos uno de los autores debe garantizar la exactitud y la integridad del trabajo, incluyendo cada afirmación y la evidencia presentada. Este estándar asegura que los LLM sean empleados como herramientas complementarias y no como sustitutos del juicio crítico humano. Además, los autores destacan la necesidad de revisar minuciosamente cualquier salida generada por estos modelos para corregir errores y verificar su coherencia con las fuentes originales. Este enfoque, argumentan, no solo protege la calidad del trabajo académico, sino que también refuerza la confianza en la investigación asistida por IA.

El segundo criterio, relativo a la contribución sustancial, subraya la importancia de que los autores desempeñen un papel activo y significativo en el desarrollo del trabajo. Según los estándares internacionales de autoría, como los establecidos por el Comité Internacional de Editores de Revistas Médicas (ICMJE), la autoría implica no solo la redacción de textos, sino también la concepción del trabajo, el análisis de datos y la interpretación de los resultados. En este contexto, los LLM pueden ser utilizados para complementar estas actividades, pero no deben reemplazarlas. Los autores argumentan que el diseño de prompts, la selección de salidas y la integración de estas en un marco analítico son formas de trabajo intelectual que deben ser consideradas como contribuciones significativas. Esto implica que el simple uso de un LLM para generar texto sin aportes humanos adicionales no cumple con el umbral requerido para la autoría académica.

El tercer criterio aborda la transparencia, un principio fundamental en cualquier investigación académica. Según los autores, la declaración de uso de LLM debe ser explícita y adaptada a las normas específicas de cada disciplina. La transparencia permite que los lectores, revisores y editores comprendan cómo se utilizó la herramienta, evaluando así la credibilidad del trabajo. Este criterio también implica un balance entre la necesidad de transparencia y la carga administrativa que puede generar. En este sentido, los autores sugieren que la declaración debe ser proporcional al impacto que el uso del LLM tiene en los resultados del trabajo, asegurando que se cumplan los estándares de reproducibilidad y verificación sin imponer requisitos innecesariamente estrictos.

El artículo también examina los conceptos de "bienes de resultado" y "bienes de proceso", términos utilizados para describir los objetivos y los medios de la academia, respectivamente. Los bienes de resultado se refieren a la creación y difusión de conocimiento, mientras que los bienes de proceso incluyen valores como la integridad en la investigación y la atribución adecuada de la autoría. Los autores argumentan que cualquier marco ético para el uso de LLM debe equilibrar ambos tipos de bienes, asegurando que las herramientas tecnológicas contribuyan al progreso académico sin comprometer los valores fundamentales.

En el ámbito de la transparencia, los autores proponen una declaración estándar que puede ser adaptada a diferentes disciplinas y tipos de investigación. Este modelo de declaración enfatiza la revisión humana y la responsabilidad autoral, proporcionando un marco práctico para garantizar que los LLM se utilicen de manera responsable. Además, sugieren que en investigaciones futuras se explore la creación de secciones específicas en los trabajos académicos para documentar el uso de herramientas tecnológicas, incluyendo los LLM. Esta práctica podría fomentar una mayor claridad y reproducibilidad en el trabajo académico, alineándose con los principios de ciencia abierta.

En sus conclusiones, los autores subrayan que el uso de LLM en la academia representa tanto una oportunidad como un desafío. Estas herramientas tienen el potencial de transformar la escritura académica, haciéndola más eficiente y accesible, pero también requieren un uso cuidadoso para evitar problemas éticos y metodológicos. La implementación de directrices claras y prácticas puede garantizar que los LLM se utilicen para reforzar, en lugar de erosionar, la confianza en la investigación académica. Los autores también hacen un llamado a las instituciones académicas, editores de revistas y comunidades de investigadores para que adopten estas pautas, promoviendo una cultura de responsabilidad y transparencia en el uso de IA.

Share This