Machin-Mastromatteo, Juan-D. Escuela de editores: Implicaciones y políticas editoriales de la inteligencia artificial. Revista Estudios de la Información, 2023, vol. 1, n. 2, pp. 123-133. [Journal article (Paginated)]
Preview |
Text
2.pdf - Published version Available under License Creative Commons Attribution. Download (414kB) | Preview |
English abstract
In this entry of the School of editors section, I present some of the issues surrounding the use of artificial intelligence (AI) in research to frame the synthesis and analysis of ten editorial policies on the use of AI: arXiv, Elsevier, Emerald Publishing, International Committee of Medical Journal Editors, Oxford University Press, Sage, Springer Nature, Taylor & Francis Group, Wiley and World Association of Medical Editors. I address how large language models, such as ChatGPT, have affected the integrity and originality of scientific products, examining issues such as AI training, its use in scientific authoring, the accuracy of AI-generated content, and the impact these technologies are having on scientific research and publishing. Current editorial policies on the use of AI emphasize the need to act with transparency if they are used, in addition to stressing authors’ responsibilities and the ethical and practical limitations of using AI in research. I conclude with a reflection about seeking a balance between the advantages and limitations of AI in order to be able to use it in scientific research and publication without compromising ethics and integrity values in science.
['eprint_fieldopt_linguabib_' not defined] abstract
En esta entrega de Escuela de editores presento algunas de las problemáticas alrededor del uso de la inteligencia artificial (IA) en la investigación para enmarcar la síntesis y análisis de diez políticas editoriales sobre el uso de IA: arXiv, Elsevier, Emerald Publishing, International Committee of Medical Journal Editors, Oxford University Press, Sage, Springer Nature, Taylor & Francis Group, Wiley y World Association of Medical Editors. Abordo cómo los modelos de lenguaje de gran tamaño, como ChatGPT, han afectado la integridad y originalidad de los productos científicos, examinando problemas como el entrenamiento de IA, su uso en la autoría de documentos científicos, la veracidad del contenido generado por IA y el impacto que están teniendo estas tecnologías en la investigación y publicación científica. Las mencionadas políticas editoriales actuales sobre el uso de IA enfatizan la necesidad de actuar con transparencia sobre su uso, además de subrayar la responsabilidad de los autores y las limitaciones éticas y prácticas de usar IA en la investigación. Concluyo con una reflexión acerca de buscar un equilibrio entre las ventajas y limitaciones de la IA para poder emplearla en la investigación y publicación científica sin faltar a valores de ética e integridad científicas.
Item type: | Journal article (Paginated) |
---|---|
Keywords: | inteligencia artificial, modelos de lenguaje de gran tamaño, chatbots, investigación científica, escritura científica, publicación científica, políticas editoriales, directrices, ética en la investigación, integridad en la investigación |
Subjects: | E. Publishing and legal issues. H. Information sources, supports, channels. |
Depositing user: | Dr. Juan-D. Machin-Mastromatteo |
Date deposited: | 10 Jul 2025 03:06 |
Last modified: | 10 Jul 2025 03:06 |
URI: | http://hdl.handle.net/10760/46945 |
References
Downloads
Downloads per month over past year
Actions (login required)
![]() |
View Item |