Diretrizes para o Uso Ético de Inteligência Artificial Generativa (IAG) na Publicação Científica

Cómo citar

SILVA, A. de O.; SELLOS KNOERR , . V. C. de .; PORTELA, I. Diretrizes para o Uso Ético de Inteligência Artificial Generativa (IAG) na Publicação Científica. Revista do CEJUR/TJSC: Prestação Jurisdicional, Florianópolis (SC), v. 13, n. -TJSC-, p. e0490, 2025. DOI: 10.37497/revistacejur.v13i-TJSC-.490. Disponível em: https://revistadocejur.tjsc.jus.br/cejur/article/view/490. Acesso em: 2 dic. 2025.

Resumen

Objetivo: Estabelecer diretrizes formais para o uso responsável de ferramentas de Inteligência Artificial generativa nos processos de autoria, revisão por pares e edição de trabalhos acadêmicos. As orientações visam assegurar integridade científica, confiabilidade editorial e proteção da confidencialidade, fundamentando-se em princípios internacionalmente reconhecidos por entidades como COPE e WAME.

Método: As diretrizes foram desenvolvidas a partir da análise de documentos normativos publicados em editoriais de periódicos científicos, políticas editoriais de grandes editoras internacionais (Springer, Wiley, Elsevier e MDPI) e literatura científica especializada. O conteúdo incorpora evidências sobre riscos associados ao uso de Modelos de Linguagem Amplos, tais como erros factuais, referências inventadas (alucinações), reprodução de vieses presentes nos dados de treinamento e potenciais violações de confidencialidade. A formulação adota três princípios norteadores: Responsabilidade, Transparência e Confidencialidade (RTC), aplicáveis a autores, revisores e editores.

 Resultados: As diretrizes estabelecem que sistemas de IA não podem ser reconhecidos como autores e que qualquer uso dessas ferramentas deve ser explicitamente declarado. Para autores, incluem-se responsabilidades como verificação rigorosa de fatos, conferência de referências, prevenção de plágio e descrição detalhada de como a IA foi utilizada. Para revisores, as orientações abrangem preservação da confidencialidade dos manuscritos, proibição de inserção de conteúdo protegido em ferramentas cuja política de uso permita reutilização de dados e necessidade de informar editores e autores quando houver apoio de IA. Para editores, as diretrizes enfatizam responsabilidade sobre decisões editoriais, avaliação crítica de pareceres eventualmente apoiados por IA e cautela no uso de detectores de conteúdo gerado por IA, devido a riscos de vazamento ou falsos positivos.

Conclusão: O uso ético de IA generativa exige supervisão humana integral, declarações transparentes e proteção rigorosa da confidencialidade editorial. A atualização contínua dessas diretrizes é essencial para acompanhar a rápida evolução tecnológica e regulatória, garantindo a manutenção da integridade científica e a conformidade com as melhores práticas internacionais de comunicação científica.

https://doi.org/10.37497/revistacejur.v13i-TJSC-.490

Citas

Committee on Publication Ethics (COPE). (2023, February 13). Authorship and AI tools. https://publicationethics.org/cope-position-statements/ai-author

COPE Council. (2006). COPE flowcharts and infographics: Plagiarism in a published article (English). Committee on Publication Ethics. https://doi.org/10.24318/cope.2019.2.2

Elsevier. (2025, November 4). Elsevier’s global survey of 3,000 researchers reveals less than half have time to do research but see AI as transformative if given the right tools. Elsevier.

https://www.elsevier.com/insights/confidence-in-research/researcher-of-the-future

Galindo-Cuesta, J. A. (2025). Glossary of generative artificial intelligence for education: A conceptual and pedagogical framework. Review of Artificial Intelligence in Education, 6(i), e047. https://doi.org/10.37497/rev.artif.intell.educ.v6ii.47

Gerlich, M. (2025). Correction: Gerlich, M. AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking. Societies 2025, 15, 6. Societies, 15(9), 252. https://doi.org/10.3390/soc15090252

Jackson, J., Landis, G., Baskin, P. K., Hadsell, K. A., English, M., & CSE Editorial Policy Committee. (2023, May 1). CSE guidance on machine learning and artificial intelligence tools. Science Editor. https://www.csescienceeditor.org/article/cse-guidance-on-machine-learning-and-artificial-intelligence-tools/

Leung, T. I., De Azevedo Cardoso, T., Mavragani, A., & Eysenbach, G. (2023). Best practices for using AI tools as an author, peer reviewer, or editor. Journal of Medical Internet Research, 25, e51584. https://doi.org/10.2196/51584

Limongi, R. (2024). The use of artificial intelligence in scientific research with integrity and ethics. Review of Artificial Intelligence in Education, 5(00), e22. https://doi.org/10.37497/rev.artif.intell.educ.v5i00.22

Rodrigues, L. C. (2025). Inovação tecnológica no sistema jurídico brasileiro. Revista do CEJUR/TJSC: Prestação Jurisdicional, 13, e0468. https://doi.org/10.37497/revistacejur.v13i-TJSC-.468

Silva, A. de O., Janes, D. dos S., & Santos, R. (2024). GPT Alumni AI Pesquisa: A practical tutorial for the adoption and ethical use of AI in scientific research. Review of Artificial Intelligence in Education, 5(00), e033. https://doi.org/10.37497/rev.artif.intell.educ.v5i00.33

Silva, A. de O., & Janes, D. dos S. (2023). Challenges and opportunities of artificial intelligence in education in a global context. Review of Artificial Intelligence in Education, 4(00), e1. https://doi.org/10.37497/rev.artif.intell.education.v4i00.1

Silva, A. de O., Rodrigues, L. C., Martins, C. B., & Sellos-Knoerr, V. C. de. (2022). Publicações técnicas para a área do Direito. Revista Opinião Jurídica (Fortaleza), 20(34), 228–246. https://doi.org/10.12662/2447-6641oj.v20i34.p228-246.2022

World Association of Medical Editors (WAME). (2023, May 31). Chatbots, generative AI, and scholarly manuscripts. https://wame.org/page3.php?id=106

Creative Commons License

Esta obra está bajo una licencia internacional Creative Commons Atribución-NoComercial 4.0.

Descargas

Los datos de descargas todavía no están disponibles.