Diretrizes para o Uso Ético de Inteligência Artificial Generativa (IAG) na Publicação Científica

Palavras-chave

Generative Artificial Intelligence
Research Integrity
Peer Review Ethics
Editorial Policies
Scientific Publishing Inteligência Artificial Generativa (IAG)
Ética em Publicação Científica
Revisão por Pares
Integridade da Pesquisa

Como Citar

SILVA, A. de O.; SELLOS KNOERR , . V. C. de .; PORTELA, I. Diretrizes para o Uso Ético de Inteligência Artificial Generativa (IAG) na Publicação Científica. Revista do CEJUR/TJSC: Prestação Jurisdicional, Florianópolis (SC), v. 13, n. -TJSC-, p. e0490, 2025. DOI: 10.37497/revistacejur.v13i-TJSC-.490. Disponível em: https://revistadocejur.tjsc.jus.br/cejur/article/view/490. Acesso em: 2 dez. 2025.

Resumo

Objetivo: Estabelecer diretrizes formais para o uso responsável de ferramentas de Inteligência Artificial generativa nos processos de autoria, revisão por pares e edição de trabalhos acadêmicos. As orientações visam assegurar integridade científica, confiabilidade editorial e proteção da confidencialidade, fundamentando-se em princípios internacionalmente reconhecidos por entidades como COPE e WAME.

Método: As diretrizes foram desenvolvidas a partir da análise de documentos normativos publicados em editoriais de periódicos científicos, políticas editoriais de grandes editoras internacionais (Springer, Wiley, Elsevier e MDPI) e literatura científica especializada. O conteúdo incorpora evidências sobre riscos associados ao uso de Modelos de Linguagem Amplos, tais como erros factuais, referências inventadas (alucinações), reprodução de vieses presentes nos dados de treinamento e potenciais violações de confidencialidade. A formulação adota três princípios norteadores: Responsabilidade, Transparência e Confidencialidade (RTC), aplicáveis a autores, revisores e editores.

 Resultados: As diretrizes estabelecem que sistemas de IA não podem ser reconhecidos como autores e que qualquer uso dessas ferramentas deve ser explicitamente declarado. Para autores, incluem-se responsabilidades como verificação rigorosa de fatos, conferência de referências, prevenção de plágio e descrição detalhada de como a IA foi utilizada. Para revisores, as orientações abrangem preservação da confidencialidade dos manuscritos, proibição de inserção de conteúdo protegido em ferramentas cuja política de uso permita reutilização de dados e necessidade de informar editores e autores quando houver apoio de IA. Para editores, as diretrizes enfatizam responsabilidade sobre decisões editoriais, avaliação crítica de pareceres eventualmente apoiados por IA e cautela no uso de detectores de conteúdo gerado por IA, devido a riscos de vazamento ou falsos positivos.

Conclusão: O uso ético de IA generativa exige supervisão humana integral, declarações transparentes e proteção rigorosa da confidencialidade editorial. A atualização contínua dessas diretrizes é essencial para acompanhar a rápida evolução tecnológica e regulatória, garantindo a manutenção da integridade científica e a conformidade com as melhores práticas internacionais de comunicação científica.

https://doi.org/10.37497/revistacejur.v13i-TJSC-.490

Referências

Committee on Publication Ethics (COPE). (2023, February 13). Authorship and AI tools. https://publicationethics.org/cope-position-statements/ai-author

COPE Council. (2006). COPE flowcharts and infographics: Plagiarism in a published article (English). Committee on Publication Ethics. https://doi.org/10.24318/cope.2019.2.2

Elsevier. (2025, November 4). Elsevier’s global survey of 3,000 researchers reveals less than half have time to do research but see AI as transformative if given the right tools. Elsevier.

https://www.elsevier.com/insights/confidence-in-research/researcher-of-the-future

Galindo-Cuesta, J. A. (2025). Glossary of generative artificial intelligence for education: A conceptual and pedagogical framework. Review of Artificial Intelligence in Education, 6(i), e047. https://doi.org/10.37497/rev.artif.intell.educ.v6ii.47

Gerlich, M. (2025). Correction: Gerlich, M. AI Tools in Society: Impacts on Cognitive Offloading and the Future of Critical Thinking. Societies 2025, 15, 6. Societies, 15(9), 252. https://doi.org/10.3390/soc15090252

Jackson, J., Landis, G., Baskin, P. K., Hadsell, K. A., English, M., & CSE Editorial Policy Committee. (2023, May 1). CSE guidance on machine learning and artificial intelligence tools. Science Editor. https://www.csescienceeditor.org/article/cse-guidance-on-machine-learning-and-artificial-intelligence-tools/

Leung, T. I., De Azevedo Cardoso, T., Mavragani, A., & Eysenbach, G. (2023). Best practices for using AI tools as an author, peer reviewer, or editor. Journal of Medical Internet Research, 25, e51584. https://doi.org/10.2196/51584

Limongi, R. (2024). The use of artificial intelligence in scientific research with integrity and ethics. Review of Artificial Intelligence in Education, 5(00), e22. https://doi.org/10.37497/rev.artif.intell.educ.v5i00.22

Rodrigues, L. C. (2025). Inovação tecnológica no sistema jurídico brasileiro. Revista do CEJUR/TJSC: Prestação Jurisdicional, 13, e0468. https://doi.org/10.37497/revistacejur.v13i-TJSC-.468

Silva, A. de O., Janes, D. dos S., & Santos, R. (2024). GPT Alumni AI Pesquisa: A practical tutorial for the adoption and ethical use of AI in scientific research. Review of Artificial Intelligence in Education, 5(00), e033. https://doi.org/10.37497/rev.artif.intell.educ.v5i00.33

Silva, A. de O., & Janes, D. dos S. (2023). Challenges and opportunities of artificial intelligence in education in a global context. Review of Artificial Intelligence in Education, 4(00), e1. https://doi.org/10.37497/rev.artif.intell.education.v4i00.1

Silva, A. de O., Rodrigues, L. C., Martins, C. B., & Sellos-Knoerr, V. C. de. (2022). Publicações técnicas para a área do Direito. Revista Opinião Jurídica (Fortaleza), 20(34), 228–246. https://doi.org/10.12662/2447-6641oj.v20i34.p228-246.2022

World Association of Medical Editors (WAME). (2023, May 31). Chatbots, generative AI, and scholarly manuscripts. https://wame.org/page3.php?id=106

Creative Commons License

Este trabalho está licenciado sob uma licença Creative Commons Attribution-NonCommercial 4.0 International License.

Downloads

Não há dados estatísticos.