Política editorial sobre el uso de Inteligencia Artificial (IA)
1. Introdução
A presente política estabelece as diretrizes para o uso responsável de ferramentas de Inteligência Artificial (IA) na criação, avaliação e publicação de artigos científicos nesta revista. O seu objetivo é preservar os princípios de transparência, integridade, originalidade e respeito à propriedade intelectual no âmbito da investigação académica.
A revista reserva-se o direito de solicitar esclarecimentos adicionais sobre o uso de IA nos manuscritos recebidos, bem como de rejeitar trabalhos que não cumpram estas diretrizes.
2. Uso de IA na redação e análise de conteúdo
Os autores devem declarar explicitamente no manuscrito qualquer uso de ferramentas de IA nos processos de redação, edição, tradução, análise de dados ou geração de conteúdo gráfico.
Se forem utilizados modelos de IA generativa (como ChatGPT, Gemini, Copilot, DALL·E, entre outros), deve-se indicar a ferramenta específica utilizada e a extensão da sua aplicação na secção de agradecimentos ou na secção metodológica do artigo.
Além disso, recomenda-se citar a ferramenta de IA na secção de referências, seguindo um formato como o seguinte:
OpenAI. (2024). ChatGPT GPT-4o [Large language model]. OpenAI. https://chat.openai.com/chat
3. Responsabilidade e autoria
A Inteligência Artificial não poderá ser reconhecida como autora de nenhum artigo. A responsabilidade total pelo conteúdo, dados, interpretações e conclusões recai exclusivamente sobre os autores humanos.
Deve-se garantir que o uso da IA não comprometa a originalidade nem a veracidade do trabalho, evitando qualquer forma de plágio, manipulação, viés injustificado ou informação incorreta.
4. Utilização da IA na avaliação por pares
Os revisores podem utilizar ferramentas de IA apenas como apoio na análise dos manuscritos, mas nunca para tomar decisões finais sobre a sua aceitação ou rejeição.
No caso de utilização de IA durante o processo de revisão, o revisor deverá informar o editor sobre a ferramenta utilizada e o tipo de assistência recebida.
5. Utilização da IA pela equipa editorial
A equipa editorial poderá utilizar ferramentas de IA para tarefas técnicas e administrativas, tais como formatação de textos, verificação de estilo ou deteção automatizada de plágio, sempre sob supervisão humana direta que garanta a coerência e a qualidade da publicação.
6. Considerações éticas
O uso da IA no contexto editorial deve estar alinhado com os princípios éticos da investigação científica, incluindo a proteção de dados pessoais, a exatidão no tratamento da informação e o respeito à propriedade intelectual.
É estritamente proibido usar ferramentas de IA para fabricar, falsificar ou manipular dados científicos, bem como para alterar indevidamente os resultados da investigação.











