Publique sua produção com a GeniusDesign e obtenha os principais identificadores (DOI, ISBN, etc).
Atribua identificadores digitais em seus artigos e torne-os mais acessíveis para citações.
Atendimento a dúvidas, configurações, plugins, treinamentos e editoração.
Amplie o alcance de sua revista e leve-a à sociedade através das redes sociais.
Atualize seu OJS na versão 2.x para a versão mais recente.
Desenvolvemos plugins de tema exclusivos para Open Journal System e entregamos uma interface única e funcional para o seu periódico científico.
Serviços especializados de suporte tecnológico, operacional e editorial a periódicos científicos.
Publique sua produção com DOI e ISBN em formato e-book sob o nosso selo editorial Peletron.Science.
Somos Patrocinadores CrossRef e viabilizamos a sua afiliação com a entidade e fornecendo serviços DOI e Verificação de Plágio.
Se revista ainda está em OJS 2.x, saiba que ela corre sérios riscos de segurança.


Somos uma editora especializada em Open Journal System, dedicada a oferecer soluções tecnológicas, operacionais e editoriais para periódicos científicos. Nossa motivação é contribuir para o fortalecimento da ciência nacional, dando agilidade ao processo editorial das revistas científicas e aumentando a visibilidade de suas publicações.
Veja abaixo alguns temas OJS de sucesso desenvolvidos por nós.
Associação Paulista de Estudos Tributários
SUMMA Journals
Universidade Federal de Alfenas
Associação Paulista de Estudos Tributários
Universidade do Vale do Itajaí
SUMMA Journals
Universidad de Playa Ancha (UPLA - Chile)
Associação dos Médicos Estomatologistas Portugueses (Portugal)
Malque Publishing
Universidade Federal de Alagoas
Associação Brasileira de Linguística
Associação Brasileira de Criminalística
Escola Politécnica de Saúde Joaquim Venâncio, Fiocruz
Departamento Nacional de Infraestrutura e Transporte (DNIT)
CIBS / Farmanguinhos / Fiocruz
Editora Reativar Ambiental
Associação Brasileira de Linguística

Um novo recorte do relatório da Associação Nacional de Pós-Graduação e Pesquisa em Administração (ANPAD) aprofunda a análise sobre a aceitação do uso de inteligência artificial nas diferentes etapas da pesquisa acadêmica, além de evidenciar diferenças significativas entre perfis de pesquisadores.
No que diz respeito à concordância com o uso de IA ao longo do ciclo de pesquisa, o estudo identifica um padrão claro: quanto mais exploratória e inicial é a atividade, maior a aceitação. Etapas como busca de ideias e revisão de literatura apresentam os maiores níveis de concordância entre os respondentes. Por outro lado, atividades que envolvem maior responsabilidade intelectual direta, como redação e, especialmente, revisão de artigos científicos, concentram níveis mais elevados de resistência.
Esse gradiente de aceitação indica que a comunidade acadêmica da área de Administração tende a reconhecer a IA como uma ferramenta de apoio, mas ainda demonstra cautela quando seu uso pode interferir diretamente na autoria, no julgamento crítico e na integridade da produção científica.
As análises cruzadas aprofundam essa compreensão ao evidenciar diferenças relevantes entre grupos. Estudantes de pós-graduação, especialmente doutorandos, apresentam maior abertura ao uso de IA em comparação com docentes, o que sugere uma possível fissura geracional na forma como essas tecnologias são percebidas e incorporadas.
Além disso, pesquisadores que utilizam ferramentas pagas demonstram maior concordância com o uso de IA em todas as etapas da pesquisa, indicando uma relação entre investimento e legitimação da tecnologia. Da mesma forma, aqueles com experiência técnica em machine learning e processamento de linguagem natural tendem a aceitar mais o uso da IA, sobretudo em atividades mais críticas, como análise de dados e revisão de artigos.
Outro aspecto relevante é a diferença entre usuários e não usuários de IA. Aqueles que já utilizam essas ferramentas apresentam maior concordância em praticamente todas as etapas do processo científico, reforçando a ideia de que a familiaridade contribui para a aceitação.
Os dados também mostram que fatores como gênero não apresentam impacto significativo na adoção ou percepção da IA, enquanto variações regionais existem, mas devem ser analisadas com cautela devido ao tamanho das amostras em algumas regiões.
O aprofundamento do relatório continua na matéria de amanhã, com foco nas barreiras ao uso e nos princípios éticos que orientam a utilização responsável dessas tecnologias na pesquisa científica.
Fonte: ANPAD
Texto produzido com auxílio de Inteligência Artificial e revisado pelo autor.
Confira nossa Política de Uso de IA.
Deseja divulgar a sua revista científica ou notícia gratuitamente no Periódico Eletrônico? Envie um email para Este endereço de email está sendo protegido de spambots. Você precisa do JavaScript ativado para vê-lo..

Dando continuidade a análise do relatório sobre o uso de inteligência artificial na pesquisa acadêmica publicado pela Associação Nacional de Pós-Graduação e Pesquisa em Administração (ANPAD) no último dia 26, vamos explorar o perfil da amostra, a adoção das ferramentas e a frequência de uso por atividade, oferecendo uma visão mais concreta sobre o estágio atual de integração da IA na prática acadêmica. Na análise anterior, os dados já indicavam alta adesão e desafios éticos relevantes. Agora, o estudo aprofunda o olhar sobre quem são esses usuários e de que forma utilizam a IA em suas rotinas de pesquisa.
Perfil da amostra
O estudo revela uma amostra composta majoritariamente por docentes, que representam 41,2% dos respondentes, seguidos por doutorandos e mestrandos. Esse recorte evidencia que a análise está ancorada em um público com forte inserção na produção científica.
Do ponto de vista geográfico, há predominância das regiões Sudeste e Sul, refletindo a concentração histórica dos programas de pós-graduação no país. Em termos demográficos, observa-se um perfil equilibrado em relação ao gênero e concentrado em faixas etárias mais ativas da carreira acadêmica, entre 26 e 55 anos.
Esse conjunto de características indica que o uso de IA está sendo observado principalmente entre pesquisadores experientes e diretamente envolvidos com atividades de ensino e pesquisa.
Adoção de inteligência artificial
A adoção de inteligência artificial se mostra amplamente consolidada entre os participantes. Cerca de 86,7% afirmam já utilizar algum tipo de ferramenta de IA em suas atividades acadêmicas. Esse uso ocorre, em grande parte, por meio de soluções acessíveis, como ferramentas gratuitas ou modelos híbridos. No entanto, o estudo evidencia que essa adoção está concentrada no consumo de tecnologias prontas. Apenas uma parcela menor dos respondentes possui experiência no desenvolvimento de soluções baseadas em machine learning ou processamento de linguagem natural.
Esse dado reforça a ideia de que a IA já faz parte do cotidiano acadêmico, mas ainda é utilizada de forma operacional, com baixo nível de aprofundamento técnico.
Frequência de uso por atividade e ferramenta
Ao analisar a frequência de uso por atividade, o estudo aponta que a inteligência artificial está mais presente em etapas como escrita científica, tradução e geração de ideias. Nessas atividades, ferramentas generalistas assumem protagonismo, com destaque para o ChatGPT.
Outras plataformas, como Gemini, também aparecem com relevância, mas ferramentas especializadas voltadas à pesquisa, como Elicit, Consensus e Research Rabbit, ainda têm baixa penetração entre os usuários.
Esse padrão sugere que a escolha das ferramentas está mais relacionada à facilidade de uso e familiaridade do que à especificidade funcional. Como resultado, há um potencial ainda pouco explorado no uso de soluções desenvolvidas especificamente para apoiar o ciclo completo da pesquisa científica.
O aprofundamento desses dados reforça que, embora a adoção da IA seja ampla, seu uso ainda está em fase de maturação. Nas próximas matérias a análise avançará para dimensões mais críticas do estudo, incluindo o grau de concordância com o uso de IA nas diferentes etapas da pesquisa, as análises cruzadas por perfil de pesquisador, as principais barreiras à adoção, os princípios éticos que orientam esse uso e, por fim, as recomendações propostas para instituições, pesquisadores e para a própria ANPAD.
Fonte: ANPAD
Texto produzido com auxílio de Inteligência Artificial e revisado pelo autor.
Confira nossa Política de Uso de IA.
Deseja divulgar a sua revista científica ou notícia gratuitamente no Periódico Eletrônico? Envie um email para Este endereço de email está sendo protegido de spambots. Você precisa do JavaScript ativado para vê-lo..

Um relatório publicado pela Associação Nacional de Pós-Graduação e Pesquisa em Administração (ANPAD) revela que o uso de ferramentas de inteligência artificial já está amplamente disseminado na pesquisa acadêmica brasileira, com 86,7% dos respondentes declarando utilizar IA em suas atividades científicas.
O estudo, conduzido entre agosto de 2024 e outubro de 2025 com 228 participantes, investigou práticas, percepções e princípios éticos relacionados ao uso dessas tecnologias. Os dados mostram que a adoção ocorre principalmente por meio de ferramentas generalistas, como o ChatGPT, que lidera em todas as etapas analisadas, desde a escrita científica até a análise de dados.
Apesar da alta adesão, o relatório aponta baixa sofisticação no uso: apenas 19,4% dos participantes possuem experiência no desenvolvimento de soluções de machine learning ou processamento de linguagem natural. Isso indica que a maioria atua como usuária de ferramentas prontas, e não como desenvolvedora de soluções.
O estudo também evidencia um gradiente de aceitação ética. Enquanto o uso de IA para geração de ideias e revisão de literatura é amplamente aceito, há maior resistência em etapas que envolvem autoria intelectual, como redação e revisão de artigos.
Entre as principais barreiras ao uso estão preocupações éticas, preferência por métodos tradicionais e falta de conhecimento. Ainda assim, há consenso sobre princípios fundamentais, como transparência, responsabilidade e reprodutibilidade, considerados essenciais para o uso responsável da IA na pesquisa científica.
O cenário apresentado também traz riscos importantes para a produção científica. A dependência crescente de ferramentas generalistas, aliada à baixa capacitação técnica, pode ampliar problemas como o uso acrítico de conteúdos gerados por IA, sem a devida verificação, validação ou contextualização científica. Além disso, as resistências éticas identificadas indicam a ausência de consensos consolidados sobre limites e boas práticas, o que pode gerar inconsistências na qualidade e na integridade das pesquisas.
O estudo é abrangente e explora múltiplas dimensões do uso da inteligência artificial na pesquisa acadêmica. Ao longo desta semana, publicaremos uma série de textos dedicados a aprofundar perspectivas específicas apresentadas no relatório. Continue acompanhando o blog para conferir a análise detalhada dos principais achados.
Fonte: ANPAD
Texto produzido com auxílio de Inteligência Artificial e revisado pelo autor.
Confira nossa Política de Uso de IA.
Deseja divulgar a sua revista científica ou notícia gratuitamente no Periódico Eletrônico? Envie um email para Este endereço de email está sendo protegido de spambots. Você precisa do JavaScript ativado para vê-lo..

A ciência aberta consolidou-se em 2026 como um requisito obrigatório para a pesquisa científica, deixando de ser uma prática opcional para se tornar parte central da infraestrutura acadêmica global. Segundo análise publicada pela Eldenhall Research, agências de fomento como NIH e NSF passaram a exigir compartilhamento de dados brutos, pré-registro de estudos e disponibilização de códigos, com sanções rigorosas em casos de descumprimento, incluindo suspensão de financiamentos e investigações por má conduta.
O movimento também ganha força na Europa, onde auditorias já resultaram na abertura de casos de fraude científica. Ao mesmo tempo, universidades passaram a incorporar critérios de ciência aberta em avaliações de carreira, influenciando decisões de promoção e tenure. A adoção dessas práticas tem trazido benefícios mensuráveis, como aumento de até 31% nas citações de artigos com dados abertos e redução no tempo de publicação.
Na prática, a ciência aberta em 2026 se estrutura em três pilares principais: pré-registro de pesquisas, compartilhamento de dados com proteção de privacidade e disponibilização de códigos reprodutíveis. Periódicos e financiadores já implementam verificações técnicas antes da publicação, garantindo maior confiabilidade dos resultados.
Apesar dos avanços, desafios persistem, especialmente em áreas sensíveis, como saúde, e em contextos de países com menos recursos, onde limitações de infraestrutura dificultam a adequação às exigências. Ainda assim, o cenário aponta para uma mudança irreversível: transparência, reprodutibilidade e abertura tornaram-se condições essenciais para a credibilidade científica.
Fonte: Eldenhall Research
Texto produzido com auxílio de Inteligência Artificial e revisado pelo autor.
Confira nossa Política de Uso de IA.
Deseja divulgar a sua revista científica ou notícia gratuitamente no Periódico Eletrônico? Envie um email para Este endereço de email está sendo protegido de spambots. Você precisa do JavaScript ativado para vê-lo..
O 3º Encontro PUB IN, iniciativa voltada à discussão de temas relevantes para a publicação científica em âmbito global, será realizado nos dias 16 e 17 de abril na Universidade de Coimbra (Coimbra, Portugal) . O evento é promovido pela Fundação para a Ciência e a Tecnologia (FCT), por meio de sua unidade de serviços digitais FCCN, em parceria com a Universidade do Minho(Portugal) e busca reunir pesquisadores, editores e profissionais da comunicação científica para debater inovação, práticas editoriais e os desafios contemporâneos da Ciência Aberta.
A programação prevê palestras, mesas-redondas e apresentações que discutem desde políticas públicas até soluções tecnológicas aplicadas à gestão e disseminação do conhecimento científico. A proposta é fomentar o diálogo entre diferentes atores do ecossistema acadêmico, promovendo reflexões sobre qualidade editorial e científica. A nova edição do PUB IN reforça seu papel como espaço de troca de experiências e atualização profissional, abordando tópicos estratégicos como acesso aberto, integridade na pesquisa e o uso de tecnologias digitais no processo editorial.
O evento dialoga diretamente com os avanços promovidos pelo projeto Pub In que busca responder a desafios estruturais da publicação científica, como a fragmentação das plataformas editoriais, a baixa interoperabilidade, a obsolescência tecnológica e o déficit de competências em gestão editorial. A iniciativa propõe a criação de um ecossistema integrado para revistas científicas em acesso aberto, com foco na modernização das plataformas e na adoção de práticas alinhadas à Ciência Aberta, como open peer review e open annotations.
As inscrições podem ser realizadas até dia 10 de abril por meio da página oficial do evento. A expectativa é de que o encontro contribua para fortalecer práticas mais abertas, colaborativas e inovadoras na comunicação científica.
Fonte: IBICT
Texto produzido com auxílio de Inteligência Artificial e revisado pelo autor.
Confira nossa Política de Uso de IA.
Deseja divulgar a sua revista científica ou notícia gratuitamente no Periódico Eletrônico? Envie um email para Este endereço de email está sendo protegido de spambots. Você precisa do JavaScript ativado para vê-lo..

A adoção acelerada de ferramentas de inteligência artificial (IA) na rotina acadêmica apresenta um cenário complexo para a integridade da comunicação científica. Debates recentes sobre os riscos da IA na ciência refletem-se em publicações como o artigo de Ernesto Spinak, intitulado "A bajulação na IA: o risco da complacência", publicado no SciELO em Perspectiva1. Para além de potenciais comportamentos complacentes de sistemas automatizados, a intersecção entre o crescimento exponencial das publicações — mais de quatro milhões de artigos por ano — e a capacidade da IA de gerar conteúdos fraudulentos altamente convincentes criou uma "tempestade perfeita" contra a integridade científica2.
Nesse cenário de risco mediado pela IA, a própria tecnologia se torna uma ferramenta de defesa. A análise de redes permite identificar, em larga escala, "fábricas de artigos" (papermills) e padrões de pesquisas questionáveis a partir de rastros digitais deixados em publicações2. Contudo, especialistas alertam que a tecnologia isolada é insuficiente. A inteligência artificial carece do julgamento e da nuance necessários para avaliar a integridade da pesquisa, tornando a supervisão humana essencial, especialmente quando determinações sobre má conduta podem arruinar carreiras acadêmicas2.
O antídoto mais poderoso contra as fraudes e os desafios impostos pela IA é a adoção de práticas da Ciência Aberta. O compartilhamento de dados, metodologias e códigos dificulta a sustentação de enganos e aumenta a qualidade geral da pesquisa2. No Brasil, um esforço prático para essa implementação foi documentado pelos pesquisadores Pablo Rogers e Ricardo Limongi, no editorial "Fundamentos, Prática e Implementação da Ciência Aberta"3. Eles propõem o ARTE Workflow (Article Reprodutibility Template & Environment), um modelo escalável voltado às ciências sociais aplicadas e administração. Em vez de focar no uso de IA, esse modelo integra ferramentas concretas de reprodutibilidade, como RStudio, Quarto, Git/GitHub, OSF e Docker. Essa estrutura metodológica cria repositórios públicos e permite que os cientistas avancem, de forma documentada, da reprodutibilidade mínima à completa, combatendo a crise de reprodutibilidade3.
A adaptação a esse novo mundo exige, por fim, transformações educacionais e institucionais. Educadores já começam a repensar avaliações tradicionais, buscando ensinar os estudantes a colaborar de forma eficaz e ética com as ferramentas de IA, em vez de apenas proibi-las. Paralelamente, as instituições e agências de fomento precisam reavaliar os métodos de julgamento científico, abandonando o simples foco na quantidade de publicações, que incentiva estratégias focadas apenas em produtividade. O foco deve passar a ser a adoção de métricas multifacetadas que valorizem o rigor, a transparência e a reprodutibilidade.
Apenas com uma colaboração profunda entre editores, instituições e pesquisadores será possível garantir que a IA seja uma aliada transparente, construindo um ecossistema científico mais confiável para as próximas gerações.
A retenção de direitos autorais tem se consolidado como uma estratégia relevante para pesquisadores que desejam ampliar o acesso e o impacto de suas publicações científicas. Um guia adaptado para o contexto brasileiro apresenta orientações práticas sobre como autores podem manter o controle sobre seus manuscritos, mesmo após a aceitação por periódicos científicos.
No Brasil, os direitos autorais são automaticamente garantidos no momento da criação de uma obra, conforme a Lei nº 9.610/1998. No entanto, é comum que pesquisadores transfiram esses direitos às editoras durante o processo de publicação. A proposta da retenção de direitos busca reverter essa lógica, permitindo que os autores concedam licenças de uso, como as do tipo Creative Commons, sem abrir mão da titularidade da obra.
A prática está alinhada ao movimento global de acesso aberto e às exigências de agências de fomento, como CNPq e FAPESP, que recomendam a disponibilização dos resultados de pesquisa de forma gratuita. Ao reter direitos, os autores podem compartilhar versões aceitas de seus artigos em repositórios institucionais sem embargo, aumentando a visibilidade e o potencial de citação dos trabalhos.
O guia destaca que o processo é simples: basta incluir uma declaração de retenção de direitos no manuscrito e informar essa intenção no momento da submissão. Apesar de possíveis resistências por parte de algumas editoras, a estratégia é respaldada por iniciativas internacionais, como a cOAlition S, e vem ganhando espaço como alternativa viável para fortalecer a ciência aberta e a autonomia dos pesquisadores.
Fonte: ZENODO
Texto produzido com auxílio de Inteligência Artificial e revisado pelo autor.
Confira nossa Política de Uso de IA.
Deseja divulgar a sua revista científica ou notícia gratuitamente no Periódico Eletrônico? Envie um email para Este endereço de email está sendo protegido de spambots. Você precisa do JavaScript ativado para vê-lo..

Uma iniciativa de Lyrasis, organização sem fins lucrativos que apoia o acesso ao conhecimento por meio de soluções tecnológicas e suporte estratégico a instituições de pesquisa e memória, evidencia o fortalecimento do modelo Diamond Open Access a partir do conceito de “interdependência radical”. A proposta enfatiza a colaboração ampla entre instituições, comunidades acadêmicas e infraestruturas de publicação como caminho para garantir sustentabilidade e equidade no acesso aberto.
O destaque integra as ações do Open Access Community Investment Program - OACIP (Programa de Investimento Comunitário em Acesso Aberto), uma iniciativa prática liderada pela própria Lyrasis que busca financiar e sustentar serviços essenciais de acesso aberto. O programa opera como um mecanismo coletivo de investimento, reunindo instituições para apoiar infraestruturas compartilhadas como plataformas de publicação, ferramentas de indexação e serviços editoriais que não cobram taxas de autores nem leitores.
Nesse contexto, a chamada interdependência radical propõe uma mudança de lógica no ecossistema acadêmico, substituindo modelos competitivos por redes colaborativas e interligadas. Em vez de iniciativas isoladas, a proposta defende que diferentes atores, como universidades, bibliotecas e provedores de tecnologia, compartilhem responsabilidades e recursos para manter o sistema funcionando de forma mais equitativa.
Na prática, essa abordagem já se traduz no apoio direto a iniciativas de infraestrutura aberta, permitindo sua continuidade sem depender de modelos comerciais baseados em APCs (Article Processing Charges - Taxas de Processamento de Artigos). Isso contribui para reduzir barreiras de publicação, especialmente para pesquisadores de regiões com menos recursos, além de fortalecer a governança comunitária e a transparência dos processos editoriais.
Ao evidenciar essa perspectiva, a Lyrasis reforça que o futuro do acesso aberto pode depender menos de soluções individuais e mais de arranjos coletivos sustentados por cooperação ativa. A proposta aponta para um ecossistema científico mais resiliente, inclusivo e alinhado aos princípios de acesso universal ao conhecimento.
Fonte: Lyrasis
Texto produzido com auxílio de Inteligência Artificial e revisado pelo autor.
Confira nossa Política de Uso de IA.
Deseja divulgar a sua revista científica ou notícia gratuitamente no Periódico Eletrônico? Envie um email para Este endereço de email está sendo protegido de spambots. Você precisa do JavaScript ativado para vê-lo..

A Virtualia Journal, periódico da Universidade Federal de Ouro Preto na área de Filosofia, anunciou a adoção da Declaração CRediT-IA, um modelo inédito voltado à transparência no uso de Inteligência Artificial Generativa em manuscritos científicos. A iniciativa está alinhada à nova Política de Integridade na Atividade Científica do CNPq, estabelecida pela Portaria nº 2.664/2026, publicada em março deste ano.
Essa normativa determina que pesquisadores devem declarar o uso de ferramentas de IA em todas as etapas da pesquisa — incluindo concepção, redação e análise de dados —, especificando a ferramenta utilizada e sua finalidade. Além disso, proíbe que conteúdos gerados por IA sejam apresentados como autoria humana, atribuindo aos autores total responsabilidade pelo conteúdo submetido.
Nesse contexto, o modelo CRediT-IA surge como uma resposta estruturada a essas exigências. Ele organiza uma declaração detalhada que contempla a identificação do manuscrito, a descrição das ferramentas utilizadas (incluindo versões e finalidades) e a delimitação clara do papel da IA no processo de produção científica. O documento também exige a confirmação de que as decisões intelectuais centrais permaneceram sob responsabilidade humana, acompanhada de uma declaração formal de responsabilidade dos autores.
Paralelamente, o International Committee of Medical Journal Editors (ICMJE) tem desenvolvido diretrizes fundamentais sobre autoria científica, que dialogam diretamente com o debate atual sobre o uso de IA. Segundo o comitê, a atribuição de autoria deve seguir critérios rigorosos e cumulativos.
De acordo com o ICMJE, para ser considerado autor, o pesquisador deve atender a todos os seguintes critérios:
Contribuir substancialmente para a concepção ou o projeto da obra, ou para a aquisição, análise ou interpretação dos dados;
Redigir o trabalho ou revisá-lo criticamente quanto ao conteúdo intelectual relevante;
Aprovar a versão final a ser publicada;
Assumir responsabilidade por todos os aspectos do trabalho, garantindo que questões relacionadas à precisão ou integridade sejam devidamente investigadas e resolvidas.
Em consonância com esses princípios, a Virtualia Journal também disponibiliza uma versão resumida da declaração CRediT-IA para inclusão no próprio artigo, assegurando transparência ao longo de todo o processo editorial. Inspirado na taxonomia CRediT, o modelo adapta práticas já consolidadas ao contexto emergente da inteligência artificial.
Com essa iniciativa, a revista se posiciona na vanguarda das boas práticas em publicação científica, oferecendo um instrumento padronizado que facilita a adequação às novas exigências e contribui para o fortalecimento da integridade da pesquisa na era da inteligência artificial.
Fonte: Virtualia Journal
Texto produzido com auxílio de Inteligência Artificial e revisado pelo autor.
Confira nossa Política de Uso de IA.
Deseja divulgar a sua revista científica ou notícia gratuitamente no Periódico Eletrônico? Envie um email para Este endereço de email está sendo protegido de spambots. Você precisa do JavaScript ativado para vê-lo..
Preencha os dados abaixo para iniciar o atendimento no WhatsApp.