Agência de Marketing Digital e Científico

  • Temas OJS Personalizados e Exclusivos

    PERIÓDICOS ELETRÔNICOS

    Desenvolvemos plugins de tema exclusivos para Open Journal System e entregamos uma interface única e funcional para o seu periódico científico.

  • Especialistas em Open Journal System

    PERIÓDICOS ELETRÔNICOS

    Serviços especializados de suporte tecnológico, operacional e editorial a periódicos científicos.

  • Publique sua produção acadêmica

    SERVIÇOS PARA AUTORES

    Publique sua produção com DOI e ISBN em formato e-book sob o nosso selo editorial Peletron.Science.

  • A melhor maneira de identificar sua produção científica

    DOI

    Somos Patrocinadores CrossRef e viabilizamos a sua afiliação com a entidade e fornecendo serviços DOI e Verificação de Plágio.

  • Não fique com seu OJS inoperante.
    Atualize-o.

    PERIÓDICOS ELETRÔNICOS

    Se revista ainda está em OJS 2.x, saiba que ela corre sérios riscos de segurança.

Suporte tecnológico, operacional e editorial para periódicos científicos.


Open Journal System
Digital Object Identifier
Patrocinador CrossRef

Somos uma editora especializada em Open Journal System, dedicada a oferecer soluções tecnológicas, operacionais e editoriais para periódicos científicos. Nossa motivação é contribuir para o fortalecimento da ciência nacional, dando agilidade ao processo editorial das revistas científicas e aumentando a visibilidade de suas publicações.

Converse com um especialista

Conheça nossa empresa

Desenvolvimento de temas exclusivos
sob medida para o Open Journal System

Veja abaixo alguns temas OJS de sucesso desenvolvidos por nós.

Conheça nosso serviço

  • European Journal of Stomatology, Oral & Facial Surgery

    European Journal of Stomatology, Oral & Facial Surgery

    Associação dos Médicos Estomatologistas Portugueses (Portugal)

    Visitar site

  • Cadernos de Linguística (Abralin)

    Cadernos de Linguística

    Associação Brasileira de Linguística

    Visitar site

  • Revista da Abralin

    Revista da Abralin

    Associação Brasileira de Linguística

    Visitar site

  • SUMMA: Diálogos em Saúde

    SUMMA: Diálogos em Saúde

    SUMMA Journals

    Visitar site

  • Revista de Direito Contábil Fiscal

    Revista de Direito Contábil Fiscal

    Associação Paulista de Estudos Tributários

    Visitar site

  • Revista Trabalho, Educação e Saúde

    Revista Trabalho, Educação e Saúde

    Escola Politécnica de Saúde Joaquim Venâncio, Fiocruz

    Visitar site

  • Revista Eninfra

    Revista Eninfra

    Departamento Nacional de Infraestrutura e Transporte (DNIT)

    Visitar site

  • Portal de Periódicos Univali

    Portal de Periódicos Univali

    Universidade do Vale do Itajaí

    Visitar site

  • Revista Fitos

    Revista Fitos

    CIBS / Farmanguinhos / Fiocruz

    Visitar site

  • Revista Leitura

    Revista Leitura

    Universidade Federal de Alagoas

    Visitar site

  • Revista Brasileira de Criminalística

    Revista Brasileira de Criminalística

    Associação Brasileira de Criminalística

    Visitar site

  • SUMMA: Medical and Health Sciences

    SUMMA: Medical and Health Sciences

    SUMMA Journals

    Visitar site

  • Revista Sigmae

    Revista Sigmae

    Universidade Federal de Alfenas

    Visitar site

  • Revista Nordestina de História do Brasil

    Revista Nordestina de História do Brasil

    Universidad de Playa Ancha (UPLA - Chile)

    Visitar site

  • Journal of Animal Behaviour and Biometeorology

    Journal of Animal Behaviour and Biometeorology

    Malque Publishing

    Visitar site

  • Revista de Direito Tributário da APET

    Revista de Direito Tributário da APET

    Associação Paulista de Estudos Tributários

    Visitar site

  • Revista Brasileira de Meio Ambiente

    Revista Brasileira de Meio Ambiente

    Editora Reativar Ambiental

    Visitar site

  • European Journal of Stomatology, Oral & Facial Surgery
  • Cadernos de Linguística (Abralin)
  • Revista da Abralin
  • SUMMA: Diálogos em Saúde
  • Revista de Direito Contábil Fiscal
  • Revista Trabalho, Educação e Saúde
  • Revista Eninfra
  • Portal de Periódicos Univali
  • Revista Fitos
  • Revista Leitura
  • Revista Brasileira de Criminalística
  • SUMMA: Medical and Health Sciences
  • Revista Sigmae
  • Revista Nordestina de História do Brasil
  • Journal of Animal Behaviour and Biometeorology
  • Revista de Direito Tributário da APET
  • Revista Brasileira de Meio Ambiente

Últimas do Peletron

Blog GeniusDesign | Peletron

  • IA inventa doença, engana chatbots e chega à literatura científica — alerta para riscos na validação da pesquisa

    Um caso recente expôs de forma contundente os riscos do uso indiscriminado de inteligência artificial na produção científica. A suposta doença “bixonimania”, completamente fictícia, conseguiu enganar sistemas como ChatGPT e Gemini — e foi além: chegou a ser citada em artigo científico revisado por pares.

    A fraude começou como um experimento para testar a confiabilidade dos modelos de linguagem. Com descrições plausíveis, linguagem técnica e estrutura típica de textos médicos, a condição inexistente foi rapidamente assimilada por diferentes IAs, que passaram a tratá-la como real, com causas, sintomas e até estimativas de prevalência.

    O problema se agravou quando o conteúdo ultrapassou o ambiente dos chatbots. Um artigo publicado no periódico Springer Nature mencionou a doença como se fosse uma condição emergente — o que levou à posterior retratação após questionamentos da revista Nature.

    O caso da “bixonimania” não surgiu de uma descoberta clínica, mas de um teste deliberado para avaliar os limites da inteligência artificial na interpretação de informações plausíveis. A condição fictícia foi construída com linguagem técnica e características verossímeis, suficientes para ser assimilada por sistemas como ChatGPT e Gemini, que passaram a descrevê-la como real.

    Embora não se trate de um experimento científico formal, com metodologia publicada e autoria institucional definida, o episódio funcionou como uma demonstração prática das fragilidades desses sistemas — especialmente quando inseridos em ecossistemas informacionais que carecem de verificação rigorosa.

    O que esse caso revela sobre IA e publicação científica

    O episódio evidencia uma fragilidade estrutural: modelos de IA não distinguem verdade de verossimilhança — eles respondem com base em padrões linguísticos, não em validação factual. Quando um texto tem “cara de ciência”, a tendência é que a IA amplifique aquela informação, mesmo que seja falsa.

    Esse comportamento está diretamente ligado ao fenômeno conhecido como “alucinação” de IA, já amplamente documentado na literatura acadêmica. Há registros, inclusive, de geração de referências inexistentes em revisões por pares automatizadas e textos científicos. Além dessas situações, cientistas também alertam para “Al Stop” (algo como “sucata de IA”). Para saber mais acesse Revista Science alerta: controle humano é essencial contra “AI slop” na pesquisa científica

    Implicações para o contexto editorial e científico

    Para periódicos científicos, editores e pesquisadores, o caso funciona como um alerta crítico:

    • IA não pode ser fonte primária de validação científica
    • Conteúdos gerados por IA exigem verificação rigorosa (fact-checking)
    • Referências e citações devem sempre ser auditadas manualmente
    • Processos editoriais precisam incorporar mecanismos de detecção e revisão de conteúdo assistido por IA

    A questão não se limita à redação de textos. Ferramentas de IA já são utilizadas em tradução, revisão, análise de dados, sugestão de referências e até avaliação de manuscritos — o que amplia o risco de contaminação da literatura por informações fabricadas.

    Um problema de cultura científica, não apenas de tecnologia

    Mais do que uma falha técnica, o caso expõe um problema de prática acadêmica. Como aponta a própria reportagem, há uma “preguiça perigosa” na verificação de informações que permite que conteúdos falsos avancem até a publicação.

    Em outras palavras:

    a IA não cria o problema sozinha — ela amplifica fragilidades já existentes no sistema científico.

    Caminhos e recomendações

    Diante desse cenário, algumas diretrizes se tornam centrais para o uso responsável de IA na ciência:

    • Transparência no uso de IA (declaração explícita em artigos)
    • Revisão humana qualificada como etapa obrigatória
    • Capacitação editorial para identificar conteúdo gerado por IA
    • Desenvolvimento de políticas institucionais claras sobre IA na pesquisa

    Já vislumbramos algumas iniciativas para normatizar a IA no ambiente acadêmico brasileiro como a iniciativa da Virtualia Journal, periódico da Universidade Federal de Ouro Preto na área de Filosofia, anunciou a adoção da Declaração CRediT-IA e a nova edição do Guia de Boas Práticas Científicas da USP que incorpora orientações sobre integridade e uso de IA.

    Conclusão

    O caso da “bixonimania” é emblemático porque rompe uma barreira crítica: não se trata apenas de um erro pontual em chatbots, mas da infiltração de conteúdo fabricado na própria literatura científica — o espaço que deveria operar como instância máxima de validação do conhecimento.

    Esse episódio reforça um diagnóstico mais amplo: as fragilidades não estão apenas nas ferramentas de IA, mas no modo como o sistema científico organiza, valida e circula informação. Nesse sentido, dialoga diretamente com discussões recentes sobre a necessidade de reconfiguração dos modelos de publicação.

    Como abordado em matéria anterior aqui no Periódico Eletrônico, o modelo Publish–Review–Curate (PRC), proposto pela Confederation of Open Access Repositories, surge como uma alternativa ao fluxo tradicional ao separar — e tornar explícitas — as etapas de publicação, avaliação e curadoria. Nesse arranjo, os trabalhos são inicialmente disponibilizados (frequentemente como preprints), passam por processos de revisão aberta e contínua, e posteriormente são organizados e validados por diferentes iniciativas de curadoria.

    Mais do que uma mudança operacional, trata-se de uma mudança de lógica: ao ampliar transparência, rastreabilidade e escrutínio público, o modelo reduz a possibilidade de que conteúdos não verificados — inclusive aqueles gerados ou amplificados por IA — sejam incorporados de forma silenciosa ao corpo da literatura científica.

    Assim, o caso recente não apenas expõe os riscos do uso acrítico de IA, mas evidencia a urgência de fortalecer mecanismos de validação distribuída e transparente. Em última instância, reforça um princípio fundamental: a confiança na ciência não pode depender da aparência de rigor, mas de processos efetivos — e verificáveis — de validação.

    Se por um lado a IA amplia produtividade e acesso, por outro exige um princípio básico da ciência que não pode ser terceirizado: verificar, validar e duvidar sistematicamente.


    Fonte: Correio 24 horas
    Texto produzido com auxílio de Inteligência Artificial e revisado pelo autor.
    Confira nossa Política de Uso de IA.


    Deseja divulgar a sua revista científica ou notícia gratuitamente no Periódico Eletrônico? Envie um email para Este endereço de email está sendo protegido de spambots. Você precisa do JavaScript ativado para vê-lo..

    Continuar lendo

  • Brasil na mira das revistas predatórias, mas fora dos estudos internacionais

    Embora o Brasil raramente apareça com destaque em estudos internacionais sobre revistas predatórias, o tema tem ganhado espaço no debate acadêmico nacional, impulsionado por alertas de instituições, editores e pesquisadores sobre os riscos dessas publicações. A pressão por produtividade científica, aliada à necessidade de rápida publicação, tem sido apontada como um dos fatores que tornam pesquisadores, especialmente em início de carreira, mais vulneráveis a esse tipo de prática.

    Ainda assim, quando observados grandes levantamentos internacionais, o país surge de forma pouco expressiva. Parte dessa ausência é explicada por uma limitação metodológica: a maioria dos bancos de dados e análises concentra-se em periódicos em inglês, deixando de fora publicações em português e espanhol. Isso cria uma espécie de “presença invisível” do Brasil nesses estudos, dificultando um diagnóstico mais preciso do problema em âmbito nacional.

    Segundo Simon Linacre, da Cabells, compreender esse cenário exige uma mudança de postura dos próprios pesquisadores, que precisam aplicar suas habilidades investigativas também ao processo de publicação científica. Isso inclui avaliar criteriosamente onde submeter seus trabalhos e entender as implicações dessas escolhas.

    A própria dinâmica da publicação acadêmica já é amplamente estudada, com periódicos especializados no tema. Um exemplo recorrente é o estudo de Shen e Bjork (2016), que apontou que apenas 2,3% dos autores correspondentes em revistas predatórias eram da América do Sul. Apesar de limitações e críticas metodológicas, o dado sugere que, ao menos na década de 2010, a participação de pesquisadores brasileiros em periódicos predatórios em inglês era relativamente baixa.

    No entanto, essa baixa representatividade nos dados não significa ausência do problema. Pelo contrário, reforça a necessidade de ampliar o olhar para contextos locais, investir em formação sobre integridade científica e fortalecer mecanismos institucionais que orientem decisões de publicação.


    Fonte: Universidade News
    Texto produzido com auxílio de Inteligência Artificial e revisado pelo autor.
    Confira nossa Política de Uso de IA.


    Deseja divulgar a sua revista científica ou notícia gratuitamente no Periódico Eletrônico? Envie um email para Este endereço de email está sendo protegido de spambots. Você precisa do JavaScript ativado para vê-lo..

    Continuar lendo

  • Editora da UTFPR abre seleção de obras acadêmicas inéditas focadas em Inteligência Artificial

    A Editora da Universidade Tecnológica Federal do Paraná (UTFPR) anunciou a abertura de uma chamada pública para seleção de obras inéditas com foco em Inteligência Artificial. A iniciativa busca incentivar a produção acadêmica e científica na área, reunindo trabalhos originais que contribuam para o avanço do conhecimento e da aplicação da IA em diferentes contextos.

    Podem participar autores com ou sem vínculo com à UTFPR, desde que apresentem obras inéditas e alinhadas ao escopo da chamada. Os trabalhos devem abordar temas relacionados à Inteligência Artificial sob perspectivas diversas, incluindo aspectos técnicos, éticos, sociais e aplicados, refletindo a amplitude e a relevância do campo na atualidade.

    A proposta faz parte das ações da editora para fortalecer a disseminação do conhecimento científico e ampliar o acesso a conteúdos qualificados, especialmente em áreas emergentes. Além disso, a chamada reforça o papel das editoras universitárias na promoção da ciência aberta e na valorização da produção intelectual nacional.

    As submissões seguem critérios editoriais específicos definidos pela instituição e serão avaliadas por meio de processo seletivo. Para mais informações sobre a chamada acesse: Edital EDUTF nº 01/2026 - Chamada Pública para Submissão de Obras Originais - Coleção Inteligência Artificial e Transformação Tecnológica .


    Fonte: UTFPR
    Texto produzido com auxílio de Inteligência Artificial e revisado pelo autor.
    Confira nossa Política de Uso de IA.


    Deseja divulgar a sua revista científica ou notícia gratuitamente no Periódico Eletrônico? Envie um email para Este endereço de email está sendo protegido de spambots. Você precisa do JavaScript ativado para vê-lo..

    Continuar lendo

  • Do uso à responsabilidade: estudo da ANPAD detalha ética e recomendações sobre IA

    Na última matéria da série sobre o relatório da ANPAD, publicado em 27 de março, são apresentados os tópicos finais do estudo sobre o uso de inteligência artificial na pesquisa acadêmica, com destaque para os princípios éticos, a síntese dos principais achados, as recomendações e as limitações identificadas pelos pesquisadores.

    Princípios éticos

    O relatório demonstra um forte consenso da comunidade acadêmica em torno da importância de princípios éticos para orientar o uso da inteligência artificial. Entre os mais citados estão ética e valores, reprodutibilidade, responsabilidade e proteção de dados, indicando uma preocupação consistente com a integridade científica e a transparência no uso dessas ferramentas.

    Além desses eixos centrais, emergem discussões mais complexas, como a necessidade de supervisão humana contínua, o risco de vieses algorítmicos e preocupações com a concentração tecnológica em países centrais, apontando para debates sobre colonialidade digital. Também há questionamentos sobre crédito intelectual e o papel da IA em relação ao mérito individual na produção científica.

    Síntese dos principais achados

    A consolidação dos resultados evidencia um cenário marcado por contrastes. De um lado, há alta adoção das ferramentas de IA, com uso disseminado entre pesquisadores. De outro, observa-se baixa sofisticação técnica, com a maioria atuando apenas como usuária de soluções prontas.

    Outro destaque é a forte concentração no uso de ferramentas generalistas, como o ChatGPT, em detrimento de soluções especializadas. O estudo também identifica um gradiente de aceitação ética: atividades exploratórias, como geração de ideias, são amplamente aceitas, enquanto etapas que envolvem maior responsabilidade intelectual, como revisão de artigos, enfrentam maior resistência.

    Diferenças entre perfis também se destacam, especialmente entre docentes e estudantes, além da influência do uso de ferramentas pagas na maior aceitação da IA. As barreiras ao uso, por sua vez, são predominantemente éticas e culturais, e não tecnológicas ou financeiras.

    Recomendações

    Com base nos achados, o relatório propõe ações direcionadas a diferentes atores do ecossistema acadêmico. Para instituições e programas de pós-graduação, destaca-se a necessidade de investir em capacitação, especialmente no uso de ferramentas especializadas, além da definição de diretrizes éticas claras para o uso da IA em cada fase da pesquisa.

    Para a própria ANPAD, o estudo sugere a atualização de políticas editoriais, com exigência de transparência no uso de IA, e a ampliação de iniciativas de formação continuada. Já para os pesquisadores, as recomendações incluem diversificar o uso de ferramentas, adotar práticas de transparência metodológica e manter a supervisão humana como elemento central no processo científico.

    Limitações do estudo

    O relatório também reconhece limitações importantes que devem ser consideradas na interpretação dos resultados. A amostra, embora relevante, apresenta concentração regional, o que pode restringir a generalização dos achados para toda a comunidade acadêmica brasileira.

    Além disso, o longo período de coleta de dados, entre 2024 e 2025, coincide com um momento de rápida evolução das tecnologias de IA, o que pode ter influenciado as percepções dos participantes ao longo do tempo. Também foram identificadas inconsistências em algumas variáveis, como idade e identificação institucional, que limitaram análises mais detalhadas.

    O conjunto dessas análises reforça que o avanço da inteligência artificial na pesquisa acadêmica não é apenas uma questão de adoção tecnológica, mas de governança, capacitação e construção coletiva de normas. O desafio agora não é mais incorporar a IA, mas definir como utilizá-la de forma crítica, ética e alinhada aos princípios da ciência.


    Fonte: ANPAD
    Texto produzido com auxílio de Inteligência Artificial e revisado pelo autor.
    Confira nossa Política de Uso de IA.


    Deseja divulgar a sua revista científica ou notícia gratuitamente no Periódico Eletrônico? Envie um email para Este endereço de email está sendo protegido de spambots. Você precisa do JavaScript ativado para vê-lo..

    Continuar lendo

  • Diferenças entre pesquisadores expõem tensões no uso de IA na academia

    Um novo recorte do relatório da Associação Nacional de Pós-Graduação e Pesquisa em Administração (ANPAD) aprofunda a análise sobre a aceitação do uso de inteligência artificial nas diferentes etapas da pesquisa acadêmica, além de evidenciar diferenças significativas entre perfis de pesquisadores.

    No que diz respeito à concordância com o uso de IA ao longo do ciclo de pesquisa, o estudo identifica um padrão claro: quanto mais exploratória e inicial é a atividade, maior a aceitação. Etapas como busca de ideias e revisão de literatura apresentam os maiores níveis de concordância entre os respondentes. Por outro lado, atividades que envolvem maior responsabilidade intelectual direta, como redação e, especialmente, revisão de artigos científicos, concentram níveis mais elevados de resistência.

    Esse gradiente de aceitação indica que a comunidade acadêmica da área de Administração tende a reconhecer a IA como uma ferramenta de apoio, mas ainda demonstra cautela quando seu uso pode interferir diretamente na autoria, no julgamento crítico e na integridade da produção científica.

    As análises cruzadas aprofundam essa compreensão ao evidenciar diferenças relevantes entre grupos. Estudantes de pós-graduação, especialmente doutorandos, apresentam maior abertura ao uso de IA em comparação com docentes, o que sugere uma possível fissura geracional na forma como essas tecnologias são percebidas e incorporadas.

    Além disso, pesquisadores que utilizam ferramentas pagas demonstram maior concordância com o uso de IA em todas as etapas da pesquisa, indicando uma relação entre investimento e legitimação da tecnologia. Da mesma forma, aqueles com experiência técnica em machine learning e processamento de linguagem natural tendem a aceitar mais o uso da IA, sobretudo em atividades mais críticas, como análise de dados e revisão de artigos.

    Outro aspecto relevante é a diferença entre usuários e não usuários de IA. Aqueles que já utilizam essas ferramentas apresentam maior concordância em praticamente todas as etapas do processo científico, reforçando a ideia de que a familiaridade contribui para a aceitação.

    Os dados também mostram que fatores como gênero não apresentam impacto significativo na adoção ou percepção da IA, enquanto variações regionais existem, mas devem ser analisadas com cautela devido ao tamanho das amostras em algumas regiões.

    O aprofundamento do relatório continua na matéria de amanhã, com foco nas barreiras ao uso e nos princípios éticos que orientam a utilização responsável dessas tecnologias na pesquisa científica.


    Fonte: ANPAD
    Texto produzido com auxílio de Inteligência Artificial e revisado pelo autor.
    Confira nossa Política de Uso de IA.


    Deseja divulgar a sua revista científica ou notícia gratuitamente no Periódico Eletrônico? Envie um email para Este endereço de email está sendo protegido de spambots. Você precisa do JavaScript ativado para vê-lo..

    Continuar lendo

  • Quase 90% dos pesquisadores usam IA, mas poucos dominam suas potencialidades

    Dando continuidade a análise do relatório sobre o uso de inteligência artificial na pesquisa acadêmica publicado pela Associação Nacional de Pós-Graduação e Pesquisa em Administração (ANPAD) no último dia 26, vamos explorar o perfil da amostra, a adoção das ferramentas e a frequência de uso por atividade, oferecendo uma visão mais concreta sobre o estágio atual de integração da IA na prática acadêmica. Na análise anterior, os dados já indicavam alta adesão e desafios éticos relevantes. Agora, o estudo aprofunda o olhar sobre quem são esses usuários e de que forma utilizam a IA em suas rotinas de pesquisa.

    Perfil da amostra

    O estudo revela uma amostra composta majoritariamente por docentes, que representam 41,2% dos respondentes, seguidos por doutorandos e mestrandos. Esse recorte evidencia que a análise está ancorada em um público com forte inserção na produção científica.

    Fonte: ASSOCIAÇÃO NACIONAL DE PÓS-GRADUAÇÃO E PESQUISA EM ADMINISTRAÇÃO (ANPAD). Grupo de Trabalho para Atualização do Manual de “Boas Práticas da Publicação Científica”. Uso da Inteligência Artificial na Pesquisa Acadêmica: práticas, percepções e princípios éticos. Maringá: ANPAD, 2026.

    Do ponto de vista geográfico, há predominância das regiões Sudeste e Sul, refletindo a concentração histórica dos programas de pós-graduação no país. Em termos demográficos, observa-se um perfil equilibrado em relação ao gênero e concentrado em faixas etárias mais ativas da carreira acadêmica, entre 26 e 55 anos.

    Esse conjunto de características indica que o uso de IA está sendo observado principalmente entre pesquisadores experientes e diretamente envolvidos com atividades de ensino e pesquisa.

     

    Adoção de inteligência artificial

    A adoção de inteligência artificial se mostra amplamente consolidada entre os participantes. Cerca de 86,7% afirmam já utilizar algum tipo de ferramenta de IA em suas atividades acadêmicas. Esse uso ocorre, em grande parte, por meio de soluções acessíveis, como ferramentas gratuitas ou modelos híbridos. No entanto, o estudo evidencia que essa adoção está concentrada no consumo de tecnologias prontas. Apenas uma parcela menor dos respondentes possui experiência no desenvolvimento de soluções baseadas em machine learning ou processamento de linguagem natural.

    Fonte: ASSOCIAÇÃO NACIONAL DE PÓS-GRADUAÇÃO E PESQUISA EM ADMINISTRAÇÃO (ANPAD). Grupo de Trabalho para Atualização do Manual de “Boas Práticas da Publicação Científica”. Uso da Inteligência Artificial na Pesquisa Acadêmica: práticas, percepções e princípios éticos. Maringá: ANPAD, 2026.

    Esse dado reforça a ideia de que a IA já faz parte do cotidiano acadêmico, mas ainda é utilizada de forma operacional, com baixo nível de aprofundamento técnico.

    Frequência de uso por atividade e ferramenta

    Ao analisar a frequência de uso por atividade, o estudo aponta que a inteligência artificial está mais presente em etapas como escrita científica, tradução e geração de ideias. Nessas atividades, ferramentas generalistas assumem protagonismo, com destaque para o ChatGPT.

    Outras plataformas, como Gemini, também aparecem com relevância, mas ferramentas especializadas voltadas à pesquisa, como Elicit, Consensus e Research Rabbit, ainda têm baixa penetração entre os usuários.

    Esse padrão sugere que a escolha das ferramentas está mais relacionada à facilidade de uso e familiaridade do que à especificidade funcional. Como resultado, há um potencial ainda pouco explorado no uso de soluções desenvolvidas especificamente para apoiar o ciclo completo da pesquisa científica.

    Fonte: ASSOCIAÇÃO NACIONAL DE PÓS-GRADUAÇÃO E PESQUISA EM ADMINISTRAÇÃO (ANPAD). Grupo de Trabalho para Atualização do Manual de “Boas Práticas da Publicação Científica”. Uso da Inteligência Artificial na Pesquisa Acadêmica: práticas, percepções e princípios éticos. Maringá: ANPAD, 2026.

    O aprofundamento desses dados reforça que, embora a adoção da IA seja ampla, seu uso ainda está em fase de maturação. Nas próximas matérias a análise avançará para dimensões mais críticas do estudo, incluindo o grau de concordância com o uso de IA nas diferentes etapas da pesquisa, as análises cruzadas por perfil de pesquisador, as principais barreiras à adoção, os princípios éticos que orientam esse uso e, por fim, as recomendações propostas para instituições, pesquisadores e para a própria ANPAD.


    Fonte: ANPAD
    Texto produzido com auxílio de Inteligência Artificial e revisado pelo autor.
    Confira nossa Política de Uso de IA.


    Deseja divulgar a sua revista científica ou notícia gratuitamente no Periódico Eletrônico? Envie um email para Este endereço de email está sendo protegido de spambots. Você precisa do JavaScript ativado para vê-lo..

    Continuar lendo

  • Pesquisa da ANPAD revela alta adoção de IA, mas aponta desafios éticos na academia

    Um relatório publicado pela Associação Nacional de Pós-Graduação e Pesquisa em Administração (ANPAD) revela que o uso de ferramentas de inteligência artificial já está amplamente disseminado na pesquisa acadêmica brasileira, com 86,7% dos respondentes declarando utilizar IA em suas atividades científicas.

    O estudo, conduzido entre agosto de 2024 e outubro de 2025 com 228 participantes, investigou práticas, percepções e princípios éticos relacionados ao uso dessas tecnologias. Os dados mostram que a adoção ocorre principalmente por meio de ferramentas generalistas, como o ChatGPT, que lidera em todas as etapas analisadas, desde a escrita científica até a análise de dados.

    Apesar da alta adesão, o relatório aponta baixa sofisticação no uso: apenas 19,4% dos participantes possuem experiência no desenvolvimento de soluções de machine learning ou processamento de linguagem natural. Isso indica que a maioria atua como usuária de ferramentas prontas, e não como desenvolvedora de soluções.

    O estudo também evidencia um gradiente de aceitação ética. Enquanto o uso de IA para geração de ideias e revisão de literatura é amplamente aceito, há maior resistência em etapas que envolvem autoria intelectual, como redação e revisão de artigos.

    Entre as principais barreiras ao uso estão preocupações éticas, preferência por métodos tradicionais e falta de conhecimento. Ainda assim, há consenso sobre princípios fundamentais, como transparência, responsabilidade e reprodutibilidade, considerados essenciais para o uso responsável da IA na pesquisa científica.

    O cenário apresentado também traz riscos importantes para a produção científica. A dependência crescente de ferramentas generalistas, aliada à baixa capacitação técnica, pode ampliar problemas como o uso acrítico de conteúdos gerados por IA, sem a devida verificação, validação ou contextualização científica. Além disso, as resistências éticas identificadas indicam a ausência de consensos consolidados sobre limites e boas práticas, o que pode gerar inconsistências na qualidade e na integridade das pesquisas.

    O estudo é abrangente e explora múltiplas dimensões do uso da inteligência artificial na pesquisa acadêmica. Ao longo desta semana, publicaremos uma série de textos dedicados a aprofundar perspectivas específicas apresentadas no relatório. Continue acompanhando o blog para conferir a análise detalhada dos principais achados.


    Fonte: ANPAD
    Texto produzido com auxílio de Inteligência Artificial e revisado pelo autor.
    Confira nossa Política de Uso de IA.


    Deseja divulgar a sua revista científica ou notícia gratuitamente no Periódico Eletrônico? Envie um email para Este endereço de email está sendo protegido de spambots. Você precisa do JavaScript ativado para vê-lo..

    Continuar lendo

  • Ciência aberta deixa de ser tendência e se torna exigência global em 2026

    A ciência aberta consolidou-se em 2026 como um requisito obrigatório para a pesquisa científica, deixando de ser uma prática opcional para se tornar parte central da infraestrutura acadêmica global. Segundo análise publicada pela Eldenhall Research, agências de fomento como NIH e NSF passaram a exigir compartilhamento de dados brutos, pré-registro de estudos e disponibilização de códigos, com sanções rigorosas em casos de descumprimento, incluindo suspensão de financiamentos e investigações por má conduta.

    O movimento também ganha força na Europa, onde auditorias já resultaram na abertura de casos de fraude científica. Ao mesmo tempo, universidades passaram a incorporar critérios de ciência aberta em avaliações de carreira, influenciando decisões de promoção e tenure. A adoção dessas práticas tem trazido benefícios mensuráveis, como aumento de até 31% nas citações de artigos com dados abertos e redução no tempo de publicação.

    Na prática, a ciência aberta em 2026 se estrutura em três pilares principais: pré-registro de pesquisas, compartilhamento de dados com proteção de privacidade e disponibilização de códigos reprodutíveis. Periódicos e financiadores já implementam verificações técnicas antes da publicação, garantindo maior confiabilidade dos resultados.

    Apesar dos avanços, desafios persistem, especialmente em áreas sensíveis, como saúde, e em contextos de países com menos recursos, onde limitações de infraestrutura dificultam a adequação às exigências. Ainda assim, o cenário aponta para uma mudança irreversível: transparência, reprodutibilidade e abertura tornaram-se condições essenciais para a credibilidade científica.


    Fonte: Eldenhall Research
    Texto produzido com auxílio de Inteligência Artificial e revisado pelo autor.
    Confira nossa Política de Uso de IA.


    Deseja divulgar a sua revista científica ou notícia gratuitamente no Periódico Eletrônico? Envie um email para Este endereço de email está sendo protegido de spambots. Você precisa do JavaScript ativado para vê-lo..

    Continuar lendo

  • Evento PUB IN chega à terceira edição com foco em inovação na comunicação científica

    O 3º Encontro PUB IN, iniciativa voltada à discussão de temas relevantes para a publicação científica em âmbito global, será realizado nos dias 16 e 17 de abril na Universidade de Coimbra (Coimbra, Portugal) . O evento é promovido pela Fundação para a Ciência e a Tecnologia (FCT), por meio de sua unidade de serviços digitais FCCN, em parceria com a Universidade do Minho(Portugal) e busca reunir pesquisadores, editores e profissionais da comunicação científica para debater inovação, práticas editoriais e os desafios contemporâneos da Ciência Aberta.

    A programação prevê palestras, mesas-redondas e apresentações que discutem desde políticas públicas até soluções tecnológicas aplicadas à gestão e disseminação do conhecimento científico. A proposta é fomentar o diálogo entre diferentes atores do ecossistema acadêmico, promovendo reflexões sobre qualidade editorial e científica. A nova edição do PUB IN reforça seu papel como espaço de troca de experiências e atualização profissional, abordando tópicos estratégicos como acesso aberto, integridade na pesquisa e o uso de tecnologias digitais no processo editorial.

    O evento dialoga diretamente com os avanços promovidos pelo projeto Pub In que busca responder a desafios estruturais da publicação científica, como a fragmentação das plataformas editoriais, a baixa interoperabilidade, a obsolescência tecnológica e o déficit de competências em gestão editorial. A iniciativa propõe a criação de um ecossistema integrado para revistas científicas em acesso aberto, com foco na modernização das plataformas e na adoção de práticas alinhadas à Ciência Aberta, como open peer review e open annotations.

    As inscrições podem ser realizadas até dia 10 de abril por meio da página oficial do evento. A expectativa é de que o encontro contribua para fortalecer práticas mais abertas, colaborativas e inovadoras na comunicação científica.


    Fonte: IBICT
    Texto produzido com auxílio de Inteligência Artificial e revisado pelo autor.
    Confira nossa Política de Uso de IA.


    Deseja divulgar a sua revista científica ou notícia gratuitamente no Periódico Eletrônico? Envie um email para Este endereço de email está sendo protegido de spambots. Você precisa do JavaScript ativado para vê-lo..

    Continuar lendo

    GeniusDesign Marketing Digital e Científico

    GeniusDesign Marketing Digital e Científico

    +55 . 21 . 96418-9728

    CNPJ: 27.339.106/0001-70