Publique sua produção com a GeniusDesign e obtenha os principais identificadores (DOI, ISBN, etc).
Atribua identificadores digitais em seus artigos e torne-os mais acessíveis para citações.
Atendimento a dúvidas, configurações, plugins, treinamentos e editoração.
Amplie o alcance de sua revista e leve-a à sociedade através das redes sociais.
Atualize seu OJS na versão 2.x para a versão mais recente.
Desenvolvemos plugins de tema exclusivos para Open Journal System e entregamos uma interface única e funcional para o seu periódico científico.
Serviços especializados de suporte tecnológico, operacional e editorial a periódicos científicos.
Publique sua produção com DOI e ISBN em formato e-book sob o nosso selo editorial Peletron.Science.
Somos Patrocinadores CrossRef e viabilizamos a sua afiliação com a entidade e fornecendo serviços DOI e Verificação de Plágio.
Se revista ainda está em OJS 2.x, saiba que ela corre sérios riscos de segurança.


Somos uma editora especializada em Open Journal System, dedicada a oferecer soluções tecnológicas, operacionais e editoriais para periódicos científicos. Nossa motivação é contribuir para o fortalecimento da ciência nacional, dando agilidade ao processo editorial das revistas científicas e aumentando a visibilidade de suas publicações.
Veja abaixo alguns temas OJS de sucesso desenvolvidos por nós.
Associação dos Médicos Estomatologistas Portugueses (Portugal)
Associação Brasileira de Linguística
Associação Brasileira de Linguística
SUMMA Journals
Associação Paulista de Estudos Tributários
Escola Politécnica de Saúde Joaquim Venâncio, Fiocruz
Departamento Nacional de Infraestrutura e Transporte (DNIT)
Universidade do Vale do Itajaí
CIBS / Farmanguinhos / Fiocruz
Universidade Federal de Alagoas
Associação Brasileira de Criminalística
SUMMA Journals
Universidade Federal de Alfenas
Universidad de Playa Ancha (UPLA - Chile)
Malque Publishing
Associação Paulista de Estudos Tributários
Editora Reativar Ambiental

Um caso recente expôs de forma contundente os riscos do uso indiscriminado de inteligência artificial na produção científica. A suposta doença “bixonimania”, completamente fictícia, conseguiu enganar sistemas como ChatGPT e Gemini — e foi além: chegou a ser citada em artigo científico revisado por pares.
A fraude começou como um experimento para testar a confiabilidade dos modelos de linguagem. Com descrições plausíveis, linguagem técnica e estrutura típica de textos médicos, a condição inexistente foi rapidamente assimilada por diferentes IAs, que passaram a tratá-la como real, com causas, sintomas e até estimativas de prevalência.
O problema se agravou quando o conteúdo ultrapassou o ambiente dos chatbots. Um artigo publicado no periódico Springer Nature mencionou a doença como se fosse uma condição emergente — o que levou à posterior retratação após questionamentos da revista Nature.
O caso da “bixonimania” não surgiu de uma descoberta clínica, mas de um teste deliberado para avaliar os limites da inteligência artificial na interpretação de informações plausíveis. A condição fictícia foi construída com linguagem técnica e características verossímeis, suficientes para ser assimilada por sistemas como ChatGPT e Gemini, que passaram a descrevê-la como real.
Embora não se trate de um experimento científico formal, com metodologia publicada e autoria institucional definida, o episódio funcionou como uma demonstração prática das fragilidades desses sistemas — especialmente quando inseridos em ecossistemas informacionais que carecem de verificação rigorosa.
O que esse caso revela sobre IA e publicação científica
O episódio evidencia uma fragilidade estrutural: modelos de IA não distinguem verdade de verossimilhança — eles respondem com base em padrões linguísticos, não em validação factual. Quando um texto tem “cara de ciência”, a tendência é que a IA amplifique aquela informação, mesmo que seja falsa.
Esse comportamento está diretamente ligado ao fenômeno conhecido como “alucinação” de IA, já amplamente documentado na literatura acadêmica. Há registros, inclusive, de geração de referências inexistentes em revisões por pares automatizadas e textos científicos. Além dessas situações, cientistas também alertam para “Al Stop” (algo como “sucata de IA”). Para saber mais acesse Revista Science alerta: controle humano é essencial contra “AI slop” na pesquisa científica
Implicações para o contexto editorial e científico
Para periódicos científicos, editores e pesquisadores, o caso funciona como um alerta crítico:
A questão não se limita à redação de textos. Ferramentas de IA já são utilizadas em tradução, revisão, análise de dados, sugestão de referências e até avaliação de manuscritos — o que amplia o risco de contaminação da literatura por informações fabricadas.
Um problema de cultura científica, não apenas de tecnologia
Mais do que uma falha técnica, o caso expõe um problema de prática acadêmica. Como aponta a própria reportagem, há uma “preguiça perigosa” na verificação de informações que permite que conteúdos falsos avancem até a publicação.
Em outras palavras:
a IA não cria o problema sozinha — ela amplifica fragilidades já existentes no sistema científico.
Caminhos e recomendações
Diante desse cenário, algumas diretrizes se tornam centrais para o uso responsável de IA na ciência:
Já vislumbramos algumas iniciativas para normatizar a IA no ambiente acadêmico brasileiro como a iniciativa da Virtualia Journal, periódico da Universidade Federal de Ouro Preto na área de Filosofia, anunciou a adoção da Declaração CRediT-IA e a nova edição do Guia de Boas Práticas Científicas da USP que incorpora orientações sobre integridade e uso de IA.
Conclusão
O caso da “bixonimania” é emblemático porque rompe uma barreira crítica: não se trata apenas de um erro pontual em chatbots, mas da infiltração de conteúdo fabricado na própria literatura científica — o espaço que deveria operar como instância máxima de validação do conhecimento.
Esse episódio reforça um diagnóstico mais amplo: as fragilidades não estão apenas nas ferramentas de IA, mas no modo como o sistema científico organiza, valida e circula informação. Nesse sentido, dialoga diretamente com discussões recentes sobre a necessidade de reconfiguração dos modelos de publicação.
Como abordado em matéria anterior aqui no Periódico Eletrônico, o modelo Publish–Review–Curate (PRC), proposto pela Confederation of Open Access Repositories, surge como uma alternativa ao fluxo tradicional ao separar — e tornar explícitas — as etapas de publicação, avaliação e curadoria. Nesse arranjo, os trabalhos são inicialmente disponibilizados (frequentemente como preprints), passam por processos de revisão aberta e contínua, e posteriormente são organizados e validados por diferentes iniciativas de curadoria.
Mais do que uma mudança operacional, trata-se de uma mudança de lógica: ao ampliar transparência, rastreabilidade e escrutínio público, o modelo reduz a possibilidade de que conteúdos não verificados — inclusive aqueles gerados ou amplificados por IA — sejam incorporados de forma silenciosa ao corpo da literatura científica.
Assim, o caso recente não apenas expõe os riscos do uso acrítico de IA, mas evidencia a urgência de fortalecer mecanismos de validação distribuída e transparente. Em última instância, reforça um princípio fundamental: a confiança na ciência não pode depender da aparência de rigor, mas de processos efetivos — e verificáveis — de validação.
Se por um lado a IA amplia produtividade e acesso, por outro exige um princípio básico da ciência que não pode ser terceirizado: verificar, validar e duvidar sistematicamente.
Fonte: Correio 24 horas
Texto produzido com auxílio de Inteligência Artificial e revisado pelo autor.
Confira nossa Política de Uso de IA.
Deseja divulgar a sua revista científica ou notícia gratuitamente no Periódico Eletrônico? Envie um email para Este endereço de email está sendo protegido de spambots. Você precisa do JavaScript ativado para vê-lo..

Embora o Brasil raramente apareça com destaque em estudos internacionais sobre revistas predatórias, o tema tem ganhado espaço no debate acadêmico nacional, impulsionado por alertas de instituições, editores e pesquisadores sobre os riscos dessas publicações. A pressão por produtividade científica, aliada à necessidade de rápida publicação, tem sido apontada como um dos fatores que tornam pesquisadores, especialmente em início de carreira, mais vulneráveis a esse tipo de prática.
Ainda assim, quando observados grandes levantamentos internacionais, o país surge de forma pouco expressiva. Parte dessa ausência é explicada por uma limitação metodológica: a maioria dos bancos de dados e análises concentra-se em periódicos em inglês, deixando de fora publicações em português e espanhol. Isso cria uma espécie de “presença invisível” do Brasil nesses estudos, dificultando um diagnóstico mais preciso do problema em âmbito nacional.
Segundo Simon Linacre, da Cabells, compreender esse cenário exige uma mudança de postura dos próprios pesquisadores, que precisam aplicar suas habilidades investigativas também ao processo de publicação científica. Isso inclui avaliar criteriosamente onde submeter seus trabalhos e entender as implicações dessas escolhas.
A própria dinâmica da publicação acadêmica já é amplamente estudada, com periódicos especializados no tema. Um exemplo recorrente é o estudo de Shen e Bjork (2016), que apontou que apenas 2,3% dos autores correspondentes em revistas predatórias eram da América do Sul. Apesar de limitações e críticas metodológicas, o dado sugere que, ao menos na década de 2010, a participação de pesquisadores brasileiros em periódicos predatórios em inglês era relativamente baixa.
No entanto, essa baixa representatividade nos dados não significa ausência do problema. Pelo contrário, reforça a necessidade de ampliar o olhar para contextos locais, investir em formação sobre integridade científica e fortalecer mecanismos institucionais que orientem decisões de publicação.
Fonte: Universidade News
Texto produzido com auxílio de Inteligência Artificial e revisado pelo autor.
Confira nossa Política de Uso de IA.
Deseja divulgar a sua revista científica ou notícia gratuitamente no Periódico Eletrônico? Envie um email para Este endereço de email está sendo protegido de spambots. Você precisa do JavaScript ativado para vê-lo..

A Editora da Universidade Tecnológica Federal do Paraná (UTFPR) anunciou a abertura de uma chamada pública para seleção de obras inéditas com foco em Inteligência Artificial. A iniciativa busca incentivar a produção acadêmica e científica na área, reunindo trabalhos originais que contribuam para o avanço do conhecimento e da aplicação da IA em diferentes contextos.
Podem participar autores com ou sem vínculo com à UTFPR, desde que apresentem obras inéditas e alinhadas ao escopo da chamada. Os trabalhos devem abordar temas relacionados à Inteligência Artificial sob perspectivas diversas, incluindo aspectos técnicos, éticos, sociais e aplicados, refletindo a amplitude e a relevância do campo na atualidade.
A proposta faz parte das ações da editora para fortalecer a disseminação do conhecimento científico e ampliar o acesso a conteúdos qualificados, especialmente em áreas emergentes. Além disso, a chamada reforça o papel das editoras universitárias na promoção da ciência aberta e na valorização da produção intelectual nacional.
As submissões seguem critérios editoriais específicos definidos pela instituição e serão avaliadas por meio de processo seletivo. Para mais informações sobre a chamada acesse: Edital EDUTF nº 01/2026 - Chamada Pública para Submissão de Obras Originais - Coleção Inteligência Artificial e Transformação Tecnológica .
Fonte: UTFPR
Texto produzido com auxílio de Inteligência Artificial e revisado pelo autor.
Confira nossa Política de Uso de IA.
Deseja divulgar a sua revista científica ou notícia gratuitamente no Periódico Eletrônico? Envie um email para Este endereço de email está sendo protegido de spambots. Você precisa do JavaScript ativado para vê-lo..

Na última matéria da série sobre o relatório da ANPAD, publicado em 27 de março, são apresentados os tópicos finais do estudo sobre o uso de inteligência artificial na pesquisa acadêmica, com destaque para os princípios éticos, a síntese dos principais achados, as recomendações e as limitações identificadas pelos pesquisadores.
Princípios éticos
O relatório demonstra um forte consenso da comunidade acadêmica em torno da importância de princípios éticos para orientar o uso da inteligência artificial. Entre os mais citados estão ética e valores, reprodutibilidade, responsabilidade e proteção de dados, indicando uma preocupação consistente com a integridade científica e a transparência no uso dessas ferramentas.
Além desses eixos centrais, emergem discussões mais complexas, como a necessidade de supervisão humana contínua, o risco de vieses algorítmicos e preocupações com a concentração tecnológica em países centrais, apontando para debates sobre colonialidade digital. Também há questionamentos sobre crédito intelectual e o papel da IA em relação ao mérito individual na produção científica.
Síntese dos principais achados
A consolidação dos resultados evidencia um cenário marcado por contrastes. De um lado, há alta adoção das ferramentas de IA, com uso disseminado entre pesquisadores. De outro, observa-se baixa sofisticação técnica, com a maioria atuando apenas como usuária de soluções prontas.
Outro destaque é a forte concentração no uso de ferramentas generalistas, como o ChatGPT, em detrimento de soluções especializadas. O estudo também identifica um gradiente de aceitação ética: atividades exploratórias, como geração de ideias, são amplamente aceitas, enquanto etapas que envolvem maior responsabilidade intelectual, como revisão de artigos, enfrentam maior resistência.
Diferenças entre perfis também se destacam, especialmente entre docentes e estudantes, além da influência do uso de ferramentas pagas na maior aceitação da IA. As barreiras ao uso, por sua vez, são predominantemente éticas e culturais, e não tecnológicas ou financeiras.
Recomendações
Com base nos achados, o relatório propõe ações direcionadas a diferentes atores do ecossistema acadêmico. Para instituições e programas de pós-graduação, destaca-se a necessidade de investir em capacitação, especialmente no uso de ferramentas especializadas, além da definição de diretrizes éticas claras para o uso da IA em cada fase da pesquisa.
Para a própria ANPAD, o estudo sugere a atualização de políticas editoriais, com exigência de transparência no uso de IA, e a ampliação de iniciativas de formação continuada. Já para os pesquisadores, as recomendações incluem diversificar o uso de ferramentas, adotar práticas de transparência metodológica e manter a supervisão humana como elemento central no processo científico.
Limitações do estudo
O relatório também reconhece limitações importantes que devem ser consideradas na interpretação dos resultados. A amostra, embora relevante, apresenta concentração regional, o que pode restringir a generalização dos achados para toda a comunidade acadêmica brasileira.
Além disso, o longo período de coleta de dados, entre 2024 e 2025, coincide com um momento de rápida evolução das tecnologias de IA, o que pode ter influenciado as percepções dos participantes ao longo do tempo. Também foram identificadas inconsistências em algumas variáveis, como idade e identificação institucional, que limitaram análises mais detalhadas.
O conjunto dessas análises reforça que o avanço da inteligência artificial na pesquisa acadêmica não é apenas uma questão de adoção tecnológica, mas de governança, capacitação e construção coletiva de normas. O desafio agora não é mais incorporar a IA, mas definir como utilizá-la de forma crítica, ética e alinhada aos princípios da ciência.
Fonte: ANPAD
Texto produzido com auxílio de Inteligência Artificial e revisado pelo autor.
Confira nossa Política de Uso de IA.
Deseja divulgar a sua revista científica ou notícia gratuitamente no Periódico Eletrônico? Envie um email para Este endereço de email está sendo protegido de spambots. Você precisa do JavaScript ativado para vê-lo..

Um novo recorte do relatório da Associação Nacional de Pós-Graduação e Pesquisa em Administração (ANPAD) aprofunda a análise sobre a aceitação do uso de inteligência artificial nas diferentes etapas da pesquisa acadêmica, além de evidenciar diferenças significativas entre perfis de pesquisadores.
No que diz respeito à concordância com o uso de IA ao longo do ciclo de pesquisa, o estudo identifica um padrão claro: quanto mais exploratória e inicial é a atividade, maior a aceitação. Etapas como busca de ideias e revisão de literatura apresentam os maiores níveis de concordância entre os respondentes. Por outro lado, atividades que envolvem maior responsabilidade intelectual direta, como redação e, especialmente, revisão de artigos científicos, concentram níveis mais elevados de resistência.
Esse gradiente de aceitação indica que a comunidade acadêmica da área de Administração tende a reconhecer a IA como uma ferramenta de apoio, mas ainda demonstra cautela quando seu uso pode interferir diretamente na autoria, no julgamento crítico e na integridade da produção científica.
As análises cruzadas aprofundam essa compreensão ao evidenciar diferenças relevantes entre grupos. Estudantes de pós-graduação, especialmente doutorandos, apresentam maior abertura ao uso de IA em comparação com docentes, o que sugere uma possível fissura geracional na forma como essas tecnologias são percebidas e incorporadas.
Além disso, pesquisadores que utilizam ferramentas pagas demonstram maior concordância com o uso de IA em todas as etapas da pesquisa, indicando uma relação entre investimento e legitimação da tecnologia. Da mesma forma, aqueles com experiência técnica em machine learning e processamento de linguagem natural tendem a aceitar mais o uso da IA, sobretudo em atividades mais críticas, como análise de dados e revisão de artigos.
Outro aspecto relevante é a diferença entre usuários e não usuários de IA. Aqueles que já utilizam essas ferramentas apresentam maior concordância em praticamente todas as etapas do processo científico, reforçando a ideia de que a familiaridade contribui para a aceitação.
Os dados também mostram que fatores como gênero não apresentam impacto significativo na adoção ou percepção da IA, enquanto variações regionais existem, mas devem ser analisadas com cautela devido ao tamanho das amostras em algumas regiões.
O aprofundamento do relatório continua na matéria de amanhã, com foco nas barreiras ao uso e nos princípios éticos que orientam a utilização responsável dessas tecnologias na pesquisa científica.
Fonte: ANPAD
Texto produzido com auxílio de Inteligência Artificial e revisado pelo autor.
Confira nossa Política de Uso de IA.
Deseja divulgar a sua revista científica ou notícia gratuitamente no Periódico Eletrônico? Envie um email para Este endereço de email está sendo protegido de spambots. Você precisa do JavaScript ativado para vê-lo..

Dando continuidade a análise do relatório sobre o uso de inteligência artificial na pesquisa acadêmica publicado pela Associação Nacional de Pós-Graduação e Pesquisa em Administração (ANPAD) no último dia 26, vamos explorar o perfil da amostra, a adoção das ferramentas e a frequência de uso por atividade, oferecendo uma visão mais concreta sobre o estágio atual de integração da IA na prática acadêmica. Na análise anterior, os dados já indicavam alta adesão e desafios éticos relevantes. Agora, o estudo aprofunda o olhar sobre quem são esses usuários e de que forma utilizam a IA em suas rotinas de pesquisa.
Perfil da amostra
O estudo revela uma amostra composta majoritariamente por docentes, que representam 41,2% dos respondentes, seguidos por doutorandos e mestrandos. Esse recorte evidencia que a análise está ancorada em um público com forte inserção na produção científica.
Do ponto de vista geográfico, há predominância das regiões Sudeste e Sul, refletindo a concentração histórica dos programas de pós-graduação no país. Em termos demográficos, observa-se um perfil equilibrado em relação ao gênero e concentrado em faixas etárias mais ativas da carreira acadêmica, entre 26 e 55 anos.
Esse conjunto de características indica que o uso de IA está sendo observado principalmente entre pesquisadores experientes e diretamente envolvidos com atividades de ensino e pesquisa.
Adoção de inteligência artificial
A adoção de inteligência artificial se mostra amplamente consolidada entre os participantes. Cerca de 86,7% afirmam já utilizar algum tipo de ferramenta de IA em suas atividades acadêmicas. Esse uso ocorre, em grande parte, por meio de soluções acessíveis, como ferramentas gratuitas ou modelos híbridos. No entanto, o estudo evidencia que essa adoção está concentrada no consumo de tecnologias prontas. Apenas uma parcela menor dos respondentes possui experiência no desenvolvimento de soluções baseadas em machine learning ou processamento de linguagem natural.
Esse dado reforça a ideia de que a IA já faz parte do cotidiano acadêmico, mas ainda é utilizada de forma operacional, com baixo nível de aprofundamento técnico.
Frequência de uso por atividade e ferramenta
Ao analisar a frequência de uso por atividade, o estudo aponta que a inteligência artificial está mais presente em etapas como escrita científica, tradução e geração de ideias. Nessas atividades, ferramentas generalistas assumem protagonismo, com destaque para o ChatGPT.
Outras plataformas, como Gemini, também aparecem com relevância, mas ferramentas especializadas voltadas à pesquisa, como Elicit, Consensus e Research Rabbit, ainda têm baixa penetração entre os usuários.
Esse padrão sugere que a escolha das ferramentas está mais relacionada à facilidade de uso e familiaridade do que à especificidade funcional. Como resultado, há um potencial ainda pouco explorado no uso de soluções desenvolvidas especificamente para apoiar o ciclo completo da pesquisa científica.
O aprofundamento desses dados reforça que, embora a adoção da IA seja ampla, seu uso ainda está em fase de maturação. Nas próximas matérias a análise avançará para dimensões mais críticas do estudo, incluindo o grau de concordância com o uso de IA nas diferentes etapas da pesquisa, as análises cruzadas por perfil de pesquisador, as principais barreiras à adoção, os princípios éticos que orientam esse uso e, por fim, as recomendações propostas para instituições, pesquisadores e para a própria ANPAD.
Fonte: ANPAD
Texto produzido com auxílio de Inteligência Artificial e revisado pelo autor.
Confira nossa Política de Uso de IA.
Deseja divulgar a sua revista científica ou notícia gratuitamente no Periódico Eletrônico? Envie um email para Este endereço de email está sendo protegido de spambots. Você precisa do JavaScript ativado para vê-lo..

Um relatório publicado pela Associação Nacional de Pós-Graduação e Pesquisa em Administração (ANPAD) revela que o uso de ferramentas de inteligência artificial já está amplamente disseminado na pesquisa acadêmica brasileira, com 86,7% dos respondentes declarando utilizar IA em suas atividades científicas.
O estudo, conduzido entre agosto de 2024 e outubro de 2025 com 228 participantes, investigou práticas, percepções e princípios éticos relacionados ao uso dessas tecnologias. Os dados mostram que a adoção ocorre principalmente por meio de ferramentas generalistas, como o ChatGPT, que lidera em todas as etapas analisadas, desde a escrita científica até a análise de dados.
Apesar da alta adesão, o relatório aponta baixa sofisticação no uso: apenas 19,4% dos participantes possuem experiência no desenvolvimento de soluções de machine learning ou processamento de linguagem natural. Isso indica que a maioria atua como usuária de ferramentas prontas, e não como desenvolvedora de soluções.
O estudo também evidencia um gradiente de aceitação ética. Enquanto o uso de IA para geração de ideias e revisão de literatura é amplamente aceito, há maior resistência em etapas que envolvem autoria intelectual, como redação e revisão de artigos.
Entre as principais barreiras ao uso estão preocupações éticas, preferência por métodos tradicionais e falta de conhecimento. Ainda assim, há consenso sobre princípios fundamentais, como transparência, responsabilidade e reprodutibilidade, considerados essenciais para o uso responsável da IA na pesquisa científica.
O cenário apresentado também traz riscos importantes para a produção científica. A dependência crescente de ferramentas generalistas, aliada à baixa capacitação técnica, pode ampliar problemas como o uso acrítico de conteúdos gerados por IA, sem a devida verificação, validação ou contextualização científica. Além disso, as resistências éticas identificadas indicam a ausência de consensos consolidados sobre limites e boas práticas, o que pode gerar inconsistências na qualidade e na integridade das pesquisas.
O estudo é abrangente e explora múltiplas dimensões do uso da inteligência artificial na pesquisa acadêmica. Ao longo desta semana, publicaremos uma série de textos dedicados a aprofundar perspectivas específicas apresentadas no relatório. Continue acompanhando o blog para conferir a análise detalhada dos principais achados.
Fonte: ANPAD
Texto produzido com auxílio de Inteligência Artificial e revisado pelo autor.
Confira nossa Política de Uso de IA.
Deseja divulgar a sua revista científica ou notícia gratuitamente no Periódico Eletrônico? Envie um email para Este endereço de email está sendo protegido de spambots. Você precisa do JavaScript ativado para vê-lo..

A ciência aberta consolidou-se em 2026 como um requisito obrigatório para a pesquisa científica, deixando de ser uma prática opcional para se tornar parte central da infraestrutura acadêmica global. Segundo análise publicada pela Eldenhall Research, agências de fomento como NIH e NSF passaram a exigir compartilhamento de dados brutos, pré-registro de estudos e disponibilização de códigos, com sanções rigorosas em casos de descumprimento, incluindo suspensão de financiamentos e investigações por má conduta.
O movimento também ganha força na Europa, onde auditorias já resultaram na abertura de casos de fraude científica. Ao mesmo tempo, universidades passaram a incorporar critérios de ciência aberta em avaliações de carreira, influenciando decisões de promoção e tenure. A adoção dessas práticas tem trazido benefícios mensuráveis, como aumento de até 31% nas citações de artigos com dados abertos e redução no tempo de publicação.
Na prática, a ciência aberta em 2026 se estrutura em três pilares principais: pré-registro de pesquisas, compartilhamento de dados com proteção de privacidade e disponibilização de códigos reprodutíveis. Periódicos e financiadores já implementam verificações técnicas antes da publicação, garantindo maior confiabilidade dos resultados.
Apesar dos avanços, desafios persistem, especialmente em áreas sensíveis, como saúde, e em contextos de países com menos recursos, onde limitações de infraestrutura dificultam a adequação às exigências. Ainda assim, o cenário aponta para uma mudança irreversível: transparência, reprodutibilidade e abertura tornaram-se condições essenciais para a credibilidade científica.
Fonte: Eldenhall Research
Texto produzido com auxílio de Inteligência Artificial e revisado pelo autor.
Confira nossa Política de Uso de IA.
Deseja divulgar a sua revista científica ou notícia gratuitamente no Periódico Eletrônico? Envie um email para Este endereço de email está sendo protegido de spambots. Você precisa do JavaScript ativado para vê-lo..
O 3º Encontro PUB IN, iniciativa voltada à discussão de temas relevantes para a publicação científica em âmbito global, será realizado nos dias 16 e 17 de abril na Universidade de Coimbra (Coimbra, Portugal) . O evento é promovido pela Fundação para a Ciência e a Tecnologia (FCT), por meio de sua unidade de serviços digitais FCCN, em parceria com a Universidade do Minho(Portugal) e busca reunir pesquisadores, editores e profissionais da comunicação científica para debater inovação, práticas editoriais e os desafios contemporâneos da Ciência Aberta.
A programação prevê palestras, mesas-redondas e apresentações que discutem desde políticas públicas até soluções tecnológicas aplicadas à gestão e disseminação do conhecimento científico. A proposta é fomentar o diálogo entre diferentes atores do ecossistema acadêmico, promovendo reflexões sobre qualidade editorial e científica. A nova edição do PUB IN reforça seu papel como espaço de troca de experiências e atualização profissional, abordando tópicos estratégicos como acesso aberto, integridade na pesquisa e o uso de tecnologias digitais no processo editorial.
O evento dialoga diretamente com os avanços promovidos pelo projeto Pub In que busca responder a desafios estruturais da publicação científica, como a fragmentação das plataformas editoriais, a baixa interoperabilidade, a obsolescência tecnológica e o déficit de competências em gestão editorial. A iniciativa propõe a criação de um ecossistema integrado para revistas científicas em acesso aberto, com foco na modernização das plataformas e na adoção de práticas alinhadas à Ciência Aberta, como open peer review e open annotations.
As inscrições podem ser realizadas até dia 10 de abril por meio da página oficial do evento. A expectativa é de que o encontro contribua para fortalecer práticas mais abertas, colaborativas e inovadoras na comunicação científica.
Fonte: IBICT
Texto produzido com auxílio de Inteligência Artificial e revisado pelo autor.
Confira nossa Política de Uso de IA.
Deseja divulgar a sua revista científica ou notícia gratuitamente no Periódico Eletrônico? Envie um email para Este endereço de email está sendo protegido de spambots. Você precisa do JavaScript ativado para vê-lo..
Preencha os dados abaixo para iniciar o atendimento no WhatsApp.