IA Generativa na Pesquisa em Políticas Públicas
Inteligência Artificial na Pesquisa Científica
A incorporação de sistemas de IA generativa em rotinas de pesquisa amplia a capacidade de leitura, síntese e prototipagem analítica, mas só é legítima quando ancorada em princípios éticos claros. Entre os referenciais mais aceitos estão a Recomendação da UNESCO sobre Ética da IA, que enfatiza direitos humanos, transparência, justiça e avaliação de impacto, e os Princípios da OCDE para IA responsável, que reforçam valores democráticos e governança robusta ao longo do ciclo de vida dos sistemas (UNESCO, 2021; OECD, 2019). Para quem pesquisa, esses marcos implicam: uso proporcional e explicável de modelos; documentação de dados, prompts e versões; mecanismos de contestabilidade; e atenção à sustentabilidade e não discriminação.
No plano editorial, há convergência entre orientações que proíbem atribuir autoria a ferramentas de IA e exigem transparência sobre seu uso. O COPE sustenta que chatbots não atendem aos critérios de autoria e que seu emprego deve ser declarado; o ICMJE (jan. 2024) incorporou diretrizes sobre como reconhecer o suporte de IA por autores, revisores e editores; editoriais do grupo Nature e políticas da Elsevier determinam divulgação explícita, responsabilização humana e revisão cuidadosa de possíveis vieses e erros (COPE, 2023; ICMJE, 2024; NATURE, 2024; ELSEVIER, 2024). Em termos práticos, pesquisadores devem: (i) declarar tarefas realizadas com IA (por exemplo, rascunho inicial, checagens de estilo, geração de código auxiliar), (ii) verificar factualidade e citações em fontes primárias e (iii) assumir responsabilidade integral pelo conteúdo final.
															Inteligência Artificial na Pesquisa Científica
A incorporação de sistemas de IA generativa em rotinas de pesquisa amplia a capacidade de leitura, síntese e prototipagem analítica, mas só é legítima quando ancorada em princípios éticos claros. Entre os referenciais mais aceitos estão a Recomendação da UNESCO sobre Ética da IA, que enfatiza direitos humanos, transparência, justiça e avaliação de impacto, e os Princípios da OCDE para IA responsável, que reforçam valores democráticos e governança robusta ao longo do ciclo de vida dos sistemas (UNESCO, 2021; OECD, 2019). Para quem pesquisa, esses marcos implicam: uso proporcional e explicável de modelos; documentação de dados, prompts e versões; mecanismos de contestabilidade; e atenção à sustentabilidade e não discriminação.
No plano editorial, há convergência entre orientações que proíbem atribuir autoria a ferramentas de IA e exigem transparência sobre seu uso. O COPE sustenta que chatbots não atendem aos critérios de autoria e que seu emprego deve ser declarado; o ICMJE (jan. 2024) incorporou diretrizes sobre como reconhecer o suporte de IA por autores, revisores e editores; editoriais do grupo Nature e políticas da Elsevier determinam divulgação explícita, responsabilização humana e revisão cuidadosa de possíveis vieses e erros (COPE, 2023; ICMJE, 2024; NATURE, 2024; ELSEVIER, 2024). Em termos práticos, pesquisadores devem: (i) declarar tarefas realizadas com IA (por exemplo, rascunho inicial, checagens de estilo, geração de código auxiliar), (ii) verificar factualidade e citações em fontes primárias e (iii) assumir responsabilidade integral pelo conteúdo final.
Os riscos éticos mais discutidos incluem privacidade e confidencialidade de dados (especialmente quando se fazem uploads para análise), alucinações e fabricação de referências, vieses replicados pelos modelos, retraçabilidade insuficiente de fontes e impacto na reprodutibilidade. Políticas editoriais recentes lembram que saídas de IA podem soar autoritativas e, ainda assim, conter imprecisões; cabe aos autores checar e citar adequadamente a literatura, nunca a IA, como fonte (ICMJE, 2024; Nature, 2025). Para mitigar, recomenda-se: usar apenas dados anonimizados ou autorizados; optar por ambientes/planos com salvaguardas empresariais quando necessário; exigir logs de busca e citações; registrar versões e prompts; e submeter trechos gerados a verificação por pares humanos e ferramentas de detecção de similaridade.
Entre as ferramentas populares, o ChatGPT destaca-se pela análise de dados com upload de arquivos, geração de tabelas e gráficos e capacidade de executar etapas de exploração de dados dentro do ambiente (“Advanced Data Analysis”). Em 2025, a OpenAI também introduziu melhorias no Search dentro do ChatGPT e anunciou o Pulse, experiência que realiza pesquisas proativas e entrega atualizações com base nas preferências do usuário—recursos úteis para triagem inicial de literatura e coleta de pistas que depois devem ser confirmadas em bases primárias (OPENAI, 2025). Em pesquisa científica, usos éticos incluem: elaborar protocolos e checklists, rascunhar planos de análise, gerar código comentado e sugerir estruturas argumentativas, sempre com revisão humana e citações a fontes originais (nunca ao modelo).
O Perplexity foi desenhado com ênfase em busca com citações e, mais recentemente, no modo Deep Research, que executa múltiplas consultas, lê centenas de fontes e produz relatórios com referências, possibilitando rastreabilidade do percurso informacional—algo valioso para revisões rápidas e mapeamentos exploratórios. O produto também oferece “Pro/Research mode” e biblioteca para organização de achados (PERPLEXITY, 2025). O uso responsável recomenda: (i) inspecionar todas as referências fornecidas; (ii) excluir sites pouco confiáveis; (iii) ancorar conclusões em artigos revisados por pares e documentos oficiais; e (iv) registrar os filtros e decisões de elegibilidade usados pelo sistema e pelo pesquisador.
O Gemini integra-se nativamente ao ecossistema Google, com chat multimodal, “Deep Research”, e incorporação ao Workspace (Gmail, Docs, Sheets, Drive), inclusive com recursos empresariais e rollout ampliado em 2025. Para pesquisa, isso se traduz em fluxos de trabalho dentro de documentos e planilhas, síntese de PDFs, notas guiadas (NotebookLM/Audio Overviews) e colaboração com histórico em contexto, úteis na organização de revisões e dados experimentais (GOOGLE, 2024–2025). Em termos éticos, é crucial configurar políticas de dados na conta institucional (por exemplo, desativar uso para treinamento fora de contratos) e manter repositórios de referência com versões estáveis dos documentos.
O Grok (xAI) diferencia-se pelo Live Search e pela integração com dados em tempo real da plataforma X (antigo Twitter) e de fontes web, além de alegar forte capacidade de pesquisa em tempo real. Em contextos científicos, pode ser útil para vigilância de tendências, detecção de pré-prints mencionados nas redes e monitoramento de políticas públicas emergentes, desde que se apliquem critérios de credibilidade e triangulação com bases oficiais/peer-review. Como redes sociais contêm ruído e desinformação, delineie regras de elegibilidade de fontes e mantenha logs de consultas e resultados (xAI, 2025).
Um protocolo prudente para uso de IA generativa em pesquisa pode ser resumido assim: (1) clareza de finalidade e aderência a referenciais UNESCO/OCDE; (2) não autoria da IA e declaração explícita do uso conforme COPE/ICMJE/editores; (3) proteção de dados e avaliação de riscos antes de qualquer upload; (4) rastreamento de fontes (logs, links, snapshots, DOIs) e verificação manual; (5) reprodutibilidade (guardar prompts, versões, seeds e scripts); e (6) avaliação crítica de vieses e impactos. Ferramentas como ChatGPT, Perplexity, Gemini e Grok podem acelerar partes do ciclo de pesquisa, mas devem servir à integridade científica, e não substituí-la.
Referências
COPE – Committee on Publication Ethics. Authorship and AI tools. Disponível em: https://publicationethics.org/guidance/cope-position/authorship-and-ai-tools. Acesso em: 30 set. 2025.
ELSEVIER. The use of generative AI and AI-assisted technologies in writing for Elsevier. Disponível em: https://www.elsevier.com/about/policies-and-standards/the-use-of-generative-ai-and-ai-assisted-technologies-in-writing-for-elsevier. Acesso em: 30 set. 2025.
GOOGLE. The next chapter of our Gemini era. Disponível em: https://blog.google/technology/ai/google-gemini-update-sundar-pichai-2024/. Acesso em: 30 set. 2025.
GOOGLE. Gemini AI features now included in Google Workspace subscriptions. Disponível em: https://support.google.com/a/answer/15756885?hl=en. Acesso em: 30 set. 2025.
NATURE PORTFOLIO. Artificial Intelligence (AI) – Editorial policies. Disponível em: https://www.nature.com/nature-portfolio/editorial-policies/ai. Acesso em: 30 set. 2025.
ICMJE – International Committee of Medical Journal Editors. Up-dated ICMJE Recommendations (January 2024). Disponível em: https://www.icmje.org/news-and-editorials/updated_recommendations_jan2024.html. Acesso em: 30 set. 2025.
OECD. Recommendation of the Council on Artificial Intelligence (AI Principles). Disponível em: https://legalinstruments.oecd.org/en/instruments/oecd-legal-0449. Acesso em: 30 set. 2025.
OPENAI. Data analysis with ChatGPT. Disponível em: https://help.openai.com/en/articles/8437071-data-analysis-with-chatgpt. Acesso em: 30 set. 2025.
OPENAI. ChatGPT — Release Notes. Disponível em: https://help.openai.com/en/articles/6825453-chatgpt-release-notes. Acesso em: 30 set. 2025.
OPENAI. Introducing ChatGPT Pulse. Disponível em: https://openai.com/index/introducing-chatgpt-pulse/. Acesso em: 30 set. 2025.
PERPLEXITY AI. Introducing Perplexity Deep Research. Disponível em: https://www.perplexity.ai/hub/blog/introducing-perplexity-deep-research. Acesso em: 30 set. 2025.
PERPLEXITY AI. Getting started. Disponível em: https://www.perplexity.ai/hub/getting-started. Acesso em: 30 set. 2025.
UNESCO. Recommendation on the Ethics of Artificial Intelligence. Disponível em: https://unesdoc.unesco.org/ark:/48223/pf0000386510. Acesso em: 30 set. 2025.
xAI. Grok. Disponível em: https://x.ai/grok. Acesso em: 30 set. 2025.
xAI. Live Search – API Guide. Disponível em: https://docs.x.ai/docs/guides/live-search. Acesso em: 30 set. 2025.
Os riscos éticos mais discutidos incluem privacidade e confidencialidade de dados (especialmente quando se fazem uploads para análise), alucinações e fabricação de referências, vieses replicados pelos modelos, retraçabilidade insuficiente de fontes e impacto na reprodutibilidade. Políticas editoriais recentes lembram que saídas de IA podem soar autoritativas e, ainda assim, conter imprecisões; cabe aos autores checar e citar adequadamente a literatura, nunca a IA, como fonte (ICMJE, 2024; Nature, 2025). Para mitigar, recomenda-se: usar apenas dados anonimizados ou autorizados; optar por ambientes/planos com salvaguardas empresariais quando necessário; exigir logs de busca e citações; registrar versões e prompts; e submeter trechos gerados a verificação por pares humanos e ferramentas de detecção de similaridade.
Entre as ferramentas populares, o ChatGPT destaca-se pela análise de dados com upload de arquivos, geração de tabelas e gráficos e capacidade de executar etapas de exploração de dados dentro do ambiente (“Advanced Data Analysis”). Em 2025, a OpenAI também introduziu melhorias no Search dentro do ChatGPT e anunciou o Pulse, experiência que realiza pesquisas proativas e entrega atualizações com base nas preferências do usuário—recursos úteis para triagem inicial de literatura e coleta de pistas que depois devem ser confirmadas em bases primárias (OPENAI, 2025). Em pesquisa científica, usos éticos incluem: elaborar protocolos e checklists, rascunhar planos de análise, gerar código comentado e sugerir estruturas argumentativas, sempre com revisão humana e citações a fontes originais (nunca ao modelo).
O Perplexity foi desenhado com ênfase em busca com citações e, mais recentemente, no modo Deep Research, que executa múltiplas consultas, lê centenas de fontes e produz relatórios com referências, possibilitando rastreabilidade do percurso informacional—algo valioso para revisões rápidas e mapeamentos exploratórios. O produto também oferece “Pro/Research mode” e biblioteca para organização de achados (PERPLEXITY, 2025). O uso responsável recomenda: (i) inspecionar todas as referências fornecidas; (ii) excluir sites pouco confiáveis; (iii) ancorar conclusões em artigos revisados por pares e documentos oficiais; e (iv) registrar os filtros e decisões de elegibilidade usados pelo sistema e pelo pesquisador.
O Gemini integra-se nativamente ao ecossistema Google, com chat multimodal, “Deep Research”, e incorporação ao Workspace (Gmail, Docs, Sheets, Drive), inclusive com recursos empresariais e rollout ampliado em 2025. Para pesquisa, isso se traduz em fluxos de trabalho dentro de documentos e planilhas, síntese de PDFs, notas guiadas (NotebookLM/Audio Overviews) e colaboração com histórico em contexto, úteis na organização de revisões e dados experimentais (GOOGLE, 2024–2025). Em termos éticos, é crucial configurar políticas de dados na conta institucional (por exemplo, desativar uso para treinamento fora de contratos) e manter repositórios de referência com versões estáveis dos documentos.
O Grok (xAI) diferencia-se pelo Live Search e pela integração com dados em tempo real da plataforma X (antigo Twitter) e de fontes web, além de alegar forte capacidade de pesquisa em tempo real. Em contextos científicos, pode ser útil para vigilância de tendências, detecção de pré-prints mencionados nas redes e monitoramento de políticas públicas emergentes, desde que se apliquem critérios de credibilidade e triangulação com bases oficiais/peer-review. Como redes sociais contêm ruído e desinformação, delineie regras de elegibilidade de fontes e mantenha logs de consultas e resultados (xAI, 2025).
Um protocolo prudente para uso de IA generativa em pesquisa pode ser resumido assim: (1) clareza de finalidade e aderência a referenciais UNESCO/OCDE; (2) não autoria da IA e declaração explícita do uso conforme COPE/ICMJE/editores; (3) proteção de dados e avaliação de riscos antes de qualquer upload; (4) rastreamento de fontes (logs, links, snapshots, DOIs) e verificação manual; (5) reprodutibilidade (guardar prompts, versões, seeds e scripts); e (6) avaliação crítica de vieses e impactos. Ferramentas como ChatGPT, Perplexity, Gemini e Grok podem acelerar partes do ciclo de pesquisa, mas devem servir à integridade científica, e não substituí-la.
Referências
COPE – Committee on Publication Ethics. Authorship and AI tools. Disponível em: https://publicationethics.org/guidance/cope-position/authorship-and-ai-tools. Acesso em: 30 set. 2025.
ELSEVIER. The use of generative AI and AI-assisted technologies in writing for Elsevier. Disponível em: https://www.elsevier.com/about/policies-and-standards/the-use-of-generative-ai-and-ai-assisted-technologies-in-writing-for-elsevier. Acesso em: 30 set. 2025.
GOOGLE. The next chapter of our Gemini era. Disponível em: https://blog.google/technology/ai/google-gemini-update-sundar-pichai-2024/. Acesso em: 30 set. 2025.
GOOGLE. Gemini AI features now included in Google Workspace subscriptions. Disponível em: https://support.google.com/a/answer/15756885?hl=en. Acesso em: 30 set. 2025.
NATURE PORTFOLIO. Artificial Intelligence (AI) – Editorial policies. Disponível em: https://www.nature.com/nature-portfolio/editorial-policies/ai. Acesso em: 30 set. 2025.
ICMJE – International Committee of Medical Journal Editors. Up-dated ICMJE Recommendations (January 2024). Disponível em: https://www.icmje.org/news-and-editorials/updated_recommendations_jan2024.html. Acesso em: 30 set. 2025.
OECD. Recommendation of the Council on Artificial Intelligence (AI Principles). Disponível em: https://legalinstruments.oecd.org/en/instruments/oecd-legal-0449. Acesso em: 30 set. 2025.
OPENAI. Data analysis with ChatGPT. Disponível em: https://help.openai.com/en/articles/8437071-data-analysis-with-chatgpt. Acesso em: 30 set. 2025.
OPENAI. ChatGPT — Release Notes. Disponível em: https://help.openai.com/en/articles/6825453-chatgpt-release-notes. Acesso em: 30 set. 2025.
OPENAI. Introducing ChatGPT Pulse. Disponível em: https://openai.com/index/introducing-chatgpt-pulse/. Acesso em: 30 set. 2025.
PERPLEXITY AI. Introducing Perplexity Deep Research. Disponível em: https://www.perplexity.ai/hub/blog/introducing-perplexity-deep-research. Acesso em: 30 set. 2025.
PERPLEXITY AI. Getting started. Disponível em: https://www.perplexity.ai/hub/getting-started. Acesso em: 30 set. 2025.
UNESCO. Recommendation on the Ethics of Artificial Intelligence. Disponível em: https://unesdoc.unesco.org/ark:/48223/pf0000386510. Acesso em: 30 set. 2025.
xAI. Grok. Disponível em: https://x.ai/grok. Acesso em: 30 set. 2025.
xAI. Live Search – API Guide. Disponível em: https://docs.x.ai/docs/guides/live-search. Acesso em: 30 set. 2025.