IA Generativa na Pesquisa em Políticas Públicas
Inteligencia Artificial en la Investigación Científica
La incorporación de sistemas de inteligencia artificial generativa en las rutinas de investigación amplía la capacidad de lectura, síntesis y prototipado analítico, pero solo es legítima cuando se sustenta en principios éticos claros. Entre los marcos más reconocidos se encuentran la Recomendación de la UNESCO sobre la Ética de la IA, que enfatiza los derechos humanos, la transparencia, la justicia y la evaluación de impacto, y los Principios de la OCDE para una IA responsable, que refuerzan los valores democráticos y una gobernanza sólida a lo largo del ciclo de vida de los sistemas (UNESCO, 2021; OECD, 2019). Para quienes investigan, estos marcos implican: uso proporcional y explicable de los modelos; documentación de datos, prompts y versiones; mecanismos de contestabilidad; y atención a la sostenibilidad y la no discriminación.
En el plano editorial, existe una creciente convergencia entre las directrices que prohíben atribuir autoría a herramientas de IA y las que exigen transparencia sobre su uso. El COPE sostiene que los chatbots no cumplen con los criterios de autoría y que su utilización debe ser declarada; el ICMJE (enero de 2024) incorporó directrices sobre cómo reconocer el apoyo de la IA por parte de autores, revisores y editores; los editoriales del grupo Nature y las políticas de Elsevier determinan la divulgación explícita, la responsabilidad humana y la revisión cuidadosa de posibles sesgos y errores (COPE, 2023; ICMJE, 2024; NATURE, 2024; ELSEVIER, 2024).
En términos prácticos, los investigadores deben: (i) declarar las tareas realizadas con IA (por ejemplo, redacción inicial, revisión de estilo, generación de código auxiliar); (ii) verificar la factualidad y las citas en fuentes primarias; y (iii) asumir la responsabilidad integral por el contenido final.
Inteligencia Artificial en la Investigación Científica
La incorporación de sistemas de inteligencia artificial generativa en las rutinas de investigación amplía la capacidad de lectura, síntesis y prototipado analítico, pero solo es legítima cuando se sustenta en principios éticos claros. Entre los marcos más reconocidos se encuentran la Recomendación de la UNESCO sobre la Ética de la IA, que enfatiza los derechos humanos, la transparencia, la justicia y la evaluación de impacto, y los Principios de la OCDE para una IA responsable, que refuerzan los valores democráticos y una gobernanza sólida a lo largo del ciclo de vida de los sistemas (UNESCO, 2021; OECD, 2019). Para quienes investigan, estos marcos implican: uso proporcional y explicable de los modelos; documentación de datos, prompts y versiones; mecanismos de contestabilidad; y atención a la sostenibilidad y la no discriminación.
En el plano editorial, existe una creciente convergencia entre las directrices que prohíben atribuir autoría a herramientas de IA y las que exigen transparencia sobre su uso. El COPE sostiene que los chatbots no cumplen con los criterios de autoría y que su utilización debe ser declarada; el ICMJE (enero de 2024) incorporó directrices sobre cómo reconocer el apoyo de la IA por parte de autores, revisores y editores; los editoriales del grupo Nature y las políticas de Elsevier determinan la divulgación explícita, la responsabilidad humana y la revisión cuidadosa de posibles sesgos y errores (COPE, 2023; ICMJE, 2024; NATURE, 2024; ELSEVIER, 2024).
En términos prácticos, los investigadores deben: (i) declarar las tareas realizadas con IA (por ejemplo, redacción inicial, revisión de estilo, generación de código auxiliar); (ii) verificar la factualidad y las citas en fuentes primarias; y (iii) asumir la responsabilidad integral por el contenido final.
Los riesgos éticos más debatidos incluyen la privacidad y confidencialidad de los datos (especialmente cuando se realizan cargas para análisis), las alucinaciones y la fabricación de referencias, los sesgos replicados por los modelos, la insuficiente trazabilidad de las fuentes y el impacto en la reproducibilidad. Las políticas editoriales recientes recuerdan que las salidas de IA pueden sonar autoritativas y, aun así, contener imprecisiones; corresponde a los autores verificar y citar adecuadamente la literatura, nunca la IA, como fuente (ICMJE, 2024; Nature, 2025). Para mitigar estos riesgos, se recomienda: usar solo datos anonimizados o autorizados; optar por entornos o planes con garantías empresariales cuando sea necesario; exigir registros de búsqueda y de citas; documentar versiones y prompts; y someter los fragmentos generados a verificación por pares humanos y a herramientas de detección de similitud.
Entre las herramientas populares, ChatGPT destaca por su capacidad de análisis de datos con carga de archivos, generación de tablas y gráficos, y ejecución de etapas exploratorias dentro del propio entorno (Advanced Data Analysis). En 2025, OpenAI introdujo mejoras en el módulo Search y anunció Pulse, una experiencia que realiza búsquedas proactivas y entrega actualizaciones basadas en las preferencias del usuario, recursos útiles para la selección inicial de literatura y la identificación de indicios, que posteriormente deben confirmarse en fuentes primarias (OPENAI, 2025). En investigación científica, los usos éticos incluyen: elaborar protocolos y listas de verificación, redactar planes de análisis, generar código comentado y sugerir estructuras argumentativas, siempre con revisión humana y citas a fuentes originales (nunca al modelo).
Perplexity fue diseñado con énfasis en la búsqueda con citas y, más recientemente, en el modo Deep Research, que ejecuta múltiples consultas, analiza cientos de fuentes y produce informes con referencias, permitiendo rastreabilidad del proceso informativo —algo valioso para revisiones rápidas y mapeos exploratorios. El producto también ofrece los modos Pro/Research y una biblioteca para la organización de hallazgos (PERPLEXITY, 2025). El uso responsable implica:
(i) inspeccionar todas las referencias proporcionadas;
(ii) excluir sitios poco confiables;
(iii) fundamentar conclusiones en artículos revisados por pares y documentos oficiales; y
(iv) registrar los filtros y criterios de elegibilidad aplicados tanto por el sistema como por el investigador.
Gemini se integra de manera nativa al ecosistema de Google, con chat multimodal, Deep Research e incorporación al Workspace (Gmail, Docs, Sheets, Drive), incluyendo recursos empresariales y una ampliación de su despliegue en 2025. Para la investigación, esto se traduce en flujos de trabajo dentro de documentos y hojas de cálculo, síntesis de archivos PDF, notas guiadas (NotebookLM/Audio Overviews) y colaboración con historial contextual, útiles para organizar revisiones y datos experimentales (GOOGLE, 2024–2025). Desde una perspectiva ética, es esencial configurar políticas de datos en la cuenta institucional (por ejemplo, desactivar el uso de información para entrenamiento fuera de contratos) y mantener repositorios de referencia con versiones estables de los documentos utilizados.
Grok (xAI) se diferencia por su función Live Search y por la integración con datos en tiempo real provenientes de la plataforma X (antes Twitter) y de fuentes web, además de afirmar una alta capacidad de búsqueda en vivo. En contextos científicos, puede ser útil para la vigilancia de tendencias, la detección de preprints mencionados en redes y el monitoreo de políticas públicas emergentes, siempre que se apliquen criterios de credibilidad y triangulación con bases oficiales o revisadas por pares. Dado que las redes sociales contienen ruido y desinformación, es fundamental definir reglas de elegibilidad de fuentes y mantener registros de consultas y resultados (xAI, 2025).
Un protocolo prudente para el uso de IA generativa en investigación puede resumirse así:
- Claridad de propósito y adherencia a los marcos de la UNESCO y la OCDE.
- No atribuir autoría a la IA y declarar explícitamente su uso conforme a COPE, ICMJE y las políticas editoriales.
- Protección de datos y evaluación de riesgos antes de cualquier carga de información.
- Rastreabilidad de fuentes (registros, enlaces, capturas, DOIs) y verificación manual.
- Reproducibilidad (guardar prompts, versiones, seeds y scripts).
- Evaluación crítica de sesgos e impactos.
Herramientas como ChatGPT, Perplexity, Gemini y Grok pueden acelerar etapas del ciclo de investigación, pero deben estar al servicio de la integridad científica, nunca sustituirla.
Referencias
COPE – Committee on Publication Ethics. Authorship and AI tools. Disponível em: https://publicationethics.org/guidance/cope-position/authorship-and-ai-tools. Acesso em: 30 set. 2025.
ELSEVIER. The use of generative AI and AI-assisted technologies in writing for Elsevier. Disponível em: https://www.elsevier.com/about/policies-and-standards/the-use-of-generative-ai-and-ai-assisted-technologies-in-writing-for-elsevier. Acesso em: 30 set. 2025.
GOOGLE. The next chapter of our Gemini era. Disponível em: https://blog.google/technology/ai/google-gemini-update-sundar-pichai-2024/. Acesso em: 30 set. 2025.
GOOGLE. Gemini AI features now included in Google Workspace subscriptions. Disponível em: https://support.google.com/a/answer/15756885?hl=en. Acesso em: 30 set. 2025.
NATURE PORTFOLIO. Artificial Intelligence (AI) – Editorial policies. Disponível em: https://www.nature.com/nature-portfolio/editorial-policies/ai. Acesso em: 30 set. 2025.
ICMJE – International Committee of Medical Journal Editors. Up-dated ICMJE Recommendations (January 2024). Disponível em: https://www.icmje.org/news-and-editorials/updated_recommendations_jan2024.html. Acesso em: 30 set. 2025.
OECD. Recommendation of the Council on Artificial Intelligence (AI Principles). Disponível em: https://legalinstruments.oecd.org/en/instruments/oecd-legal-0449. Acesso em: 30 set. 2025.
OPENAI. Data analysis with ChatGPT. Disponível em: https://help.openai.com/en/articles/8437071-data-analysis-with-chatgpt. Acesso em: 30 set. 2025.
OPENAI. ChatGPT — Release Notes. Disponível em: https://help.openai.com/en/articles/6825453-chatgpt-release-notes. Acesso em: 30 set. 2025.
OPENAI. Introducing ChatGPT Pulse. Disponível em: https://openai.com/index/introducing-chatgpt-pulse/. Acesso em: 30 set. 2025.
PERPLEXITY AI. Introducing Perplexity Deep Research. Disponível em: https://www.perplexity.ai/hub/blog/introducing-perplexity-deep-research. Acesso em: 30 set. 2025.
PERPLEXITY AI. Getting started. Disponível em: https://www.perplexity.ai/hub/getting-started. Acesso em: 30 set. 2025.
UNESCO. Recommendation on the Ethics of Artificial Intelligence. Disponível em: https://unesdoc.unesco.org/ark:/48223/pf0000386510. Acesso em: 30 set. 2025.
xAI. Grok. Disponível em: https://x.ai/grok. Acesso em: 30 set. 2025.
xAI. Live Search – API Guide. Disponível em: https://docs.x.ai/docs/guides/live-search. Acesso em: 30 set. 2025.
Los riesgos éticos más debatidos incluyen la privacidad y confidencialidad de los datos (especialmente cuando se realizan cargas para análisis), las alucinaciones y la fabricación de referencias, los sesgos replicados por los modelos, la insuficiente trazabilidad de las fuentes y el impacto en la reproducibilidad. Las políticas editoriales recientes recuerdan que las salidas de IA pueden sonar autoritativas y, aun así, contener imprecisiones; corresponde a los autores verificar y citar adecuadamente la literatura, nunca la IA, como fuente (ICMJE, 2024; Nature, 2025). Para mitigar estos riesgos, se recomienda: usar solo datos anonimizados o autorizados; optar por entornos o planes con garantías empresariales cuando sea necesario; exigir registros de búsqueda y de citas; documentar versiones y prompts; y someter los fragmentos generados a verificación por pares humanos y a herramientas de detección de similitud.
Entre las herramientas populares, ChatGPT destaca por su capacidad de análisis de datos con carga de archivos, generación de tablas y gráficos, y ejecución de etapas exploratorias dentro del propio entorno (Advanced Data Analysis). En 2025, OpenAI introdujo mejoras en el módulo Search y anunció Pulse, una experiencia que realiza búsquedas proactivas y entrega actualizaciones basadas en las preferencias del usuario, recursos útiles para la selección inicial de literatura y la identificación de indicios, que posteriormente deben confirmarse en fuentes primarias (OPENAI, 2025). En investigación científica, los usos éticos incluyen: elaborar protocolos y listas de verificación, redactar planes de análisis, generar código comentado y sugerir estructuras argumentativas, siempre con revisión humana y citas a fuentes originales (nunca al modelo).
Perplexity fue diseñado con énfasis en la búsqueda con citas y, más recientemente, en el modo Deep Research, que ejecuta múltiples consultas, analiza cientos de fuentes y produce informes con referencias, permitiendo rastreabilidad del proceso informativo —algo valioso para revisiones rápidas y mapeos exploratorios. El producto también ofrece los modos Pro/Research y una biblioteca para la organización de hallazgos (PERPLEXITY, 2025). El uso responsable implica:
(i) inspeccionar todas las referencias proporcionadas;
(ii) excluir sitios poco confiables;
(iii) fundamentar conclusiones en artículos revisados por pares y documentos oficiales; y
(iv) registrar los filtros y criterios de elegibilidad aplicados tanto por el sistema como por el investigador.
Gemini se integra de manera nativa al ecosistema de Google, con chat multimodal, Deep Research e incorporación al Workspace (Gmail, Docs, Sheets, Drive), incluyendo recursos empresariales y una ampliación de su despliegue en 2025. Para la investigación, esto se traduce en flujos de trabajo dentro de documentos y hojas de cálculo, síntesis de archivos PDF, notas guiadas (NotebookLM/Audio Overviews) y colaboración con historial contextual, útiles para organizar revisiones y datos experimentales (GOOGLE, 2024–2025). Desde una perspectiva ética, es esencial configurar políticas de datos en la cuenta institucional (por ejemplo, desactivar el uso de información para entrenamiento fuera de contratos) y mantener repositorios de referencia con versiones estables de los documentos utilizados.
Grok (xAI) se diferencia por su función Live Search y por la integración con datos en tiempo real provenientes de la plataforma X (antes Twitter) y de fuentes web, además de afirmar una alta capacidad de búsqueda en vivo. En contextos científicos, puede ser útil para la vigilancia de tendencias, la detección de preprints mencionados en redes y el monitoreo de políticas públicas emergentes, siempre que se apliquen criterios de credibilidad y triangulación con bases oficiales o revisadas por pares. Dado que las redes sociales contienen ruido y desinformación, es fundamental definir reglas de elegibilidad de fuentes y mantener registros de consultas y resultados (xAI, 2025).
Un protocolo prudente para el uso de IA generativa en investigación puede resumirse así:
- Claridad de propósito y adherencia a los marcos de la UNESCO y la OCDE.
- No atribuir autoría a la IA y declarar explícitamente su uso conforme a COPE, ICMJE y las políticas editoriales.
- Protección de datos y evaluación de riesgos antes de cualquier carga de información.
- Rastreabilidad de fuentes (registros, enlaces, capturas, DOIs) y verificación manual.
- Reproducibilidad (guardar prompts, versiones, seeds y scripts).
- Evaluación crítica de sesgos e impactos.
Herramientas como ChatGPT, Perplexity, Gemini y Grok pueden acelerar etapas del ciclo de investigación, pero deben estar al servicio de la integridad científica, nunca sustituirla.
Referencias
COPE – Committee on Publication Ethics. Authorship and AI tools. Disponível em: https://publicationethics.org/guidance/cope-position/authorship-and-ai-tools. Acesso em: 30 set. 2025.
ELSEVIER. The use of generative AI and AI-assisted technologies in writing for Elsevier. Disponível em: https://www.elsevier.com/about/policies-and-standards/the-use-of-generative-ai-and-ai-assisted-technologies-in-writing-for-elsevier. Acesso em: 30 set. 2025.
GOOGLE. The next chapter of our Gemini era. Disponível em: https://blog.google/technology/ai/google-gemini-update-sundar-pichai-2024/. Acesso em: 30 set. 2025.
GOOGLE. Gemini AI features now included in Google Workspace subscriptions. Disponível em: https://support.google.com/a/answer/15756885?hl=en. Acesso em: 30 set. 2025.
NATURE PORTFOLIO. Artificial Intelligence (AI) – Editorial policies. Disponível em: https://www.nature.com/nature-portfolio/editorial-policies/ai. Acesso em: 30 set. 2025.
ICMJE – International Committee of Medical Journal Editors. Up-dated ICMJE Recommendations (January 2024). Disponível em: https://www.icmje.org/news-and-editorials/updated_recommendations_jan2024.html. Acesso em: 30 set. 2025.
OECD. Recommendation of the Council on Artificial Intelligence (AI Principles). Disponível em: https://legalinstruments.oecd.org/en/instruments/oecd-legal-0449. Acesso em: 30 set. 2025.
OPENAI. Data analysis with ChatGPT. Disponível em: https://help.openai.com/en/articles/8437071-data-analysis-with-chatgpt. Acesso em: 30 set. 2025.
OPENAI. ChatGPT — Release Notes. Disponível em: https://help.openai.com/en/articles/6825453-chatgpt-release-notes. Acesso em: 30 set. 2025.
OPENAI. Introducing ChatGPT Pulse. Disponível em: https://openai.com/index/introducing-chatgpt-pulse/. Acesso em: 30 set. 2025.
PERPLEXITY AI. Introducing Perplexity Deep Research. Disponível em: https://www.perplexity.ai/hub/blog/introducing-perplexity-deep-research. Acesso em: 30 set. 2025.
PERPLEXITY AI. Getting started. Disponível em: https://www.perplexity.ai/hub/getting-started. Acesso em: 30 set. 2025.
UNESCO. Recommendation on the Ethics of Artificial Intelligence. Disponível em: https://unesdoc.unesco.org/ark:/48223/pf0000386510. Acesso em: 30 set. 2025.
xAI. Grok. Disponível em: https://x.ai/grok. Acesso em: 30 set. 2025.
xAI. Live Search – API Guide. Disponível em: https://docs.x.ai/docs/guides/live-search. Acesso em: 30 set. 2025.