# Aula 3: IA para Pesquisa Acadêmica e Análise de Dados

**Dia 03 de 05 | Duração: 4 horas | Formato: 80% prático, 20% conceitual**

## Recapitulação da Aula 2

Na aula anterior, trabalhamos engenharia de prompts com cinco técnicas fundamentais: Zero-Shot, Few-Shot, Chain of Thought, Role Prompting e Meta-Prompting (Brown et al., 2020; Wei et al., 2022). Cada participante construiu seu Prompt Kit Pessoal com pelo menos três prompts testados e validados. Também exploramos a personalização de assistentes no ChatGPT e no Claude, criando perfis que refletem o contexto de pesquisa de cada um. A lição central foi que prompts genéricos produzem respostas genéricas, e que a especificidade do contexto amazônico exige prompts igualmente específicos.

## Objetivo da Aula 3

Dominar o uso de ferramentas especializadas de pesquisa acadêmica assistidas por IA, compreendendo que as LLMs funcionam como o "cérebro" do processo enquanto ferramentas como Perplexity, SciSpace, Consensus, Elicit e Litmaps operam como "braços" que executam busca, curadoria e apresentação de resultados (Chen e Zhong, 2024). Ao final da aula, cada participante terá executado um pipeline completo de pesquisa sobre seu tema, da busca inicial ao mapeamento de rede.

## Conceito-Chave: Cérebro vs. Braço

Antes de entrar nas ferramentas, é fundamental entender a arquitetura do trabalho com IA para pesquisa. As LLMs generalistas como ChatGPT, Claude e Gemini funcionam como o "cérebro" do pesquisador: interpretam contexto, refinam perguntas, sintetizam informações e produzem texto. As ferramentas especializadas funcionam como "braços" que executam tarefas específicas com maior precisão. Perplexity busca e verifica fontes em tempo real. SciSpace realiza revisões profundas com centenas de buscas automatizadas. Consensus analisa o consenso científico sobre uma pergunta norteadora. Elicit amplia a base com artigos inesperados. Litmaps mapeia redes de citação e coautoria.

O fluxo inteligente é usar o cérebro (LLM) para prototipar e refinar a pergunta, e depois enviar para os braços (ferramentas especializadas) executarem. Isso economiza créditos e maximiza a qualidade dos resultados.

## Bloco 1: Prototipagem no ChatGPT (30 minutos)

O primeiro passo de qualquer pesquisa com IA não é ir direto às ferramentas especializadas. O ChatGPT não consome créditos adicionais e permite refinar a pergunta antes de gastar tokens em ferramentas pagas. Cada participante deve abrir o ChatGPT e trabalhar sua pergunta norteadora.

### Atividade 1: Refinando a Pergunta Norteadora

Abra o ChatGPT e use o seguinte prompt para refinar sua pergunta de pesquisa:

> Sou pesquisador do INPA e estudo a viabilidade econômica de cooperativas de castanha-do-brasil (Bertholletia excelsa) na Amazônia Ocidental. Preciso refinar minha pergunta norteadora para uma revisão de literatura. Minha pergunta atual é: "Como cooperativas de castanha podem ser mais sustentáveis?" Ajude-me a torná-la mais específica, incluindo: delimitação geográfica (Amazônia Legal brasileira), temporal (últimos 10 anos), temática (viabilidade econômica + impacto socioambiental) e metodológica (estudos empíricos com dados primários). Ao final, monte para mim o melhor prompt para usar no SciSpace e no Consensus.

O ChatGPT vai devolver uma pergunta refinada e prompts otimizados para cada ferramenta. Esse é o fluxo correto: usar o cérebro para preparar o trabalho dos braços.

### Atividade 1b: Pesquisa Aprofundada do GPT

Após refinar a pergunta, use a função "Pesquisa Aprofundada" do ChatGPT. O diferencial dessa função é que ela permite visualizar e editar o plano de pesquisa antes da execução. O pesquisador pode excluir estudos de caso irrelevantes, focar em literatura e relatórios, conectar Google Drive ou Dropbox, e restringir fontes a bases específicas como SciELO, Web of Science e repositórios da UFAM e do INPA. Esse controle pré-execução é superior ao que o Perplexity oferece.

Na prática, a Pesquisa Aprofundada executa centenas de buscas automaticamente. Em uma demonstração real, o sistema realizou 549 buscas de literatura em poucos minutos, algo que um orientando de PIBIC levaria semanas para fazer manualmente.

## Bloco 2: Perplexity — Panorama Rápido com Fontes (45 minutos)

O Perplexity é a ferramenta ideal para obter um panorama inicial do tema com fontes verificáveis. Funciona sem login e permite alternar entre modelos como Sonar, GPT 5.4, Gemini 3.1 e Opus/Kona. Suas respostas tendem a ser "geralzões" e podem conter imprecisões para especialistas, por isso a verificação crítica é obrigatória (Sharma et al., 2024).

### Atividade 2: Pesquisa Estruturada em 3 Etapas

Execute três perguntas sequenciais no Perplexity sobre seu tema de pesquisa:

**Etapa 1 — Panorama Geral:**

> Qual o estado da arte da pesquisa sobre restauração florestal na Amazônia Legal brasileira nos últimos 5 anos? Apresente os principais grupos de pesquisa, linhas temáticas dominantes e lacunas identificadas. Priorize fontes científicas indexadas.

**Etapa 2 — Desafios e Atores:**

> Quais são os principais desafios técnicos e socioeconômicos para a restauração florestal em larga escala na Amazônia? Identifique os atores institucionais envolvidos (INPA, Embrapa, universidades, ONGs). Exclua mineração e agronegócio convencional.

**Etapa 3 — Tabela de Fontes:**

> Com base nas respostas anteriores, monte uma tabela com as seguintes colunas: Fonte, Ano, Link, Natureza (científica/site/documental). Reequilibre para "mais científico, menos site".

Se o Perplexity interpretar mal algum termo como "periódico indexado", apague o chat e reinicie com termos mais claros. Essa é uma prática recomendada para evitar acúmulo de mal-entendidos na conversa.

## Bloco 3: SciSpace — Revisão Profunda Automatizada (45 minutos)

O SciSpace é um motor de revisão de literatura com módulos especializados como Deep Review e Biomedical. O diferencial do SciSpace em relação às outras ferramentas é o módulo "Investigar", que permite ao pesquisador editar o processo de busca antes da execução. Enquanto o Perplexity executa e entrega, o SciSpace mostra o plano e permite ajustes (Hutson, 2024).

O SciSpace entrega relatórios em Markdown, Word ou LaTeX. A recomendação é sempre pedir em Markdown ou LaTeX, pois o formato .docx apresenta problemas de formatação quando gerado por LLMs. O conector do SciSpace no ChatGPT existe, mas costuma estar defasado em relação à versão web.

### Atividade 3: Revisão com SciSpace

Acesse o SciSpace (scispace.com) e use o prompt que o ChatGPT preparou no Bloco 1. No módulo "Investigar", revise o plano de pesquisa antes de executar. Verifique se as bases de busca estão adequadas, se o escopo geográfico está correto e se os critérios de inclusão e exclusão fazem sentido para seu tema.

Após a execução, aplique o checklist de verificação: leia primeiro a Conclusão, depois os Objetivos, em seguida a Metodologia e por último os Resultados. Verifique as citações e formatos (APA, Vancouver, ABNT). Identifique rastros UTM nos links das referências, que indicam a origem da busca.

### Dica: Gestão de Créditos

O SciSpace oferece aproximadamente 1.200 créditos mensais no plano pago. Para não desperdiçar, prototipe sempre o prompt no ChatGPT antes de executar no SciSpace. Se o resultado de uma busca ficou excepcional, exporte o .md e leve para sua LLM principal com a instrução: "Transforme isso em uma habilidade para próximas pesquisas minhas." Essa habilidade é única porque reflete suas decisões, seus critérios e seu estilo de pesquisa.

## Bloco 4: Consensus — Pergunta Norteadora e Consenso Científico (45 minutos)

O Consensus não funciona com prompts convencionais. Ele responde a perguntas norteadoras, buscando o consenso científico em uma base de mais de 170 milhões de artigos. A forma correta de usar o Consensus é inserir diretamente a pergunta norteadora da pesquisa, de preferência em inglês, pois o volume de artigos indexados em inglês é significativamente maior (Eloundou et al., 2024).

O Consensus busca contrapontos automaticamente: identifica quem concorda, quem discorda e quem apresenta evidências mistas. Isso é particularmente útil para mapear o estado da arte de um debate científico.

### Atividade 4: Consenso Científico

Acesse o Consensus (consensus.app) e insira sua pergunta norteadora em inglês:

> What is the current scientific evidence on the economic viability of non-timber forest product cooperatives in the Brazilian Amazon, and what factors determine their success or failure?

Observe como o Consensus organiza a resposta: primeiro entende a pergunta, depois faz um survey inicial, identifica origens e evolução do tema, conceitos fundamentais, estudos de caso, e por fim busca contrapontos. Economize o modo "Profundo" para perguntas realmente complexas.

Ao verificar as referências, observe os links. Se contiverem "utm_source=consensus", esse é o rastro da ferramenta. Para uso acadêmico, substitua por DOIs ou URLs canônicas.

## Bloco 5: Elicit — Ampliando a Base com Surpresas (30 minutos)

O Elicit amplia a base de artigos com custo baixo (aproximadamente 7 dólares por mês). Sua principal vantagem é encontrar artigos que o pesquisador não esperaria encontrar, seja por estarem fora do vocabulário habitual de busca, seja por serem de grupos de pesquisa desconhecidos. A desvantagem é que traz também resultados irrelevantes, exigindo triagem manual (Khlaif et al., 2023).

### Atividade 5: Busca e Curadoria

Acesse o Elicit (elicit.com) e insira a mesma pergunta norteadora. Observe a classificação automática: artigos com alta confiança (funciona bem), média confiança (validação necessária) e baixa confiança (pode servir em outras áreas). Use os filtros "quero mais disso" e "não quero isso" para personalizar os resultados e criar seu framework de busca dentro da ferramenta.

O Elicit é particularmente útil para descobrir grupos de pesquisa na Amazônia equatoriana, peruana ou colombiana que trabalham com temas similares mas estão desconectados da rede brasileira.

## Bloco 6: Litmaps — Mapeamento de Rede e Centralidade (30 minutos)

O Litmaps, junto com Connected Papers e Research Rabbit, gera grafos de citação e coautoria que revelam a estrutura de um campo de pesquisa. A interpretação desses grafos utiliza teoria de grafos, especificamente medidas de centralidade de proximidade e centralidade de intermediação (Barabási, 2016).

A centralidade de proximidade indica artigos ou autores que estão próximos de muitos outros na rede, seja por grupo de pesquisa, proximidade geográfica ou temática. A centralidade de intermediação identifica os "pontos-ponte" que conectam grupos que de outra forma estariam isolados. Um exemplo concreto: um pesquisador do INPA que publica tanto com grupos de Iquitos (Peru) quanto com grupos de Manaus funciona como ponto de intermediação, tornando a rede mais coesa.

A teoria do "mundo pequeno" de Milgram (1967) demonstrou que qualquer pessoa pode ser alcançada em até 3 graus de relação. Christakis e Fowler (2009) expandiram essa teoria mostrando que a influência social se propaga em até 3 graus de separação. Nos grafos de citação, essa lógica se aplica: artigos centrais influenciam a rede em até 3 níveis de citação.

### Atividade 6: Mapeamento de Rede

Pegue o DOI de um artigo relevante encontrado nas etapas anteriores. Acesse o Litmaps (litmaps.com) e insira o DOI. Observe o grafo gerado: quem citou o artigo, quem ele citou, quais autores aparecem isolados na periferia e quais são centrais. Identifique pelo menos um artigo ou autor que você não conhecia e que funciona como ponto de intermediação.

## Bloco 7: Pipeline Integrado e Síntese (30 minutos)

O fluxo completo de pesquisa com IA segue esta sequência:

1. **ChatGPT** (prototipar pergunta e preparar prompts para cada ferramenta)
2. **Perplexity** (panorama rápido com fontes verificáveis)
3. **SciSpace** (revisão profunda com processo editável)
4. **Consensus** (consenso científico e contrapontos)
5. **Elicit** (ampliar base com artigos inesperados)
6. **Litmaps** (mapear rede de citação e identificar lacunas)

### Boas Práticas de Formato e Arquivo

Ao exportar resultados, prefira formatos .RIS ou .BibTeX para referências bibliográficas. Negocie com a LLM o melhor formato de trabalho: geralmente .CSV ou .MD são mais estáveis que .docx. Ao receber um resultado excepcional em .md, leve para sua LLM principal e peça para transformar em uma habilidade reutilizável. Essa habilidade reflete seu estilo de pesquisa e é única.

Para revisões por pares, use o Rayyan com dois revisores independentes e um terceiro como decisor em caso de discordância.

### Entregável da Aula 3

Cada participante deve entregar ao final da aula:

1. Pergunta norteadora refinada (saída do ChatGPT)
2. Tabela de fontes do Perplexity com classificação por natureza
3. Relatório do SciSpace em .md com pelo menos 10 artigos relevantes
4. Síntese do Consensus com consenso e contrapontos identificados
5. Lista do Elicit com pelo menos 2 artigos "surpresa" relevantes
6. Grafo do Litmaps com anotação de pontos de intermediação
7. Documento reflexivo de 1 página: "Como essas ferramentas mudam meu processo de pesquisa?"

## Preview da Aula 4

Na próxima aula, vamos criar assistentes de IA personalizados. Cada participante construirá um GPT que funciona como orientador de mestrado, guiando o mestrando nas etapas de elaboração de pesquisa. Também configuraremos automações simples com Google Alerts para monitorar editais do CNPQ e FAPEAM, e criaremos um workflow no MAKE que detecta emails com a palavra "CNPQ" e envia notificação ao WhatsApp.

## Referências

BARABÁSI, Albert-László. **Network Science**. Cambridge: Cambridge University Press, 2016.

BROWN, Tom et al. Language models are few-shot learners. In: **Advances in Neural Information Processing Systems**, v. 33, p. 1877-1901, 2020. Disponível em: https://arxiv.org/abs/2005.14165.

CHEN, Lingjiao; ZHONG, Matei. Are chatbots good at search? Investigating large language models as re-ranking agents. In: **Proceedings of the 2024 Conference on Empirical Methods in Natural Language Processing**, 2024.

CHRISTAKIS, Nicholas A.; FOWLER, James H. **Connected: The Surprising Power of Our Social Networks and How They Shape Our Lives**. New York: Little, Brown and Company, 2009.

ELOUNDOU, Tyna et al. GPTs are GPTs: Labor market impact potentials of LLMs. **Science**, v. 383, n. 6689, 2024. Disponível em: https://doi.org/10.1126/science.adj0998.

HUTSON, Matthew. Could AI help you to write your next paper? **Nature**, v. 611, p. 192-193, 2024. Disponível em: https://doi.org/10.1038/d41586-022-03479-w.

KHLAIF, Zuheir N. et al. The potential and concerns of using AI in scientific research. **Frontiers in Artificial Intelligence**, v. 6, 2023. Disponível em: https://doi.org/10.3389/frai.2023.1187874.

MILGRAM, Stanley. The small world problem. **Psychology Today**, v. 2, n. 1, p. 60-67, 1967.

SHARMA, Dhruv et al. Evaluating the factual accuracy of large language models. In: **Proceedings of the 2024 ACM Conference on Fairness, Accountability, and Transparency**, 2024.

WEI, Jason et al. Chain-of-thought prompting elicits reasoning in large language models. In: **Advances in Neural Information Processing Systems**, v. 35, 2022. Disponível em: https://arxiv.org/abs/2201.11903.
