Skip to main content
1

Escreva um prompt de pesquisa usando um modelo padronizado

A chave para uma pesquisa paralela útil é dar a todas as sessões a mesma checklist. Cada sessão pesquisa uma biblioteca de forma independente, então o modelo garante que os resultados sejam diretamente comparáveis quando forem consolidados.Abra uma nova sessão do Devin a partir da página inicial do Devin ou use a página Explore Advanced Capabilities na página inicial do Devin para obter um template de prompt de pesquisa paralela.
2

Revise e aprove as sessões propostas

Após o envio, o Devin analisa sua lista e propõe uma sessão para cada biblioteca. Você verá uma prévia como:
Proposed sessions (30):
  1. Research Datadog Logs — pricing, SDKs, retention, alerting...
  2. Research Grafana Loki — pricing, SDKs, retention, alerting...
  3. Research AWS CloudWatch Logs — pricing, SDKs, retention, alerting...
  ...
Revise a lista e clique em Approve para iniciar todas as sessões simultaneamente. Cada sessão é executada de forma independente — navegando no site da biblioteca, lendo a documentação, consultando fóruns de desenvolvedores e preenchendo o modelo.Se quiser pular ou adicionar bibliotecas, edite a lista antes de clicar em Approve. Você também pode anexar um playbook para garantir que todas as sessões sigam a mesma metodologia de pesquisa.
3

Colete e compare resultados

Depois que todas as sessões são concluídas, Devin mescla automaticamente os relatórios individuais em uma única comparação. O resultado segue o formato que você solicitou — é assim que fica a comparação consolidada em formato de planilha:
## Logging Library Comparison (Node.js + Python, 2 TB/day)

| Library           | Type       | $/mo (2 TB/day) | Retention       | Node SDK | Python SDK | Query Lang   | Alerting     |
|-------------------|------------|-----------------|-----------------|----------|------------|--------------|--------------|
| Datadog Logs      | SaaS       | ~$5,400         | 15d hot, archive| 5/5      | 5/5        | Custom DSL   | Yes + anomaly|
| Grafana Loki      | Self-host  | Infra only      | Configurable    | 4/5      | 4/5        | LogQL        | Via Grafana  |
| Axiom              | SaaS       | ~$1,200         | 30d hot, 1yr    | 4/5      | 4/5        | APL          | Yes          |
| Better Stack      | SaaS       | ~$890           | 30d default     | 5/5      | 4/5        | SQL-like     | Yes          |
| Elastic Cloud     | SaaS/self  | ~$3,600         | ILM policies    | 5/5      | 5/5        | KQL / Lucene | Yes + ML     |
| Signoz            | Self-host  | Infra only      | Configurable    | 4/5      | 4/5        | ClickHouse SQL| Yes         |
| Coralogix         | SaaS       | ~$2,100         | Hot/warm/cold   | 4/5      | 3/5        | Lucene / SQL | Yes + anomaly|
| ...               |            |                 |                 |          |            |              |              |

### Top 3 for a 50-service Node.js + Python stack:
1. Axiom — lowest cost at scale, fast APL queries, solid SDKs
2. Grafana Loki — zero license cost, pairs with existing Grafana dashboards
3. Datadog Logs — best SDK auto-instrumentation, but expensive at 2 TB/day
Você pode fazer perguntas adicionais na mesma sessão — ela mantém o contexto de todas as subsessões.Depois de escolher a melhor opção, você pode iniciar uma sessão do Devin diretamente a partir da mesma sessão para configurar a biblioteca no seu repositório:
4

Aprofunde a análise dos finalistas

Depois que você tiver uma lista de selecionados, inicie sessões de acompanhamento direcionadas para uma avaliação mais aprofundada.
5

Dicas

Esse padrão funciona para qualquer avaliação técnica

Pesquisa em paralelo não se limita a ferramentas de logging. Use essa abordagem para qualquer avaliação em que você precise dos mesmos dados sobre muitas opções — plataformas de CI/CD, serviços de feature flag, ORMs, provedores de nuvem ou frameworks de conformidade. Exemplo: “Pesquise essas 20 plataformas de CI/CD e compare velocidade de build, preços, opções self-hosted e qualidade da integração com o GitHub.”

Mantenha cada sessão limitada a 15-30 minutos

Se uma única biblioteca demandar horas de investigação profunda, isso é um sinal de que ela deveria ter sua própria sessão focada, em vez de fazer parte de uma execução paralela. Sessões paralelas funcionam melhor quando cada item exige aproximadamente o mesmo nível de esforço.