Skip to main content
1

Schreiben Sie einen Recherche-Prompt nach einer einheitlichen Vorlage

Der Schlüssel zu sinnvoller paralleler Recherche ist, jeder Session dieselbe Checkliste zu geben. Jede Session untersucht eigenständig eine Bibliothek, sodass die Vorlage sicherstellt, dass die Ergebnisse beim Zusammenführen direkt vergleichbar sind.Öffne eine neue Devin-Session über die Devin-Startseite oder nutze die Seite Explore Advanced Capabilities auf der Devin-Startseite für eine Prompt-Vorlage für parallele Recherche.
2

Prüfen und genehmigen Sie die vorgeschlagenen Sitzungen

Nachdem Sie diese übermittelt haben, parst Devin Ihre Liste und schlägt eine Sitzung pro Bibliothek vor. Sie sehen dann eine Vorschau wie folgt:
Proposed sessions (30):
  1. Research Datadog Logs — pricing, SDKs, retention, alerting...
  2. Research Grafana Loki — pricing, SDKs, retention, alerting...
  3. Research AWS CloudWatch Logs — pricing, SDKs, retention, alerting...
  ...
Überprüfe die Liste und klicke auf Approve, um alle Sitzungen gleichzeitig zu starten. Jede Sitzung läuft unabhängig und durchsucht die Website der Bibliothek, liest Dokumentation, sichtet Entwicklerforen und füllt die Vorlage aus.Wenn du Bibliotheken überspringen oder hinzufügen möchtest, bearbeite die Liste, bevor du auf Approve klickst. Du kannst auch ein Playbook anhängen, um sicherzustellen, dass jede Sitzung derselben Forschungsmethodik folgt.
3

Ergebnisse erfassen und vergleichen

Sobald alle Sessions abgeschlossen sind, führt Devin die einzelnen Berichte automatisch zu einem einzigen Vergleich zusammen. Die Ausgabe folgt dem von Ihnen angeforderten Format – so sieht der zusammengeführte Vergleich im Tabellenkalkulationsformat aus:
## Logging Library Comparison (Node.js + Python, 2 TB/day)

| Library           | Type       | $/mo (2 TB/day) | Retention       | Node SDK | Python SDK | Query Lang   | Alerting     |
|-------------------|------------|-----------------|-----------------|----------|------------|--------------|--------------|
| Datadog Logs      | SaaS       | ~$5,400         | 15d hot, archive| 5/5      | 5/5        | Custom DSL   | Yes + anomaly|
| Grafana Loki      | Self-host  | Infra only      | Configurable    | 4/5      | 4/5        | LogQL        | Via Grafana  |
| Axiom              | SaaS       | ~$1,200         | 30d hot, 1yr    | 4/5      | 4/5        | APL          | Yes          |
| Better Stack      | SaaS       | ~$890           | 30d default     | 5/5      | 4/5        | SQL-like     | Yes          |
| Elastic Cloud     | SaaS/self  | ~$3,600         | ILM policies    | 5/5      | 5/5        | KQL / Lucene | Yes + ML     |
| Signoz            | Self-host  | Infra only      | Configurable    | 4/5      | 4/5        | ClickHouse SQL| Yes         |
| Coralogix         | SaaS       | ~$2,100         | Hot/warm/cold   | 4/5      | 3/5        | Lucene / SQL | Yes + anomaly|
| ...               |            |                 |                 |          |            |              |              |

### Top 3 for a 50-service Node.js + Python stack:
1. Axiom — lowest cost at scale, fast APL queries, solid SDKs
2. Grafana Loki — zero license cost, pairs with existing Grafana dashboards
3. Datadog Logs — best SDK auto-instrumentation, but expensive at 2 TB/day
Sie können innerhalb derselben Sitzung Rückfragen stellen — sie hat Kontext aus allen untergeordneten Sessions.Sobald Sie einen Gewinner ausgewählt haben, können Sie eine Devin-Session direkt aus derselben Sitzung starten, um die Bibliothek in Ihrem Repo einzurichten:
4

Analysieren Sie die engere Auswahl genauer

Sobald Sie eine Shortlist haben, starten Sie gezielte Follow-up-Sessions für eine tiefere Evaluierung.
5

Tipps

Dieses Vorgehen funktioniert für jede technische Evaluation

Parallele Recherche ist nicht auf Logging-Tools beschränkt. Nutzen Sie sie für jede Evaluation, bei der Sie dieselben Datenpunkte für viele Optionen benötigen – CI/CD-Plattformen, Feature-Flag-Services, ORMs, Cloud-Anbieter oder Compliance-Frameworks. Beispiel: „Recherchiere diese 20 CI/CD-Plattformen und vergleiche Build-Geschwindigkeit, Preise, Self-Hosted-Optionen und die Qualität der GitHub-Integration.“

Begrenzen Sie jede Session auf 15–30 Minuten

Wenn eine einzelne Library stundenlange, tiefgehende Untersuchung erfordert, ist das ein Zeichen, dass sie ihre eigene fokussierte Session sein sollte, statt Teil eines parallelen Durchlaufs zu sein. Parallele Sessions funktionieren am besten, wenn jedes Element ungefähr denselben Aufwand erfordert.