Preise

Schnellstart

Quelldateien

Diese Seite wurde aus den folgenden Quelldateien erstellt:

GPT Researcher ist ein Open-Source-Forschungsagent, der für umfassende Web- und lokale Recherchen zu beliebigen Aufgaben entwickelt wurde. Das System generiert detaillierte, faktische und unvoreingenommene Forschungsberichte mit Quellenangaben und bietet umfangreiche Anpassungsmöglichkeiten für domänenspezifische Research-Agenten.

Voraussetzungen und Umgebung

Systemanforderungen

GPT Researcher benötigt Python 3.11 oder höher für den Betrieb (pyproject.toml:71-72). Diese Anforderung ist zwingend, da das Framework auf LangChain v1 setzt, welches Python 3.10+ voraussetzt (requirements.txt:1-3).

Unterstützte Betriebssysteme:

  • Linux (empfohlen für Produktion)
  • macOS
  • Windows (mit Einschränkungen bei MCP-Unterstützung)

Projekt einrichten

Der erste Schritt besteht im Klonen des Repositories und dem Wechseln in das Projektverzeichnis (README.md:96-104):

bash
1git clone https://github.com/assafelovic/gpt-researcher.git
2cd gpt-researcher

Abhängigkeiten verstehen

Das Framework verwendet eine modulare Abhängigkeitsstruktur mit folgenden Kernkomponenten (requirements.txt:1-18):

KomponentePaketZweck
Core Frameworkfastapi>=0.104.1REST-API-Server
ASGI-Serveruvicorn>=0.24.0.post1HTTP-Server
Datenvalidierungpydantic>=2.5.1Schema-Validierung
LLM-Frameworklangchain>=1.0.0Sprachmodell-Integration
Such-APItavily-python>=0.7.12Web-Suche

Die vollständige Abhängigkeitsliste umfasst zusätzlich Dokumentenverarbeitung (beautifulsoup4, pymupdf), Vektorspeicher (tiktoken) und Multi-Agenten-Support (langgraph).

API-Schlüssel konfigurieren

Erforderliche API-Schlüssel

GPT Researcher benötigt mindestens zwei API-Schlüssel für den Betrieb (README.md:106-111):

bash
1export OPENAI_API_KEY={Your OpenAI API Key here}
2export TAVILY_API_KEY={Your Tavily API Key here}

Die Konfiguration kann entweder durch Export als Umgebungsvariablen oder durch Speicherung in einer .env-Datei erfolgen (.env.example:1-3):

env
1OPENAI_API_KEY=
2TAVILY_API_KEY=
3DOC_PATH=./my-docs

Optionale Konfigurationen

Für erweiterte Funktionen stehen zusätzliche Einstellungen zur Verfügung (README.md:113-124):

Tracing und Observability:

bash
1export LANGCHAIN_TRACING_V2=true
2export LANGCHAIN_API_KEY={Your LangChain API Key here}

Custom OpenAI-kompatible APIs:

bash
1export OPENAI_BASE_URL={Your custom API base URL here}

Diese Option ermöglicht die Verwendung lokaler Modelle oder alternativer Provider, die mit der OpenAI-API kompatibel sind.

Server starten und erste Schritte

Empfohlter Installationspfad

Die Standardinstallation erfolgt über pip mit den folgenden Schritten (README.md:126-131):

bash
1pip install -r requirements.txt
2python -m uvicorn main:app --reload

Der Server startet standardmäßig auf Port 8000. Nach erfolgreichem Start ist das Webinterface unter http://localhost:8000 erreichbar (README.md:133).

Server-Komponenten verstehen

Die Server-Architektur basiert auf FastAPI als Web-Framework und Uvicorn als ASGI-Server (requirements.txt:5-8):

  • FastAPI: Modernes Web-Framework für APIs mit automatischer Dokumentation
  • Uvicorn: ASGI-Server für asynchrone Python-Anwendungen
  • Pydantic: Datenvalidierung und Settings-Management
  • python-dotenv: Laden von Umgebungsvariablen aus .env-Dateien

Installationstabellen

InstallationsmethodeBefehlAnwendungsfall
Standard (pip)pip install -r requirements.txtEntwicklung, volle Kontrolle
PIP-Paketpip install gpt-researcherProgrammatische Nutzung
Poetrypoetry installAbhängigkeitsmanagement
Dockerdocker compose upProduktion, Isolation

Alternative PIP-Paket verwenden

Direkte Installation

Für die programmatische Nutzung ohne lokales Repository steht das PIP-Paket zur Verfügung (README.md:137-141):

bash
1pip install gpt-researcher

Das Paket wird mit der aktuellen Version 0.14.7 ausgeliefert (pyproject.toml:64-68).

Programmatische Nutzung

Die Python-API ermöglicht die direkte Integration in eigene Anwendungen (README.md:142-154):

python
1from gpt_researcher import GPTResearcher
2
3query = "why is Nvidia stock going up?"
4researcher = GPTResearcher(query=query)
5
6# Forschung durchführen
7research_result = await researcher.conduct_research()
8
9# Bericht generieren
10report = await researcher.write_report()

API-Übersicht

MethodeRückgabewertBeschreibung
conduct_research()strFührt Web-Recherche durch
write_report()strGeneriert finalen Bericht

Installation validieren

Server-Verifikation

Nach dem Start des Servers sollte folgende Ausgabe erscheinen (常见做法 - 未在仓库证据中出现):

INFO:     Uvicorn running on http://127.0.0.1:8000
INFO:     Application startup complete.

API-Endpunkte testen

Das Webinterface bietet eine grafische Oberfläche zur Eingabe von Forschungsanfragen. Alternativ kann die API direkt angesprochen werden (需要确认 - genaue Endpunkte nicht in Quelldateien dokumentiert).

Minimales Test-Skript

python
1import asyncio
2from gpt_researcher import GPTResearcher
3
4async def test_installation():
5    researcher = GPTResearcher(query="Test query")
6    result = await researcher.conduct_research()
7    print(f"Research completed: {len(result)} characters")
8    return result
9
10asyncio.run(test_installation())

Häufige Probleme und Lösungen

Problem 1: Python-Version inkompatibel

Symptom: Installationsfehler mit LangChain-Abhängigkeiten

Lösung: Python-Version überprüfen:

bash
1python --version  # Muss 3.11+ sein

Bei älteren Versionen Python 3.11+ installieren (README.md:98).

Problem 2: Fehlende API-Schlüssel

Symptom: OPENAI_API_KEY oder TAVILY_API_KEY nicht gefunden

Lösung: Umgebungsvariablen korrekt setzen (.env.example:1-2):

bash
1# Methode 1: Direkter Export
2export OPENAI_API_KEY=sk-...
3export TAVILY_API_KEY=tvly-...
4
5# Methode 2: .env-Datei
6echo "OPENAI_API_KEY=sk-..." > .env
7echo "TAVILY_API_KEY=tvly-..." >> .env

Problem 3: Port 8000 bereits belegt

Symptom: Address already in use Fehler beim Serverstart

Lösung: Alternativen Port verwenden (常见做法 - 未在仓库证据中出现):

bash
1python -m uvicorn main:app --reload --port 8001

Problem 4: MCP-Unterstützung unter Windows

Symptom: MCP-Funktionen nicht verfügbar

Ursache: MCP wird unter Windows nicht unterstützt (pyproject.toml:47):

toml
1mcp = { version = ">=1.0.0", markers = "platform_system != 'Windows'" }

Lösung: WSL2 oder Linux-basierte Umgebung verwenden.

Problem 5: Abhängigkeitskonflikte

Symptom: Versionskonflikte bei LangChain-Paketen

Lösung: Virtuelle Umgebung verwenden (常见做法):

bash
1python -m venv venv
2source venv/bin/activate  # Linux/macOS
3# oder: venv\Scripts\activate  # Windows
4pip install -r requirements.txt

Erweiterte Funktionen aktivieren

MCP-Client konfigurieren

Für die Integration mit spezialisierten Datenquellen wie GitHub-Repositories kann MCP aktiviert werden (README.md:158-163):

bash
1export RETRIEVER=tavily,mcp  # Hybrid Web + MCP Research

Inline-Bildgenerierung

Die automatische Generierung von AI-Bildern erfordert zusätzliche Konfiguration (README.md:193-202):

bash
1export IMAGE_GENERATION_ENABLED=true
2export GOOGLE_API_KEY=your_google_api_key
3export IMAGE_GENERATION_MODEL=models/gemini-2.5-flash-image

Deep Research aktivieren

Für erweiterte rekursive Forschungsworkflows steht die Deep-Research-Funktion zur Verfügung (README.md:213-220):

  • Baumartige Exploration mit konfigurierbarer Tiefe
  • Parallele Verarbeitung für schnellere Ergebnisse
  • Intelligentes Kontextmanagement

Nächste Schritte

Nach erfolgreicher Installation und Validierung empfiehlt sich die Konsultation folgender Ressourcen:

  1. Dokumentation: https://docs.gptr.dev für vollständige API-Referenz
  2. PIP-Dokumentation: Erweiterte Beispiele unter PIP documentation
  3. MCP-Integration: MCP Integration Guide für Datenquellen-Anbindung
  4. Tutorials: Video-Anleitungen für Installation und Live-Demo (README.md:69-72)

Für Produktionsumgebungen wird die Verwendung von Docker oder Poetry empfohlen, um reproduzierbare Deployments zu gewährleisten.