Schnellstart
Quelldateien
Diese Seite wurde aus den folgenden Quelldateien erstellt:
GPT Researcher ist ein Open-Source-Forschungsagent, der für umfassende Web- und lokale Recherchen zu beliebigen Aufgaben entwickelt wurde. Das System generiert detaillierte, faktische und unvoreingenommene Forschungsberichte mit Quellenangaben und bietet umfangreiche Anpassungsmöglichkeiten für domänenspezifische Research-Agenten.
Voraussetzungen und Umgebung
Systemanforderungen
GPT Researcher benötigt Python 3.11 oder höher für den Betrieb (pyproject.toml:71-72). Diese Anforderung ist zwingend, da das Framework auf LangChain v1 setzt, welches Python 3.10+ voraussetzt (requirements.txt:1-3).
Unterstützte Betriebssysteme:
- Linux (empfohlen für Produktion)
- macOS
- Windows (mit Einschränkungen bei MCP-Unterstützung)
Projekt einrichten
Der erste Schritt besteht im Klonen des Repositories und dem Wechseln in das Projektverzeichnis (README.md:96-104):
bash1git clone https://github.com/assafelovic/gpt-researcher.git 2cd gpt-researcher
Abhängigkeiten verstehen
Das Framework verwendet eine modulare Abhängigkeitsstruktur mit folgenden Kernkomponenten (requirements.txt:1-18):
| Komponente | Paket | Zweck |
|---|---|---|
| Core Framework | fastapi>=0.104.1 | REST-API-Server |
| ASGI-Server | uvicorn>=0.24.0.post1 | HTTP-Server |
| Datenvalidierung | pydantic>=2.5.1 | Schema-Validierung |
| LLM-Framework | langchain>=1.0.0 | Sprachmodell-Integration |
| Such-API | tavily-python>=0.7.12 | Web-Suche |
Die vollständige Abhängigkeitsliste umfasst zusätzlich Dokumentenverarbeitung (beautifulsoup4, pymupdf), Vektorspeicher (tiktoken) und Multi-Agenten-Support (langgraph).
API-Schlüssel konfigurieren
Erforderliche API-Schlüssel
GPT Researcher benötigt mindestens zwei API-Schlüssel für den Betrieb (README.md:106-111):
bash1export OPENAI_API_KEY={Your OpenAI API Key here} 2export TAVILY_API_KEY={Your Tavily API Key here}
Die Konfiguration kann entweder durch Export als Umgebungsvariablen oder durch Speicherung in einer .env-Datei erfolgen (.env.example:1-3):
env1OPENAI_API_KEY= 2TAVILY_API_KEY= 3DOC_PATH=./my-docs
Optionale Konfigurationen
Für erweiterte Funktionen stehen zusätzliche Einstellungen zur Verfügung (README.md:113-124):
Tracing und Observability:
bash1export LANGCHAIN_TRACING_V2=true 2export LANGCHAIN_API_KEY={Your LangChain API Key here}
Custom OpenAI-kompatible APIs:
bash1export OPENAI_BASE_URL={Your custom API base URL here}
Diese Option ermöglicht die Verwendung lokaler Modelle oder alternativer Provider, die mit der OpenAI-API kompatibel sind.
Server starten und erste Schritte
Empfohlter Installationspfad
Die Standardinstallation erfolgt über pip mit den folgenden Schritten (README.md:126-131):
bash1pip install -r requirements.txt 2python -m uvicorn main:app --reload
Der Server startet standardmäßig auf Port 8000. Nach erfolgreichem Start ist das Webinterface unter http://localhost:8000 erreichbar (README.md:133).
Server-Komponenten verstehen
Die Server-Architektur basiert auf FastAPI als Web-Framework und Uvicorn als ASGI-Server (requirements.txt:5-8):
- FastAPI: Modernes Web-Framework für APIs mit automatischer Dokumentation
- Uvicorn: ASGI-Server für asynchrone Python-Anwendungen
- Pydantic: Datenvalidierung und Settings-Management
- python-dotenv: Laden von Umgebungsvariablen aus
.env-Dateien
Installationstabellen
| Installationsmethode | Befehl | Anwendungsfall |
|---|---|---|
| Standard (pip) | pip install -r requirements.txt | Entwicklung, volle Kontrolle |
| PIP-Paket | pip install gpt-researcher | Programmatische Nutzung |
| Poetry | poetry install | Abhängigkeitsmanagement |
| Docker | docker compose up | Produktion, Isolation |
Alternative PIP-Paket verwenden
Direkte Installation
Für die programmatische Nutzung ohne lokales Repository steht das PIP-Paket zur Verfügung (README.md:137-141):
bash1pip install gpt-researcher
Das Paket wird mit der aktuellen Version 0.14.7 ausgeliefert (pyproject.toml:64-68).
Programmatische Nutzung
Die Python-API ermöglicht die direkte Integration in eigene Anwendungen (README.md:142-154):
python1from gpt_researcher import GPTResearcher 2 3query = "why is Nvidia stock going up?" 4researcher = GPTResearcher(query=query) 5 6# Forschung durchführen 7research_result = await researcher.conduct_research() 8 9# Bericht generieren 10report = await researcher.write_report()
API-Übersicht
| Methode | Rückgabewert | Beschreibung |
|---|---|---|
conduct_research() | str | Führt Web-Recherche durch |
write_report() | str | Generiert finalen Bericht |
Installation validieren
Server-Verifikation
Nach dem Start des Servers sollte folgende Ausgabe erscheinen (常见做法 - 未在仓库证据中出现):
INFO: Uvicorn running on http://127.0.0.1:8000
INFO: Application startup complete.
API-Endpunkte testen
Das Webinterface bietet eine grafische Oberfläche zur Eingabe von Forschungsanfragen. Alternativ kann die API direkt angesprochen werden (需要确认 - genaue Endpunkte nicht in Quelldateien dokumentiert).
Minimales Test-Skript
python1import asyncio 2from gpt_researcher import GPTResearcher 3 4async def test_installation(): 5 researcher = GPTResearcher(query="Test query") 6 result = await researcher.conduct_research() 7 print(f"Research completed: {len(result)} characters") 8 return result 9 10asyncio.run(test_installation())
Häufige Probleme und Lösungen
Problem 1: Python-Version inkompatibel
Symptom: Installationsfehler mit LangChain-Abhängigkeiten
Lösung: Python-Version überprüfen:
bash1python --version # Muss 3.11+ sein
Bei älteren Versionen Python 3.11+ installieren (README.md:98).
Problem 2: Fehlende API-Schlüssel
Symptom: OPENAI_API_KEY oder TAVILY_API_KEY nicht gefunden
Lösung: Umgebungsvariablen korrekt setzen (.env.example:1-2):
bash1# Methode 1: Direkter Export 2export OPENAI_API_KEY=sk-... 3export TAVILY_API_KEY=tvly-... 4 5# Methode 2: .env-Datei 6echo "OPENAI_API_KEY=sk-..." > .env 7echo "TAVILY_API_KEY=tvly-..." >> .env
Problem 3: Port 8000 bereits belegt
Symptom: Address already in use Fehler beim Serverstart
Lösung: Alternativen Port verwenden (常见做法 - 未在仓库证据中出现):
bash1python -m uvicorn main:app --reload --port 8001
Problem 4: MCP-Unterstützung unter Windows
Symptom: MCP-Funktionen nicht verfügbar
Ursache: MCP wird unter Windows nicht unterstützt (pyproject.toml:47):
toml1mcp = { version = ">=1.0.0", markers = "platform_system != 'Windows'" }
Lösung: WSL2 oder Linux-basierte Umgebung verwenden.
Problem 5: Abhängigkeitskonflikte
Symptom: Versionskonflikte bei LangChain-Paketen
Lösung: Virtuelle Umgebung verwenden (常见做法):
bash1python -m venv venv 2source venv/bin/activate # Linux/macOS 3# oder: venv\Scripts\activate # Windows 4pip install -r requirements.txt
Erweiterte Funktionen aktivieren
MCP-Client konfigurieren
Für die Integration mit spezialisierten Datenquellen wie GitHub-Repositories kann MCP aktiviert werden (README.md:158-163):
bash1export RETRIEVER=tavily,mcp # Hybrid Web + MCP Research
Inline-Bildgenerierung
Die automatische Generierung von AI-Bildern erfordert zusätzliche Konfiguration (README.md:193-202):
bash1export IMAGE_GENERATION_ENABLED=true 2export GOOGLE_API_KEY=your_google_api_key 3export IMAGE_GENERATION_MODEL=models/gemini-2.5-flash-image
Deep Research aktivieren
Für erweiterte rekursive Forschungsworkflows steht die Deep-Research-Funktion zur Verfügung (README.md:213-220):
- Baumartige Exploration mit konfigurierbarer Tiefe
- Parallele Verarbeitung für schnellere Ergebnisse
- Intelligentes Kontextmanagement
Nächste Schritte
Nach erfolgreicher Installation und Validierung empfiehlt sich die Konsultation folgender Ressourcen:
- Dokumentation: https://docs.gptr.dev für vollständige API-Referenz
- PIP-Dokumentation: Erweiterte Beispiele unter PIP documentation
- MCP-Integration: MCP Integration Guide für Datenquellen-Anbindung
- Tutorials: Video-Anleitungen für Installation und Live-Demo (README.md:69-72)
Für Produktionsumgebungen wird die Verwendung von Docker oder Poetry empfohlen, um reproduzierbare Deployments zu gewährleisten.
