Einführung
Wenn du bereits Sprachmodelle lokal ausführst — ob aus Datenschutzgründen oder für volle Kontrolle über deine Daten — hast du vielleicht eine grundlegende Einschränkung bemerkt: Dein lokales Modell ist intelligent, aber isoliert. Es kann Text generieren und Fragen beantworten, aber nicht im Web surfen, keine Dateien zugreifen und sich nichts von einem Gespräch zum nächsten merken.
Hier kommt MCP – Model Context Protocol ins Spiel: ein offener Standard von Anthropic, der die Regeln ändert. In diesem Artikel erklären wir, was MCP ist, wie du es in LM Studio mit dem lokal laufenden Modell Qwen 3 konfigurierst, und geben ein konkretes Setup mit zwei MCP-Servern: einem für Browser-Automatisierung und einem für persistente Memory basierend auf einem Knowledge Graph.
Was ist MCP (Model Context Protocol)?
MCP ist ein standardisiertes Protokoll, das Sprachmodellen ermöglicht, mit externen Werkzeugen — Datenbanken, APIs, Browsern, Dateisystemen — über eine einheitliche Schnittstelle zu kommunizieren. Denke an MCP als "Universal-USB" für KI: statt benutzerdefinierte Integrationen für jedes Tool zu bauen, verwendest du ein einzelnes Protokoll, das jede kompatible Anwendung versteht.
Die MCP-Architektur basiert auf zwei Hauptkomponenten:
- MCP Host — die Anwendung, die das Sprachmodell ausführt und Verbindungen verwaltet. In unserem Fall ist dies LM Studio.
- MCP Server — ein unabhängiges Programm, das einen Satz von Werkzeugen (Tools) über das MCP-Protokoll bereitstellt. Ein MCP-Server kann alles sein: ein lokales Skript, das auf Dateien zugreift, ein Dienst, der einen Browser steuert, oder ein persistenter Speichersystem.
Der Ablauf funktioniert so: Benutzer sendet eine Anfrage → Modell entscheidet, welches Tool benötigt wird → LM Studio sendet die Anfrage an den entsprechenden MCP-Server → Server führt die Aktion aus → Ergebnis kehrt zum Modell zurück → Modell formuliert die endgültige Antwort.
Der Hauptvorteil? Du kannst so viele MCP-Server hinzufügen, wie du möchtest, und das Modell hat gleichzeitig Zugriff auf alle. Ein einzelnes lokales Modell kann also im Web surfen, Dokumente lesen, einen Browser steuern und frühere Unterhaltungen记忆.
Warum Qwen 3 und LM Studio ?
LM Studio
LM Studio ist eine kostenlose Desktop-Anwendung, mit der du Sprachmodelle lokal ausführen kannst — ohne Cloud oder API-Kosten. Ab Version 0.3.17 funktioniert LM Studio als MCP Host, was bedeutet, dass du MCP-Server direkt in der Anwendung verbinden kannst.
LM Studio unterstützt sowohl lokale MCP-Server (Skripte, die auf deinem Rechner laufen) als auch entfernte MCP-Server (externe Dienste, die über URL erreichbar sind). Die Konfiguration erfolgt durch Bearbeiten einer einzigen Datei: mcp.json.
Qwen 3
Qwen 3, entwickelt von Alibaba, ist eine der leistungsfähigsten Open-Source-Modellfamilien, die heute verfügbar sind. Qwen 3 Modelle haben nativen Support für Tool Calling (Funktionsaufrufe), was sie ideal für die Verwendung mit MCP macht.
Was Qwen 3 für unser Szenario besonders macht:
- Nativer Function Calling-Support — das Modell weiß, strukturierte Funktionsaufrufe zu generieren, nicht nur Text.
- Denkmodus (thinking mode) — Qwen 3 kann "denken", bevor es entscheidet, welches Tool aufgerufen werden soll, was zu besseren Entscheidungen führt.
- Mehrere Größenvarianten — von Qwen3-8B (ausführbar mit 8GB VRAM) bis Qwen3-32B für leistungsfähigere Systeme.
- Ausgezeichnete mehrsprachige Unterstützung — funktioniert gut, sogar in rumänischer Sprache.
Um zu überprüfen, ob ein Modell Tool Calling in LM Studio unterstützt, suche nach den Icons 🔨 (Tool) und 🧠 (Reasoning) neben dem Modellnamen in der Liste der verfügbaren Modelle.
Schritt-für-Schritt-Setup: LM Studio + Qwen 3 + MCP
Schritt 1: Installation von LM Studio
Lade LM Studio von lmstudio.ai herunter und installiere es. Stelle sicher, dass du Version 0.3.17 oder neuer hast (ältere Versionen unterstützen kein MCP).
Schritt 2: Herunterladen des Qwen 3 Modells
In LM Studio:
- Öffne den Modelle-Tab und suche nach
Qwen3. - Wähle die Variante, die für deine Hardware geeignet ist:
- Qwen3-8B — empfohlen, wenn du mindestens 8GB VRAM hast
- Qwen3-14B — für 12-16GB VRAM
- Qwen3-32B — für 24GB+ VRAM
- Lade das Modell im GGUF-Format herunter (die quantisierte Q4_K_M-Variante bietet ein gutes Gleichgewicht zwischen Qualität und Speicherverbrauch).
- Lade das Modell und überprüfe, dass das Tool Calling-Icon (🔨) neben seinem Namen erscheint.
Schritt 3: Konfiguration des MCP
Die Konfiguration der MCP-Server in LM Studio erfolgt über die Datei mcp.json. Hier ist, wie du darauf zugreifst:
- In LM Studio gehe zur rechten Seitenleiste, Tab Program (Terminal-Icon).
- Klicke auf Install → Edit mcp.json.
- Die Konfigurationsdatei öffnet sich im integrierten Editor.
Die Datei mcp.json befindet sich an:
- macOS/Linux:
~/.lmstudio/mcp.json - Windows:
%USERPROFILE%/.lmstudio/mcp.json
Praktisches Beispiel: Browser MCP + Graph Memory MCP
Jetzt kommt der interessante Teil. Wir werden zwei MCP-Server konfigurieren, die zusammen das lokale Qwen 3 Modell in einen wirklich fähigen Assistenten verwandeln:
- Playwright MCP — für Browser-Automatisierung (Web-Navigation, Datenextraktion, Seiteninteraktion)
- Knowledge Graph Memory MCP — für persistente Erinnerung basierend auf einem Wissensgraphen
Voraussetzungen
Stelle sicher, dass du installiert hast:
# Node.js (Version 18 oder neuer)
node --version
# npx (kommt mit Node.js)
npx --version
Konfiguration der mcp.json-Datei
Öffne mcp.json in LM Studio und füge die folgende Konfiguration hinzu:
{
"mcpServers": {
"playwright": {
"command": "npx",
"args": ["-y", "@playwright/mcp@latest"]
},
"memory": {
"command": "npx",
"args": ["-y", "@modelcontextprotocol/server-memory"],
"env": {
"MEMORY_FILE_PATH": "/Users/deinname/ai-memory/memory.jsonl"
}
}
}
}
Hinweis für Windows: Ersetze den Pfad in
MEMORY_FILE_PATHdurch einen gültigen Windows-Pfad, z.B.C:\\Users\\DeinName\\ai-memory\\memory.jsonl. Erstelle den Ordner manuell, bevor du die Server startest.
Speichere die Datei. LM Studio lädt automatisch die definierten MCP-Server. Für jeden Server startet LM Studio einen separaten Prozess.
Installation des Playwright-Browsers
Beim ersten Gebrauch musst du den Chromium-Browser für Playwright installieren:
npx playwright install chromium
Überprüfung
Nachdem du mcp.json gespeichert hast, überprüfe in LM Studio:
- Öffne einen neuen Chat mit Qwen 3.
- Am unteren Rand der Chat-Schnittstelle solltest du die aktiven MCP-Server sehen.
- Teste mit einer einfachen Nachricht: "Navigiere zu wikipedia.org und sag mir, was auf der Hauptseite steht."
Wenn das Modell ein Tool aufruft, zeigt LM Studio einen Bestätigungsdialog an, in dem du die Aktion inspizieren, genehmigen oder ablehnen kannst — ein wichtiger Sicherheitsmechanismus.
Browser MCP: Playwright
Der Playwright MCP-Server, entwickelt von Microsoft, gibt deinem lokalen Modell die Fähigkeit, einen echten Browser zu steuern. Es geht nicht nur um einfaches Web-Scraping — das Modell kann mit Webseiten interagieren wie ein menschlicher Benutzer.
Was es tun kann
Über Playwright MCP hat das Modell Zugriff auf Werkzeuge wie:
- browser_navigate — zu jeder URL navigieren
- browser_click — auf Seitenelemente klicken
- browser_fill — Formulare ausfüllen
- browser_screenshot — Screenshots erfassen
- browser_get_text — Text von Seiten extrahieren
- browser_evaluate — JavaScript im Kontext der Seite ausführen
Wie es technisch funktioniert
Playwright MCP verwendet den Accessibility Tree des Browsers, nicht Screenshots. Das bedeutet, das Modell "sieht" die Webseite als semantische Struktur: Buttons mit Labels, Input-Felder mit Namen, Links mit Text. Dieser Ansatz ist effizienter als visuelle Analyse und funktioniert sogar mit Modellen, die keine Vision-Fähigkeiten haben.
Nutzungsbeispiel
Du kannst das Modell fragen:
"Öffne example.com, fülle das Kontaktformular mit dem Namen Max Mustermann und der E-Mail max@example.com aus, sende dann das Formular ab. Mache einen Screenshot der Bestätigungsseite."
Das Modell wird die Sequenz von Aufrufen automatisch orchestrieren: Navigation → Felder ausfüllen → Absende-Button klicken → Screenshot erfassen.
Memory MCP: Knowledge Graph Memory
Dies ist wahrscheinlich der transformativste MCP in unserem Setup. Der Knowledge Graph Memory-Server bietet deinem Modell persistente, strukturierte Erinnerung als Wissensgraph. Informationen werden zwischen Chat-Sessions beibehalten, was bedeutet, dass dein lokales Modell "lernen" und "erinnern" kann, Dinge von einer Unterhaltung zur nächsten.
Was ist ein Knowledge Graph (Wissensgraph)?
Ein Knowledge Graph ist eine Datenstruktur, die Informationen als Entitäten organisiert, die durch Relationen verbunden sind. Im Gegensatz zu einer klassischen tabellarischen Datenbank oder einer einfachen Textdatei erfasst ein Wissensgraph den Kontext und die Verbindungen zwischen Informationen.
Der Wissensgraph, der von diesem MCP-Server verwendet wird, hat drei grundlegende Elemente:
1. Entitäten Dies sind die Hauptknoten des Graphen. Jede Entität hat einen eindeutigen Namen und einen Typ. Zum Beispiel:
Max_Mustermann— Typ:personTEN_INVENT— Typ:unternehmenDashboard_Projekt— Typ:projekt
2. Beobachtungen
Dies sind atomare Informationsstücke, die an eine Entität angehängt sind. Jede Beobachtung ist ein einzelner, klarer und spezifischer Fakt. Zum Beispiel, für die Entität Max_Mustermann:
- "Bevorzugt Morgenbesprechungen"
- "Spricht fließend Englisch und Rumänisch"
- "Arbeitet mit Laravel und React"
3. Relationen Dies sind gerichtete Verbindungen zwischen Entitäten, ausgedrückt in der aktiven Stimme. Zum Beispiel:
Max_Mustermann→ arbeitet bei →TEN_INVENTTEN_INVENT→ entwickelt →Dashboard_ProjektMax_Mustermann→ leitet →Dashboard_Projekt
Warum ist dieses Modell stark?
Die Stärke des Wissensgraphen kommt aus seiner Fähigkeit, scheinbar disparaten Informationen zu verbinden. Wenn das Modell eine Frage zu einem Projekt erhält, kann es den Graphen durchqueren, um herauszufinden, wer an diesem Projekt arbeitet, welche Technologien verwendet werden, welche Deadlines existieren und was die Abhängigkeiten sind.
Daten werden lokal in einer JSONL-Datei (JSON Lines) gespeichert, was bedeutet:
- Persistenz — Informationen überleben zwischen Sitzungen
- Transparenz — du kannst die Datei manuell inspizieren und bearbeiten
- Portabilität — du kannst die Speicherdatei verschieben oder duplizieren
- Vertraulichkeit — Daten verlassen deine Maschine niemals
Verfügbare Werkzeuge
Der Memory-Server stellt folgende Tools bereit:
- create_entities — neue Entitäten im Graphen erstellen
- create_relations — Relationen zwischen existierenden Entitäten definieren
- add_observations — neue Informationen zu einer Entität hinzufügen
- search_nodes — im Graphen nach Schlüsselwörtern suchen
- open_nodes — spezifische Entitäten nach Namen öffnen
- read_graph — den gesamten Wissensgraphen lesen
- delete_entities / delete_relations / delete_observations — Löschoperationen
Konkretes Beispiel für den Betrieb
Im ersten Gespräch sagst du dem Modell:
"Mein Name ist Max, ich arbeite bei TEN INVENT als Entwickler. Unser Hauptprojekt heißt BOB und wir verwenden Laravel mit React."
Das Modell, das so konfiguriert ist, Erinnerung zu nutzen, wird automatisch erstellen:
Entität: Max (Typ: Person)
- Beobachtung: "Ist Entwickler"
Entität: TEN_INVENT (Typ: Unternehmen)
- Beobachtung: "Software-Entwicklungsfirma"
Entität: BOB (Typ: Projekt)
- Beobachtung: "Verwendet Laravel mit React"
Relation: Max → arbeitet bei → TEN_INVENT
Relation: TEN_INVENT → entwickelt → BOB
Relation: Max → arbeitet an → BOB
In einem späteren Gespräch kannst du fragen:
"An welchen Projekten arbeite ich?"
Das Modell wird im Memory-Graph suchen, die Entität "Max" finden, die Relationen durchqueren und mit den gespeicherten Informationen antworten — ohne jemals diese Details in der aktuellen Unterhaltung erwähnt zu haben.
Praktische Tipps und Optimierungen
Wahl des richtigen Modells
Nicht alle lokalen Modelle funktionieren gleich gut mit MCP. Für effizientes Tool Calling sind die Empfehlungen:
- Qwen3-8B oder größer — minimal empfohlener Schwellenwert
- "Thinking"-Varianten — handhaben komplexe Tool-Sequenzen besser
- Vermeide Modelle unter 7B Parametern — haben nicht genug Kapazität für zuverlässiges Tool Calling
Kontextmanagement
Tool-Ergebnisse verbrauchen Kontext. Jede Antwort von einem MCP-Server reduziert den verfügbaren Platz für die Unterhaltung. Einige Strategien:
- Starte einen neuen Chat, wenn du radikal das Thema wechselst
- Sei spezifisch in Anfragen, um zurückgegebene Daten zu minimieren
- Verwende großzügige Kontextfenster (Qwen 3 unterstützt 32K+ Tokens)
Sicherheit
MCP-Server können Code ausführen und auf deine Systemressourcen zugreifen. Einige grundlegende Regeln:
- Installiere nur MCP-Server aus vertrauenswürdigen Quellen
- Überprüfe immer Tool-Aufrufe im Bestätigungsdialog von LM Studio
- Exponiere MCP-Server nicht im Netzwerk ohne Authentifizierung
Fazit
Die Kombination LM Studio + Qwen 3 + MCP demonstriert, dass lokales KI nicht mehr isolierte KI bedeutet. Mit einigen Zeilen JSON-Konfiguration erhält dein lokales Modell die Fähigkeit, im Web zu surfen, mit Seiten zu interagieren und frühere Unterhaltungen zu merken — alles ohne auch nur ein einziges Byte Daten an die Cloud zu senden.
MCP ist ein schnell wachsendes Ökosystem. Neben Playwright und Knowledge Graph Memory gibt es bereits Hunderte von MCP-Servern für verschiedene Integrationen: Datenbanken, GitHub, Slack, Google Drive, Notion und viele andere. Du kannst sogar deine eigenen MCP-Server mit Python (mit FastMCP) oder Node.js bauen.
Wenn du neugierig bist, weiter zu erforschen, ist die Community-Liste awesome-mcp-servers auf GitHub ein ausgezeichneter Ausgangspunkt.
Dieser Artikel ist Teil der technischen Publikationsreihe des TEN INVENT Blogs. Wenn du Fragen hast oder über die Implementierung von MCP in deinen Projekten diskutieren möchtest, kontaktiere uns.