Introduction
Si vous exécutez déjà des modèles de langage en local — que ce soit pour la confidentialité ou pour un contrôle total des données — vous avez probablement remarqué une limitation fondamentale : votre modèle local est intelligent mais isolé. Il peut générer du texte, répondre à des questions, mais il ne peut pas naviguer sur le web, accéder aux fichiers, ni se souvenir de quoi que ce soit d'une conversation à l'autre.
C'est là qu'intervient le MCP — Model Context Protocol — un standard ouvert créé par Anthropic qui change la donne. Dans cet article, nous expliquons ce qu'est le MCP, comment le configurer dans LM Studio avec Qwen 3 exécuté localement, et donnons un exemple concret de configuration avec deux serveurs MCP : un pour l'automatisation du navigateur et un pour la mémoire persistante basée sur un graphe de connaissances.
Qu'est-ce que le MCP (Model Context Protocol) ?
Le MCP est un protocole standardisé qui permet aux modèles de langage de communiquer avec des outils externes — bases de données, API, navigateurs, systèmes de fichiers — via une interface unifiée. Pensez au MCP comme à un "USB universel" pour l'IA : au lieu de construire des intégrations personnalisées pour chaque outil, vous utilisez un seul protocole que toute application compatible comprend.
L'architecture MCP repose sur deux composants principaux :
- MCP Host — l'application qui exécute le modèle de langage et gère les connexions. Dans notre cas, il s'agit de LM Studio.
- MCP Server — un programme indépendant qui expose un ensemble d'outils (tools) via le protocole MCP. Un serveur MCP peut être tout : un script local accédant à des fichiers, un service contrôlant un navigateur, ou un système de mémoire persistante.
Le flux fonctionne ainsi : l'utilisateur envoie une demande → le modèle décide quel outil est nécessaire → LM Studio envoie la demande au serveur MCP approprié → le serveur exécute l'action → le résultat revient au modèle → le modèle formule la réponse finale.
L'avantage majeur ? Vous pouvez ajouter autant de serveurs MCP que vous voulez, et le modèle a accès à tous simultanément. Un seul modèle local peut ainsi naviguer sur le web, lire des documents, contrôler un navigateur et se souvenir des conversations précédentes.
Pourquoi Qwen 3 et LM Studio ?
LM Studio
LM Studio est une application de bureau gratuite qui vous permet d'exécuter des modèles de langage en local, sans cloud ni coûts API. À partir de la version 0.3.17, LM Studio fonctionne comme un MCP Host, ce qui signifie que vous pouvez connecter directement des serveurs MCP dans l'application.
LM Studio prend en charge à la fois les serveurs MCP locaux (scripts s'exécutant sur votre machine) et les serveurs MCP distants (services externes accessibles via URL). La configuration se fait par édition d'un seul fichier : mcp.json.
Qwen 3
Qwen 3, développé par Alibaba, est l'une des familles de modèles open-source les plus capables disponibles aujourd'hui. Les modèles Qwen 3 ont un support natif pour le tool calling (appel de fonctions), ce qui les rend idéaux pour une utilisation avec MCP.
Ce qui rend Qwen 3 spécial pour notre scénario :
- Support natif du function calling — le modèle sait générer des appels structurés de fonctions, pas seulement du texte.
- Mode réflexion (thinking mode) — Qwen 3 peut "réfléchir" avant de décider quel outil appeler, ce qui conduit à de meilleures décisions.
- Variantes de tailles multiples — de Qwen3-8B (exécutable sur 8GB VRAM) à Qwen3-32B pour des systèmes plus puissants.
- Excellente prise en charge multilingue — fonctionne bien même en roumain.
Pour vérifier qu'un modèle prend en charge le tool calling dans LM Studio, recherchez les icônes 🔨 (outil) et 🧠 (raisonnement) à côté du nom du modèle dans la liste des modèles disponibles.
Configuration pas à pas : LM Studio + Qwen 3 + MCP
Étape 1 : Installation de LM Studio
Téléchargez LM Studio depuis lmstudio.ai et installez-le. Assurez-vous d'avoir la version 0.3.17 ou plus récente (les versions antérieures ne prennent pas en charge MCP).
Étape 2 : Téléchargement du modèle Qwen 3
Dans LM Studio :
- Ouvrez l'onglet modèles et recherchez
Qwen3. - Choisissez la variante adaptée à votre matériel :
- Qwen3-8B — recommandé si vous avez au moins 8GB VRAM
- Qwen3-14B — pour 12-16GB VRAM
- Qwen3-32B — pour 24GB+ VRAM
- Téléchargez le modèle en format GGUF (la variante quantifiée Q4_K_M offre un bon équilibre entre qualité et consommation mémoire).
- Chargez le modèle et vérifiez que l'icône de tool calling (🔨) apparaît à côté de son nom.
Étape 3 : Configuration du MCP
La configuration des serveurs MCP dans LM Studio se fait via le fichier mcp.json. Voici comment y accéder :
- Dans LM Studio, allez dans la barre latérale droite, onglet Program (icône terminal).
- Cliquez sur Install → Edit mcp.json.
- Le fichier de configuration s'ouvrira dans l'éditeur intégré.
Le fichier mcp.json est situé à :
- macOS/Linux :
~/.lmstudio/mcp.json - Windows :
%USERPROFILE%/.lmstudio/mcp.json
Exemple pratique : Browser MCP + Graph Memory MCP
Maintenant vient la partie intéressante. Nous allons configurer deux serveurs MCP qui ensemble transforment le modèle Qwen 3 local en un assistant véritablement capable :
- Playwright MCP — pour l'automatisation du navigateur (navigation web, extraction de données, interaction avec les pages)
- Knowledge Graph Memory MCP — pour la mémoire persistante basée sur un graphe de connaissances
Prérequis
Assurez-vous d'avoir installé :
# Node.js (version 18 ou plus récente)
node --version
# npx (vient avec Node.js)
npx --version
Configuration du fichier mcp.json
Ouvrez mcp.json dans LM Studio et ajoutez la configuration suivante :
{
"mcpServers": {
"playwright": {
"command": "npx",
"args": ["-y", "@playwright/mcp@latest"]
},
"memory": {
"command": "npx",
"args": ["-y", "@modelcontextprotocol/server-memory"],
"env": {
"MEMORY_FILE_PATH": "/Users/votrenom/ai-memory/memory.jsonl"
}
}
}
}
Note pour Windows : Remplacez le chemin dans
MEMORY_FILE_PATHpar un chemin Windows valide, par exemple :C:\\Users\\VotreNom\\ai-memory\\memory.jsonl. Créez le dossier manuellement avant de lancer les serveurs.
Sauvegardez le fichier. LM Studio chargera automatiquement les serveurs MCP définis. Pour chaque serveur, LM Studio lance un processus séparé.
Installation du navigateur Playwright
À la première utilisation, vous devez installer le navigateur Chromium pour Playwright :
npx playwright install chromium
Vérification
Après avoir sauvegardé mcp.json, vérifiez dans LM Studio :
- Ouvrez un nouveau chat avec Qwen 3.
- En bas de l'interface de chat, vous devriez voir les serveurs MCP actifs.
- Testez avec un message simple : "Naviguez sur wikipedia.org et dites-moi ce qui est écrit sur la page principale."
Lorsque le modèle appelle un outil, LM Studio affiche une boîte de dialogue de confirmation où vous pouvez inspecter, approuver ou refuser l'action — un mécanisme important de sécurité.
MCP du navigateur : Playwright
Le serveur Playwright MCP, développé par Microsoft, donne à votre modèle local la capacité de contrôler un vrai navigateur. Il ne s'agit pas seulement d'un simple web scraping — le modèle peut interagir avec les pages web comme un utilisateur humain.
Ce qu'il peut faire
Via Playwright MCP, le modèle a accès aux outils suivants :
- browser_navigate — naviguer vers n'importe quel URL
- browser_click — cliquer sur les éléments de la page
- browser_fill — remplir des formulaires
- browser_screenshot — capturer des captures d'écran
- browser_get_text — extraire du texte des pages
- browser_evaluate — exécuter du JavaScript dans le contexte de la page
Comment ça marche techniquement
Playwright MCP utilise l'arbre d'accessibilité du navigateur, pas des captures d'écran. Cela signifie que le modèle "voit" la page web comme une structure sémantique : boutons avec des libellés, champs de saisie avec des noms, liens avec du texte. Cette approche est plus efficace que l'analyse visuelle et fonctionne même avec des modèles qui n'ont pas de capacités de vision.
Exemple d'utilisation
Vous pouvez demander au modèle :
"Ouvrez example.com, remplissez le formulaire de contact avec le nom Jean Dupont et l'email jean@example.com, puis envoyez le formulaire. Faites une capture d'écran de la page de confirmation."
Le modèle orchestrera automatiquement la séquence d'appels : navigation → remplissage des champs → clic sur le bouton d'envoi → capture d'écran.
MCP de mémoire : Knowledge Graph Memory
Celui-ci est probablement le MCP le plus transformateur dans notre configuration. Le serveur Knowledge Graph Memory fournit à votre modèle une mémoire persistante, structurée comme un graphe de connaissances. Les informations sont conservées entre les sessions de chat, ce qui signifie que votre modèle local peut "apprendre" et "se souvenir" des choses d'une conversation à l'autre.
Qu'est-ce qu'un Knowledge Graph (Graphe de Connaissances) ?
Un knowledge graph est une structure de données qui organise les informations sous forme d'entités connectées par des relations. Contrairement à une base de données tabulaire classique ou un simple fichier texte, un graphe de connaissances capture le contexte et les connexions entre les informations.
Le graphe de connaissances utilisé par ce serveur MCP a trois éléments fondamentaux :
1. Entités Ce sont les nœuds principaux du graphe. Chaque entité a un nom unique et un type. Par exemple :
Jean_Dupont— type :personneTEN_INVENT— type :entrepriseProjet_Dashboard— type :projet
2. Observations
Ce sont des morceaux atomiques d'information attachés à une entité. Chaque observation est un fait individuel, clair et spécifique. Par exemple, pour l'entité Jean_Dupont :
- "Préfère les réunions du matin"
- "Parle couramment anglais et roumain"
- "Travaille avec Laravel et React"
3. Relations Ce sont des connexions directionnelles entre les entités, exprimées à la voix active. Par exemple :
Jean_Dupont→ travaille chez →TEN_INVENTTEN_INVENT→ développe →Projet_DashboardJean_Dupont→ dirige →Projet_Dashboard
Pourquoi ce modèle est-il puissant ?
La puissance du graphe de connaissances vient de sa capacité à connecter des informations apparemment disparates. Quand le modèle reçoit une question sur un projet, il peut traverser le graphe pour trouver qui travaille sur ce projet, quelles technologies sont utilisées, quels deadlines existent et quelles sont les dépendances.
Les données sont stockées localement dans un fichier JSONL (JSON Lines), ce qui signifie :
- Persistance — les informations survivent entre les sessions
- Transparence — vous pouvez inspecter et éditer le fichier manuellement
- Portabilité — vous pouvez déplacer ou dupliquer le fichier de mémoire
- Confidentialité — les données ne quittent jamais votre machine
Outils disponibles
Le serveur de mémoire expose les outils suivants :
- create_entities — créer de nouvelles entités dans le graphe
- create_relations — définir des relations entre les entités existantes
- add_observations — ajouter de nouvelles informations à une entité
- search_nodes — rechercher dans le graphe par mots-clés
- open_nodes — ouvrir des entités spécifiques par nom
- read_graph — lire l'ensemble du graphe de connaissances
- delete_entities / delete_relations / delete_observations — opérations de suppression
Exemple concret de fonctionnement
Dans la première conversation, vous dites au modèle :
"Mon nom est Jean, je travaille chez TEN INVENT en tant que développeur. Notre projet principal s'appelle BOB et nous utilisons Laravel avec React."
Le modèle, configuré pour utiliser la mémoire, créera automatiquement :
Entité : Jean (type : personne)
- Observation : "Est développeur"
Entité : TEN_INVENT (type : entreprise)
- Observation : "Entreprise de développement logiciel"
Entité : BOB (type : projet)
- Observation : "Utilise Laravel avec React"
Relation : Jean → travaille chez → TEN_INVENT
Relation : TEN_INVENT → développe → BOB
Relation : Jean → travaille sur → BOB
Dans une conversation ultérieure, vous pouvez demander :
"Sur quels projets travaille-je ?"
Le modèle recherchera dans le graphe de mémoire, trouvera l'entité "Jean", traversera les relations et répondra avec les informations stockées — sans avoir jamais mentionné ces détails dans la conversation actuelle.
Conseils pratiques et optimisations
Choix du bon modèle
Tous les modèles locaux ne fonctionnent pas de manière égale avec MCP. Pour un tool calling efficace, les recommandations sont :
- Qwen3-8B ou plus — seuil minimum recommandé
- Variantes "thinking" — gèrent mieux les séquences complexes d'outils
- Évitez les modèles sous 7B paramètres — n'ont pas assez de capacité pour un tool calling fiable
Gestion du contexte
Les résultats des outils consomment du contexte. Chaque réponse d'un serveur MCP réduit l'espace disponible pour la conversation. Quelques stratégies :
- Commencez un nouveau chat quand vous changez radicalement de sujet
- Soyez spécifique dans les demandes pour minimiser les données retournées
- Utilisez des fenêtres de contexte généreuses (Qwen 3 prend en charge 32K+ tokens)
Sécurité
Les serveurs MCP peuvent exécuter du code et accéder aux ressources de votre système. Quelques règles de base :
- Installez uniquement des serveurs MCP provenant de sources fiables
- Vérifiez toujours les appels d'outils dans la boîte de dialogue de confirmation de LM Studio
- N'exposez pas les serveurs MCP sur le réseau sans authentification
Conclusion
La combinaison LM Studio + Qwen 3 + MCP démontre que l'IA locale ne signifie plus IA isolée. Avec quelques lignes de configuration JSON, votre modèle local gagne la capacité de naviguer sur le web, d'interagir avec les pages et de se souvenir des conversations précédentes — tout cela sans envoyer un seul octet de données vers le cloud.
MCP est un écosystème en croissance rapide. Outre Playwright et Knowledge Graph Memory, il existe déjà des centaines de serveurs MCP pour diverses intégrations : bases de données, GitHub, Slack, Google Drive, Notion et bien d'autres. Vous pouvez même construire vos propres serveurs MCP avec Python (en utilisant FastMCP) ou Node.js.
Si vous êtes curieux d'explorer plus loin, la liste communautaire awesome-mcp-servers sur GitHub est un excellent point de départ.
Cet article fait partie de la série de publications techniques sur le blog TEN INVENT. Si vous avez des questions ou souhaitez discuter de l'implémentation du MCP dans vos projets, contactez-nous.