Zum Inhalt springen
Journal
19. April 2026
Engineering9 min Lesezeit

MCP: Das Protokoll das KI-Agenten endlich nützlich macht

Das Model Context Protocol löst ein fundamentales Integrationsproblem, das KI-Projekte im Unternehmensumfeld seit Jahren ausbremst. Wer versteht, wie MCP funktioniert und wie es aufgesetzt wird, verschafft sich einen strukturellen Vorsprung bei der Automatisierung komplexer Geschäftsprozesse.

AT
AdImpact Team
Engineering Team

Die meisten KI-Projekte scheitern nicht an der Intelligenz des Modells, sondern an der Frage, wie das Modell an die richtigen Daten kommt. Jede neue Integration bedeutete bislang: eigener Connector, eigenes Prompt-Engineering, eigene Fehlerbehandlung. Das Model Context Protocol ändert diese Gleichung grundlegend, indem es eine universelle Sprache zwischen KI-Modellen und externen Systemen definiert.

Was MCP ist und warum es jetzt relevant wird

Das Model Context Protocol ist ein offener Standard, der ursprünglich von Anthropic entwickelt und Ende 2024 der Community übergeben wurde. Es definiert, wie KI-Modelle mit externen Tools, Datenquellen und Diensten kommunizieren. Vereinfacht gesagt: MCP ist das USB-C der KI-Integration. Statt für jede Kombination aus Modell und Werkzeug einen eigenen Adapter zu bauen, gibt es eine einheitliche Schnittstelle, die beide Seiten implementieren.

Die Relevanz ergibt sich aus einem strukturellen Problem: Unternehmen betreiben im Schnitt 88 verschiedene SaaS-Anwendungen (Quelle: BetterCloud SaaS Trends Report 2024). Jede davon hat eine eigene API, eigene Authentifizierungsmechanismen und eigene Datenmodelle. Wenn ein KI-Agent auf Confluence, Jira, SAP und ein internes CRM zugreifen soll, entstehen ohne gemeinsamen Standard vier separate Integrationsprojekte. Mit MCP entsteht stattdessen ein Ökosystem wiederverwendbarer Server, die einmal gebaut und von beliebigen Clients genutzt werden können.

88Ø SaaS-Apps pro Unternehmen
1:NEin Server, viele Clients
~60%Weniger Integrationsaufwand laut frühen Adoptern

Die Architektur: Host, Client und Server

MCP unterscheidet drei Rollen. Der Host ist die Anwendung, die der Nutzer direkt verwendet, also zum Beispiel Claude Desktop, Cursor, oder eine selbst entwickelte Chat-Oberfläche. Der Client ist die Komponente innerhalb des Hosts, die MCP-Verbindungen verwaltet. Der Server ist ein eigenständiger Prozess, der Werkzeuge, Ressourcen und Prompts bereitstellt und von beliebigen Clients angesprochen werden kann.

Diese Trennung ist architektonisch entscheidend. Ein MCP-Server für das interne Ticketsystem wird einmal gebaut und kann danach von Claude Desktop, von Cursor, von einem n8n-Workflow und von einer eigenen Agenten-Pipeline gleichzeitig genutzt werden. Die Investition in den Server amortisiert sich mit jeder weiteren Nutzung. Kommunikation zwischen Client und Server erfolgt über JSON-RPC 2.0, entweder über Standard Input/Output für lokale Prozesse oder über HTTP mit Server-Sent Events für remote Deployments.

MCP ist nicht ein weiteres Framework. Es ist die Infrastrukturschicht, die entscheidet, ob KI-Agenten im Unternehmenskontext skalieren oder im Proof-of-Concept stecken bleiben.
Key Takeaway

Einen MCP-Server aufsetzen: Schritt für Schritt

Der Einstieg ist technisch überschaubar. Anthropic stellt offizielle SDKs für Python und TypeScript bereit, die den Großteil des Protokoll-Boilerplates abstrahieren. Ein minimaler MCP-Server in Python ist in unter 50 Zeilen Code lauffähig. Das folgende Vorgehen beschreibt einen produktionsnahen Aufbau für ein Unternehmensszenario.

Schritt 1: Umgebung und SDK einrichten

Voraussetzung ist Python 3.10 oder höher beziehungsweise Node.js 18 oder höher. Das offizielle Python-SDK wird über pip installiert: pip install mcp. Für TypeScript entsprechend npm install @modelcontextprotocol/sdk. Beide SDKs sind auf PyPI beziehungsweise npm öffentlich verfügbar und werden aktiv gepflegt. Für produktive Deployments empfiehlt sich eine virtuelle Umgebung und ein dediziertes Service-Konto mit minimalen Berechtigungen auf die Zielsysteme.

Schritt 2: Tools und Ressourcen definieren

MCP kennt drei Primitive: Tools sind ausführbare Funktionen, die das Modell aufrufen kann, zum Beispiel einen Datenbankquery absetzen oder eine E-Mail versenden. Ressourcen sind lesbare Datenquellen, die dem Modell als Kontext bereitgestellt werden, etwa ein Confluence-Dokument oder ein Datenbankschema. Prompts sind vordefinierte Vorlagen, die Nutzer oder Agenten aufrufen können. Für die meisten Unternehmensanwendungen sind Tools der primäre Einstiegspunkt. Jedes Tool wird mit einem Namen, einer Beschreibung und einem JSON-Schema für die Parameter definiert. Die Beschreibung ist nicht dekorativ, sie ist der primäre Mechanismus, über den das Modell entscheidet, wann und wie es ein Tool einsetzt.

Schritt 3: Transport konfigurieren

Für lokale Entwicklung und Desktop-Clients wie Claude Desktop oder Cursor ist der stdio-Transport die einfachste Option. Der Host startet den Server als Subprocess und kommuniziert über stdin/stdout. Für verteilte Systeme, bei denen mehrere Clients auf denselben Server zugreifen sollen, ist der HTTP-Transport mit Server-Sent Events die richtige Wahl. Dieser erlaubt es, den MCP-Server als eigenständigen Microservice zu betreiben, der hinter einem API-Gateway mit Authentifizierung abgesichert werden kann. In produktiven Umgebungen empfiehlt sich OAuth 2.0 oder API-Key-basierte Authentifizierung auf dem HTTP-Endpunkt.

Schritt 4: In bestehende Clients einbinden

Claude Desktop liest MCP-Server aus einer JSON-Konfigurationsdatei unter ~/Library/Application Support/Claude/claude_desktop_config.json (macOS) beziehungsweise dem entsprechenden AppData-Pfad unter Windows. Cursor unterstützt MCP-Server über seine Einstellungen unter dem Abschnitt "MCP". Für programmatische Nutzung in eigenen Agenten-Pipelines, etwa mit LangChain oder einem eigenen Orchestrator, stellt das MCP-SDK einen Client bereit, der sich in wenigen Zeilen initialisieren lässt. n8n hat native MCP-Unterstützung eingeführt, was die Integration in bestehende Automatisierungsworkflows ohne zusätzlichen Code ermöglicht.

Key Insight

Ein MCP-Server, der einmal für ein internes System gebaut wurde, kann ohne Mehraufwand von Claude Desktop, Cursor, n8n und einer eigenen Agenten-Pipeline gleichzeitig genutzt werden. Die Amortisationszeit für den Entwicklungsaufwand sinkt mit jedem zusätzlichen Client auf nahezu null.

Das wachsende Ökosystem: Was bereits verfügbar ist

Der praktische Vorteil von MCP liegt nicht nur in der Architektur, sondern im Ökosystem, das sich darum gebildet hat. Anthropic selbst stellt eine Reihe von Referenz-Servern bereit, darunter Implementierungen für Filesystem-Zugriff, PostgreSQL, GitHub, Google Drive, Slack und Puppeteer für Browser-Automatisierung. Diese sind auf GitHub öffentlich verfügbar und produktionsreif einsetzbar.

Darüber hinaus hat die Community eine wachsende Zahl von Community-Servern für Systeme wie Jira, Confluence, Notion, Linear, Salesforce und verschiedene Datenbanktypen entwickelt. Für Unternehmen mit SAP-Landschaft existieren erste Implementierungen, die über die SAP-APIs auf Stammdaten und Transaktionen zugreifen. Der entscheidende Punkt: Bevor ein eigener MCP-Server entwickelt wird, lohnt ein Blick in das öffentliche Ökosystem. In vielen Fällen ist die Grundlage bereits vorhanden und muss nur auf die eigene Infrastruktur angepasst werden.

Sicherheit und Governance im Unternehmenskontext

MCP löst Integrationsprobleme, schafft aber neue Governance-Anforderungen. Wenn ein KI-Agent über einen MCP-Server Schreibzugriff auf ein CRM oder ein ERP-System erhält, gelten dieselben Sicherheitsanforderungen wie für jeden anderen API-Zugriff, nur mit dem Unterschied, dass die Entscheidungslogik nicht deterministisch ist. Das erfordert klare Richtlinien darüber, welche Tools mit welchen Berechtigungen ausgestattet werden.

Bewährte Praxis ist das Prinzip der minimalen Berechtigung: Jeder MCP-Server erhält nur die Zugriffsrechte, die für seine definierten Tools tatsächlich notwendig sind. Lesende Operationen sollten von schreibenden getrennt werden, idealerweise in separate Server mit separaten Service-Accounts. Für sensible Operationen, etwa das Auslösen von Zahlungen oder das Löschen von Datensätzen, empfiehlt sich ein Human-in-the-Loop-Mechanismus, bei dem der Agent eine Bestätigung anfordert, bevor die Aktion ausgeführt wird. MCP unterstützt dieses Muster nativ über seinen Sampling-Mechanismus. Audit-Logging auf Server-Ebene ist keine Option, sondern Pflicht, insbesondere in regulierten Branchen wie Finanzdienstleistungen oder Gesundheitswesen.

Was bedeutet das für Unternehmen?

MCP ist kein Selbstzweck. Der Wert entsteht dort, wo Agenten wiederholt auf strukturierte Unternehmensdaten zugreifen und dabei Entscheidungen treffen oder Prozesse anstoßen müssen. Die folgenden Handlungsempfehlungen richten sich an Engineering- und Technologieverantwortliche, die MCP strategisch einsetzen wollen.

  • Beginnen Sie mit einem Bestandsaudit: Welche internen Systeme werden von Entwicklern und Wissensarbeitern täglich manuell abgefragt? Diese sind die primären Kandidaten für den ersten MCP-Server. Typische Beispiele sind Ticketsysteme, interne Wissensdatenbanken und ERP-Stammdaten.
  • Prüfen Sie das öffentliche Ökosystem, bevor Sie selbst entwickeln. Für gängige Systeme wie GitHub, Confluence, Slack und PostgreSQL existieren bereits produktionsreife Referenzimplementierungen, die angepasst statt neu gebaut werden können.
  • Definieren Sie Governance-Richtlinien vor dem ersten produktiven Einsatz: Welche Tools dürfen schreibend operieren? Welche Operationen erfordern menschliche Bestätigung? Welche Audit-Logs werden wo gespeichert? Diese Fragen sind einfacher zu beantworten, bevor der erste Agent produktiv läuft.
  • Planen Sie MCP-Server als Plattform, nicht als Einmalprojekt. Ein Server, der für einen Agenten gebaut wird, sollte von Anfang an so dokumentiert und strukturiert sein, dass er von weiteren Clients genutzt werden kann. Das ist der Hebel, der den Investitionsaufwand rechtfertigt.
  • Evaluieren Sie MCP-Unterstützung bei der Auswahl von KI-Tools. Cursor, Claude Desktop und n8n unterstützen MCP nativ. Bei der Evaluation neuer Entwicklungs- oder Automatisierungstools sollte MCP-Kompatibilität ein explizites Auswahlkriterium sein, um Lock-in auf proprietäre Integrationsmechanismen zu vermeiden.

Häufig gestellte Fragen

Was ist der Unterschied zwischen MCP und einer klassischen REST-API-Integration?

Eine REST-API-Integration ist eine direkte Verbindung zwischen zwei Systemen, die für einen spezifischen Anwendungsfall entwickelt wird. MCP ist eine Abstraktionsschicht, die es einem KI-Modell ermöglicht, dynamisch zu entscheiden, welche Tools es wann aufruft. Der entscheidende Unterschied: Bei einer klassischen Integration ist die Logik im Code hart verdrahtet. Bei MCP beschreibt der Server seine Fähigkeiten, und das Modell entscheidet zur Laufzeit, wie es diese kombiniert. Das ermöglicht flexible, kontextabhängige Workflows, die mit statischen Integrationen nicht realisierbar wären.

Ist MCP an Anthropic-Modelle gebunden?

Nein. MCP ist ein offener Standard, der modellunabhängig ist. Obwohl Anthropic das Protokoll initiiert hat, haben andere Anbieter und die Open-Source-Community Implementierungen für verschiedene Modelle und Frameworks entwickelt. MCP-Server können von jedem Client genutzt werden, der das Protokoll implementiert, unabhängig davon, welches Sprachmodell im Hintergrund läuft. Das ist ein wesentlicher Vorteil gegenüber proprietären Tool-Use-Implementierungen einzelner Anbieter.

Wie aufwendig ist die Entwicklung eines eigenen MCP-Servers?

Ein einfacher MCP-Server mit zwei bis drei Tools, der auf eine bestehende REST-API aufsetzt, ist für einen erfahrenen Backend-Entwickler in einem bis zwei Tagen lauffähig. Der Aufwand steigt mit der Komplexität der Zielsysteme, der Anzahl der Tools und den Anforderungen an Fehlerbehandlung und Authentifizierung. Für produktive Deployments mit Monitoring, Logging und Hochverfügbarkeit sollte mit einer bis zwei Wochen Entwicklungszeit gerechnet werden. Der Aufwand ist einmalig; die Nutzung durch mehrere Clients und Agenten ist danach ohne zusätzlichen Entwicklungsaufwand möglich.

Wie verhält sich MCP zu Frameworks wie LangChain oder LlamaIndex?

LangChain und LlamaIndex sind Orchestrierungs-Frameworks, die auf einer höheren Abstraktionsebene operieren. MCP ist ein Transportprotokoll, das definiert, wie Tools und Ressourcen bereitgestellt werden. Beide Ebenen schließen sich nicht aus, sondern ergänzen sich. Ein LangChain-Agent kann MCP-Server als Tool-Provider nutzen, und ein LlamaIndex-Retrieval-System kann als MCP-Ressource exponiert werden. In der Praxis bedeutet das: MCP löst das Integrationsproblem, während Frameworks wie LangChain die Orchestrierungslogik übernehmen.

Welche Sicherheitsrisiken entstehen durch MCP im Unternehmensumfeld?

Die primären Risiken sind übermäßige Berechtigungen, fehlende Auditierbarkeit und Prompt-Injection-Angriffe, bei denen manipulierte Eingabedaten den Agenten dazu bringen, unbeabsichtigte Tool-Aufrufe auszuführen. Gegenmaßnahmen umfassen das Prinzip der minimalen Berechtigung auf Server-Ebene, vollständiges Audit-Logging aller Tool-Aufrufe, Input-Validierung auf dem Server vor der Ausführung und Human-in-the-Loop-Mechanismen für kritische Operationen. MCP selbst ist protokollseitig neutral; die Sicherheit entsteht durch die Implementierungsentscheidungen auf Server- und Deployment-Ebene.

Alle Artikel