Agent Builder ist jetzt allgemein verfügbar (GA). Starten Sie mit einer Elastic Cloud-Testversion und sehen Sie sich hier die Dokumentation für Agent Builder an.
Was wäre, wenn die Interaktion mit Ihren Daten so mühelos wäre wie das Chatten mit einem Kollegen? Stellen Sie sich vor, Sie fragen einfach: „Zeigen Sie mir alle Bestellungen über 500 $ vom letzten Monat“ oder „Welche Produkte haben die meisten 5-Sterne-Bewertungen erhalten?“ und Sie erhalten sofort genaue Antworten, ohne dass Sie nachfragen müssen.
Das Model Context Protocol (MCP) macht dies möglich. Es verbindet die Konversations-KI nahtlos mit Ihren Datenbanken und externen APIs und wandelt komplexe Anfragen in natürliche Konversationen um. Moderne LLMs verfügen zwar über hervorragende Sprachkenntnisse, ihr wahres Potenzial entfaltet sich jedoch erst bei der Integration in reale Systeme. MCP schließt die Lücke zwischen ihnen und macht die Dateninteraktion intuitiver und effizienter.
In diesem Beitrag untersuchen wir:
- MCP-Architektur – So funktioniert es unter der Haube
- Vorteile eines mit Elasticsearch verbundenen MCP-Servers
- Erstellen eines Elasticsearch-basierten MCP-Servers
Es stehen spannende Zeiten bevor! Die Integration von MCP in Ihren Elastic-Stack verändert die Art und Weise, wie Sie mit Informationen interagieren, und macht komplexe Abfragen so intuitiv wie alltägliche Gespräche.
Modellkontextprotokoll
Das von Anthropic entwickelte Model Context Protocol (MCP) ist ein offener Standard, der KI-Modelle über sichere, bidirektionale Kanäle mit externen Datenquellen verbindet. Es löst eine große KI-Einschränkung: Echtzeitzugriff auf externe Systeme unter Beibehaltung des Gesprächskontexts.
MCP-Architektur
Die Architektur des Model Context Protocol besteht aus zwei Hauptkomponenten:
- MCP-Clients – KI-Assistenten und Chatbots, die im Namen der Benutzer Informationen anfordern oder Aufgaben ausführen.
- MCP-Server – Datenspeicher, Suchmaschinen und APIs, die relevante Informationen abrufen oder angeforderte Aktionen ausführen (z. B. Aufrufen externer APIs).
MCP-Server bieten Clients vier Hauptfunktionen:
- Ressourcen – Strukturierte Daten, Dokumente und Inhalte, die abgerufen und als Kontext für LLM-Interaktionen verwendet werden können. Dadurch können KI-Assistenten auf relevante Informationen aus Datenbanken, Suchindizes oder anderen Quellen zugreifen.
- Tools – Ausführbare Funktionen, die es LLMs ermöglichen, mit externen Systemen zu interagieren, Berechnungen durchzuführen oder Aktionen in der realen Welt auszuführen. Diese Tools erweitern die KI-Funktionen über die Textgenerierung hinaus und ermöglichen es Assistenten, Workflows auszulösen, APIs aufzurufen oder Daten dynamisch zu bearbeiten.
- Eingabeaufforderungen – Wiederverwendbare Eingabeaufforderungsvorlagen und Arbeitsabläufe zum Standardisieren und Teilen gängiger LLM-Interaktionen.
- Sampling – Fordern Sie LLM-Vervollständigungen über den Client an, um anspruchsvolles Agentenverhalten zu ermöglichen und gleichzeitig Sicherheit und Datenschutz zu gewährleisten.

MCP-Server + Elasticsearch
Herkömmliche Retrieval-Augmented Generation (RAG)-Systeme rufen Dokumente basierend auf Benutzerabfragen ab, aber MCP geht noch einen Schritt weiter: Es ermöglicht KI-Agenten, Aufgaben dynamisch zu erstellen und in Echtzeit auszuführen. Dadurch können Benutzer Fragen in natürlicher Sprache stellen, wie zum Beispiel:
- „Zeigen Sie mir alle Bestellungen über 500 $ vom letzten Monat.“
- „Welche Produkte haben die meisten 5-Sterne-Bewertungen erhalten?“
Und erhalten Sie sofort präzise Antworten, ohne eine einzige Anfrage zu schreiben.
MCP erreicht dies durch:
- Dynamische Toolauswahl – Agenten wählen auf intelligente Weise die richtigen Tools aus, die über MCP-Server basierend auf der Benutzerabsicht bereitgestellt werden. „Intelligentere“ LLMs sind im Allgemeinen besser darin, die richtigen Werkzeuge mit den entsprechenden Argumenten basierend auf dem Kontext auszuwählen.
- Bidirektionale Kommunikation – Agenten und Datenquellen tauschen Informationen reibungslos aus und verfeinern Abfragen nach Bedarf (z. B. Suchen Sie zuerst nach einer Indexzuordnung und erstellen Sie erst dann die ES-Abfrage.
- Multi-Tool-Orchestrierung – Workflows können Tools von mehreren MCP-Servern gleichzeitig nutzen.
- Permanenter Kontext – Agenten erinnern sich an vorherige Interaktionen und sorgen so für Kontinuität über Gespräche hinweg.
Ein mit Elasticsearch verbundener MCP-Server ermöglicht eine leistungsstarke Echtzeit-Abrufarchitektur. KI-Agenten können Elasticsearch-Daten bei Bedarf erkunden, abfragen und analysieren. Ihre Daten können über eine einfache Chat-Schnittstelle durchsucht werden.
MCP dient nicht nur dem Abrufen von Daten, sondern ermöglicht auch Aktionen. Es lässt sich in andere Tools integrieren, um Workflows auszulösen, Prozesse zu automatisieren und Erkenntnisse in Analysesysteme einzuspeisen. Durch die Trennung von Suche und Ausführung sorgt MCP dafür, dass KI-gestützte Anwendungen flexibel und aktuell bleiben und nahtlos in Agenten-Workflows integriert werden.
Praxisnah: MCP-Server zum Chatten mit Ihren Elasticsearch-Daten
Um über einen MCP-Server mit Elasticsearch zu interagieren, benötigen wir mindestens folgende Funktionen:
- Indizes abrufen
- Zuordnungen abrufen
- Führen Sie Suchvorgänge mit der Query DSL von Elasticsearch durch
Unser Server ist in TypeScript geschrieben und wir werden das offizielle MCP TypeScript SDK verwenden. Zur Einrichtung empfehlen wir die Installation der Claude Desktop App (die kostenlose Version ist ausreichend), da diese einen integrierten MCP-Client enthält. Unser MCP-Server stellt im Wesentlichen den offiziellen JavaScript Elasticsearch-Client über MCP-Tools bereit.
Beginnen wir mit der Definition des Elasticsearch-Clients und des MCP-Servers:
Wir werden die folgenden MCP-Servertools verwenden, die mit Elasticsearch interagieren können:
- Indizes auflisten (list_indices): Dieses Tool ruft alle verfügbaren Elasticsearch-Indizes ab und liefert Details wie Indexname, Integritätsstatus und Dokumentanzahl.
- Zuordnungen abrufen (get_mappings): Dieses Tool ruft die Feldzuordnungen für einen angegebenen Elasticsearch-Index ab und hilft Benutzern, die Struktur und Datentypen gespeicherter Dokumente zu verstehen.
- Suche (Suche): Dieses Tool führt eine Elasticsearch-Suche mithilfe einer bereitgestellten Abfrage-DSL aus. Es aktiviert automatisch Hervorhebungen für Textfelder und erleichtert so die Identifizierung relevanter Suchergebnisse.
Die vollständige Elasticsearch MCP-Serverimplementierung ist im Repository elastic/mcp-server-elasticsearch verfügbar.
Chatten Sie mit Ihrem Index
Sehen wir uns an, wie Sie den Elasticsearch MCP-Server einrichten, damit Sie Fragen zu Ihren Daten in natürlicher Sprache stellen können, z. B. „Finden Sie alle Bestellungen über 500 $ vom letzten Monat.“
Konfigurieren Sie Ihre Claude Desktop App
- Öffnen Sie die Claude Desktop App
- Navigieren Sie zu Einstellungen > Entwickler > MCP-Server
- Klicken Sie auf „Konfiguration bearbeiten“ und fügen Sie diese Konfiguration zu Ihrem
claude_desktop_config.jsonhinzu:
Hinweis: Dieses Setup verwendet das von Elastic veröffentlichte npm-Paket @elastic/mcp-server-elasticsearch . Wenn Sie lokal entwickeln möchten, finden Sie hier weitere Informationen zum Hochfahren des Elasticsearch MCP-Servers.
Füllen Sie Ihren Elasticsearch-Index
- Sie können unsere Beispieldaten verwenden, um den Index "Bestellungen" für diese Demo zu füllen
- Auf diese Weise können Sie Abfragen wie „Alle Bestellungen über 500 $ vom letzten Monat suchen“ ausprobieren.
Beginnen Sie mit der Nutzung
- Öffnen Sie eine neue Konversation in der Claude Desktop App
- Der MCP-Server verbindet sich automatisch
- Stellen Sie Fragen zu Ihren Elasticsearch-Daten!
Sehen Sie sich diese Demo an, um zu sehen, wie einfach es ist, Ihre Elasticsearch-Daten mithilfe natürlicher Sprache abzufragen:
Wie funktionieren diese Abfragen?
Bei der Aufforderung „Alle Bestellungen über 500 $ vom letzten Monat suchen“ erkennt das LLM die Absicht, den Elasticsearch-Index mit angegebenen Einschränkungen zu durchsuchen. Um eine effektive Suche durchzuführen, muss der Agent:
- Ermitteln Sie den Indexnamen:
orders - Verstehen Sie die Zuordnungen des
orders-Index - Erstellen Sie die Query-DSL kompatibel mit Index-Mappings und führen Sie anschließend die Suchanfrage aus
Diese Interaktion kann wie folgt dargestellt werden:

Fazit
Das Model Context Protocol verbessert Ihre Interaktion mit Elasticsearch-Daten und ermöglicht Konversationen in natürlicher Sprache anstelle komplexer Abfragen. Durch die Verbindung von KI-Funktionen mit Ihren Daten erstellt MCP einen intuitiveren und effizienteren Workflow, der den Kontext während Ihrer Interaktionen aufrechterhält.
Der Elasticsearch MCP-Server ist als öffentliches npm-Paket (@elastic/mcp-server-elasticsearch) verfügbar, was die Integration für Entwickler unkompliziert macht. Mit minimalem Einrichtungsaufwand kann Ihr Team beginnen, Daten zu untersuchen, Workflows auszulösen und durch einfache Gespräche Erkenntnisse zu gewinnen.
Bereit, es selbst zu erleben? Testen Sie noch heute den Elasticsearch MCP-Server und beginnen Sie mit dem Chatten mit Ihren Daten.




