KI-Innovation durch Interoperabilität – MCP, ACP und A2A als Wegbereiter im B2B LLM-Context
KI-Innovation durch Interoperabilität – MCP, ACP und A2A als Wegbereiter im B2B LLM-Context
In der heutigen digitalen Welt stehen CEOs und Führungskräfte vor der Herausforderung, Künstliche Intelligenz nicht nur als isolierte Schlagworte zu verstehen, sondern als integralen Bestandteil moderner Geschäftsprozesse. Large Language Models (LLMs) wie GPT und Claude revolutionieren bereits die Art und Weise, wie Unternehmen Daten verarbeiten und Entscheidungen treffen. Doch um echte Mehrwerte zu erzielen, müssen diese Systeme mehr als nur textbasierten Input verarbeiten. Sie benötigen umfassenden Kontext, externe Tools sowie den Austausch mit anderen KI-Agenten. Genau hier setzen drei neue Kommunikationsprotokolle an: MCP von Anthropic, ACP von IBM und A2A von Google.
Warum standardisierte Protokolle für KI wichtig sind
Die einfache Interaktion mit einem Chatbot oder einer Sprachassistenz reicht nicht mehr aus, wenn es um komplexe B2B-Probleme geht. Um beispielsweise auf Echtzeitdaten zuzugreifen, APIs anzubinden oder mehrere KI-Agenten miteinander kommunizieren zu lassen, bedarf es standardisierter Schnittstellen und Protokolle. Diese Protokolle stellen den Leitfaden dar, wie Systeme miteinander sprechen, Informationen austauschen und Aufgaben koordinieren. In diesem Beitrag werfen wir einen Blick auf MCP, ACP und A2A, drei aktuelle Ansätze von Anthropic, IBM und Google, die das Ziel verfolgen, die Integration von KI-Systemen im Unternehmenskontext zu optimieren.
1. MCP (Model Context Protocol) – Die Grundlage zur Anbindung externer Daten
MCP, entwickelt von Anthropic, fokussiert sich darauf, LLMs mit zusätzlichem Kontext und Informationen zu versorgen. Im Wesentlichen ermöglicht MCP eine standardisierte Anbindung externer APIs und Datenquellen, sodass ein Sprachmodell nicht nur auf seine interne Wissensdatenbank beschränkt ist, sondern auch aktuelle und spezifische Unternehmensdaten abrufen kann. Einige wichtige Merkmale von MCP:
- Transport & Protokoll: MCP nutzt im Basisfall HTTP (SSE) und JSON (lokal auch STDIO), ein vertrauter Standard, der sich nahtlos in bestehende Systeme integrieren lässt. Erweiterungen via gRPC sind möglich, falls leistungsfähigere Kommunikationswege benötigt werden.
- Scope: Es richtet sich primär an die Verbindung zwischen LLMs und externen Datenquellen wie Datenbanken, APIs und andere Tools, ist aber flexibel genug, um sowohl Cloud-basierte als auch lokale Umgebungen zu unterstützen.
- Ideal für: Unternehmen, die zunächst ihre eigenen B2B-Agents entwickeln möchten. Mit MCP können LLMs robuster und kontextsensitiver arbeiten, indem sie zusätzliche Informationen in Echtzeit abrufen oder Aktionen ausführen.
- Praktische Umsetzung: Auch unser CompanyGPT unterstützt den MCP. Damit sind Unternehmen in der Lage, eigene Lösungen zu entwickeln, die den spezifischen Anforderungen ihrer Geschäftsprozesse gerecht werden.
Trotz aller Vorteile gibt es noch offene Themenfelder, wie etwa das Berechtigungsmanagement bei Datenzugriffen im Rahmen von MCP. Diese Herausforderungen sind Teil der andauernden Weiterentwicklung, die jedoch bereits jetzt viele B2B-Anwendungsfälle abdeckt.
2. ACP (Agent Communication Protocol) – Die Zukunft der internen Agentenkommunikation
IBM hat mit ACP einen Ansatz entwickelt, der mehr als nur den Datenaustausch zwischen LLMs adressiert. ACP (Agent Communication Protocol) zielt darauf ab, heterogene Agenten in einer Unternehmensumgebung effizient miteinander kommunizieren zu lassen.
- Transport & Protokoll: Auch ACP basiert auf bewährten Technologien JSON‑RPC over HTTP/WebSockets. Diese Kombination bietet eine schnelle und standardisierte Plattform, die sowohl lokale Netzwerke als auch cloudbasierte Umgebungen unterstützt.
- Scope: ACP fokussiert sich stark auf die Agent-zu-Agent-Kommunikation, eine zentrale Voraussetzung, wenn mehrere spezialisierte KI-Services koordiniert werden müssen.
- Ideal für: Unternehmen, die komplexe, interne KI-Ökosysteme etablieren möchten und dabei unterschiedliche Agenten (etwa für Vertrieb, Logistik oder Kundenservice) vernetzen wollen.
- Praktischer Nutzen: IBM, als Vorreiter in der Branche, setzt ACP in Projekten wie BeeAI ein, wodurch sich innovative Einsatzszenarien im Enterprise-Bereich eröffnen.
Obwohl ACP vielversprechend ist und durch IBM Research kontinuierlich verbessert wird, befindet sich der Standard momentan noch in der Weiterentwicklung und erfordert daher ein gewisses Maß an Anpassung und Integration in bestehende Systeme.
3. A2A (Agent-to-Agent) – Die Cloud-native Verbindung zwischen KI-Agenten
Google hat mit seinem A2A-Projekt einen Ansatz entwickelt, der speziell auf die Kommunikation von KI-Agenten in einer Cloud-basierten Umgebung abzielt. Hier einige zentrale Aspekte von A2A:
- Transport & Protokoll: A2A setzt ebenfalls auf HTTP (REST) und JSON, ergänzt durch gRPC für leistungsfähigere Interaktionen. Dieser Aufbau ermöglicht es, Agenten in der Cloud schnell und effizient miteinander zu verbinden.
- Scope: Der Fokus liegt auf der nahtlosen Integration von Agenten, was besonders in cloud-nativen Architekturen von Vorteil ist, in denen Daten und Prozesse kontinuierlich zwischen unterschiedlichen Systemen fließen.
- Ideal für: Unternehmen, die bereits stark auf Cloud-Services setzen und mehrere spezialisierte KI-Agenten, beispielsweise in Vertex AI Agent Builder, integrieren möchten.
- Praktische Anwendung: A2A befindet sich noch in einer frühen Phase, aber Google investiert intensiv in die Standardisierung, um eine hohe Skalierbarkeit und Interoperabilität zu garantieren.
Die Herausforderung bei A2A liegt darin, dass noch viele Details rund um die Standarddefinition und Sicherheitsaspekte weiter ausgearbeitet werden müssen.
Vergleich: MCP als solider Einstieg in die KI-Interoperabilität
Wenn Unternehmen überlegen, wie sie ihre bestehenden B2B-Prozesse durch den Einsatz von LLMs und KI-Agenten optimieren können, stellt sich oft die Frage: Welches Protokoll ist das richtige? Während ACP und A2A insbesondere für die spätere Integration mehrerer, interoperabler KI-Agenten interessant sind, punktet MCP bereits im ersten Schritt. Mit MCP können Unternehmen zunächst eigene B2B-Agents entwickeln und integrieren, um Anwendungsfälle zu realisieren, in denen LLMs externe Daten beziehen und dadurch deutlich smarter agieren. Auch OpenAI hat dieses potential erkannt und integriert MCP in ChatGPT.
Unser auf Open-Source Technologien basierendes CompanyGPT unterstützt den Ansatz von MCP bereits und ermöglicht es unseren Kunden, maßgeschneiderte, kontext-sensitive Lösungen zu implementieren. Dies ist gerade in einer Phase, in der Cloud-native GPT-Lösungen zwar enormes Potenzial bieten, aber gleichzeitig noch vor Herausforderungen stehen, wie etwa dem Berechtigungsmanagement bei Datenzugriffen.
Tobias Jonas
Tobias Jonas, M.Sc. ist Mitgründer und Co-CEO der innFactory AI Consulting GmbH. Er ist ein führender Innovator im Bereich Künstliche Intelligenz und Cloud Computing. Als Co-Founder der innFactory GmbH hat er hunderte KI- und Cloud-Projekte erfolgreich geleitet und das Unternehmen als wichtigen Akteur im deutschen IT-Sektor etabliert. Neben seinen Geschäftsführerrollen engagiert sich Tobias Jonas in verschiedenen Fach- und Wirtschaftsverbänden, darunter der KI Bundesverband und der Digitalausschuss der IHK München und Oberbayern, und leitet praxisorientierte KI- und Cloudprojekte an der Technischen Hochschule Rosenheim. Als Keynote Speaker teilt er seine Expertise zu KI und vermittelt komplexe technologische Konzepte verständlich.
Werde jetzt Teil unserer KI-Community.
Der Newsletter „Quo vadis KI?“ ist die Quelle für aktuelle Trends und Entwicklungen in der Künstlichen Intelligenz.