Zum Hauptinhalt springen
9 – 17 UHR +49 8031 3508270 LUITPOLDSTR. 9, 83022 ROSENHEIM
DE / EN

Claude vs. ChatGPT: Warum Sie über AWS Bedrock oder Vertex AI nie die App bekommen, die Sie kennen

Tobias Jonas Tobias Jonas | | 12 min Lesezeit

„Wir haben jetzt Claude in der EU — über AWS Bedrock." Diesen Satz hören wir bei innFactory AI in Beratungsgesprächen mehrmals pro Woche. Gemeint ist: Das Unternehmen hat erfolgreich Claude Sonnet oder Claude Opus über einen europäischen Hyperscaler angebunden, alle Compliance-Häkchen sind gesetzt, der Datenschutzbeauftragte ist zufrieden. Die Erwartung der Fachabteilung ist dann oft: „Schön, dann können unsere Mitarbeiter ja jetzt claude.ai nutzen — datenschutzkonform."

Genau hier kommt die Enttäuschung. Denn was über AWS Bedrock, Google Vertex AI oder Azure OpenAI Services bereitgestellt wird, ist das Modell — nicht das Produkt. Es ist, als hätte man einen Motor gekauft und würde sich wundern, dass man kein Auto bekommt.

Dieser Artikel räumt mit dem verbreitetsten Missverständnis der aktuellen KI-Adoption auf. Wir erklären, was Claude und ChatGPT als Modelle wirklich unterscheidet, warum die App-Erlebnisse, die Sie aus dem Privatgebrauch kennen, nicht über Cloud-Provider in die EU wandern, und wie europäische Anbieter — Open Source wie auch kommerziell — diese Lücke schließen. Insbesondere zeigen wir, warum CompanyGPT — unser Enterprise-Fork von LibreChat — für viele Unternehmen die pragmatische Antwort auf dieses Problem ist.

Modell vs. Produkt: Der Unterschied, den fast niemand sauber trennt

Wenn wir in Strategie-Workshops über KI sprechen, ziehen wir gerne folgende Trennung:

  • Das Modell ist die KI selbst. Bei Anthropic heißen die Modelle Claude Haiku, Sonnet und Opus. Bei OpenAI heißen sie GPT-5, GPT-5 mini, o-Serie und Codex. Bei Google heißen sie Gemini 2.5 Pro und Flash. Ein Modell besteht im Kern aus den trainierten Gewichten und ist über eine API ansprechbar.

  • Die App (oder das Produkt) ist alles, was um das Modell herum gebaut ist, damit es für Menschen nutzbar wird. Dazu gehören die Web-Oberfläche, Memory, Projekt-Workspaces, Datei-Uploads, Connectors zu Drittsystemen, Voice-Modi, Bildgenerierung, Agent-Frameworks, Abrechnungslogik, SSO, Audit-Logs, mobile Apps, IDE-Plugins und vieles mehr.

Was Sie unter claude.ai oder chatgpt.com sehen, ist die App. Was Anthropic über AWS Bedrock und OpenAI über Azure OpenAI Services anbietet, ist die API zum Modell. Das sind zwei vollkommen verschiedene Produkte mit unterschiedlichen Verträgen, unterschiedlichen Datenschutzregimen und unterschiedlichen Funktionsumfängen.

LayerBeispieleWer betreibt es?Wo liegt es?
App / Produktclaude.ai, Claude Code, Claude for Work, ChatGPT, Codex, ChatGPT EnterpriseAnthropic / OpenAI direktPrimär USA
Modell-APIClaude über AWS Bedrock, GPT über Azure OpenAI, Gemini über Vertex AIAWS / Microsoft / Google im AuftragEU-Region wählbar
Eigene App auf Modell-APILibreChat, OpenWebUI, CompanyGPTSie selbst oder Ihr PartnerIhre Wahl (auch EU)

Diese Tabelle erklärt 80 % aller Verwirrungen, die wir in Projekten erleben.

Was unterscheidet Claude und ChatGPT als Modelle wirklich?

Bevor wir auf das App-Thema gehen, lohnt sich ein nüchterner Blick auf die Modell-Ebene. Denn auch hier kursieren viele Halbwahrheiten.

Claude (Anthropic)

Claude ist seit 2024 in vielen Disziplinen das stärkste Modell am Markt. Anthropic verfolgt einen Forschungsansatz namens Constitutional AI, der dazu führt, dass Claude vergleichsweise selten halluziniert, klar zugibt, wenn er etwas nicht weiß, und in langen Reasoning-Ketten stabil bleibt. Die aktuelle Familie umfasst Claude Haiku 4.5 (schnell, günstig), Claude Sonnet 4.7 (Allrounder) und Claude Opus 4.7 (höchste Qualität). Stärken sind:

  • Coding — Claude ist das bevorzugte Modell vieler professioneller Software-Teams
  • Lange Kontexte — bis 200.000 Tokens stabil nutzbar, im Enterprise-Tier auch deutlich mehr
  • Strukturierter Output — saubere JSON-, XML- und Markdown-Generierung
  • Geringe Halluzinationsrate — wichtig für Recht, Medizin, Compliance

ChatGPT bzw. GPT (OpenAI)

Die GPT-Familie ist breiter aufgestellt und stärker auf Multimodalität ausgelegt. GPT-5 ist im Reasoning auf Augenhöhe mit Claude Opus, hat aber eigene Stärken:

  • Multimodalität — Bild, Voice (Advanced Voice Mode), Video-Verständnis sind sehr ausgereift
  • Tool-Nutzung & Agents — frühes und tiefes Ökosystem rund um Function Calling
  • Codex — eigener Coding-Agent mit Cloud-Sandbox
  • Breite Welt-Wissen-Abdeckung — durch riesigen Trainingsdatensatz

Gemini (Google) als dritter Pol

Vollständigkeitshalber: Gemini 2.5 Pro hat das längste produktive Kontextfenster (1 Mio+ Tokens), ist nativ multimodal trainiert und tief in Google Workspace integrierbar.

Die wichtige Erkenntnis

All diese Unterschiede sind Modell-Eigenschaften. Sie übertragen sich vollständig, wenn Sie das Modell über einen Hyperscaler nutzen. Claude über AWS Bedrock ist in seiner Antwortqualität dasselbe Claude wie auf claude.ai. Aber — und das ist der entscheidende Punkt — die App ist eine andere.

Der große Trugschluss: „Wir haben Claude über Bedrock, also haben wir Claude.ai"

Schauen wir konkret darauf, was über die drei großen Hyperscaler-Angebote tatsächlich kommt — und was eben nicht.

Was Sie über AWS Bedrock, Google Vertex AI und Azure OpenAI bekommen

  • Zugriff auf das Modell via API (Claude, GPT, Gemini, je nach Anbieter)
  • Wählbare EU-Region (Frankfurt, Dublin, Paris)
  • Auftragsverarbeitungsvertrag (DPA) mit dem Hyperscaler
  • Zero Data Retention vertraglich zusicherbar (Inhalte werden nicht zum Training verwendet)
  • Industrielle Skalierung, SLAs, Monitoring
  • Integration in bestehende Cloud-Sicherheits- und Identity-Strukturen

Das ist viel — und es ist der korrekte Weg, ein Modell DSGVO-konform und auch AI-Act-konform in Unternehmensprozesse einzubetten.

Was Sie über Hyperscaler nicht bekommen

  • Keine claude.ai Web-Oberfläche — die existiert ausschließlich auf Anthropic-Infrastruktur
  • Kein Claude Code — der CLI- und IDE-Coding-Agent läuft über das Anthropic-Konto, nicht über Bedrock
  • Kein Claude for Work / Projects / Artifacts UI — die kollaborative Oberfläche mit Memory und Projekt-Containern bleibt bei Anthropic
  • Keine ChatGPT-Web-App, kein Custom GPT Marketplace — die GPT Store-Logik ist OpenAI-exklusiv
  • Kein Codex Cloud — der Cloud-Coding-Agent von OpenAI ist ein eigenes Produkt, nicht über Azure OpenAI nachbaubar
  • Kein ChatGPT Memory — die persistente, accountweite Erinnerungsfunktion gibt es nur in der OpenAI-App
  • Kein Operator, kein Sora, kein Advanced Voice Mode — alles eigenständige Produkte
  • Keine mobilen Apps mit Push-Notifications, Spracheingabe, Kontextpersistenz

Der Grund ist einfach: Diese Apps werden von Anthropic und OpenAI selbst betrieben. Wenn Sie ChatGPT Enterprise oder Claude for Work direkt einkaufen, bekommen Sie diese Erlebnisse — unter den Datenschutzbedingungen des jeweiligen Anbieters und in der Regel mit einem US-Bezug, den viele europäische Unternehmen nicht akzeptieren wollen oder dürfen (Stichwort öffentlicher Sektor, kritische Infrastruktur, regulierte Branchen, § 203 StGB für Berufsgeheimnisträger).

Wer also eine App-Experience plus EU-Datenhaltung plus eigene Datenintegration möchte, muss die App-Schicht selbst stellen. Das wissen auch Anthropic und OpenAI — und genau deshalb bieten sie ihre Modelle bewusst über Drittanbieter-Clouds an: damit Unternehmen oder spezialisierte Dienstleister auf dieser Basis eigene Lösungen bauen können.

Und auch „Business GPTs" lösen das Problem nicht automatisch

Eine zweite häufige Verwirrung: „Wir haben ChatGPT Enterprise gekauft" oder „Wir nutzen Microsoft Copilot Chat — das ist doch ChatGPT in DSGVO-konform." Auch das stimmt so nicht ganz.

  • ChatGPT Enterprise ist tatsächlich ein eigenes Produkt mit besseren Datenschutzbedingungen als die Consumer-Version. Es bleibt aber bei OpenAI gehostet, in deren US-Infrastruktur, mit deren Vertragsstruktur. DSGVO-konform unter EU-Standardvertragsklauseln möglich, aber nicht für jede Branche akzeptabel.

  • Microsoft 365 Copilot und Copilot Chat nutzen GPT-Modelle, sind aber an das Microsoft-Ökosystem gebunden. Ihre Daten in M365 werden in der Anfrageverarbeitung berücksichtigt, was für reine Office-Workflows hilfreich ist — aber für unternehmensweite KI-Strategien (Multi-Modell, eigene RAG-Quellen, Custom Agents) eng wird.

  • Andere „Business GPTs" wie Langdock, Neuland.ai oder ähnliche Plattformen sind häufig SaaS-Lösungen, die zwar das App-Erlebnis nachbauen, aber Sie zwingen, in deren Cloud zu arbeiten — mit eigenen Token-Aufschlägen, eigener Multi-Tenancy und limitierter Erweiterbarkeit. Wir haben das in unseren Vergleichen CompanyGPT vs. Langdock und CompanyGPT vs. Neuland.ai detailliert beleuchtet.

Die ehrliche Antwort lautet: Die wirklich saubere Lösung — App-Erlebnis, eigene Cloud, eigene Daten, eigene Modellwahl — gibt es nicht von der Stange. Sie wird mit Open-Source-Bausteinen oder spezialisierten Enterprise-Forks gebaut.

Die Antwort des Marktes: Eigene Web-Oberflächen, die das App-Erlebnis klonen

Die europäische und globale Open-Source-Community hat das Problem früh erkannt und Plattformen entwickelt, die genau das tun: das ChatGPT/Claude-Erlebnis nachbauen, dabei aber das Modell austauschbar halten und das Hosting in der eigenen Cloud ermöglichen.

OpenWebUI

OpenWebUI ist die wohl bekannteste selbst gehostete Chat-Oberfläche. Ursprünglich rund um Ollama für lokale Modelle entstanden, unterstützt es heute alle gängigen Cloud-Modelle. Stärken:

  • Sehr aktive Community, schnelle Releases
  • Fokus auf einfaches Self-Hosting (Docker, Kubernetes)
  • Gute Integration für lokale Modelle via Ollama
  • Plugin-System

Schwächen im Enterprise-Kontext: Office-Datei-Verarbeitung ist rudimentär, RAG-Pipelines sind grundlegend, professionelle SSO/Audit-Anforderungen müssen oft selbst ergänzt werden.

LibreChat

LibreChat ist die zweite große Open-Source-Plattform — und in der Tiefe deutlich enterprise-näher. Stärken:

  • Multi-LLM nativ — OpenAI, Anthropic, Google, Bedrock, Azure, Mistral, lokale Modelle parallel
  • MCP-Integration (Model Context Protocol) für Tool-Anbindungen
  • Agents-Framework integriert
  • Plugins und sehr flexible Datei-Verarbeitung
  • Modular und gut wartbar

LibreChat ist die Basis, die wir bei innFactory AI als Ausgangspunkt für unser Produkt CompanyGPT gewählt haben.

Die Grenzen von „nackt installiert"

Beide Plattformen sind hervorragende Open-Source-Projekte — aber für den produktiven Einsatz im deutschen Mittelstand und Enterprise-Umfeld fehlen Funktionen, die kein Hobby-Projekt liefern kann:

  • Tiefe Office-Integration (Excel-Formeln, Word-Strukturen, PowerPoint-Layouts, PDF-Analyse mit Tabellen)
  • Robuste RAG-Pipelines mit SharePoint, Confluence, Datei-Servern
  • Diagramm- und Chart-Generierung mit unternehmenstauglichen Outputs
  • Audit-Logs, DSGVO-Reporting, Lösch-Workflows
  • 24/7 Support, SLAs, Maintenance über Versionssprünge hinweg
  • Corporate Branding, SSO über Azure AD/Entra ID, Berechtigungsmodelle

CompanyGPT: Unser Enterprise-Ready-Fork von LibreChat

Genau diese Lücke schließt CompanyGPT. Wir haben LibreChat geforkt und über die letzten zwei Jahre konsequent für deutsche Mittelstands- und Enterprise-Anforderungen erweitert. Die wichtigsten Erweiterungen, die unser Fork mitbringt:

CompanyFiles — Datei-Verarbeitung auf Enterprise-Niveau

Standard-LibreChat kann Dateien lesen — aber für den Business-Alltag reicht das nicht. CompanyFiles bietet:

  • Excel-Verarbeitung mit Verständnis für Formeln, mehrere Tabellenblätter, Pivot-Tabellen
  • Word-Dokumente mit Struktur-Erhalt (Überschriften, Listen, Tracked Changes)
  • PowerPoint-Analyse inklusive Sprechernotizen und Folien-Reihenfolge
  • PDF mit Tabellen-Extraktion und Layout-Erkennung — auch bei gescannten Dokumenten via OCR
  • Generierung zurück in echte Office-Formate, nicht nur als Markdown

CompanyRAG — Tiefe Wissensanbindung

Die zentrale Frage in fast jedem KI-Projekt lautet: „Wie bekomme ich unsere internen Daten in den Chat?" CompanyRAG liefert:

  • SharePoint-Konnektor mit Berechtigungsweitergabe
  • Confluence-, Datei-Share-, Wiki-Integration
  • Hybride Suche (semantisch + Keyword)
  • Quellenangaben mit Deep-Links zurück ins Quellsystem
  • Dokumenten-Scope pro User, Team, Berechtigungsgruppe

Such- und Analysefähigkeiten über Unternehmensdaten

Über CompanyRAG hinaus bietet CompanyGPT echte Analyse-Modi: Datenextraktion aus Dokumenten-Sets, Vergleichsanalysen über mehrere Verträge, Trendauswertungen über Berichtsserien — Anwendungsfälle, die mit reinem Chat nicht abgedeckt werden.

Diagramm- und Visualisierungsgenerierung

Mermaid-Diagramme, Flowcharts, Organigramme, einfache Charts — direkt aus dem Chat erzeugt und exportierbar. Wichtig für Berater-, Strategie- und Prozess-Use-Cases.

Multi-Modell aus EU-Clouds

CompanyGPT bindet alle relevanten Modelle parallel an — über die DSGVO-konformen Wege:

  • Claude über AWS Bedrock (EU-Frankfurt)
  • GPT über Azure OpenAI (Sweden Central, Germany West Central)
  • Gemini über Google Vertex AI (europe-west3)
  • Mistral, Llama, lokale Modelle über STACKIT, OVH oder On-Premise

Der Nutzer wechselt im Chat das Modell mit einem Klick — die App-Schicht bleibt dieselbe, nur die Modell-Engine wird ausgetauscht.

Hosting in Ihrer Cloud, nicht unserer

Das ist der zentrale Unterschied zu vielen kommerziellen „Business GPTs": CompanyGPT läuft in Ihrer Cloud-Subscription — Azure, AWS, GCP oder STACKIT. Wir liefern die Plattform, Sie behalten die Datenhoheit. Keine Token-Aufschläge, keine Multi-Tenancy mit fremden Daten, keine Lizenzgebühren — Sie zahlen die Modell-Tokens direkt beim Hyperscaler.

Mehr Details zu Architektur, Features und Pricing finden Sie auf der CompanyGPT-Produktseite und in unserem Beitrag CompanyGPT — eigene KI-Modelle datenschutzkonform im Unternehmen einsetzen.

Entscheidungsmatrix: Welcher Weg ist der richtige für Sie?

AnforderungEmpfohlener Weg
Ich brauche claude.ai oder ChatGPT 1:1 für ein paar Power-User, US-Datenfluss ist akzeptabelClaude for Work / ChatGPT Enterprise direkt einkaufen
Ich brauche nur das Modell für eine eigene, technische Integration (Backend-Service, Agent, eigene Software)Hyperscaler-API: Bedrock / Azure OpenAI / Vertex AI
Ich brauche das App-Erlebnis für viele Mitarbeitende, mit EU-Datenhaltung und Anbindung an unsere Daten (SharePoint, Office, etc.)CompanyGPT (Enterprise) oder LibreChat / OpenWebUI in Eigenregie
Ich will lokale Modelle auf eigenen Servern, ohne CloudOpenWebUI + Ollama, oder CompanyGPT On-Premise
Ich brauche Coding-Agents wie Claude Code oder Codex, aber DSGVO-konformAktuell Lücke am Markt — alternative Tools wie OpenCode, Cline oder eigene Agent-Frameworks auf Bedrock/Vertex

Die letzte Zeile ist ehrlich gesagt einer der spannendsten offenen Punkte: Coding-Agents in der EU-Cloud-Variante sind heute noch nicht so reif wie die direkten Anbieter-Produkte. Hier bewegt sich viel — wir beobachten das Feld eng und werden in einem separaten Beitrag detailliert darauf eingehen.

Fazit

Die wichtigste Botschaft dieses Artikels ist eigentlich nur ein einziger Satz: Cloud-Verfügbarkeit eines Modells bedeutet nicht App-Verfügbarkeit eines Produkts.

Wer Claude über AWS Bedrock anbindet, hat das Modell — nicht claude.ai, nicht Claude Code, nicht Claude for Work. Wer GPT über Azure OpenAI nutzt, hat das Modell — nicht ChatGPT, nicht Custom GPTs, nicht Codex. Diese Unterscheidung ist nicht akademisch, sondern ist die Basis jeder seriösen KI-Strategie und jeder ehrlichen KI-Compliance-Bewertung.

Wenn Sie das App-Erlebnis in der EU mit Ihren eigenen Daten wollen, brauchen Sie eine eigene App-Schicht. Open Source liefert mit OpenWebUI und LibreChat exzellente Bausteine. Für Enterprise-Anforderungen — Office-Tiefe, RAG, SharePoint, Diagramme, SSO, Support — bauen wir mit CompanyGPT seit zwei Jahren genau die Schicht, die zwischen Hyperscaler-API und Endnutzer fehlt.

Wenn Sie wissen wollen, was das für Ihr Unternehmen konkret bedeutet, sprechen Sie mit uns: Kontakt aufnehmen oder direkt eine CompanyGPT-Demo anfragen.

FAQ

Ist Claude über AWS Bedrock dasselbe wie claude.ai?

Nein. Über Bedrock bekommen Sie das Claude-Modell als API. claude.ai ist die von Anthropic selbst betriebene Web-App mit Memory, Projects, Artifacts, Computer Use und weiteren Funktionen. Diese App läuft auf Anthropic-Infrastruktur und ist nicht über Bedrock verfügbar.

Bekomme ich Claude Code über Vertex AI oder Bedrock?

Nein. Claude Code ist ein eigenständiges Anthropic-Produkt (CLI- und IDE-Agent), das gegen die Anthropic-API direkt läuft und ein Anthropic-Konto erfordert. Über Bedrock oder Vertex AI ist es derzeit nicht nutzbar. Alternativen für DSGVO-konformes Coding sind Tools wie OpenCode, Cline oder eigene Agent-Frameworks, die Bedrock-Modelle nutzen.

Ist ChatGPT Enterprise DSGVO-konform?

ChatGPT Enterprise hat deutlich bessere Datenschutzbedingungen als die Consumer-Version, läuft aber auf OpenAI-Infrastruktur in den USA. Mit aktuellen Standardvertragsklauseln ist DSGVO-Konformität für viele Branchen darstellbar — nicht aber für regulierte Bereiche wie Berufsgeheimnisträger nach § 203 StGB, kritische Infrastruktur oder bestimmte öffentliche Auftraggeber.

Was ist der Unterschied zwischen LibreChat und CompanyGPT?

LibreChat ist ein hervorragendes Open-Source-Projekt, das die Basis-App-Schicht für Multi-LLM-Chat liefert. CompanyGPT ist unser Enterprise-Fork mit zusätzlichen Komponenten: tiefe Office-Datei-Integration (CompanyFiles), SharePoint- und RAG-Anbindung (CompanyRAG), Diagramm-Generierung, Audit-Logs, Corporate Branding, Support-SLAs und produktive Multi-Modell-Anbindung an EU-Hyperscaler.

Kann ich Codex über Azure OpenAI nutzen?

Codex als eigenständiges Produkt (Codex Cloud, Codex CLI) ist ein OpenAI-eigenes Angebot und nicht über Azure OpenAI verfügbar. Die zugrunde liegenden Code-fähigen Modelle (z. B. GPT-5) sind über Azure OpenAI als API nutzbar — aber das App-Erlebnis von Codex müssen Sie entweder direkt bei OpenAI einkaufen oder über alternative Coding-Agent-Frameworks selbst nachbauen.

Lohnt es sich, OpenWebUI oder LibreChat selbst zu betreiben?

Für kleinere Teams, technisch versierte Organisationen oder als Pilotprojekt: ja, absolut. Für produktiven Enterprise-Einsatz mit hunderten oder tausenden Nutzern, regulierten Anforderungen und tiefer Geschäfts-Integration empfehlen wir einen Enterprise-Fork wie CompanyGPT oder einen erfahrenen Implementierungspartner. Die Differenz liegt nicht im Open-Source-Code, sondern in den Themen Betrieb, Daten-Konnektoren, Support und Anpassung an Branchenanforderungen.

Welches Modell ist „besser" — Claude oder GPT?

Es kommt auf den Use Case an. Claude ist heute oft erste Wahl bei Coding, langen Dokumenten, Reasoning und sensiblen Inhalten mit niedriger Halluzinationstoleranz. GPT punktet bei Multimodalität (Voice, Bild, Video) und im breiten Tool-Ökosystem. Gemini ist stark bei sehr langen Kontexten und Workspace-Integration. Eine Multi-Modell-Plattform wie CompanyGPT erlaubt es, je Use Case das beste Modell zu wählen — ohne sich auf einen Anbieter festzulegen. Mehr dazu in unserem Leitfaden Claude für Unternehmen einsetzen.

Tobias Jonas
Geschrieben von

Tobias Jonas

Co-CEO, M.Sc.

Tobias Jonas, M.Sc. ist Mitgründer und Co-CEO der innFactory AI Consulting GmbH. Er ist ein führender Innovator im Bereich Künstliche Intelligenz und Cloud Computing. Als Co-Founder der innFactory GmbH hat er hunderte KI- und Cloud-Projekte erfolgreich geleitet und das Unternehmen als wichtigen Akteur im deutschen IT-Sektor etabliert. Dabei ist Tobias immer am Puls der Zeit: Er erkannte früh das Potenzial von KI Agenten und veranstaltete dazu eines der ersten Meetups in Deutschland. Zudem wies er bereits im ersten Monat nach Veröffentlichung auf das MCP Protokoll hin und informierte seine Follower am Gründungstag über die Agentic AI Foundation. Neben seinen Geschäftsführerrollen engagiert sich Tobias Jonas in verschiedenen Fach- und Wirtschaftsverbänden, darunter der KI Bundesverband und der Digitalausschuss der IHK München und Oberbayern, und leitet praxisorientierte KI- und Cloudprojekte an der Technischen Hochschule Rosenheim. Als Keynote Speaker teilt er seine Expertise zu KI und vermittelt komplexe technologische Konzepte verständlich.

LinkedIn