Aktualisiert: 28. April 2026 — Dieser Leitfaden wurde umfassend aktualisiert: aktuelle DSGVO- und EU-AI-Act-Praxis, Stand der ChatGPT-Enterprise-Verträge, neue Token-Preisstrukturen, OpenAI-Pflichtoffenlegung von 20 Mio. Nutzer-Chats (Urheberrechtsstreit), Multi-LLM-Realität (GPT-5, Claude, Gemini), und das Deployment-Modell im eigenen Cloud-Tenant (Azure / Google Cloud / STACKIT).
Die rasante Entwicklung Künstlicher Intelligenz bietet Unternehmen enorme Effizienz- und Produktivitätsgewinne — und gleichzeitig stellt der Einsatz öffentlicher Dienste wie ChatGPT den Datenschutz vor reale, oft unterschätzte Herausforderungen. Mit DSGVO und EU AI Act gilt 2026: Wer ChatGPT geschäftlich einsetzt, ohne ein klares Datenschutz- und Governance-Konzept, riskiert Bußgelder, Geschäftsgeheimnisse und im schlimmsten Fall Mandantenvertrauen.
Dieser Artikel zeigt aus 50+ Praxisprojekten, wo die Risiken konkret liegen, was die kostenpflichtigen ChatGPT-Versionen (Team, Enterprise, Business) wirklich abdecken — und warum die strategisch richtige Antwort 2026 nicht „ChatGPT Enterprise" heißt, sondern eine private KI-Plattform im eigenen Cloud-Tenant.
Kontextueller Tiefgang: unser Pillar-Leitfaden „KI für Unternehmen 2026" ordnet diesen Artikel in das Gesamtbild von Strategie, Plattformwahl, Compliance und Rollout ein.
Die drei realen Risiken von ChatGPT im Unternehmen
1. Schatten-KI: Mitarbeiter nutzen ChatGPT trotz Verbot
Bitkom-Studien (2024/2025) zeigen: Über 70 % der Wissensarbeiter nutzen privat ChatGPT, Claude oder Gemini — auch mit Firmendaten. Eine offizielle Sperre auf Firmenrechnern verschiebt das Problem nur aufs Smartphone. Schatten-KI ist 2026 das größte ungelöste DSGVO-Risiko in deutschen Unternehmen.
Der prominenteste dokumentierte Fall: Samsung hat 2023 vertrauliche Halbleiter-Designdaten an ChatGPT verloren, die in OpenAIs Trainingspipeline einflossen. Ähnliche Fälle gibt es 2025/2026 reihenweise — meist nicht öffentlich, weil betroffene Unternehmen schweigen.
Mehr dazu in unserem Artikel zu Bring Your Own AI (BYOAI) im Mittelstand.
2. DSGVO-Bruch durch Datenübermittlung in die USA
Die kostenlose ChatGPT-Version verarbeitet Daten in den USA. Auch ChatGPT Plus (privat) und ChatGPT Team/Enterprise (geschäftlich) basieren auf US-Hosting — die Datenübermittlung läuft über das EU-US Data Privacy Framework (DPF), das nach Schrems II / Schrems III fortlaufend juristisch unter Beobachtung steht.
Konkret: Selbst ChatGPT Enterprise mit unterzeichnetem AVV schützt nicht vor dem US CLOUD Act. US-Behörden können bei OpenAI auf Daten zugreifen, auch wenn diese physisch in der EU verarbeitet würden. Für vertrauliche Daten (Geschäftsgeheimnisse, Personaldaten, Mandanteninformationen, Patientendaten) ist das ein realer Mangel — kein theoretischer.
Aktueller Praxisfall: Im Frühjahr 2026 wurde OpenAI im Rahmen eines US-Urheberrechtsstreits zur Offenlegung von 20 Millionen Nutzer-Chats verpflichtet. Wir haben den Fall in unserem Artikel „Urheberrechtsstreit zwingt OpenAI zur Offenlegung von 20 Mio. Nutzer-Chats" analysiert. Wer ChatGPT geschäftlich nutzt, muss damit rechnen, dass Inhalte unter US-Recht herausgegeben werden müssen.
3. Verlust der Datenkontrolle und fehlender Geschäftskontext
ChatGPT im Free-/Plus-Tarif behält sich vor, Eingaben zum Training globaler Modelle zu nutzen. ChatGPT Team/Enterprise schließt das vertraglich aus — aber: weder Audit-Logs, noch granulare Berechtigungen, noch Anbindung an Ihr SharePoint mit Berechtigungs-Spiegelung sind out of the box dabei. Das Ergebnis: ChatGPT bleibt ein generischer Assistent ohne Zugriff auf den Datenschatz, der Ihr Unternehmen einzigartig macht.
Was die kostenpflichtigen ChatGPT-Versionen wirklich abdecken
| Variante | DSGVO-Status | Trainings-Opt-out | EU-Hosting | Audit-Logs | RAG auf Firmen-Wissen | Multi-LLM |
|---|---|---|---|---|---|---|
| ChatGPT Free / Plus | nicht geeignet | nein (default) | nein | nein | nein | nein |
| ChatGPT Team | bedingt geeignet | ja | nein (US, DPF) | rudimentär | begrenzt | nein |
| ChatGPT Enterprise | bedingt geeignet | ja | optional, eingeschränkt | ja | begrenzt | nein |
| ChatGPT Edu | bedingt geeignet | ja | nein (US, DPF) | ja | begrenzt | nein |
| Microsoft Copilot for M365 | DSGVO-tauglich (mit DPA) | ja | EU Data Boundary | ja | M365-Inhalte | nein |
| CompanyGPT (innFactory) | vollständig DSGVO-konform | ja, vertraglich + technisch | eigener Tenant in EU/Deutschland | vollständig | vollständig (inkl. Berechtigungs-Spiegelung) | ja (GPT, Claude, Gemini, Llama, Mistral, Aleph Alpha) |
Microsoft Copilot for M365 ist eine ernst zu nehmende Alternative — wir haben die Schwächen in unserem Artikel „Microsoft Copilot Flex Routing: Datenverarbeitung außerhalb EU" detailliert. Die zentrale Einschränkung: keine Multi-LLM-Strategie, keine MCP-Erweiterbarkeit, kein eigener Workflow-Layer wie n8n.
Der bessere Weg: KI-Plattform im eigenen Cloud-Tenant
Statt eines US-SaaS oder einer Per-User-Plattform mit fremder Mandanten-Hoheit empfehlen wir bei innFactory AI für Unternehmen ab ca. 20 produktiven Nutzern den eigenen Cloud-Tenant:
- Plattform läuft in Ihrer Azure-, Google-Cloud- oder STACKIT-Subscription — nicht beim SaaS-Anbieter
- Daten und Konfiguration bleiben vollständig in Ihrer Hoheit, Sie schließen den Cloud-AVV direkt mit Microsoft, Google oder STACKIT ab
- Kein Per-User-Lizenzmodell — Sie zahlen Infrastruktur, Token-Kosten 1:1 vom Hyperscaler und einen Festpreis-Aufbau plus optionalen Managed-Service
- Multi-LLM-Routing zwischen Azure OpenAI (GPT-5, GPT-4o), Anthropic Claude (via Bedrock/Vertex), Gemini, sowie souveränen Open-Source-Modellen über STACKIT AI Model Serving
- n8n-Workflow-Engine im selben Stack für Automation, MCP-Server und eigene Agenten
Genau das ist die CompanyGPT-Architektur: ein Open-Source-Fundament (LibreChat), erweitert um produktive Enterprise-Funktionen (companyRAG für SharePoint mit Berechtigungs-Spiegelung, companyFILES für Office-Bearbeitung, companyTRANSLATE für DSGVO-konforme Übersetzungen), aufgebaut im Cloud-Tenant des Kunden — wahlweise auf Azure, Google Cloud oder vollständig souverän auf STACKIT.
Wir haben die drei Deployment-Varianten und ihre Souveränitätsstufen detailliert in unserem ES³-Artikel eingeordnet.
Drei konkrete Vorteile gegenüber ChatGPT Enterprise
Vorteil 1: Mandantenhoheit beim Kunden
Bei CompanyGPT existiert kein „SaaS-Mandant beim Anbieter". Die Plattform läuft in Ihrer eigenen Cloud-Subscription. Wenn Sie morgen den Anbieter wechseln wollen — innFactory durch ein anderes Beratungshaus ersetzen — bleibt die Plattform stehen, weil sie auf offenen Standards (LibreChat, PostgreSQL, Kubernetes, Standard-LLM-APIs) basiert. Kein Vendor-Lock-in.
Vorteil 2: Multi-LLM mit echter Modellfreiheit
ChatGPT Enterprise ist auf OpenAI-Modelle festgelegt. CompanyGPT routet pro Use Case und pro Anfrage zum jeweils besten Modell:
- GPT-5 / GPT-4o für multimodale Aufgaben und Tool-Use
- Claude Sonnet / Opus für Reasoning, lange Dokumente, Coding (siehe Claude für Unternehmen einsetzen)
- Gemini 2.5 für Google-Workspace-Integration und große multimodale Inputs
- Llama / Mistral / Aleph Alpha über STACKIT AI Model Serving für vollständig souveräne Verarbeitung
In der Praxis sparen Multi-LLM-Strategien typisch 30–50 % der Token-Kosten und erhöhen gleichzeitig die Output-Qualität. Mehr dazu im Pillar-Leitfaden.
Vorteil 3: Erweiterbarkeit über MCP, n8n und eigene Agenten
ChatGPT Enterprise bietet GPTs (custom assistants) als geschlossenes Konstrukt. CompanyGPT integriert das offene Model Context Protocol (MCP) — siehe unser Artikel zu MCP als USB-C-Schnittstelle für LLMs — und n8n als Workflow-Engine. Sie können also eigene Tools, ERP-Anbindungen, Branchen-Agenten und Automatisierungen bauen, ohne die Plattform zu verlassen. Wir setzen das in unseren eigenen Projekten produktiv ein, wie der Artikel „KI-assistierte Softwareentwicklung mit OpenCode" zeigt.
DSGVO und EU AI Act in der Praxis
DSGVO-Pflichten (Stand 2026)
- Auftragsverarbeitungsvertrag (AVV) — bei CompanyGPT: AVV mit innFactory plus Cloud-AVV mit Microsoft/Google/STACKIT
- Datenschutz-Folgenabschätzung (DSFA) für Hochrisiko-Anwendungen (Recruiting, automatisierte Entscheidungen, Bonität)
- Löschkonzept und Betroffenenrechte — bei CompanyGPT: vollständige Audit-Trails und programmatisches Löschen
- Internationale Datenübermittlung — vermeiden, wenn möglich; bei CompanyGPT optional komplett vermeidbar (STACKIT-Variante)
EU AI Act ab 2026
Der EU AI Act ist seit August 2024 in Kraft, mit gestaffelten Fristen:
- Februar 2025: Verbotene KI-Praktiken, Pflicht zur KI-Kompetenz (Art. 4)
- August 2025: Pflichten für General-Purpose AI (GPAI)
- August 2026: Volle Anwendbarkeit für Hochrisiko-Systeme (Recruiting, Bildung, kritische Infrastruktur)
Praktische Konsequenz: Sie müssen Mitarbeiter schulen, Hochrisiko-Anwendungen klassifizieren, Risikomanagement nach Art. 9 etablieren. Wir bieten das als KI-Compliance-Service und KI-Beauftragter as a Service — mit unserem Beirat Andreas Noerr, Fachanwalt für IT-Recht, und Prof. Dr. Sebastian Bayerl, Professor für angewandte KI.
Tieferer Kontext im Artikel „NIS2, KRITIS und der EU AI Act: Was mittelständische Unternehmen jetzt wissen müssen".
Was kostet CompanyGPT im Vergleich zu ChatGPT Enterprise?
ChatGPT Enterprise wird typisch ab 60 USD pro Nutzer und Monat verhandelt — bei 200 Nutzern entspricht das ca. 144.000 USD pro Jahr (~135.000 €). Hinzu kommen Token-Kosten, Implementierung, Schulung.
CompanyGPT-TCO bei 200 Nutzern (Beispielrechnung):
- Plattform-Aufbau im Kunden-Tenant (einmalig): ca. 30.000–60.000 €
- Cloud-Infrastruktur (Azure/STACKIT): ca. 6.000–18.000 € jährlich, direkt an Hyperscaler
- Token-Kosten zum Hyperscaler-Listenpreis (kein Aufschlag): ca. 12.000–30.000 € jährlich
- Managed Service durch innFactory (Updates, Optimierung, Monitoring): ca. 18.000–36.000 € jährlich
Erstes Jahr: ca. 66.000–144.000 €, ab Jahr 2 ca. 36.000–84.000 € — bei voller Datenhoheit, Multi-LLM und Erweiterbarkeit über MCP und n8n. Vollständige TCO-Vergleichsrechnung im Pillar-Leitfaden.
Häufig gestellte Fragen
Ist ChatGPT Enterprise DSGVO-konform? Nur bedingt. Mit AVV, EU-Region und DPF-Übermittlung ist eine Nutzung möglich, der US CLOUD Act bleibt aber ein juristisches Restrisiko. Für vertrauliche Daten ist eine im eigenen Cloud-Tenant (Azure/STACKIT) betriebene Plattform deutlich sicherer.
Ab wie vielen Nutzern lohnt sich CompanyGPT? Wirtschaftlich ab ca. 20 produktiven Nutzern. Der Festpreis-Aufbau im eigenen Tenant skaliert nicht linear mit der Nutzerzahl, weshalb der Vorteil gegenüber Per-User-SaaS mit jeder weiteren Lizenz größer wird.
Müssen wir Microsoft, Google oder STACKIT auswählen? Nein, das richtet sich nach Ihrer bestehenden Cloud-Strategie. Als Microsoft-, Google-Cloud- und STACKIT-Partner bauen wir die Plattform in jeder dieser drei Umgebungen auf — und kombinieren sie auf Wunsch (z. B. STACKIT für souveränen Kern plus Azure für Frontier-Modelle).
Wie lange dauert die Einführung? Der technische Aufbau im Kunden-Tenant ist in wenigen Tagen abgeschlossen. Pilot mit 10–30 Power-Usern in 6 Wochen, voller Rollout typisch nach 3–6 Monaten.
Können bestehende ChatGPT-Enterprise-Lizenzen abgelöst werden? Ja, in den meisten Fällen sinnvoll. Die Migration umfasst Custom GPTs, Wissensbasen und Prompt-Vorlagen — wir haben das mehrfach durchgeführt. Sprechen Sie uns für eine Migrations-Roadmap an.
Was ist mit Microsoft Copilot for M365? Eine valide Alternative für Standardprodukte, aber ohne Multi-LLM, ohne MCP, ohne n8n-Workflows. Details und Schwächen analysieren wir im Artikel „Microsoft Copilot Flex Routing" und im Vergleich LibreChat vs. Open WebUI vs. Copilot.
Die nächsten Schritte
Wenn Sie ChatGPT-Risiken in Ihrem Unternehmen reduzieren und gleichzeitig die volle KI-Power nutzen möchten — drei konkrete Optionen:
- Architektur-Workshop (kostenlos, 60 Min): Wir analysieren Ihre IT-Landschaft (M365, Google Workspace, On-Premise) und geben eine fundierte Plattform-Empfehlung — Termin buchen.
- CompanyGPT-Demo: 30-Minuten-Live-Demo der Plattform mit Ihren eigenen Use-Cases — Demo anfragen.
- EU-AI-Act-Readiness-Check: In vier Wochen wissen Sie, wo Sie stehen und was bis zur vollen Anwendbarkeit zu tun ist — Service ansehen.
Wir sind ein deutsches Beratungshaus mit Tech- und Legal-DNA — Tobias Jonas (M.Sc. KI/Cloud), Fabian Artmann (M.Eng. Wirtschaftsingenieurwesen), unser Beirat mit Andreas Noerr (Fachanwalt IT-Recht), Prof. Dr. Sebastian Bayerl (Angewandte KI) und Daniel Artmann (MdL Bayern). Microsoft-, Google-Cloud- und STACKIT-Partner. Mehr über uns.
Aktualisiert von Tobias Jonas, Co-CEO innFactory AI Consulting GmbH. Letzte Aktualisierung: 28. April 2026. Wir aktualisieren diesen Artikel regelmäßig auf Basis neuer Rechtsprechung, Modell-Releases und Erkenntnisse aus laufenden Projekten.
