Zum Hauptinhalt springen
9 – 17 UHR +49 8031 3508270 LUITPOLDSTR. 9, 83022 ROSENHEIM
DE / EN

ChatGPT DSGVO-konform und rechtssicher im Unternehmen einsetzen — Mit CompanyGPT zum privaten GPT (2026)

Tobias Jonas Tobias Jonas | | 8 min Lesezeit

Aktualisiert: 28. April 2026 — Dieser Leitfaden wurde umfassend aktualisiert: aktuelle DSGVO- und EU-AI-Act-Praxis, Stand der ChatGPT-Enterprise-Verträge, neue Token-Preisstrukturen, OpenAI-Pflichtoffenlegung von 20 Mio. Nutzer-Chats (Urheberrechtsstreit), Multi-LLM-Realität (GPT-5, Claude, Gemini), und das Deployment-Modell im eigenen Cloud-Tenant (Azure / Google Cloud / STACKIT).

Die rasante Entwicklung Künstlicher Intelligenz bietet Unternehmen enorme Effizienz- und Produktivitätsgewinne — und gleichzeitig stellt der Einsatz öffentlicher Dienste wie ChatGPT den Datenschutz vor reale, oft unterschätzte Herausforderungen. Mit DSGVO und EU AI Act gilt 2026: Wer ChatGPT geschäftlich einsetzt, ohne ein klares Datenschutz- und Governance-Konzept, riskiert Bußgelder, Geschäftsgeheimnisse und im schlimmsten Fall Mandantenvertrauen.

Dieser Artikel zeigt aus 50+ Praxisprojekten, wo die Risiken konkret liegen, was die kostenpflichtigen ChatGPT-Versionen (Team, Enterprise, Business) wirklich abdecken — und warum die strategisch richtige Antwort 2026 nicht „ChatGPT Enterprise" heißt, sondern eine private KI-Plattform im eigenen Cloud-Tenant.

Kontextueller Tiefgang: unser Pillar-Leitfaden „KI für Unternehmen 2026" ordnet diesen Artikel in das Gesamtbild von Strategie, Plattformwahl, Compliance und Rollout ein.

Die drei realen Risiken von ChatGPT im Unternehmen

1. Schatten-KI: Mitarbeiter nutzen ChatGPT trotz Verbot

Bitkom-Studien (2024/2025) zeigen: Über 70 % der Wissensarbeiter nutzen privat ChatGPT, Claude oder Gemini — auch mit Firmendaten. Eine offizielle Sperre auf Firmenrechnern verschiebt das Problem nur aufs Smartphone. Schatten-KI ist 2026 das größte ungelöste DSGVO-Risiko in deutschen Unternehmen.

Der prominenteste dokumentierte Fall: Samsung hat 2023 vertrauliche Halbleiter-Designdaten an ChatGPT verloren, die in OpenAIs Trainingspipeline einflossen. Ähnliche Fälle gibt es 2025/2026 reihenweise — meist nicht öffentlich, weil betroffene Unternehmen schweigen.

Mehr dazu in unserem Artikel zu Bring Your Own AI (BYOAI) im Mittelstand.

2. DSGVO-Bruch durch Datenübermittlung in die USA

Die kostenlose ChatGPT-Version verarbeitet Daten in den USA. Auch ChatGPT Plus (privat) und ChatGPT Team/Enterprise (geschäftlich) basieren auf US-Hosting — die Datenübermittlung läuft über das EU-US Data Privacy Framework (DPF), das nach Schrems II / Schrems III fortlaufend juristisch unter Beobachtung steht.

Konkret: Selbst ChatGPT Enterprise mit unterzeichnetem AVV schützt nicht vor dem US CLOUD Act. US-Behörden können bei OpenAI auf Daten zugreifen, auch wenn diese physisch in der EU verarbeitet würden. Für vertrauliche Daten (Geschäftsgeheimnisse, Personaldaten, Mandanteninformationen, Patientendaten) ist das ein realer Mangel — kein theoretischer.

Aktueller Praxisfall: Im Frühjahr 2026 wurde OpenAI im Rahmen eines US-Urheberrechtsstreits zur Offenlegung von 20 Millionen Nutzer-Chats verpflichtet. Wir haben den Fall in unserem Artikel „Urheberrechtsstreit zwingt OpenAI zur Offenlegung von 20 Mio. Nutzer-Chats" analysiert. Wer ChatGPT geschäftlich nutzt, muss damit rechnen, dass Inhalte unter US-Recht herausgegeben werden müssen.

3. Verlust der Datenkontrolle und fehlender Geschäftskontext

ChatGPT im Free-/Plus-Tarif behält sich vor, Eingaben zum Training globaler Modelle zu nutzen. ChatGPT Team/Enterprise schließt das vertraglich aus — aber: weder Audit-Logs, noch granulare Berechtigungen, noch Anbindung an Ihr SharePoint mit Berechtigungs-Spiegelung sind out of the box dabei. Das Ergebnis: ChatGPT bleibt ein generischer Assistent ohne Zugriff auf den Datenschatz, der Ihr Unternehmen einzigartig macht.

Was die kostenpflichtigen ChatGPT-Versionen wirklich abdecken

VarianteDSGVO-StatusTrainings-Opt-outEU-HostingAudit-LogsRAG auf Firmen-WissenMulti-LLM
ChatGPT Free / Plusnicht geeignetnein (default)neinneinneinnein
ChatGPT Teambedingt geeignetjanein (US, DPF)rudimentärbegrenztnein
ChatGPT Enterprisebedingt geeignetjaoptional, eingeschränktjabegrenztnein
ChatGPT Edubedingt geeignetjanein (US, DPF)jabegrenztnein
Microsoft Copilot for M365DSGVO-tauglich (mit DPA)jaEU Data BoundaryjaM365-Inhaltenein
CompanyGPT (innFactory)vollständig DSGVO-konformja, vertraglich + technischeigener Tenant in EU/Deutschlandvollständigvollständig (inkl. Berechtigungs-Spiegelung)ja (GPT, Claude, Gemini, Llama, Mistral, Aleph Alpha)

Microsoft Copilot for M365 ist eine ernst zu nehmende Alternative — wir haben die Schwächen in unserem Artikel „Microsoft Copilot Flex Routing: Datenverarbeitung außerhalb EU" detailliert. Die zentrale Einschränkung: keine Multi-LLM-Strategie, keine MCP-Erweiterbarkeit, kein eigener Workflow-Layer wie n8n.

Der bessere Weg: KI-Plattform im eigenen Cloud-Tenant

Statt eines US-SaaS oder einer Per-User-Plattform mit fremder Mandanten-Hoheit empfehlen wir bei innFactory AI für Unternehmen ab ca. 20 produktiven Nutzern den eigenen Cloud-Tenant:

  • Plattform läuft in Ihrer Azure-, Google-Cloud- oder STACKIT-Subscription — nicht beim SaaS-Anbieter
  • Daten und Konfiguration bleiben vollständig in Ihrer Hoheit, Sie schließen den Cloud-AVV direkt mit Microsoft, Google oder STACKIT ab
  • Kein Per-User-Lizenzmodell — Sie zahlen Infrastruktur, Token-Kosten 1:1 vom Hyperscaler und einen Festpreis-Aufbau plus optionalen Managed-Service
  • Multi-LLM-Routing zwischen Azure OpenAI (GPT-5, GPT-4o), Anthropic Claude (via Bedrock/Vertex), Gemini, sowie souveränen Open-Source-Modellen über STACKIT AI Model Serving
  • n8n-Workflow-Engine im selben Stack für Automation, MCP-Server und eigene Agenten

Genau das ist die CompanyGPT-Architektur: ein Open-Source-Fundament (LibreChat), erweitert um produktive Enterprise-Funktionen (companyRAG für SharePoint mit Berechtigungs-Spiegelung, companyFILES für Office-Bearbeitung, companyTRANSLATE für DSGVO-konforme Übersetzungen), aufgebaut im Cloud-Tenant des Kunden — wahlweise auf Azure, Google Cloud oder vollständig souverän auf STACKIT.

Wir haben die drei Deployment-Varianten und ihre Souveränitätsstufen detailliert in unserem ES³-Artikel eingeordnet.

Drei konkrete Vorteile gegenüber ChatGPT Enterprise

Vorteil 1: Mandantenhoheit beim Kunden

Bei CompanyGPT existiert kein „SaaS-Mandant beim Anbieter". Die Plattform läuft in Ihrer eigenen Cloud-Subscription. Wenn Sie morgen den Anbieter wechseln wollen — innFactory durch ein anderes Beratungshaus ersetzen — bleibt die Plattform stehen, weil sie auf offenen Standards (LibreChat, PostgreSQL, Kubernetes, Standard-LLM-APIs) basiert. Kein Vendor-Lock-in.

Vorteil 2: Multi-LLM mit echter Modellfreiheit

ChatGPT Enterprise ist auf OpenAI-Modelle festgelegt. CompanyGPT routet pro Use Case und pro Anfrage zum jeweils besten Modell:

  • GPT-5 / GPT-4o für multimodale Aufgaben und Tool-Use
  • Claude Sonnet / Opus für Reasoning, lange Dokumente, Coding (siehe Claude für Unternehmen einsetzen)
  • Gemini 2.5 für Google-Workspace-Integration und große multimodale Inputs
  • Llama / Mistral / Aleph Alpha über STACKIT AI Model Serving für vollständig souveräne Verarbeitung

In der Praxis sparen Multi-LLM-Strategien typisch 30–50 % der Token-Kosten und erhöhen gleichzeitig die Output-Qualität. Mehr dazu im Pillar-Leitfaden.

Vorteil 3: Erweiterbarkeit über MCP, n8n und eigene Agenten

ChatGPT Enterprise bietet GPTs (custom assistants) als geschlossenes Konstrukt. CompanyGPT integriert das offene Model Context Protocol (MCP) — siehe unser Artikel zu MCP als USB-C-Schnittstelle für LLMs — und n8n als Workflow-Engine. Sie können also eigene Tools, ERP-Anbindungen, Branchen-Agenten und Automatisierungen bauen, ohne die Plattform zu verlassen. Wir setzen das in unseren eigenen Projekten produktiv ein, wie der Artikel „KI-assistierte Softwareentwicklung mit OpenCode" zeigt.

DSGVO und EU AI Act in der Praxis

DSGVO-Pflichten (Stand 2026)

  • Auftragsverarbeitungsvertrag (AVV) — bei CompanyGPT: AVV mit innFactory plus Cloud-AVV mit Microsoft/Google/STACKIT
  • Datenschutz-Folgenabschätzung (DSFA) für Hochrisiko-Anwendungen (Recruiting, automatisierte Entscheidungen, Bonität)
  • Löschkonzept und Betroffenenrechte — bei CompanyGPT: vollständige Audit-Trails und programmatisches Löschen
  • Internationale Datenübermittlung — vermeiden, wenn möglich; bei CompanyGPT optional komplett vermeidbar (STACKIT-Variante)

EU AI Act ab 2026

Der EU AI Act ist seit August 2024 in Kraft, mit gestaffelten Fristen:

  • Februar 2025: Verbotene KI-Praktiken, Pflicht zur KI-Kompetenz (Art. 4)
  • August 2025: Pflichten für General-Purpose AI (GPAI)
  • August 2026: Volle Anwendbarkeit für Hochrisiko-Systeme (Recruiting, Bildung, kritische Infrastruktur)

Praktische Konsequenz: Sie müssen Mitarbeiter schulen, Hochrisiko-Anwendungen klassifizieren, Risikomanagement nach Art. 9 etablieren. Wir bieten das als KI-Compliance-Service und KI-Beauftragter as a Service — mit unserem Beirat Andreas Noerr, Fachanwalt für IT-Recht, und Prof. Dr. Sebastian Bayerl, Professor für angewandte KI.

Tieferer Kontext im Artikel „NIS2, KRITIS und der EU AI Act: Was mittelständische Unternehmen jetzt wissen müssen".

Was kostet CompanyGPT im Vergleich zu ChatGPT Enterprise?

ChatGPT Enterprise wird typisch ab 60 USD pro Nutzer und Monat verhandelt — bei 200 Nutzern entspricht das ca. 144.000 USD pro Jahr (~135.000 €). Hinzu kommen Token-Kosten, Implementierung, Schulung.

CompanyGPT-TCO bei 200 Nutzern (Beispielrechnung):

  • Plattform-Aufbau im Kunden-Tenant (einmalig): ca. 30.000–60.000 €
  • Cloud-Infrastruktur (Azure/STACKIT): ca. 6.000–18.000 € jährlich, direkt an Hyperscaler
  • Token-Kosten zum Hyperscaler-Listenpreis (kein Aufschlag): ca. 12.000–30.000 € jährlich
  • Managed Service durch innFactory (Updates, Optimierung, Monitoring): ca. 18.000–36.000 € jährlich

Erstes Jahr: ca. 66.000–144.000 €, ab Jahr 2 ca. 36.000–84.000 € — bei voller Datenhoheit, Multi-LLM und Erweiterbarkeit über MCP und n8n. Vollständige TCO-Vergleichsrechnung im Pillar-Leitfaden.

Häufig gestellte Fragen

Ist ChatGPT Enterprise DSGVO-konform? Nur bedingt. Mit AVV, EU-Region und DPF-Übermittlung ist eine Nutzung möglich, der US CLOUD Act bleibt aber ein juristisches Restrisiko. Für vertrauliche Daten ist eine im eigenen Cloud-Tenant (Azure/STACKIT) betriebene Plattform deutlich sicherer.

Ab wie vielen Nutzern lohnt sich CompanyGPT? Wirtschaftlich ab ca. 20 produktiven Nutzern. Der Festpreis-Aufbau im eigenen Tenant skaliert nicht linear mit der Nutzerzahl, weshalb der Vorteil gegenüber Per-User-SaaS mit jeder weiteren Lizenz größer wird.

Müssen wir Microsoft, Google oder STACKIT auswählen? Nein, das richtet sich nach Ihrer bestehenden Cloud-Strategie. Als Microsoft-, Google-Cloud- und STACKIT-Partner bauen wir die Plattform in jeder dieser drei Umgebungen auf — und kombinieren sie auf Wunsch (z. B. STACKIT für souveränen Kern plus Azure für Frontier-Modelle).

Wie lange dauert die Einführung? Der technische Aufbau im Kunden-Tenant ist in wenigen Tagen abgeschlossen. Pilot mit 10–30 Power-Usern in 6 Wochen, voller Rollout typisch nach 3–6 Monaten.

Können bestehende ChatGPT-Enterprise-Lizenzen abgelöst werden? Ja, in den meisten Fällen sinnvoll. Die Migration umfasst Custom GPTs, Wissensbasen und Prompt-Vorlagen — wir haben das mehrfach durchgeführt. Sprechen Sie uns für eine Migrations-Roadmap an.

Was ist mit Microsoft Copilot for M365? Eine valide Alternative für Standardprodukte, aber ohne Multi-LLM, ohne MCP, ohne n8n-Workflows. Details und Schwächen analysieren wir im Artikel „Microsoft Copilot Flex Routing" und im Vergleich LibreChat vs. Open WebUI vs. Copilot.

Die nächsten Schritte

Wenn Sie ChatGPT-Risiken in Ihrem Unternehmen reduzieren und gleichzeitig die volle KI-Power nutzen möchten — drei konkrete Optionen:

  1. Architektur-Workshop (kostenlos, 60 Min): Wir analysieren Ihre IT-Landschaft (M365, Google Workspace, On-Premise) und geben eine fundierte Plattform-Empfehlung — Termin buchen.
  2. CompanyGPT-Demo: 30-Minuten-Live-Demo der Plattform mit Ihren eigenen Use-Cases — Demo anfragen.
  3. EU-AI-Act-Readiness-Check: In vier Wochen wissen Sie, wo Sie stehen und was bis zur vollen Anwendbarkeit zu tun ist — Service ansehen.

Wir sind ein deutsches Beratungshaus mit Tech- und Legal-DNA — Tobias Jonas (M.Sc. KI/Cloud), Fabian Artmann (M.Eng. Wirtschaftsingenieurwesen), unser Beirat mit Andreas Noerr (Fachanwalt IT-Recht), Prof. Dr. Sebastian Bayerl (Angewandte KI) und Daniel Artmann (MdL Bayern). Microsoft-, Google-Cloud- und STACKIT-Partner. Mehr über uns.


Aktualisiert von Tobias Jonas, Co-CEO innFactory AI Consulting GmbH. Letzte Aktualisierung: 28. April 2026. Wir aktualisieren diesen Artikel regelmäßig auf Basis neuer Rechtsprechung, Modell-Releases und Erkenntnisse aus laufenden Projekten.

Tobias Jonas
Geschrieben von

Tobias Jonas

Co-CEO, M.Sc.

Tobias Jonas, M.Sc. ist Mitgründer und Co-CEO der innFactory AI Consulting GmbH. Er ist ein führender Innovator im Bereich Künstliche Intelligenz und Cloud Computing. Als Co-Founder der innFactory GmbH hat er hunderte KI- und Cloud-Projekte erfolgreich geleitet und das Unternehmen als wichtigen Akteur im deutschen IT-Sektor etabliert. Dabei ist Tobias immer am Puls der Zeit: Er erkannte früh das Potenzial von KI Agenten und veranstaltete dazu eines der ersten Meetups in Deutschland. Zudem wies er bereits im ersten Monat nach Veröffentlichung auf das MCP Protokoll hin und informierte seine Follower am Gründungstag über die Agentic AI Foundation. Neben seinen Geschäftsführerrollen engagiert sich Tobias Jonas in verschiedenen Fach- und Wirtschaftsverbänden, darunter der KI Bundesverband und der Digitalausschuss der IHK München und Oberbayern, und leitet praxisorientierte KI- und Cloudprojekte an der Technischen Hochschule Rosenheim. Als Keynote Speaker teilt er seine Expertise zu KI und vermittelt komplexe technologische Konzepte verständlich.

LinkedIn