20. Oktober 2025

Sicherheit in der Unternehmens-KI: Einblicke aus der Praxis und der Weg zu einer resilienten Architektur

Sicherheit in der Unternehmens-KI: Einblicke aus der Praxis und der Weg zu einer resilienten Architektur

In der schnelllebigen Welt der künstlichen Intelligenz ist Vertrauen die wichtigste Währung. Unternehmen, die KI-Lösungen implementieren, müssen sich darauf verlassen können, dass ihre sensiblen Daten jederzeit geschützt sind. Ein aktueller Sicherheitsvorfall bei dem KI-Anbieter Localmind.ai am 5. Oktober 2025 dient als wichtige Mahnung: Ohne eine von Grund auf solide Sicherheitsstrategie können selbst die besten Absichten zu gravierenden Datenlecks führen.

Dieser Vorfall ist kein Einzelfall, sondern ein Lehrstück für die gesamte Branche. Er unterstreicht, wie entscheidend eine durchdachte Architektur, strikte Kontrollmechanismen und vollständige Transparenz sind. Anstatt mit dem Finger zu zeigen, möchten wir diesen Anlass nutzen, um sachlich aufzuzeigen, welchen grundlegend anderen Weg wir bei innFactory mit unserem CompanyGPT gehen, um die Sicherheit und Datenhoheit unserer Kunden zu gewährleisten.

Der Anlassfall: Eine fehlkonfigurierte Instanz mit weitreichenden Folgen

Bei Localmind.ai verschaffte eine falsch konfigurierte Beta-Testumgebung einem Dritten weitreichende Administratorenrechte. Dies führte zu einem Datenleck, das potenziell Unternehmens- und Kundendaten betraf. Die sofortige Reaktion des Unternehmens, die Systeme offline zu nehmen, konnte einen erheblichen Vertrauensverlust nicht verhindern – insbesondere bei Kunden aus dem Behörden- und Unternehmensumfeld.

Der Vorfall zeigt zwei zentrale Schwachstellen auf, die in modernen Software-Architekturen vermieden werden müssen: unzureichend isolierte Testumgebungen und eine lückenhafte Zugriffskontrolle.

Der innFactory-Ansatz: Sicherheit als Designprinzip des CompanyGPT

Bei der Entwicklung von CompanyGPT haben wir Sicherheit nicht als Zusatzfunktion, sondern als Fundament der gesamten Architektur verstanden. Unser Ansatz unterscheidet sich in drei wesentlichen Punkten:

1. Transparenz durch Open Source als Sicherheitsgarant Während proprietäre, geschlossene Systeme eine Blackbox darstellen, setzen wir bewusst auf bewährte Open-Source-Komponenten. CompanyGPT basiert auf einem Fork von LibreChat, einer führenden Open-Source-Lösung, die von einer globalen Community aus rund 300 Entwicklern aktiv weiterentwickelt und geprüft wird. Führende Technologieunternehmen wie Shopify setzen ebenfalls auf diese Basis.

  • Der Vorteil: Der Quellcode ist vollständig einsehbar. Potenzielle Schwachstellen werden von hunderten Augen geprüft und schnell behoben. Diese Transparenz schafft überprüfbares Vertrauen, anstatt es nur zu versprechen.

2. Absolute Datenhoheit durch vollständig isolierte Mandanten Ein Kernstück unserer Sicherheitsstrategie ist die vollständige Datenhoheit des Kunden in seiner eigenen Microsoft Azure Cloud-Umgebung. Im Gegensatz zu Architekturen, die möglicherweise auf geteilten Ressourcen oder schlecht isolierten Umgebungen basieren, ist bei uns jede CompanyGPT-Instanz ein eigener, komplett isolierter Mandant.

  • Der Vorteil: Es gibt keine geteilten Datenbanken, Rechenressourcen oder Konfigurationen zwischen Kunden. Ein Vorfall bei einem Kunden könnte technisch unmöglich auf einen anderen übergreifen. Ihre Daten verbleiben ausschließlich in Ihrer dedizierten und sicheren Umgebung.

3. Nahtlose Zugriffskontrolle über etablierte Enterprise-Systeme Wir erzwingen keine neuen, separaten Benutzerverwaltungen. Stattdessen integriert sich CompanyGPT nahtlos in Ihre bestehende IT-Infrastruktur. Der Zugriff wird über bewährte Systeme wie Azure Entra ID (ehemals Azure AD) gesteuert.

  • Der Vorteil: Ihre IT-Abteilung behält die volle Kontrolle. Sie können Zugriffsrechte granular verwalten, Mitarbeitern den Zugriff entziehen oder Sitzungen zentral beenden – alles mit den Werkzeugen, die sie bereits kennen und denen sie vertrauen. Dies gilt auch für eigene, angebundene MCP Server, die wir bei Bedarf ebenfalls über OAuth absichern.

Warum Microsoft Azure? Die Cloud als Sicherheitsfestung

Unsere Entscheidung für Microsoft Azure als technologische Basis ist ein zentraler Pfeiler unseres Sicherheitsversprechens. Azure bietet ein Sicherheitsniveau, das On-Premise-Lösungen nur mit extrem hohem Aufwand erreichen könnten.

  • DSGVO-konforme Datenhaltung: Ihre Daten werden garantiert in europäischen Rechenzentren gespeichert und verarbeitet, die strengste Zertifizierungen und physische Sicherheitsstandards erfüllen.
  • Durchgehende Verschlüsselung: Daten sind zu jedem Zeitpunkt geschützt – bei der Übertragung (in transit), bei der Speicherung (at rest) und während der Verarbeitung. Selbst bei einem theoretischen Zugriff auf eine Festplatte wären die Daten unlesbar.
  • Striktes Identitäts- und Zugriffsmanagement: Azure bietet fortschrittliche Werkzeuge zur Überwachung und Steuerung von Zugriffen. Jede Aktion wird protokolliert, und ungewöhnliche Aktivitäten können automatisch erkannt und blockiert werden.
  • Zero-Trust-Architektur: Azure basiert auf dem „Never trust, always verify“-Prinzip. Kein Zugriff – auch nicht innerhalb des Netzwerks – wird als standardmäßig vertrauenswürdig eingestuft. Jede Anfrage muss sich authentifizieren und wird autorisiert.

Die Ansätze im direkten Vergleich

localmind.ai (laut Vorfall) CompanyGPT (by innFactory AI)
Softwarebasis Proprietäre, intransparente Codebasis. Transparente, geprüfte Open-Source-Basis (LibreChat).
Architektur Geteilte oder unzureichend isolierte Test-/Beta-Systeme. Vollständig isolierte Mandanten in dedizierten Cloud-Umgebungen.
Datenhaltung Unklare Trennung zwischen Produktions- & Testdaten. Strikte Trennung, Datenhoheit beim Kunden in der eigenen Azure-Subscription.
Zugriffsmanagement Kompromittierung durch schwache Konfiguration möglich. Integration in Enterprise-Systeme (Azure Entra ID, Google) mit Zero-Trust-Prinzip.
Kontrolle & Audit Mangelnde Transparenz führte zu unentdeckter Lücke. Überprüfbare Sicherheit durch Open Source & umfassende Azure-Sicherheits-Tools.

Fazit: Vertrauen wird durch Design geschaffen, nicht durch Versprechen

Der Vorfall bei Localmind.ai ist eine wertvolle Lektion für alle Unternehmen, die auf KI-Technologie setzen. Werbeversprechen von „lokalen und sicheren“ Lösungen sind wertlos, wenn die technische Umsetzung grundlegende Sicherheitsprinzipien missachtet.

Mit CompanyGPT bietet innFactory eine Lösung, die Sicherheit von Grund auf mitdenkt. Die Kombination aus Transparenz (Open Source), Kontrolle (Azure & Enterprise-Login) und Isolation (dedizierte Mandanten) schafft eine robuste und widerstandsfähige Architektur. So stellen wir sicher, dass unsere Kunden die Vorteile der KI nutzen können, ohne die Kontrolle über ihr wertvollstes Gut zu riskieren: ihre Daten.

  • Fabian Artmann

    Fabian Artmann, M.Eng. ist Mitgründer und Co-CEO der innFactory AI Consulting GmbH. Als Wirtschaftsingenieur vereint Fabian Artmann technisches Know-how mit wirtschaftlichem Verständnis und prozessorientiertem Denken. Als KI-Berater hat er sich darauf spezialisiert auf Basis des innFactory AI Innovation Cycle Ineffizienzen in bestehenden Abläufen zu identifizieren, Veränderungsprozesse zu strukturieren, Mitarbeiter einzubinden und dafür zu sorgen, dass die neuen KI-Technologien nahtlos in die optimierten Geschäftsprozesse integriert werden können. Fabian Artmann verfügt über eine breite Expertise an den Schnittstellen zwischen Technologie, Projektmanagement und Geschäftsprozessen. Im Rahmen seiner beruflichen Laufbahn durfte Fabian Artmann bereits Digitale Projekte für die BMW Group, IWC Schaffhausen sowie MTU Aero Engines umsetzen.

    Fabian Artmann

Weitere Artikel

  • 6. Oktober 2025Management
    AI Leadership im Zeitalter von KI-Agenten
  • 29. August 2025Management
    Teamzuwachs: Michael Böhrer

Werde jetzt Teil unserer KI-Community.

Der Newsletter „Quo vadis KI?“ ist die Quelle für aktuelle Trends und Entwicklungen in der Künstlichen Intelligenz.