ChatGPT im Unternehmen -- warum das keine gute Idee ist
Künstliche Intelligenz ist im Arbeitsalltag angekommen. Laut der Bitkom-Studie “Künstliche Intelligenz in Deutschland” (2025) hat sich der KI-Einsatz in deutschen Unternehmen innerhalb eines Jahres verdoppelt. Viele Mitarbeitende greifen dabei zum naheliegendsten Werkzeug: ChatGPT. Schnell verfügbar, kostenlos, beeindruckend in den Ergebnissen — zumindest auf den ersten Blick.
Doch was für private Spielereien taugt, ist für den professionellen Einsatz im Unternehmen mit erheblichen Risiken verbunden. In diesem Beitrag zeigen wir Ihnen, warum ChatGPT in seiner Standardform für Unternehmen problematisch ist — und welche Alternative es gibt, die Datenschutz, Kontrolle und Firmenintegration von Anfang an mitdenkt.
1. Datenschutz: Ihre Daten auf US-Servern
Das gravierendste Problem zuerst: Jede Eingabe in ChatGPT wird an Server von OpenAI in den USA übermittelt. Bei der kostenlosen Version und den Standard-Abonnements werden diese Eingaben gespeichert und können zur Weiterentwicklung der KI-Modelle verwendet werden. Für Unternehmen, die mit personenbezogenen Daten, Geschäftsgeheimnissen oder vertraulichen Dokumenten arbeiten, ist das ein Albtraum.
DSGVO-Verstösse sind vorprogrammiert
Die Datenschutz-Grundverordnung (DSGVO) stellt strenge Anforderungen an die Verarbeitung personenbezogener Daten. Sobald ein Mitarbeitender Kundennamen, E-Mail-Adressen, Vertragsdaten oder andere personenbezogene Informationen in ChatGPT eingibt, findet eine Datenübermittlung in ein Drittland statt — mit allen rechtlichen Konsequenzen.
Die Realität zeigt, wie schnell das schiefgehen kann: Die italienische Datenschutzbehörde verhägte im Dezember 2024 eine Geldstrafe von 15 Millionen Euro gegen OpenAI wegen mangelhafter Transparenz bei der Datenverarbeitung. Und eine europäische Bank musste 2025 eine DSGVO-Strafe von 4,2 Millionen Euro zahlen, nachdem über einen Testzeitraum 12.000 Kunden-E-Mails in das Training-Set von ChatGPT geflossen waren.
Der CLOUD Act als zusätzliches Risiko
Selbst wenn OpenAI inzwischen EU-Datenspeicherung für Enterprise-Kunden anbietet: US-Unternehmen unterliegen dem CLOUD Act. Dieses Gesetz verpflichtet amerikanische Unternehmen, auf Anfrage US-amerikanischer Behörden Daten herauszugeben — unabhängig davon, wo diese Daten physisch gespeichert sind. Für europäische Unternehmen, die mit sensiblen Mandanten- oder Kundendaten arbeiten, ist das ein nicht hinnehmbares Risiko.
Die Cyberhaven Data Security Studie (2025) untermaürt die Brisanz: 34,8 Prozent aller Daten, die Beschäftigte in KI-Tools eingeben, sind sensibel. Mehr als ein Drittel aller Eingaben enthält also Informationen, die nicht auf fremden Servern landen sollten.
Wenn Sie verstehen möchten, wie eine datenschutzkonforme Alternative aussieht, lesen Sie unseren Datenschutz-Vergleich oder das ausführliche Datenschutz-Whitepaper.
2. Halluzinationen: Wenn die KI Fakten erfindet
ChatGPT klingt immer überzeugend — auch wenn es falsch liegt. Dieses Phänomen nennt man “Halluzination”: Die KI generiert Aussagen, die plausibel klingen, aber sachlich falsch sind. Für Unternehmen, die auf Basis dieser Antworten Entscheidungen treffen, ist das brandgefährlich.
Erschreckende Zahlen
Die Halluzinationsraten aktüller Modelle sind alarmierend hoch. Laut OpenAIs eigenen Tests halluziniert das Flaggschiff-Modell GPT o3 bei einem Drittel aller Fragen zu Personen des öffentlichen Lebens — mehr als doppelt so häufig wie sein Vorgängermodell. Bei allgemeinen Wissensfragen im SimpleQA-Benchmark steigt die Rate sogar auf 51 Prozent für o3 und 79 Prozent für o4-mini.
Eine Studie der Stanford University zeigt zudem alarmierende Halluzinationsraten bei rechtlichen Anfragen. Für Kanzleien und rechtsberatende Unternehmen ist das ein besonders heikles Thema: Falsche Paragraphen, erfundene Urteile oder fehlerhafte Rechtsauslegungen können zu gravierenden Fehlentscheidungen führen.
Konkrete Risiken für Ihr Unternehmen
Stellen Sie sich folgende Szenarien vor:
- Falsche Finanzdaten: Ein Controller lässt ChatGPT eine Marktanalyse erstellen. Die KI erfindet Branchenkennzahlen, die plausibel aussehen, aber frei erfunden sind. Auf dieser Basis werden Investitionsentscheidungen getroffen.
- Fehlerhafte Rechtsauskunft: Die Rechtsabteilung nutzt ChatGPT zur Recherche. Die KI zitiert ein Urteil, das nie existiert hat, oder nennt einen Paragraphen mit falschem Inhalt.
- Falsche Produktinformationen: Der Kundenservice beantwortet eine Anfrage mit Hilfe von ChatGPT. Die genannten technischen Spezifikationen stimmen nicht mit dem tatsächlichen Produkt überein.
All diese Szenarien sind keine Theorie — sie passieren täglich in Unternehmen, die ChatGPT ohne Absicherung einsetzen.
3. Keine Kontrolle: Schatten-KI im Unternehmen
Eines der am meisten unterschätzten Probleme ist der Kontrollverlust. Wenn Mitarbeitende ChatGPT über private Accounts nutzen — und laut Umfragen hat fast die Hälfte der Unternehmen keine Richtlinien für den KI-Einsatz — entsteht sogenannte “Schatten-KI”. Niemand weiss, welche Daten wohin fliessen.
Was ChatGPT nicht bietet
Die Standard-Versionen von ChatGPT bieten Unternehmen keine Möglichkeit zur:
- Nutzerverwaltung: Wer nutzt die KI wofür? Keine zentrale Übersicht.
- Kostenkontrolle: Welche Abteilung verursacht welche Kosten? Nicht nachvollziehbar.
- Compliance-Dokumentation: Welche Daten wurden eingegeben? Nicht protokolliert.
- Qualitätssicherung: Welche Antworten wurden generiert? Keine Nachverfolgung.
- Zugriffssteürung: Wer darf welche Funktionen nutzen? Nicht konfigurierbar.
Seit dem 2. Februar 2025 müssen Unternehmen laut EU AI Act (Verordnung (EU) 2024/1689) sicherstellen, dass jeder Mitarbeitende, der KI nutzt, über ausreichendes technisches und rechtliches Wissen verfügt. Ohne zentrale Verwaltung ist diese Anforderung praktisch nicht umsetzbar.
Erfahren Sie mehr über unsere Sicherheitsarchitektur und das Konzept der doppelten Sicherheit, das Kontrolle und Datenschutz vereint.
4. Keine Integration: ChatGPT kennt Ihr Unternehmen nicht
ChatGPT ist ein allgemeines Sprachmodell. Es kennt weder Ihre internen Prozesse noch Ihre Produkte, Kunden oder Dokumente. Jede Antwort basiert auf öffentlich verfügbarem Trainingswissen — nicht auf Ihrem Firmenwissen.
Die Konsequenz
- Mitarbeitende müssen bei jeder Anfrage den gesamten Kontext manüll eingeben.
- Die KI kann nicht auf interne Wissensdatenbanken, Handbücher oder Vorlagen zugreifen.
- Branchenspezifisches Fachwissen fehlt, sofern es nicht öffentlich dokumentiert ist.
- Es gibt keine Möglichkeit, firmenspezifische Regeln, Tonalität oder Vorlagen zu hinterlegen.
Das Ergebnis: ChatGPT liefert generische Antworten, die aufwendig nachbearbeitet werden müssen. Der erhoffte Produktivitätsgewinn wird durch den Aufwand für Kontext-Eingabe und Qualitätskontrolle erheblich geschmälert. Gerade für spezialisierte Branchen wie Kommunen oder E-Commerce-Unternehmen ist das ein entscheidender Nachteil.
5. Der regulatorische Druck steigt
Mit dem EU AI Act gelten seit 2025 schrittweise neü Vorschriften für den Einsatz von KI-Systemen. Seit August 2025 unterliegen Tools wie ChatGPT besonderen Transparenz- und Urheberrechtsvorschriften. Ab 2026 müssen KI-generierte Inhalte deutlich als solche gekennzeichnet werden.
Für Unternehmen bedeutet das: Der unreglementierte Einsatz von ChatGPT ist nicht nur ein Datenschutzrisiko, sondern zunehmend auch ein Compliance-Problem. Wer heute keine klare KI-Strategie hat, riskiert morgen Bußgelder und Reputationsschäden.
Laut der Bitkom-Studie “Datenschutz in der deutschen Wirtschaft” (2026) sehen 57 Prozent der Unternehmen den Datenschutz als Einschränkung für den KI-Einsatz. 19 Prozent melden bereits Datenschutzverstösse im vergangenen Jahr. Die Zahlen zeigen: Das Problem ist real und betrifft viele Unternehmen.
Die Alternative: KI, die im Unternehmen bleibt
All diese Probleme haben einen gemeinsamen Nenner: Sie entstehen, weil Daten das Unternehmen verlassen. Die Lösung liegt daher auf der Hand — eine KI-Plattform, die vollständig lokal betrieben wird.
Genesis: Lokale KI mit Firmenwissen
Genesis wurde genau für diesen Anwendungsfall entwickelt. Als lokale KI-Plattform laüft Genesis auf Ihrer eigenen Infrastruktur — keine Daten verlassen Ihr Unternehmen, kein CLOUD Act, keine US-Server, keine Schatten-KI.
Was Genesis anders macht:
- DSGVO-Konformität by Design: Alle Daten bleiben auf Ihren Servern. Es findet keine Datenübermittlung an Dritte statt. Erfahren Sie mehr auf unserer Sicherheitsseite.
- Firmenwissen integriert: Genesis kann auf Ihre internen Dokumente, Wissensdatenbanken und Prozesse zugreifen. Die KI kennt Ihr Unternehmen und liefert relevante, kontextbezogene Antworten.
- Zentrale Verwaltung: Ein Admin-Dashboard ermöglicht volle Kontrolle über Nutzer, Berechtigungen, Kosten und Nutzungsstatistiken.
- Plugin-System: Modulare Erweiterungen für branchenspezifische Anforderungen — von der Vertragsprüfung bis zur Fristenverwaltung.
- Reduzierte Halluzinationen: Durch die Anbindung an Ihre eigenen Datenqüllen (RAG — Retrieval Augmented Generation) basieren Antworten auf verifizierten Unternehmensinformationen statt auf allgemeinem Trainingswissen.
Für eine detaillierte Übersicht zur DSGVO-Konformität lesen Sie unsere DSGVO-Konformitätsdokumentation.
Fazit: Sicherheit ist kein Feature — sie ist die Grundlage
ChatGPT ist ein beeindruckendes Werkzeug. Aber “beeindruckend” reicht nicht, wenn es um Unternehmensdaten, Compliance und Geschäftsentscheidungen geht. Die Risiken — von DSGVO-Verstössen über Halluzinationen bis zum vollständigen Kontrollverlust — sind zu gross, um sie zu ignorieren.
Unternehmen, die KI ernsthaft und verantwortungsvoll einsetzen wollen, brauchen eine Lösung, die Datenschutz, Kontrolle und Firmenintegration von Anfang an mitdenkt. Keine nachträgliche Flickschusterei, sondern eine Architektur, die auf Sicherheit aufgebaut ist.
Wenn Sie wissen möchten, wie Genesis in Ihrem Unternehmen aussehen könnte, werfen Sie einen Blick auf unsere Preise oder vereinbaren Sie direkt ein Beratungsgespräch. Wir zeigen Ihnen, wie KI im Unternehmen funktioniert — sicher, kontrolliert und mit Ihrem Wissen.
Qüllen: Bitkom-Studie “Künstliche Intelligenz in Deutschland” (2025), Bitkom-Studie “Datenschutz in der deutschen Wirtschaft” (2026), Cyberhaven Data Security Report (2025), OpenAI SimpleQA Benchmark, EU AI Act Verordnung (EU) 2024/1689.