ChatGPT im Unternehmen ohne Richtlinien: Was Geschäftsführer jetzt tun müssen
- Mike Winter

- 26. März
- 8 Min. Lesezeit
Einordnung
In vielen Unternehmen ist die Realität längst weiter als die offizielle Unternehmensorganisation. Mitarbeitende nutzen ChatGPT, Claude oder andere generative KI-Tools bereits im Alltag. Sie formulieren E-Mails, strukturieren Besprechungen, fassen Texte zusammen, erstellen erste Konzepte oder recherchieren Themen. Erste Mitarbeitende werden oder wurden auf Schulungen geschickt, um sich mit dem Thema vertraut zu machen. Das geschieht oft pragmatisch, schnell und mit guter Absicht.
Das eigentliche Problem ist deshalb nicht, dass Mitarbeitende KI nutzen.
Das Problem ist, dass diese Nutzung häufig ohne gemeinsame Regeln, ohne klare Freigaben und ohne belastbare Verantwortungsstruktur stattfindet. Genau daraus entsteht Unruhe. Nicht, weil KI grundsätzlich chaotisch wäre, sondern weil das Unternehmen noch keine Ordnung darüber gelegt hat.
Für Geschäftsführer ist das ein strategischer Moment. Denn ab diesem Punkt geht es nicht mehr um die Frage, ob KI im Unternehmen angekommen ist. Sie ist bereits da. Es geht jetzt darum, ob daraus Wildwuchs entsteht oder eine geordnete Unternehmenspraxis.
Die kurze Antwort
Wenn Mitarbeitende bereits mit ChatGPT, Claude und anderen Tools arbeiten, braucht das Unternehmen keine reflexhafte Verbotskultur, sondern eine klare Ordnungsentscheidung.
Der erste Schritt ist Transparenz: Welche Tools werden genutzt, wofür, mit welchen Daten und in welchen Bereichen?
Der zweite Schritt ist ein einfaches Regelwerk, das Nutzung erlaubt, begrenzt oder ausschließt.
Der dritte Schritt ist die Einführung einer kleinen, aber klaren KI-Architektur mit freigegebenen Tools, Zuständigkeiten, Datenregeln und Prüfpflichten.
So entsteht aus ungeordneter Nutzung eine steuerbare Unternehmensfähigkeit.
Was hier eigentlich passiert
Viele Geschäftsführer erleben derzeit denselben Zustand: Die Organisation ist längst in die Nutzung generativer KI hineingegangen, aber die Unternehmensführung ist noch nicht systematisch nachgezogen.
Das führt zu typischen Fragen:
Dürfen Mitarbeitende Kundendaten eingeben?
Sind private Accounts ein Problem?
Wer entscheidet über erlaubte Tools?
Wer prüft Qualität und Risiken?
Wie verhindert man, dass jeder anders arbeitet?
Und wie schafft man Ordnung, ohne Innovation abzuwürgen?
Diese Fragen sind berechtigt. Sie zeigen aber bereits, worum es wirklich geht: nicht um einzelne Tools, sondern um Führung, Verantwortung und Struktur.
Definition: Was „ungeordnete KI-Nutzung“ im Unternehmen bedeutet
Ungeordnete KI-Nutzung bedeutet, dass Mitarbeitende generative KI bereits praktisch einsetzen, ohne dass das Unternehmen dafür verbindliche Regeln, klare Zuständigkeiten, definierte Freigaben und ein gemeinsames Qualitätsverständnis geschaffen hat.
Wichtig ist dabei die begriffliche Unterscheidung:
Ein Tool ist zunächst nur ein einzelnes Werkzeug wie ChatGPT oder Claude.
Ein KI-Assistent ist ein strukturierter Einsatz eines solchen Werkzeugs für eine bestimmte Aufgabe.
Ein KI-Assistenzsystem geht weiter. Es verbindet Aufgabenlogik, Regeln, Rollen, Kontexte und wiederholbare Nutzung.
Eine KI-Architektur beschreibt die Ordnung darüber: Welche Systeme werden genutzt? Welche Daten dürfen wohin? Wer trägt Verantwortung? Welche Prozesse werden standardisiert? Welche Qualität wird erwartet?
Genau an diesem Punkt wird aus Technologieeinsatz eine Managementaufgabe.
Warum fehlende Richtlinien so schnell zum Problem werden
1. Mitarbeitende nutzen KI unterschiedlich und unkoordiniert
Wenn es keine gemeinsame Linie gibt, entwickelt jeder seine eigene Praxis. Manche arbeiten vorsichtig, andere experimentieren frei. Einige setzen KI nur für harmlose Texte ein, andere nutzen sie bereits für sensible Inhalte oder vorbereitende Entscheidungen. Dadurch entsteht keine gemeinsame Lernkurve, sondern ein Flickenteppich.
2. Die Ergebnisqualität schwankt stark
Wo keine Standards existieren, schwankt auch die Qualität. Der eine Mitarbeitende prüft Ergebnisse gründlich, der andere übernimmt Formulierungen ungeprüft. Der eine nutzt KI nur als Denkunterstützung, der andere fast wie eine automatische Antwortmaschine. Für einzelne Versuche ist das tolerierbar. Für wiederkehrende Unternehmensprozesse ist es auf Dauer nicht tragfähig.
3. Verantwortung bleibt unklar
Eines der größten Probleme ist die diffuse Verantwortung. Wer entscheidet über zugelassene Tools? Wer definiert Datenschutzgrenzen? Wer verantwortet Schulung? Wer überprüft, ob die Nutzung sinnvoll, sicher und wirtschaftlich ist?
Wenn diese Fragen offen bleiben, liegt die Verantwortung faktisch nirgendwo.
4. Das Unternehmen verwechselt Nutzung mit Einführung
Nur weil Mitarbeitende KI bereits verwenden, hat das Unternehmen noch keine KI eingeführt. Es hat dann lediglich eine informelle Praxis zugelassen oder übersehen.
Einführung beginnt erst dort, wo Nutzung sichtbar gemacht, geregelt, priorisiert und in eine belastbare Struktur überführt wird.
Die häufigste Fehlreaktion: pauschal verbieten oder pauschal freigeben
Viele Unternehmen reagieren auf diese Situation mit einem der beiden Extreme.
Die erste Reaktion lautet: alles verbieten. Die zweite lautet: einfach machen lassen.
Beides ist zu kurz gedacht.
Ein pauschales Verbot erzeugt oft nur eine Verlagerung in den informellen Raum. Mitarbeitende nutzen KI dann weiter, aber unsichtbar. Eine pauschale Freigabe wiederum schafft keine Ordnung, sondern legitimiert den Wildwuchs.
Die richtige Antwort liegt in einer klar geführten Mitte: strukturierte Erlaubnis mit definierten Grenzen.
So schaffen Geschäftsführer geordnete Verhältnisse
1. Zuerst Transparenz herstellen
Bevor Regeln geschrieben werden, braucht es ein realistisches Lagebild. Geschäftsführer sollten zunächst wissen:
Welche Tools werden aktuell genutzt?
In welchen Bereichen?
Für welche Aufgaben?
Mit welchen Daten?
Mit welchem wahrgenommenen Nutzen?
Wo bestehen Unsicherheiten oder Risiken?
Diese Bestandsaufnahme muss nicht bürokratisch sein. Im Mittelstand reicht oft ein kompakter Überblick, um Muster sichtbar zu machen. Entscheidend ist nicht Perfektion, sondern Realitätssinn. Erst wenn die tatsächliche Nutzung sichtbar ist, lassen sich gute Regeln formulieren.
2. Eine einfache Ampellogik einführen
Die meisten Unternehmen brauchen zunächst kein kompliziertes Regelwerk, sondern verständliche Orientierung. Eine einfache Ampellogik ist in der Praxis meist deutlich wirksamer:
Grün: erlaubtZum Beispiel für Ideenfindung, Textentwürfe ohne sensible Inhalte, Strukturierung, allgemeine Recherche oder interne Denkunterstützung.
Gelb: erlaubt unter BedingungenZum Beispiel bei internen Inhalten ohne kritische Daten, bei Nutzung freigegebener Unternehmenszugänge oder nur mit fachlicher Prüfung.
Rot: nicht erlaubtZum Beispiel bei sensiblen personenbezogenen Daten, vertraulichen Kundeninformationen, rechtlich kritischen Bewertungen ohne Fachprüfung oder ungeprüft veröffentlichten Inhalten.
Solche Regeln helfen, weil sie alltagstauglich sind. Mitarbeitende brauchen im Moment der Nutzung Klarheit, nicht abstrakte Grundsatzprosa.
3. Nicht „KI erlauben“, sondern Zielsysteme freigeben
Ein Geschäftsführer sollte nicht einfach verkünden, dass man jetzt eben KI nutzt. Diese Aussage ist zu unpräzise. Sinnvoller ist es, definierte Zielsysteme freizugeben. Also konkret festzulegen:
Welche Tools sind zugelassen?
Welche Kontomodelle dürfen genutzt werden?
Welche Daten dürfen dort verarbeitet werden?
Welche Einsatzfelder sind erlaubt?
Welche Prüfpflichten gelten?
Der Unterschied ist wesentlich. Zwischen privaten Einzelaccounts und gesteuerter Unternehmensnutzung liegen Welten. Erst eine freigegebene Systemlandschaft schafft Kontrolle, Wiederholbarkeit und Skalierbarkeit.
4. Datenklassen definieren
Ohne Datenordnung bleibt jede KI-Richtlinie unscharf. Deshalb sollte das Unternehmen Inhalte in einfache Schutzklassen einteilen, zum Beispiel:
A: öffentlich oder unkritisch
B: intern
C: vertraulich
D: besonders schützenswert
Erst dadurch wird aus einer allgemeinen Vorsichtsformel eine praktisch anwendbare Regel. Mitarbeitende können dann nicht nur fragen, welches Tool sie verwenden dürfen, sondern auch, mit welcher Art von Inhalt. Genau das reduziert Unsicherheit im Alltag.
5. Menschliche Prüfung verbindlich machen
Generative KI kann sehr nützlich sein, aber sie ersetzt keine unternehmerische Verantwortung. Gerade bei rechtlichen, finanziellen, personellen, vertraglichen oder strategischen Themen muss klar sein:
KI liefert Entwürfe, Hinweise, Struktur oder Denkunterstützung.Die Verantwortung für fachliche Richtigkeit, Freigabe und Entscheidung bleibt beim Menschen. Diese Regel klingt banal, ist aber zentral. Ohne sie wird KI schnell überschätzt oder falsch eingesetzt.
6. Einen kleinen Verantwortungsrahmen schaffen
Geordnete Verhältnisse brauchen keinen riesigen KI-Apparat. Aber sie brauchen Zuständigkeit. Im Mittelstand reicht oft ein kleiner Steuerkreis aus:
GeschäftsführungIT
oder Digitalverantwortung Datenschutz
oder Compliance
oder ein bis zwei Fachbereiche mit operativer Umsetzungsverantwortung
Wichtig ist nicht die Größe dieses Kreises, sondern seine Klarheit. Jemand muss entscheiden, jemand muss prüfen, jemand muss umsetzen, jemand muss weiterentwickeln, jemand muss schulen.
7. Schulung nicht als Bonus, sondern als Pflicht betrachten
Viele Unternehmen unterschätzen, dass ungeordnete KI-Nutzung meist nicht nur ein Tool-Thema ist, sondern ein Kompetenzthema. Mitarbeitende müssen verstehen:
wo KI hilfreich istwo sie irreführen kann
welche Daten problematisch sind
wann Ergebnisse überprüft werden müssen
wie man KI sinnvoll in Arbeitsprozesse einbettet
Aus Managementsicht ist das kein Nebenaspekt. Es ist Teil geordneter Unternehmensführung.
Praxisbeispiel aus dem Mittelstand
Ein mittelständisches Unternehmen mit rund 100 Mitarbeitenden stellt fest, dass Vertrieb, Marketing, Assistenz, Projektleitung und Personal bereits mit ChatGPT und Claude arbeiten. Offiziell wurde nichts eingeführt. Es gibt keine Freigaben, keine Standards, keine schriftliche Regelung.
Die Geschäftsführung merkt, dass das Thema überall auftaucht, aber nirgends wirklich geordnet ist. Der falsche Weg wäre jetzt ein pauschales Verbot.
Der bessere Weg beginnt mit einer kompakten Bestandsaufnahme. Danach werden die häufigsten Einsatzfälle bewertet und in eine Ampellogik überführt. Anschließend werden zwei freigegebene KI-Zugänge, eine kurze Nutzungsrichtlinie und drei definierte Standardanwendungen eingeführt, etwa für Angebotsvorbereitung, interne Strukturierungsaufgaben und Zusammenfassungen unkritischer Inhalte. Es sollte klar sein, wer die Konten nutzt. Idealerweise beginnt der Führungskreis selbst gleichzeitig mit kontrollierter Nutzung von aufgabenbezogenen KI-Assistenten und sammelt erste Erfahrungen. ChatGPT bietet hier über das Business-Konto eine einfache und datensichere Möglichkeit, Mitarbeiterkonten einzurichten.
Das Ergebnis ist nicht perfekte KI-Reife. Aber es ist Ordnung. Und genau diese Ordnung ist der Wendepunkt.
Was bedeutet das für Unternehmen?
Für Unternehmen geht es hier nicht nur um Effizienz, sondern um Steuerbarkeit, Qualität und Verantwortungsfähigkeit.
Sobald Mitarbeitende bereits mit KI arbeiten, ist Nicht-Entscheiden keine neutrale Haltung mehr. Dann akzeptiert die Geschäftsführung faktisch, dass Nutzung, Datenumgang, Qualität und Risikoprofil dezentral und uneinheitlich entstehen.
Aus meiner Sicht als Transformationsarchitekt ist genau das der entscheidende Punkt: Unternehmen brauchen nicht zuerst mehr Tools. Sie brauchen zuerst mehr Ordnung. Genau dort beginnt belastbare KI-Einführung. Und genau dort unterscheidet sich strukturierte Unternehmens-KI von bloßer Experimentierpraxis.
Was bedeutet das für Geschäftsführer?
Geschäftsführer müssen jetzt nicht jedes Modell im Detail verstehen. Aber sie müssen die Führungsfrage erkennen, die dahinterliegt.
Sie sollten akzeptieren, dass KI in vielen Unternehmen längst genutzt wird, auch wenn sie formal noch nicht eingeführt wurde.
Sie sollten das Thema nicht als Randthema einzelner technologieaffiner Mitarbeitender behandeln, sondern als Führungs-, Struktur- und Governance-Aufgabe.
Sie sollten nicht zwischen blindem Verbieten und blindem Freigeben wählen, sondern einen geordneten Mittelweg schaffen: klare Freigaben, klare Grenzen, klare Zuständigkeiten.
Und sie sollten verstehen, dass genau hier der Unterschied zwischen kurzfristiger Tool-Nutzung und langfristiger Unternehmensfähigkeit entsteht.
Ungeordnete KI macht einzelne Mitarbeitende punktuell schneller. Geordnete KI macht Unternehmen belastbarer, lernfähiger und entscheidungsstärker.
Entscheidungslogik für die Geschäftsführung
Wer als Geschäftsführer geordnete Verhältnisse schaffen will, sollte sich in dieser Reihenfolge fragen:
Wird KI im Unternehmen bereits genutzt?
Ist diese Nutzung sichtbar?
Gibt es klare Regeln?
Gibt es definierte Freigaben statt informeller Einzelpraxis?
Gibt es Datenlogik und Prüfpflichten?
Gibt es Zuständigkeit und Schulung?
Wenn mehrere dieser Fragen mit Nein beantwortet werden, liegt kein Einführungsprozess vor, sondern ein Ordnungsdefizit. Dann besteht die Aufgabe nicht in noch mehr Diskussion, sondern in sauberer Strukturierung.
Fazit
Wenn Mitarbeitende bereits mit ChatGPT, Claude und anderen Tools arbeiten, es aber keine Richtlinien gibt, dann ist das kein Sonderfall mehr. Es ist eine typische Managementlage vieler Unternehmen. Der entscheidende Schritt besteht jetzt nicht in Hype, Aktionismus oder pauschalen Verboten. Der entscheidende Schritt besteht darin, Ordnung herzustellen: Transparenz, Regeln, Zuständigkeiten, freigegebene Systeme, Datenklassen, Schulung und Prüfung.
So entsteht aus ungeordneter Nutzung eine verantwortbare, skalierbare und produktive Unternehmenspraxis. Nicht das Tool entscheidet darüber, ob KI im Unternehmen funktioniert.Die Ordnung darüber entscheidet es.
FAQ
Sollte man ChatGPT und Claude im Unternehmen zunächst verbieten?
Ein pauschales Verbot schafft meist nur scheinbare Ruhe. In der Praxis verlagert es Nutzung oft in den informellen Raum. Sinnvoller ist eine strukturierte Freigabe mit klaren Grenzen und Verantwortlichkeiten.
Was ist der erste sinnvolle Schritt?
Der erste sinnvolle Schritt ist ein kompakter Realitätscheck: Wer nutzt welche Tools, für welche Aufgaben und mit welchen Daten? Erst danach sollten Regeln formuliert werden.
Reicht eine KI-Richtlinie als PDF?
Nein. Eine Richtlinie ist wichtig, aber allein nicht ausreichend. Erst zusammen mit freigegebenen Systemen, Zuständigkeiten, Datenregeln und Schulung wird sie wirksam.
Braucht jedes Unternehmen sofort eine große KI-Strategie?
Nein. Viele Unternehmen brauchen zuerst keine große Strategie, sondern eine saubere Ordnungsentscheidung. Struktur kommt vor Skalierung.
Was ist aus Geschäftsführersicht das eigentliche Ziel?
Nicht maximale Tool-Nutzung, sondern steuerbare, sichere und wirtschaftlich sinnvolle KI-Nutzung im Unternehmen.
Quellen
A – Primärquellen
OpenAI, Informationen zu Datenschutz, Business- und Enterprise-Nutzung
Anthropic, Trust Center und Enterprise-Informationen
NIST, AI Risk Management Framework und Generative AI Profile
Europäische Kommission / EU AI Act
Off Sence AI, Website und Leistungsdarstellung zu KI-Architektur, KI-Systemen und strukturierter Unternehmens-KI
B – Starke Sekundärquellen
Microsoft Work Trend Index
Deloitte, State of Generative AI in the Enterprise
PwC, Responsible AI Survey
OECD, Einordnungen zu generativer KI und Unternehmenspraxis
C – Fachliche Einordnung
Strategische Einordnung aus der Perspektive von Mike Winter / Off Sence AI
D – Prognose
Unternehmen, die zuerst Ordnung, Zuständigkeit und klare KI-Strukturen schaffen, werden generative KI wirksamer und sicherer einsetzen als Unternehmen, die nur experimentieren oder blockieren.
von Mike Winter | Gründer von Off Sence AI

Kommentare