- Die KI-Revolution in Zahlen
- Der EU AI Act: Europas Regelwerk für künstliche Intelligenz
- Datenschutz und KI: Die DSGVO bleibt das Fundament
- Urheberrecht bei KI-Ausgaben: Wem gehört der Output?
- Vorsicht vor Deepfakes und Bias
- Geteilte Verantwortung: Was Microsoft absichert – und was Ihr Unternehmen tun muss
- Schutzmechanismen in Microsoft Copilot
- AI Governance: Strategisch und operativ
- Microsoft Purview: Das Werkzeug für KI-Governance
- Microsoft Fabric: Sichere Daten als Fundament für KI
- Fazit: Sichere KI braucht sichere Datenrichtlinien

Künstliche Intelligenz verändert die Arbeitswelt in rasantem Tempo. Doch mit dem Potenzial wachsen auch die Anforderungen an Datensicherheit, Compliance und verantwortungsvolle Nutzung. In unserem Deep-Dive-Webinar haben wir gemeinsam mit unserem Compliance Manager Michael Makowski die wichtigsten Aspekte beleuchtet – von der EU-Regulierung über Urheberrechtsfragen bis hin zu konkreten Schutzmaßnahmen im Microsoft-Ökosystem.
Die KI-Revolution in Zahlen
Die Geschwindigkeit, mit der sich künstliche Intelligenz verbreitet, ist beispiellos: Während Mobiltelefone 16 Jahre brauchten, um 100 Millionen Nutzer zu erreichen, schaffte ChatGPT das in nur zwei Monaten. Laut IDC werden bis 2028 weltweit 1,3 Milliarden KI-Agenten im Einsatz sein – befeuert durch ein prognostiziertes globales Datenvolumen von 527 Zettabyte.
Was bedeutet das für Unternehmen? Microsoft spricht vom „Zeitalter der Agenten": Jeder Mitarbeitende soll künftig mindestens einen Copilot an der Hand haben, und Geschäftsprozesse werden zunehmend durch spezialisierte KI-Agenten transformiert. Bei COSMO CONSULT erleben wir das selbst: Anfang 2026 waren bereits über 600 Agenten unternehmensweit im Einsatz – eine Verdreifachung innerhalb weniger Monate.
Doch mit dieser rasanten Entwicklung entstehen auch neue Herausforderungen in den Bereichen Sicherheit, Change Management und Compliance.
Der EU AI Act: Europas Regelwerk für künstliche Intelligenz
Die Europäische Union hat mit dem EU AI Act das weltweit erste umfassende KI-Gesetz verabschiedet. Im Kern steht eine Risikoklassifizierung, die als Pyramide dargestellt werden kann:
- Unakzeptables Risiko (Verbot): Systeme wie Social Scoring oder biometrische Massenüberwachung sind verboten. Diese Verbote gelten bereits seit dem 2. Februar 2025.
Hohes Risiko (strenge Auflagen): KI in sensiblen Bereichen wie Medizin, Bewerbungsverfahren oder kritischer Infrastruktur unterliegt umfangreichen Dokumentations- und Prüfpflichten.
Wichtig: Diese Pflichten greifen ab dem 2. August 2026 – Unternehmen sollten sich jetzt darauf vorbereiten.
- Limitiertes Risiko (Transparenzpflicht): Typische Chatbots und KI-Assistenten müssen für den Nutzer klar als KI erkennbar sein. Die Transparenzpflichten gelten seit dem 2. August 2025.
- Minimales Risiko (Verhaltenskodex): Anwendungen wie Rechtschreibkorrektur oder Spamfilter sind unkritisch und können über freiwillige Verhaltenskodizes abgedeckt werden.
Die Praxisbotschaft: Vor jeder KI-Einführung sollte geprüft werden, in welche Risikokategorie das System fällt. Wer frühzeitig Datenschutz- und Compliance-Verantwortliche einbezieht, spart Kosten und vermeidet spätere Sanktionen.
Aktueller Hinweis (April 2026): Der EU AI Act fordert von Unternehmen auch den Nachweis der KI-Kompetenz ihrer Mitarbeitenden (Art. 4). Schulungen und Awareness-Programme sind daher nicht nur empfehlenswert, sondern werden zunehmend zur Pflicht.
Datenschutz und KI: Die DSGVO bleibt das Fundament
Unabhängig vom EU AI Act gelten die bewährten Grundsätze der DSGVO weiterhin – auch und gerade beim Einsatz von KI. Vier Rechtsgrundlagen sind für die meisten Unternehmen besonders relevant:
1. Einverständnis: Freiwillige, informierte und nachweisbare Zustimmung der betroffenen Person.
2. Vertragliche Notwendigkeit: Die Datenverarbeitung ist zur Vertragserfüllung erforderlich.
3. Gesetzliche Verpflichtung: Die Verarbeitung dient der Einhaltung gesetzlicher Pflichten.
4. Berechtigtes Interesse: Die Verarbeitung liegt im berechtigten Interesse des Unternehmens, sofern die Rechte der betroffenen Person nicht überwiegen.
Vor jeder Verarbeitung personenbezogener Daten durch KI-Systeme sollten drei Fragen beantwortet werden: Erlaubt der Zweck die Verarbeitung? Ist sie erforderlich? Und ist sie angemessen? Im Zweifelsfall empfiehlt sich die Rücksprache mit dem Datenschutzbeauftragten.
Urheberrecht bei KI-Ausgaben: Wem gehört der Output?
Eine häufig gestellte Frage: Wer ist Eigentümer von Inhalten, die eine KI generiert? Die Antwort ist klar – und für viele überraschend:
- Die KI selbst kann kein Urheber sein – sie hat keine Persönlichkeit und keine Rechte.
- Der Ersteller der KI hat die Ausgabe nicht erstellt.
- Der Nutzer hat die Ausgabe ebenfalls nicht im urheberrechtlichen Sinne erstellt.
Die Konsequenz: KI-generierte Inhalte sind in der Regel kein geschütztes geistiges Eigentum. Gleichzeitig besteht das Risiko, dass KI-Ausgaben Rechte Dritter verletzen – etwa wenn Trainingsdaten urheberrechtlich geschütztes Material enthalten.
Unternehmen sollten daher:
- Interne Richtlinien für den Umgang mit KI-generierten Inhalten etablieren
- Prüf- und Freigabeprozesse definieren
- Verträge mit KI-Anbietern auf entsprechende Regelungen prüfen
Vorsicht vor Deepfakes und Bias
KI-Systeme können gesellschaftliche Vorurteile verstärken, statt sie neutral zu behandeln. Ein anschauliches Beispiel: Bittet man eine KI, ein Bild einer Verhaftung in den USA zu generieren, zeigt das Ergebnis häufig stereotype Darstellungen – ein klares Zeichen für Bias in den Trainingsdaten.
Auch Deepfakes stellen eine wachsende Bedrohung dar. Sie können Fehlinformationen verbreiten, Identitätsmissbrauch ermöglichen und die Privatsphäre verletzen. Aus ethischen und rechtlichen Gründen ist ihre Erstellung problematisch und kann unter anderem als Beleidigung, Verleumdung oder Verstoß gegen das Recht am eigenen Bild geahndet werden.
Geteilte Verantwortung: Was Microsoft absichert – und was Ihr Unternehmen tun muss
Bei der Nutzung von Microsoft Copilot gilt das Prinzip der Shared Responsibility:
Microsoft ist verantwortlich für:
- Die sichere Produktionsumgebung
- Datenverschlüsselung (at rest und in transit)
- Zugangsbeschränkungen zur Kundenumgebung
Ihr Unternehmen ist verantwortlich für:
- Den Zugang zu KI-Apps und Identitätsmanagement
- Den Schutz und die Governance der Daten in KI-Interaktionen
- Schulungen und Sensibilisierung der Mitarbeitenden
Schutzmechanismen in Microsoft Copilot
Microsoft Copilot bringt bereits umfangreiche Sicherheitsfunktionen mit:
- Sicherheitsfilter verhindern voreingenommene oder diskriminierende Outputs
- Eingaben werden nicht zum Weitertraining der Modelle verwendet
- Prompt Shields schützen vor Prompt-Injection-Angriffen
- Unternehmensdaten bleiben strikt getrennt von öffentlichen Modellen
Besonders wichtig: Im Work-Modus greift Copilot auf Unternehmensdaten zu (E-Mails, Teams-Nachrichten, SharePoint-Dokumente). Dabei übernimmt er exakt die Berechtigungen des jeweiligen Nutzers. Das bedeutet: Berechtigungen und Vertraulichkeits-Labels müssen sorgfältig gepflegt werden – denn was ein Nutzer sehen darf, kann auch der Copilot finden und auswerten.
Tipp:
Überprüfen Sie die Vertraulichkeitsstufen Ihrer Dokumente. Ein als „General" eingestuftes Dokument in einem tief verschachtelten Ordner ist vor dem Copilot nicht versteckt.
AI Governance: Strategisch und operativ
Bei COSMO CONSULT haben wir ein AI Governance Team etabliert, das eng mit Compliance, Datenschutz und IT-Sicherheit zusammenarbeitet. Zu unseren Maßnahmen gehören:
- Eine AI-Tool-Strategie, die klar definiert, welche Tools im Unternehmen eingesetzt werden dürfen – und welche nicht (z. B. DeepSeek oder Grok aufgrund von Datenschutz- bzw. Qualitätsbedenken)
- Eine AI Governance Checklist, die für jedes neue KI-Tool oder -Projekt durchlaufen werden muss – mit Fragen zu Compliance, Sicherheit, Transparenz und Verantwortlichkeit
- Der bewusste Verzicht auf Unacceptable Risk und High Risk Use Cases
Als Orientierung empfehlen wir die Microsoft-Richtlinien für verantwortungsvolle KI, die umfassende Frameworks, Tools und Best Practices bereitstellen.
Microsoft Purview: Das Werkzeug für KI-Governance
Microsoft Purview hat sich zur zentralen Plattform für Datenschutz, Data Governance und KI-Compliance entwickelt. Besonders relevant für das KI-Zeitalter:
- Überwachung risikobehafteter KI-Nutzung – nicht nur für Microsoft-eigene Tools, sondern auch für Drittanbieter wie ChatGPT oder Gemini
- Oversharing-Prävention – Erkennung, wenn Agenten auf zu viele Datenquellen zugreifen
- Data Loss Prevention (DLP) – Verhinderung, dass sensible Daten in nicht autorisierte KI-Anwendungen kopiert werden
- Compliance Manager mit EU AI Act Templates – Direkte Verknüpfung von KI-Anwendungen mit den regulatorischen Anforderungen des AI Acts
Ergänzend dazu wurde Microsoft Agent 365 angekündigt – ein spezialisiertes Tool zur Steuerung und Überwachung von KI-Agenten im Microsoft-365-Ökosystem.
Microsoft Fabric: Sichere Daten als Fundament für KI
Die Datenplattform Microsoft Fabric bildet das Fundament für sichere, KI-fähige Datenarchitekturen. Alle Daten fließen in den OneLake – und werden durchgängig durch Purview abgesichert:
- Identitäts- und Zugriffssteuerung
- Rollen und Berechtigungen
- Datenmaskierung und Pseudonymisierung
- Data Loss Prevention
- Datenschutz und Governance
Ein Bestandteil von Microsoft Fabric ist der Fabric Data Agent. Damit können Unternehmen KI-Agenten entwickeln, die den Business-Kontext verstehen und fundierte, verlässliche Antworten auf Basis ihrer Unternehmensdaten liefern. Gleichzeitig wird durch Microsoft Purview eine durchgängige Sicherheit gewährleistet – von der Datenquelle bis hin zur Interaktion mit dem Endnutzer
Fazit: Sichere KI braucht sichere Datenrichtlinien
Datensicherheit im KI-Zeitalter ist kein einmaliges Projekt, sondern ein fortlaufender Prozess. Die gute Nachricht: Mit dem Microsoft-Ökosystem aus Copilot, Purview und Fabric stehen leistungsfähige Werkzeuge zur Verfügung, um KI sicher und compliant einzusetzen. Entscheidend ist jedoch, dass Unternehmen aktiv Verantwortung übernehmen – durch klare Governance-Strukturen, Schulungen und eine bewusste Tool-Strategie.
Denn am Ende gilt: Jeder Nutzer ist selbst verantwortlich für die gewissenhafte Prüfung von KI-Eingaben und -Ausgaben. Nicht einfach Copy & Paste – sondern prüfen, verstehen, dann verwenden.
So unterstützt Sie COSMO CONSULT
- AI-Governance Workshop: Strategie, Sicherheit und Governance für den KI-Einsatz in Ihrem Unternehmen
- AI-Readiness Workshop: Analyse Ihres aktuellen Reifegrads und Ableitung konkreter Maßnahmen
- AI Solution Assessment: Gemeinsame Entwicklung passgenaer KI-Lösungen
- AI Consulting: Strategische, effiziente und nachhaltige Verankerung von KI in Ihren Geschäftsprozessen
Auf der Suche nach Unterstützung bei Ihrer KI-Strategie?
Buchen Sie einen kostenlosen Beratungstermin mit unseren Expert*innen
Weitere passende Blogbeiträge
Fündig geworden?
Starten Sie jetzt Ihre intelligente Suche





