One Size fits all! Oder auch nicht! – Ausgeklügelter Umgang mit Firmendaten und GenAI Diensten

Auf meinen Blogpost Defender Aigis: Die Cyber-Wächter der KI-Sphären – oder: wie kann ich BYOAI eindämmen!?  habe ich viel Feedback erhalten.
Neben dem Dank für den Post ist mir aufgefallen, dass viele meinten:

„Ich verstehe, warum bestimmte Dienste komplett gesperrt werden sollten, jedoch möchte ich meinen Usern mehr Flexibilität bieten und z.B. ChatGPT freigeben, ich möchte aber gleichzeitig verhindern, dass meine Unternehmensdaten dort Verwendung finden!
Hilf mir, da gibt’s doch bestimmt auch etwas von Microsoft!“

Da will ich mich natürlich nicht lumpen lassen, denn ganz klar, da gibt es etwas von Microsoft!

„One Size fits all! Oder auch nicht!“

Das Vorgehen sieht für mich einen „Drei-Sprung“ vor:

Agenda

  1. Blocken von absolut unerwünschten Diensten
  2. Erlauben von Ausnahmen
  3. Aber Unterbinden der Nutzung von Unternehmensdaten, sowohl Upload von Dateien als auch die Nutzung von Copy&Paste
  4. Usersicht
  5. Daten in Copilot – geht gar nicht! 😉
  6. Fazit

1.  Blocken von absolut unerwünschten Diensten

Da hat sich seit „Defender Aigis“ nichts dran geändert. Einen Stolperstein möchte ich kurz erwähnen, über den ich selber gestolpert bin:

Vorbedingung: Das ist nur möglich, wenn ich einen in Defender for Endpoint ongebordeden Client habe!

Und dann muss ich sicherstellen, dass die Policy „Enable Network Protection“ in Intune, bzw. die Group Policy: „GPS: Prevent users and apps from accessing dangerous websites“ auf „Enabled (Block)” gesetzt ist.
Überprüfen kann man dies über den (Admin) Powershell Befehl:

Get-MpPreference | Select-Object EnableNetworkProtection

Und zweiter Hinweis: es kann auch helfen, wenn man die Browserinstanz neustartet! *hust* 😉

2.  Erlauben von Ausnahmen

Die Überschrift trügt ein wenig, denn eigentlich ist es genau andersherum: Es werden unter 1. Explizit Dienste gesperrt und für alle anderen Dienste werden dann weitere Policies in Microsoft Purview definiert.

Hier gibt es zwei Möglichkeiten:

  1. One-Click Policies in Data Security Posture Management (DSPM) for AI => Microsoft Purview data security and compliance protections for Microsoft Copilot and other generative AI apps | Microsoft Learn
One-Click Policy in DSPM for AI
  1. Über den “richtigen” Weg von einer definierten DLP (Data Loss Prevention) Policy – und genau den werde ich beschreiben! (POV: die Policies werden eh an derselben Stelle in Purview DLP angelegt!  😱Von daher ist natürlich beides „richtig“! 😉 )

Damit wir den Weg über eine DLP Policy gehen können, müssen bestimmte Vorarbeiten erledigt werden:

  1. Datenklassifizierung 😱😱😱 JA, da führt spätestens jetzt kein Weg mehr dran vorbei! [Eigentlich etwas, dass vor 20 Jahren, oder zumindest zur DSGVO hätte passieren sollen! Prokrastination at it’s best! 😁Siehe: Best Practice Datenklassifizierung ]
  2. Für den ersten Gebrauch zwar nicht notwendig, wenn es aber „granularer“ werden soll, dann: Wenn bestimmte Dienste unterschiedlich behandelt werden sollen, so muss in den Purview DLP Settings -> Endpoint DLP Settings sog. „Browser and domain restrictions to sensitive data“ konfiguriert werden. Insbesondere müssen die unerlaubten Browser ausgewählt werden und die “Sensitive service domain groups” konfiguriert werden:
Data Loss Prevention Settings in Microsoft Purview

3. Mastering DLP

Wenn diese Voraussetzungen geschaffen wurden, dann kann jetzt die eigentliche DLP Policy erstellt werden (Die „obvious Steps“ wie „gib der Policy einen Namen“ überspringe ich in der positiven Annahme, dass ihr das selbst hinkriegt! 😝) :

  1. Bei der Template Auswahl am Anfang muss (!) Custom->Custom policy ausgewählt werden:
„Custom->Custom policy“ – der erste Schritt in der Erstellung der DLP Policy
  1. Der erste Knackpunkt ist bei „Location“ / „Choose where to apply the policy”, denn diese Policy erfordert Endpoint DLP, ergo “Device“ als Selection only!
Das Vorgehen fällt in die Kategorie „Endpoint DLP“ und dazu muss „Devices“ ausgewählt werden!
  1. Nun kommt die eigentliche “Arbeit”: Customize advanced DLP rules
    Also flink auf „Create rule“ geklickt und dann legen wir so richtig los
  2. Zuallererst geben wir der Rule einen vernünftigen Namen ich habe folgenden gewählt: „All labeled content except public and personal“
  3. Jetzt brauchen wir eine „Condition“ und hier kommt vor allem die Pre-Work des Labelings ins Spiel, denn unsere erste Condition lautet
     „Content Contains“->“Sensitivity Labels
Sensitivity Label für „Content contains“ auswählen



Und hier sind wir natürlich nicht knausrig und wählen alle Label außer die, die wir explizit ausnehmen wollen, also in meinem Fall „Public“ und „Personal“.

Alle Label werden ausgewählt, außer Personal und Public
  1. Jetzt fängt der Spaß an und wir definieren die Action, die ausgeführt werden soll:
    Wir wählen als mögliche Action folgendes aus: „Audit or restrict activities on devices
Die Action, die es auszuwählen gilt ist „Audit or restrict activities on devices“
  1. Erste Aktion hier ist dann „Choose different restrictions for sensitive service domains“ und dort „Add group“ ->
Es können ein oder mehrere Gruppen ausgewählt werden.



Und im „einfachen“ Fall wählen wir die pre-defined Gruppe „Generative AI Websites

Spezielle Gruppen für die gewählten Einschränkungen

Dort sind ähnlich wie bei der MDCA Generative AI Category vordefinierte AI Services definiert. Diese Liste ist allerdings kürzer! Also ggf. muss hier ein Abgleich eigenständig vorgenommen werden! => Supported AI sites by Microsoft Purview for data security and compliance protections | Microsoft Learn
Vergesst nach dem Click auf „Add“ nicht, noch die Action auf „Block“ umzustellen! Ja, wir sind die fiesen Admins, die hier restriktiv agieren! 😈

  1. Selbiges führen wir noch bei „Paste to supported Browsers“ aus (Die Screenshots erspare ich euch, die sehen identisch wie oben aus! 😉)
  2. Für den nächsten Abschnitt müsst ihr noch die Entscheidungen treffen, wie grundsätzlich mit geschütztem Content umgegangen werden soll, hier mal mein Vorschlag:
Und, was soll ausgewählt werden? Na klar: BLOCK – alles, was denn sonst, ich verstehe die Frage nicht! 😉
  1. Den Rest lassen wir (für heute) so, wie er ist und drücken auf „Save“->“Next“.
  2. Der nächste Screen bringt uns zu „sofort scharfschalten“ oder „erst Testen“ – da ich in meinem Testtenant unterwegs bin: „sofort scharfschalten“, was ihr macht, müsst ihr entscheiden! 😉
  3. Dann noch „Next“-„Finish“ und wir sind fertig! 🥳🎉

4. Und wie sieht es jetzt für die User aus?

Mein Dreisprung sieht also jetzt so aus:

  1. https://www.deepseek.com
Ausgewählte Dienste können komplett unterbunden werden.
  1. https://chatgpt.com, wenn eine gelabelte Datei hochgeladen werden soll:
Bei anderen wird die grundsätzliche Nutzung ermöglicht, allerdings wird bei Unternehmensdaten das Copy&Pasten und Verwenden von Dateien unterbunden
  1. https://m365.cloud.microsoft.com/chat mit der identischen Datei – geht natürlich 🥳:
In Copilot erlauben wir natürlich die Nutzung von auch hoch sensiblen Daten

5. Daten in Copilot? Geht gar nicht! 😉

In seltensten Fällen, habe ich mir sagen lassen, soll es vorkommen, dass es Vorschriften – oder zumindest den Wunsch – gibt, dass Copilot bestimmte, super brisante Dokumente und Daten gar nicht verarbeiten können soll.

Hinweis: Sofern die Daten „eh in der Cloud“ sind – macht es technologisch und aus einer Risikoperspektive keinen Unterschied, ob die Daten durch Copilot verarbeitet werden – aber, Kundenwunsch ist Kundenwunsch und dem kommen wir natürlich nach:

Durch Klassifizierung, Labeling und Data Loss Prevention können wir sogar die Verarbeitung in Copilot verhindern –
aber wer will das schon?

Die technische Umsetzung erfolgt ebenfalls über spezielle DLP Policies. Da diese zum Zeitpunkt der Erstellung dieses Post noch in Preview sind, spare ich mir die Konfiguration und reiche diese nach, sobald die Funktionalität GA Status erreicht hat. Hier ist die zugehörige Dokumentation: Learn about the Microsoft 365 Copilot location (preview) | Microsoft Learn

6. Fazit

Durch den Einsatz von gemanagten Devices in Tateinheit mit Microsoft Defender for Endpoint, Microsoft Defender for Cloud Apps und ausgeklügelten Microsoft Purview Data Loss Prevention Policies kann ich die Generative AI Welt im Zaum halten, die Daten schützen und den Usern die Flexibilität geben, die sie fordern und als Erwachsene auch haben sollten!

Hier erwächst eine zunehmende Verantwortung für die IT und Compliance Verantwortlichen, dass die überaus mächtige und sich schnell verändernden KI Tools für und mit den Usern gemanagt werden muss.