Achtung: CoPilot in Office-Apps standardmäßig aktiviert – AI-Training wird bestritten

[English]Microsoft hat wohl Updates der Office-Apps in Microsoft 365 ausgerollt, bei denen standardmäßig ein Opt-In in CoPilot aktiviert ist. Damit werten Word oder Excel (mit CoPilot-Lizenz) Dokumente standardmäßig aus, um eine Zusammenfassung zu erstellen. Dass die Daten (wie erst vermutet wurde) benutzt werden, um die AI-Modelle ggf. zu trainieren, wird von Microsoft bestritten.  Nutzer tun trotzdem gut daran, sofern möglich, diese Option auszuschalten. Mir liegen Leser-Informationen vor, dass von CoPilot auch streng vertrauliche Verschlusssachen ohne Nachfrage im Klartext in die Cloud übertragen und für eine Zusammenfassung analysiert wird – ein sicherheitstechnischer Alptraum, der mit Microsoft 365 gerade ausgerollt wird.


Anzeige

Microsoft Office mit CoPilot Opt-out

Das Thema ist am letzten Wochenende bzw. in den vergangenen Tagen durch mehrere Leser an mich herangetragen worden. Thomas hat mich in einer Mail auf den Medium-Beitrag MS Word is Using You to Train AI auf Medium hingewiesen (danke dafür). Die Botschaft des betreffenden Beitrags: Microsoft hat in Office irgendwann in den letzten Monaten heimlich eine Opt-out-Funktion aktiviert. Diese Funktion wertet die Inhalte der von Nutzern geöffneten Word- und Excel-Dokumente aus, um die internen Microsoft KI-Systeme zu trainieren.

So soll sich das abschalten lassen

Wer Microsoft Word verwendet, um geschützte Inhalte zu (z.B. urheberrechtlich geschütztes Material wie Manuskripte, oder Blog-Beiträge, Verträge, sensitive Berichtet etc.) erstellen, sollte diese Funktion sofort deaktivieren. Das Ganze soll sich unter "Connected Experiences" verbergen und in Word über: Datei > Optionen > Trust Center > Trust Center-Einstellungen > Datenschutzoptionen > Datenschutzeinstellungen > Optionale verbundene Erlebnisse > durch deaktivieren des Kontrollkästchens "Optionale verbundene Erlebnisse einschalten" abwählen lassen.

Scannt CoPilot die Dokumente zum AI-Training?

Auf Microsoft Answers gibt es im englischsprachigen Forum den Beitrag Does Microsoft Word scan my documents to train their AI models? vom 16. November 2024, der die automatische Verwendung von Dokument-Inhalten durch Word und den CoPilot thematisiert. Hier soll es im Admin-Center Möglichkeiten geben, diese Option zu definieren.


Anzeige

Microsoft bestreitet AI-Training

Gegenüber Bleeping Computer gibt Microsoft aber an, dass man CoPilot-Daten nicht verwende, um seine AI-Modelle zu trainieren.

CoPilot AI-Training

"Microsoft verwendet keine Kundendaten aus Microsoft 365 Verbraucher- und kommerziellen Anwendungen, um große Sprachmodelle zu trainieren. Außerdem hat die Connected Services-Einstellung keinen Einfluss darauf, wie Microsoft große Sprachmodelle trainiert." teilte das Unternehmen Bleeping Computer über einen Sprecher mit. Der Beitrag von Bleeping Computer befasst sich auch mit der Frage, wie sich die betreffenden "Connected Services" abschalten lassen.

Ein weiterer Leserhinweis mit Erfahrungen

Ich selbst habe nichts von dem Microsoft Zeugs mehr am Start, die obige Geschichte könnte sich auf außereuropäische Länder beziehen. Aber ein weiterer Blog-Leser hat mir dann unter dem Betreff "Microsoft CoPilot – Automatische Zusammenfassungen von Microsoft Word" noch einige ergänzende Hinweise per Mail geschickt (danke dafür).

Der Leser darf den CoPilot testen

Der Blog-Leser schrieb mir, dass er als "Administrator" die Funktion des Microsoft CoPilot testen darf. Dabei stellte er fest, das er Microsoft Copilot jedes beliebige Dokument das vom Nutzer in Word geöffnet wird, sofort als "Klartext" in die Microsoft-Cloud schickt und einen Zusammenfassung generiert.

Der Leser schrieb mir dazu, dass jeder Nutzer mit einer CoPilot-Lizenz den Inhalt eines Dokuments als Zusammenfassung generieren und "out-of-the-box" dieses Wirken samt Datenabfluss in die Cloud selbst erleben könne. Dabei soll es vollkommen egal sein, ob das Dokument vorher verschlüsselt war, z.B. in einem VeraCrypt-Verzeichnis lag, mit einem 3rd-Party "BringYourOwn-Key" verschlüsselt ist oder es sich sogar ein VS-NfD-Dokument handelt (nachfolgend zeige ich Beispiele zu einem unkritischen Merkblatt, welches jedoch genau mit dieser Überschrift versehen ist).

Die Informationen seien schon weg, bevor der Nutzer die "fette" CoPilot-Anzeige aufklappen und auf "Stoppen" klicken kann, hieß es. Aussage des Lesers: "Der Text ist schon in der Cloud angekommen, nur die Inhaltgenerierung durch den CoPilot wurde gestoppt".

CoPilot als Auto-Opt-in

Der CoPilot ist also in Word 365 oder Excel 365 als "Default Opt-In" aktiv. Die Funktion könne er auch nicht abschalten, schrieb der Leser, sondern es gebe nur die Möglichkeit, den ca. 7 cm hohen CoPilot-Kasten durch einklappen/ausklappen zu deaktivieren. So hintergeht man jeder Sicherheitslösung, schreibt der Leser, da das Produkt, was zum Arbeiten benötigt wird, bereits offenbar ein Datenkrake sei.

Bei Tests des Lesers hat sich herausgestellt, dass der CoPilot startet und die Zusammenfassung erstellt, wenn Microsoft Office-Version 2409 (Build 18025.20096), aktueller Kanal, unter Windows 11 23H2 und Windows 11 24H2 installiert ist.

Beim "halbjährlichen Kanal" von Microsoft Office 365 passiert die Aktivierung des CoPilot unter Windows 10 offenbar nicht. In Excel 365 muss das Dokument in M$-SharePoint-Online/OneDrive liegen. Microsoft PowerBI Pro sei nicht kompatibel, schreibt der Leser, außer er aktiviert die Option für "EU-Auslandsdatenverarbeitung".

Ein Beispiel zu vertraulichen Verschlusssachen

Der Leser hat dann als Beispiele für Quelldokumente eine Google-Suche unter den Begriffen Merkblatt für die Behandlung von Verschlusssachen (VS) des Geheimhaltungsgrades gestartet, die Dokumente heruntergeladen und in Microsoft Word geladen.

CoPilot generiert Zusammenfassung
CoPilot generiert die Zusammenfassung – zum Vergrößern klicken

In obigem Screenshot sieht man, dass der CoPilot mit der Zusammenfassung beginnt und noch ein leeres Fenster zeigt. Im nächsten Fenster ist diese CoPilot-Zusammenfassung beendet, aber der Nutzer kann diese erneut generieren lassen.

Zusammenfassung einer Verschlusssache
Dokument mit Verschlusssache – zum Vergrößern klicken

Nachfolgendes Bild zeigt das geladene Bild mit dem Merkblatt für die Verschlusssache und der Zusammenfassung durch den Microsoft CoPilot. Der Nutzer kann quasi nichts machen, der CoPilot legt automatisch los, nagelt den Inhalt der Verschlusssache zur Auswertung in die Cloud und schickt die Zusammenfassung stolz zurück.

Zusammenfassung einer Verschlusssache
Dokument mit Verschlusssache und Zusammenfassung- zum Vergrößern klicken

Das ist ein sicherheitstechnischer Alptraum, man denke neben den Verschlusssachen an weitere vertrauliche Dokumente wie Arztbriefe, die per Word erstellt werden.

Auswertung einer VerschlusssacheAuswertung einer Verschlusssache – zum Vergrößern klicken

Dass die KI keine wirkliche Intelligenz besitzt (jedenfalls in der Variante "Made by Microsoft") lässt sich an obigem Screenshot erkennen. In der oberen und rechten CoPilot-Spalte wird der Nutzer in der Zusammenfassung belehrt, wie Verschlussachen gehandhabt werden müssen. Der CoPilot hat das aber bereits munter in der Cloud gespeichert und verwurstelt.

Word CoPilot-Optionen
Word 365 CoPilot-Optionen – zum Vergrößern klicken

Wenn ich den obigen Screenshot richtig interpretiere, lässt sich in den Word-Optionen in der Kategorie Copilot lediglich die Option Copilot-Zusammenfassung automatisch reduzieren abwählen.

Microsoft erklärt die automatische Zusammenfassung

Der Leser hat mich in seiner Mail auf das Microsoft Support-Dokument Erstellen einer Zusammenfassung Ihres Dokuments mit Copilot in Word hingewiesen, wo es heißt:

Hinweis: Diese Copilot Zusammenfassung ist für Kunden mit einer Microsoft 365 Copilot (Arbeits-)Lizenz verfügbar. Wir führen die automatische Zusammenfassung schrittweise ein. Wenn Sie sie also noch nicht sehen, achten Sie in einem Update darauf (weitere Informationen finden Sie unter Bereitstellen kontinuierlicher Innovationen in Windows 11). Wir führen es langsam aus.

What the Fuck – was für ein neuer Bullshit von Microsoft, es ist nicht zu fassen. Das ist sicherheitstechnisch und datenschutztechnisch ein absolutes No-Go.

Verklärung der KI oder kritische Artikel?

Der Leser schrieb mir dazu "Ich finde keine kritischen Artikel nur "Hey super tolle Hilfe des CoPilot". Er hat beispielsweise auf den Beitrag Sparen Sie Zeit und Aufwand: Microsoft Word führt automatische Zusammenfassungen mit KI ein verlinkt, wo ein Jubellied auf diese neue Funktion geflötet wird. Die Seite scheint sich aber bevorzugt mit Anleitungen, wie etwas funktioniert, zu befassen.

Lediglich die Kollegen bei Golem haben zum 25. November 2024 einen kritischen Artikel Copilot lässt Mitarbeiter die E-Mails ihres Chefs lesen zur neuen Office 365 CoPilot-Funktionalität veröffentlicht, in denen die Datenschutz-Aspekte und das Berechtigungs-Chaos angesprochen wird. Der Artikel ist ganz lesenswert – letztlich wird die Verantwortung auf den Administrator bzw. Nutzer im Unternehmen gekippt.

Ich sage es mal so: Microsoft musste bei Windows 11 mit seinem Recall im CoPiloten zurückrudern, als es einen Aufschrei der Sicherheitsforscher gab. Aber bei Microsoft 365 kommt es – wie erwartet – still und leise, heimlich durch die "kalte Küche". Und die "Führung" sowie die Medien feiern das noch – nicht zu fassen.

Rückmeldung des Lesers von einer Schulung

Der Leser nahm als Administrator auch an einer zu obigem Thema teil. Er schrieb mir, dass das Feedback bei einer Schulung generell bei LLM ein "Output ist Scheiße" gewesen sei. Es hieß alles sei "fehlerhaft, man muss alles prüfen" und so weiter. Von Microsoft war die Botschaft in der Schulung: "Wir sind großer Hoffnungen, das es unsere Arbeit erleichtern wird".

Frustrierend erscheint mir auch die Beobachtung des Lesers, der mir schrieb, dass von 76 Teilnehmern nur ganze drei Personen überhaupt das Thema DSGVO-Konflikt und rechtliche Probleme beim KI-Einsatz gesehen habe. Gefühlt habe niemand der Teilnehmer eine Ahnung davon gehabt, was ein Large Language Modell (LLM) sei und welche Implikationen das habe.

Der Leser schloss seine Mail an mich: "Keine Ahnung wie KI funktioniert, man sollte es 'Maschinelles Lernen' nennen". Er beobachtet, dass niemand im Management auf die IT hört und alle Medien den Hype rund um AI mitmachen. Den großen Konzernen spiele dies in die Hände und es werden weitere Abhängigkeiten und Stellen für Datenabflüsse generiert. Klingt, als ob noch ein großes Stück Arbeit auf die Datenschutzverantwortlichen zukommt.

Wie wird das in der Leserschaft gesehen? Ist die obige Thematik in der IT bzw. im Unternehmen bekannt? Laufen das Tests und gibt es Vorgaben, wie AI-Lösungen a la CoPilot eingesetzt werden dürfen? Lässt sich da administrativ abschalten?

Ähnliche Artikel:
Nachbetrachtung zur DSK-Einstufung "Microsoft 365 weiterhin nicht datenschutzkonform"
Chrome & Edge senden persönliche Daten (u.a. Passwörter) an Google bzw. Microsoft
Microsoft 365 an Schulen, Baden-Württembergs Datenschützer sagt Nein
Microsoft 365 'Workplace Analytics' Productivity Score: Microsoft bessert Datenschutz nach
BlackHat 2024: Remote Code Execution-Angriff auf M365 Copilot per E-Mail
Copilot wird für Outlook-Classic unter Windows ausgerollt (Juni 2024)
Microsoft 365 Copilot Wave 2: Pages, Python in Excel und Agenten
Microsoft 365 Copilot vorgestellt: KI-Funktionen für alle Office-Apps
Microsoft integriert die ai.exe in Office 365-Produkte, was Ärger machen kann
Office 365: Neuer Problembär AI.exe verursacht CPU-Last und braucht Bandbreite am Terminal Server
Büchse der Pandora: Die Gesundheitsdaten, KI (Copilot, Adobe AI) und der Patienten-/Datenschutz
US-Kongress verbietet Mitarbeitern Microsoft AI-Lösung Copilot

 


Anzeige

Dieser Beitrag wurde unter Office, Sicherheit abgelegt und mit , , verschlagwortet. Setze ein Lesezeichen auf den Permalink.

52 Antworten zu Achtung: CoPilot in Office-Apps standardmäßig aktiviert – AI-Training wird bestritten

  1. Mira Bellenbaum sagt:

    ""Aber Microsoft hat den Sachverhalt doch dementiert!
    Alles nur üble Nachrede.""

    Mal eine doofe Frage! Es gibt in der EU Erlasse und Gesetze, richtig?
    Warum werden diese dann nicht durchgesetzt?

    Sind Gesetze und Verordnungen denn nur noch Leitsätze?
    Wer mag, sollte bei ROT an der Ampel stehen bleiben.
    Das Aneignen von fremdem Eigentum möge unterlassen werden.
    Mord und Totschlag sollte unterlassen werden.

    • Anonymous sagt:

      Und wenn "die EU" auch an diese Daten ran will?

    • Luzifer sagt:

      weil diese Gesetze alles Antragsdelikte sind, ohne Kläger keine Anklage!
      Und was ist der "Deutsche Michel"? Dumm träge und obrigkeitshörig.

    • Ken Guruh sagt:

      …"Sind Gesetze und Verordnungen denn nur noch Leitsätze?"…

      Aber so läuft es in D doch schon seit Jahren! Am deutlichsten für alle Bürger anhand der StVO zu sehen. Es wird gefahren wie jeder will, es wird geparkt wo man will und, und, und… Und unsere Gesetzeshüter dabei voll dabei (was schert mich das Linksabbiegeverbot? Ich bin die Polizei, ich darf das!). Logisch, sitzen in diesen Autos ja auch nur Menschen.

    • User007 sagt:

      "Warum werden diese dann nicht durchgesetzt?"
      😂 Der ist gut – dahin wurde doch deutsche Bürokratie exportiert, also wieso sollte's dort anders als hier national laufen?!

      "Sind Gesetze und Verordnungen denn nur noch Leitsätze?"
      Genau, DAS sind alles nur "Empfehlungen" – unsere "Gesetze" sind oftmals ein Witz sowie die Strafzumessungen mittlerweile ohne jeglichen Präventivcharakter! 🤷‍♂️

  2. michael sagt:

    Mir ist es mittlerweile Banane, da es der GL und den IT-Entscheidern hier auch Apfel ist. Ich werde keine Tauben nach Athen tragen, die blinden IT-Blindenführer sind am Ruder. Hätte fast schon mal eine Abmahnung bekommen da das Bitlocker-Entsperr-Kennwort mit 22 Zeichen zu lang war – dabei setzte es sich durch eine gut merkbare Wortkombination zusammen. Sollen sie halt alles in die Cloud kotzen, wenn sie so geil darauf sind.

    • FriedeFreudeEierkuchen sagt:

      "Hätte fast schon mal eine Abmahnung bekommen da das Bitlocker-Entsperr-Kennwort mit 22 Zeichen zu lang war"
      Huh… Zeit einen neuen Arbeitgeber zu suchen. Das hört sich nach Frust pur an…
      Und rate mal, wer im Zweifelsfall dann den Kopf hinhalten muss.
      Ich drück dir die Daumen, dass du was besseres findest.

  3. Katja sagt:

    Das passiert aber auch nur wenn man die passenden Copilot Lizenzen hat oder?

    • Charlie sagt:

      Das wird auch ohne CoPilot Lizenzen funktionieren, Microsoft wird die Daten ziemlich sicher als insgesamt als wertvoller ansehen.

      • Martin B sagt:

        das ist genau die Frage. Aus Sicht von MS ist das Trainieren auch ohne Lizenz natürlich ein Segen. Der User kann es dann nur mit Lizenz nutzen.

        Das müsste man konkret klären

    • Steffen Groß sagt:

      Aber sicher, anders wird Microsoft die Texte natürlich nieeeeeemals für seine Zwecke nutzen.

      Ach es ist einfach nur noch zum heulen :(
      In einer normalen Welt, müsste man spätestens jetzt das Vertrauen in Office und das gesamte Unternehmen verlieren…Aber nein: Weiter gehts!

    • Günter Born sagt:

      Aktuell ist es im Text ja explizit erwähnt, dass es die entsprechenden CoPilot-Lizenzen braucht.

      Aber: Wer würde eine Wette eingehen, dass Microsoft – wenn das CoPilot-Zeugs sich lizenzmäßig nicht richtig verkauft – die Leute niemals nicht mit "gratis Goodies" in diesem Bereich anfüttert bzw. zwangsbeglückt?

      Das Problem ist doch: Wenn das Ganze als Opt-In der Art "Du musst ein CoPilot-Modul installieren, dann lizenzierst Du das, und danach schaltet der Administrator die Dokumentklassen frei, die der CoPilot überhaupt anfassen darf" realisiert wäre, könnte man sich beruhigt wieder schlafen legen.

      Aber ich halte es aktuell mit Einstein und seiner Erkenntnis über "die Unendlichkeit des Weltalls und der Dummheit der Menschen … ".

    • Desperado sagt:

      Ja, aktuell braucht man eine CoPilot-Lizenz und es reicht, wenn diese Lizenz dem Nutzer einfach hinzugefügt wird, nach einiger Zeit und Neustart von Office ist der CoPilot automatisch in so ziemlich allen Produkten per "Default-OptIn".
      Funktionierte bisher so mit Windows 11 23H2 und 24H2 und Office Version 2409, Build 18025.20096 Klick-un-Los) aktueller Kanal.

      Ein Hinweis dazu ist bei Microsoft selbst zu finden unter:
      https://support.microsoft.com/de-de/office/erstellen-einer-zusammenfassung-ihres-dokuments-mit-copilot-79bb7a0a-3bf7-41fe-8c09-56f855b669bf
      Hinweis: Diese Copilot Zusammenfassung ist für Kunden mit einer Microsoft 365 Copilot (Arbeits-)Lizenz verfügbar. Wir führen die automatische Zusammenfassung schrittweise ein. Wenn Sie sie also noch nicht sehen, achten Sie in einem Update darauf (weitere Informationen finden Sie unter Bereitstellen kontinuierlicher Innovationen in Windows 11). Wir führen es langsam aus.

      Innerhalb des Admin-Centers habe ich für "CoPilot" keine Option gesehen die darauf hinweist, sehr viel "Nebelkerzenformulierungen".
      Excel ist mit CoPilot derzeit nur "kompatibel", wenn automatisches aktiviert ist, d.h. es muss in der M$-Cloud gespeichert sein – kann sich aber noch ändern.
      Für PowerBI muss man ein Häkchen setzten, bei "schwurbeltext", der suggeriert, das die Daten außerhalb der "EU" verarbeitet werden – ist aber eher drum herum geredet.
      Die Lizenzierung im Detail blicke ich auch noch nicht, da kann man dem User , neben der "einfachen" Lizenzvergabe auch weitere (bei uns über 80) Apps abwählen (per default immer aktiviert, auch bei neuen Produkten die noch nicht fertig sind).

      Apps anzeigen für (CoPilot):
      Copilot für Microsoft 365

      ☐ Alle auswählen

      ☑ Copilot Studio in Copilot for M365
      Copilot für Microsoft 365

      ☑ Graph-Connectors in Microsoft 365 Copilot
      Copilot für Microsoft 365

      ☑ Intelligente Suche
      Copilot für Microsoft 365

      ☑ Microsoft 365 Copilot for SharePoint
      Copilot für Microsoft 365

      ☑ Microsoft 365 Copilot in Microsoft Teams
      Copilot für Microsoft 365

      ☑ Microsoft 365 Copilot in Produktivitäts-Apps
      Copilot für Microsoft 365

      ☑ Microsoft Copilot mit Graph-gestütztem Chat
      Copilot für Microsoft 365

      ☑ Power Platform-Connectors in Microsoft 365 Copilot
      Copilot für Microsoft 365

      Bei mir ist der Haken für "Microsoft 365 CoPilot in Produktivitäts-Apps abgeschaltet, Copilot ist aber
      weiterhin aktiv in Word – ggf. ist Word ja keine "Produktivitäts-App".

      Weiterhin muss ich sagen, auch wenn man diese Zusammenfassung "Beendet", denke ich, das der Text schon hochgeladen wurde, die die Zusammenfassung wurde nicht zu ende gebracht.

      Ein weiterer Test ergab, das ich den CoPilot absichtlich nutze, um in einem Word-Dokument eine Einleitung schreiben zu lassen, die noch dem Text fehlte.
      Er hatte aber offenbar schon den ganzen Text verarbeitet und lieferte mir auf Basis des gesamten Inhalt hier dann erstaunliche Weise schon alle genannten Produkten/Empfehlung aus dem Text an, was dann auch passte (immerhin war der Kontent schon komplett da).
      D.h. auch nur bei Benutzung wird der gesamte Text verarbeitet.
      Alternativ könnte man ja sonst "getrennt" vom Dokument was bei ChatGPT schreiben lassen und diesen per Copy&Paste weiter verwenden, mit CoPilot ist das aber eine ganz andere Hausnummer und das wird wohl der Mehrheit wiederum gefallen, da diese sich nicht mit Datenschutz befassen.

      Ich denke das ist also die Zukunft mit CoPilot, Recall, Outlook-E-Mails etc.
      Man muss wohl auch nicht auf die CoPilot+ Rechner warten, diese ganze Verschlüsselung bringt Dir hier nichts, wenn das Endprodukt "Word" oder eben Windows 11 bereits auf Client-Ebene alles im Klartext mitliest.
      Das ist faktisch so, als hättest Du schon einen Hacker auf dem Rechner, mit Windows 11 ist er schon von Anfang an dabei.
      Ich nehme Wetten an, das jetzt nach der "CoPilot-Jahres-Lizenz" hin zum Monatsabo dann zkünftigt wie Office eine 30 Tage Testversion vorinstalliert wird – getreu dem Motto, was geht wird auch gemacht.

      "Lustig" finde ich auch den Screenshot, wo man dem CoPilot sagt, das er das jetzt vergessen aber er mir dabei nicht helfen kann".

  4. Charlie sagt:

    Ich finde es gut.
    Gibt dann sicher bald ein bisschen Leselektüre mit vertraulichen Daten aus der Politik, dank CoPilot. Hat ja auch "da oben" niemand was zu verbergen.

    Oder Firmengeheimnisse der Konkurrenz, ist immer gut zu haben.

    Danke für die Unterstützung Microsoft.

    (Kann Spuren von Sarkasmus enthalten)

    • Günter Born sagt:

      Der Sarkasmus ist das Einzige was übrig bleibt – war gerade mal 1 Std. Sport im Verein machen, schnaufe jetzt durch, rotze noch ein Cyber-Security-Thema zu Phishing/Spam hier im Blog raus und schreibe dann eine Eingabe an einen Landesdatenschutzbeauftragten. Gibt mal wieder eine Datenspende aus dem Pharmabereich.

      Und ein anderer Fundsplitter deutet darauf hin, dass es bei der Securitas Group "abkackt" (da zerkloppen sich Leute, weil es kein Responsible Disclosure gab). Es muss richtig schlecht werden und weh tun, bevor es besser werden kann – weiß gerade nicht, wer das gesagt hat. Glaube, es war meine Oma nach zwei Weltkriegen.

  5. MWC sagt:

    Ich sehe bei uns kein CoPilot installiert mit 2409 ?

    • Tommy sagt:

      Muss Copilot nicht extra gezahlt werden?? Dann sehe ich das eh alles als "halb so wild" wer das bucht weiß doch was er tut?

      "[…]Microsoft 365 Copilot (Arbeits-)Lizenz[…]"

  6. jup sagt:

    beim Versuch obiges Trust Center Menü aufzurufen kommt hier:

    (i) Ihre Organisation verwaltet die Datenschutzeinstellungen und hat optionale verbundene Benutzererfahrungen deaktiviert.

    • Günter Born sagt:

      Dann bring deinem verantwortlichen Administrator mal einen großen Pott Kaffee mit einem Danke-schön vorbei …

      • FriedeFreudeEierkuchen sagt:

        Und sag ihm, er soll mal kurz Bescheid geben wie ich das zentral machen kann.
        Interessanterweise ist die tolle "Erfahrung" auch in gekauften Office Versionen aktiv mit "Basic" Paket on-top, nicht nur in unseren drei MS365 Standard Paketen.

  7. KL sagt:

    Wenn ich Outlook (von Office 2021 – kein Abbo, keine Cloud, eine permanente Lizenz ohne wöchentlichen Onlinezwang zwecks "Prüfung meiner Lizenz") starte, wird schon seit mindestens 3 Monaten (ein Geschenk von Microsoft über das "Autoupdate" zusätzlich zu Outlook eine "ai.exe" gestartet ("C:\Program Files\Microsoft Office\root\vfs\ProgramFilesCommonX64\Microsoft Shared\OFFICE16\AI\ai.exe"). Ich kann diese "Artificial Intelligence" (wie niedlich…) gerne beenden oder auch komplett vom Filesystem entfernen (auch das geht mit Tricks), aber beim nächsten Update läuft es wieder und beim nächsten Start von Outlook dann sowieso. Aber das hat nichts zu bedeuten – bitte weitergehen …

  8. Andreas sagt:

    Das kommt bei uns auch, allerdings mit dem Text. dass meine Organisation die optionale verbundene Benutzererfahrung aktiviert hat. Was ja nicht stimmt, wenn das so ist, wie Herr Born es in dem Artikel beschrieben hat. Das hat ja dann MS heimlich aktiviert und nicht meine "Organisation". Das ist schon ein starkes Stück…

    • Günter Born sagt:

      Sprich mit dem verantwortlichen Administrator für euren Tenant – der müsste es wissen. Der obige Artikel ist ja "work in progress" – ein Leser darf als Admin testen, ich habe was drüber zusammen getragen.

      Und jetzt spiele ich den Ball "Schwarmintelligenz der Blog-Leserschaft". Wenn 20 Leute substantiellen Input zur Thematik liefern und die obigen Ausführungen widerlegen oder bestätigen, runden wir das Bild doch ab.

      Nur so kommen wir weiter. Gestern standen wir noch vor dem Abgrund, heute sind wir einen großen Schritt weiter …

  9. Daniel A. sagt:

    "Das Ganze soll sich unter "Connected Experiences" verbergen und in Word über: Datei > Optionen > Trust Center > Trust Center-Einstellungen > Datenschutzoptionen > Datenschutzeinstellungen > Optionale verbundene Erlebnisse > durch deaktivieren des Kontrollkästchens "Optionale verbundene Erlebnisse einschalten" abwählen lassen."

    Jetzt wäre es nur schön, wenn man das auch per GPO ausschalten könnte, leider ist unter dem Punkt "Trust-Center" in den aktuellen Templates der ganze Punkt "Datenschutzoptionen" nicht vorhanden. Auch direkt unter "Trust-Center" gibt es den Punkt "Optionale verbundene Erlebnisse einschalten" nicht. Somit also nur manuell an jedem Gerät abschaltbar. Immer wieder toll, dass man ja so viel in den GPOs einstellen kann, nur sowas natürlich nicht. Oder hat den Punkt schon jemand gefunden und ich habe ihn nur übersehen?

    • Günter Born sagt:

      Vielleicht findet sich ja ein Leser, der da was gefunden hat – hier ist MS 365 freie Zone (und das soll auch so bleiben), obwohl mir das immer auf jeder Microsoft-Seite in einem Banner angeboten wird.

    • zossen sagt:

      Laut MS selbst ist es zu finden unter "Benutzerkonfiguration\Richtlinien\Administrative Vorlagen\Microsoft Office 2016\Datenschutz\Trust Center" – "Die Verwendung verbundener Erfahrung in Office zulassen"
      Quelle: https://learn.microsoft.com/de-de/microsoft-365-apps/privacy/manage-privacy-controls

      Das kann ich zumindest bestätigen für unsere aktuell verwendeten ADMX-Templates (will nicht lügen, aber irgendwann Ende 2023) und auch in den aktuellsten die dort als Download verlinkt sind. Haben wir nicht installiert, sondern nur angeschaut mit einem Editor, aber auch da ist diese Vorhanden.

    • KL sagt:

      Das IST alles abgeschaltet und abgewählt – bei uns machen die Admins ihre Hausaufgaben und dennoch läuft IMMER die ai.exe im Hintergrund mit und verbraucht auch Resourcen, wenn ein Office Programm startet! Bei uns ist nicht einmal eine Rechtschreibprüfung aktiv, rein gar nichts, was irgendwie "prüft" oder "in die Cloud" geht ist aktiviert – dennoch… Aber keine Sorge, bei meinem Apple macOS läuft auch ein cloud-Service, sogar ein findMyMac-Service und viele andere Dinge im Hintergrund, die man seit 2-3 Jahren nicht mehr abschalten kann, auch wenn man AUF SEINEM RECHNER es will, weil der root-Benutzer unter macOS nur noch Gast ist und keine Rechte mehr auf Systemdateien hat – und Apple Services fallen darunter. Also überall bei mir das selbe Drama und für mich die reinste Nötigung ("warum benutzt du dann einen Mac" – wegen MacGiro… es gibt immer irgendeinen alten Zopf -die Sachen sind über die Jahre gewachsen).

  10. Anonymous sagt:

    Auch wenn ich Microsoft nicht mag, muss ihr hier mal die Schuld von Microsoft abweisen.
    Die Funktion mit den "…Optionale verbundene Erlebnisse…" gibt es nicht erst seit kurzer Zeit, die gibt es schon länger. Das Thema hat auch schon Will Dormann auf Mastodon aufgefasst. https://infosec.exchange/@wdormann/113539448672674083
    Wir selber nutzen die Funktion auch, auf größtenteils Office 2016 Ebene und dort wird die Funktion benötigt, wenn z. B. die Übersetzungsfunktion in den Office Programmen benötigt wird. Die ist bei uns in der Umgebung übrigens wild durcheinander mal aktiv, mal nicht aktiv von Rechner zu Rechner. Auch bei uns steht da, dass es durch die Administration geblockt wird und man es nicht in der GUI ändern kann. Es gibt aber den RegKey "Computer\HKEY_CURRENT_USER\Software\Microsoft\Office\16.0\Common\Internet\UseOnlineContent", den wir auf 2 setzen, damit diese Funktion aktiv ist.
    Manchmal kamen auch bei Nutzern im Outlook ein Fenster auf, mit dem Text "Dieses Feature wurde von ihrem Administrator geblockt". Wir konnten uns nie erklären, welche Funktion denn da gerade geblockt wurde, aber durch das Setzen des RegKeys kam dieses Fenster sofort nicht mehr auf.
    Natürlich könnte Copilot auch die Funktion nutzen. Microsoft verneint dies aber. Ich wollte nur klarstellen, dass es diese Funktion schon länger gibt.

    • Desperado sagt:

      Update: Die Option der "Optional verbundene Erfahrungen aktivieren" ist bei mir bereits seit langem per GPO deaktiviert, das interessiert dem CoPilot aber nicht.

      So soll sich das abschalten lassen
      Wer Microsoft Word verwendet, um geschützte Inhalte zu (z.B. urheberrechtlich geschütztes Material wie Manuskripte, oder Blog-Beiträge, Verträge, sensitive Berichtet etc.) erstellen, sollte diese Funktion sofort deaktivieren. Das Ganze soll sich unter "Connected Experiences" verbergen und in Word über: Datei > Optionen > Trust Center > Trust Center-Einstellungen > Datenschutzoptionen > Datenschutzeinstellungen > Optionale verbundene Erlebnisse > durch deaktivieren des Kontrollkästchens "Optionale verbundene Erlebnisse einschalten" abwählen lassen.

      Ich hoffe das Thema wird mal ernst genommen und bei heise, golem oder zur Prime-Time Tagesschau ausgestrahlt.
      Kann man dem Produkt überhaupt noch vertrauen, wenn selbst der US-Kongress die Nutzung von CoPilot verbietet? Oder überwiegen die Chancen und Hoffnungen den Risiken – damit wird man doch ständig konfrontiert und alle Artikel die dagegen sprechen werden nicht mal gelesen.
      https://www.borncity.com/blog/2024/03/31/us-kongress-verbietet-mitarbeitern-microsoft-ao-lsung/

      • FriedeFreudeEierkuchen sagt:

        Deine Aussage verstehe ich nicht:
        Einerseits schreibst du, dass die "verbundenen Erfahrungen" bei dir per GPO deaktiviert sind. Dann schreibst du, dass man es in den Optionen ausstellen muss.
        Wirkt die GPO an einer anderen Stelle als die Einstellung per Option?
        Hilft das Abschalten in der Option wirklich, das Hochladen der Dateien zu unterbinden?

      • Gänseblümchen sagt:

        Edit: Ich glaube inzwischen nicht mehr, dass hier ein Zusammenhang mit Copilot besteht. Da Copilot eine neue Funktion ist, würde ich eher davon ausgehen, dass hierfür ein neuer Schalter benutzt wird, um nicht die "alten" Connected Erlebnisse zu stören. Dieser Regkey bzw. die zugehörige GPO sind ja schon uralt. ai.exe blockieren und gut ists… (hoffentlich)

  11. Wolf789 sagt:

    HORROR,
    das heißt doch auch (ich habe keine Ahnung), daß keinerlei Office-Dokument (.doc, .xls, ..) mehr versendet werden darf (mach ich über Linux u höchstens 1-2x/Jahr), da man ja nicht wissen kann, wie die Gegenstelle(Empfänger) seinen Rechner konfiguriert hat – gilt natürlich auch umgekehrt). Dabei ist davon auszugehen, zu 99,9% falsch (s.o. letztes Kapitel v. Günter …Schulung – von der ahnungslosen Restbevölkerung ganz zu schweigen).
    Und wie ist es mit .pdf-Files?
    Ich könnt nur k…. – oder liege ich da falsch?

  12. Gustav sagt:

    Meine Entscheidung, auf proprietäre Software zu verzichten wirkt im Nachhinein noch klüger als mir damals bewusst war.

    SCNR

    • FriedeFreudeEierkuchen sagt:

      Hmmm, warum muss ich gerade an den raffinierten SSH Hack (die xz-Backdoor) ein? Warum muss ich gerade an den ungeklärten Status der RustDesk Entwickler denken? Wann war nochmals der letzte unabhängige Audit? Irgendwie spuckt mir auch noch Log4j im Kopf herum. Und warum fallen mir gerade die ganzen ausgebeuteten und ausgebrannten Maintainer ein, die mit ihren (kleinen) Projekten so viel am Laufen halten und denen so oft die Ressourcen fehlen?

      Ich glaube nicht mehr pauschal daran, dass alle Open Source Projekte gut und überlegen sind. Schau dich auf Github um, es fehlen die Ressourcen.
      Wenn die ganze Industrie nicht bloss kostenlosbei Open Source absahnen, sondern sich mit Manpower und finanzieller Unterstützung beteiligen würde, dann sähe das anders aus.
      Wenn…

  13. MOM20xx sagt:

    Tja das nimmt ja ganz neue Ausmaße an. Wie ist das bei Schülern und Studierenden? Die werden ja mit Edu Abos beglückt wo von MS sowieso alles drinnen ist, was nur drinnen sein kann.
    Da schreibt der unbedarfte Student seine Diplom oder Doktorarbeit und nebenbei haut MS das mit seinem KI müll schon in die Cloud und ggf. können diese Ergüsse dann schon andere in anderen Dokumenten verwenden.
    Und irgendwann wird der arme Student in Zukunft dann noch des Bescheissens bezichtigt, weil sein Text dank Microsoft Schrott KI vielleicht schon vor Veröffentlichung seiner Arbeit längst im Netz auftaucht und von der tollen MS KI verteilt wird.
    Diesen KI Schwachsinn findet tatsächlich noch jemand gut?
    Vor allem wenn man Optionale Erfahrungen in Word oder Excel abdreht, was alles verliert man dann an Sachen die sich die Office Produkte über die Zeit vom Nutzerverhalten erlernt haben?
    Wie sollen Studenten, Schüler und Privatpersonen ohne grosses IT Know How damit umgehen?
    Im Endeffekt ergibt sich Europa – mangels eigener Alternativen – US Konzernen, die unter dem Deckmantel KI eigentlich nur ihre Datensammelwut durchsetzen wollen.

    • User007 sagt:

      Tja, aber das mit dem "sich Ergeben" ist doch nix Neues – das läuft doch schon seit Jahr(zehnt)en mit Technologieaufgabe und Patentverscherbelung zum "Wohle der Wirtschaft"! 🤷‍♂️

  14. Ralf M. sagt:

    Das Problem bei diesen ganzen Trainings ist doch das hier eine Maschine gefüttert wird, die weder gut noch böse oder richtig und falsch unterscheiden kann. Wenn ein (un)wissentlich falscher Text mit o.g. Funktion verarbeitet wird, wer korrigiert diesen dann? Wie war das noch?
    Computer sind immer nur so intelligent, wie der, der davor sitzt!

  15. Bob sagt:

    "Dass die Daten (wie erst vermutet wurde) benutzt werden, um die AI-Modelle ggf. zu trainieren, wird von Microsoft bestritten. Nutzer tun trotzdem gut daran, sofern möglich, diese Option auszuschalten."
    => Aluhut aufsetz
    Microsoft bestreitet, dass es Katzenbabys tötet. Nutzer tun trotzdem gut daran, Katzenbabys von Microsoft fern zu halten.

  16. noway sagt:

    Die meisten Systemhäuser kennen nur Microsoft und sie VERKAUFEN vor allem Microsoft ("Das ist natürlich alles DSGVO-konform, ich bin selbst Datenschutzfachmann"). Die meisten Entscheider kennen ebenfalls nur Microsoft, haben keine Ahnung, es ist ihnen egal, "Datenschutz ist ja noch schlimmer als Betriebsrat" – und wenn auf einem Treffen mit anderen Entscheidern ein anderer in seinem Laden "was moderneres" hat (Cloud! KI! Office 365, irgendwelche anderen cloudbasierten Abofallen) oder ein "Referent" etwas vorstellt, was man haben "muss"… dann befindet man sich in einem ganz normalen IT-Alptraum. Wenn was schiefgeht, ist der Entscheider, der "seine" Ideen gegen besseren Rat durchgedrückt hat, aber NIE dafür verantwortlich. Irgendein Bauernopfer findet sich schon.

    Das ist die Realität. Microsoft kann fast allen alles unterjubeln. Ich denke, es muss erst richtig knallen und es müssen zig Existenzen durch diesem Wahnsinn vernichtet werden, bis mal die ersten aufwachen.

  17. Gast sagt:

    Jetzt muss ich mal schauen, ob mein Noch-365-Family-Abo auch verseucht ist.
    Ich habe das ja nur wegen der Software, nicht wegen Cloud.

    Der Umzug in eine MS-freie Zone gestaltet sich leider schwieriger als angenommen, habe heute z. B. gemäß Anleitung manuelle (Export/Import per zip geht nicht wegen der Größe.) ein Thunderbird-Profil nach Linux geschubst:
    – 2 Kalender statt einem, dafür leer
    – Alle POP3-Postfächer, die ich nach Lokal umgebogen hatte und nicht mehr in der Ordnerliste angezeigt wurden, sind wieder da
    – die Kennwörter wurden offenbar nicht mit übertragen.
    – keine Ahnung, was sonst noch schiefgegangen ist :-(

    Zwischendurch muss man sich auch mal um das tägliche Leben kümmern …

    • FriedeFreudeEierkuchen sagt:

      Bei mir aht sich seit Jahren bewährt, den ganzen Profilordner auf den neuen Rechner bzw. das neue System zu kopieren. Ich nutze keine Komprimierung, nur ein externes Speichermedium zum Zwischenspeichern. Hat bei mir bisher zwischen Windows-Rechnern, von Windows nach Linux, von Ubuntu zu Fedora geklappt.
      Wenn du den genauen Pfad zu deinem Profil nicht kennst, kannst du den Profile-Manager aufrufen und nachsehen: unter "Ausführen" (WIN +R) "thunderbird -p" eingeben.

  18. Gast sagt:

    Lächle und sei froh, es könnte schlimmer kommen.
    Und ich lächelte und war froh, und es kam schlimmer.

    Inzwischen werde ich nur noch gefragt, warum ich so mies aus der Wäsche schaue, das Lächeln ist mir schon lange vergangen, wenn ich an unsere öffentlichen und privaten Verwaltungen (Behörden, Krankenkasse, Versicherungen, Provider, you name it) denke.

    Mir kommt da spontan die Telekom (als ein Beispiel, gibt auch andere) in den Sinn, eigentlich die Geschäftsidee:
    – erst verkaufe ich MS 365 etc: https://geschaeftskunden.telekom.de/digitale-loesungen/software-as-a-service
    – dann verkaufe ich die Security: https://geschaeftskunden.telekom.de/digitale-loesungen/cyber-security

    Wie sagte mal so ein Oggersheimer:
    https://www.welt.de/politik/deutschland/article165632182/Entscheidend-ist-was-hinten-rauskommt.html
    In den meisten Fällen kenne ich die Antwort ;-)

  19. Gast sagt:

    Obwohl ich all diese verbundenen Erfahrungen deaktiviert habe, startet die ai.exe, wenn ich Word (Office 365 Family) öffne. Was auch immer sie dann macht.
    Per O&O-Shutup bzw. AppBuster ist eigentlich auch alles deaktiviert, was in die Richtung geht.
    Bei dem privaten Office kann ich ja auch nicht im Tenant irgendetwas abstellen (afaik).
    Copilot ist auch entfernt: https://www.deskmodder.de/wiki/index.php?title=Copilot_in_Windows_11_deaktivieren

    Ich denke, der Blog richtet sich eher an Firmen-Anwender mit Tenant-Admins, aber mir fallen gerade einige Stellen ein, wo datenschutzrelevante Dinge auf Einzelrechnern mit Office Personal oder Family verarbeitet werden. Da nützt dann auch die (unter optimalen Bedingungen aktivierte) Geräteverschlüsselung nichts :-(

  20. A. B. sagt:

    Ich arbeite in einem größeren deutschen Unternehmen, und zähle zu den wenigen Auserwählten, die testweise eine MS 365 Copilot – Lizenz für MS Office etc. bekamen.

    Einzige Vorgabe war, keine als "streng vertraulich" deklarierten Dokumente/Texte aktiv an den Copilot-Prompt einzugeben/kopieren. Ansonsten liest der als aktiviertes Addon integrierte Copilot alle Daten aus meinem M365-Account ein:
    Emails (AUßER die per Outlook verschlüsselten sowie als "streng vertraulich" deklarierte), Teams-Chats, Word-/Excel-/Powerpoint-Dateien aus meinem Firmen-OneDrive, etc.

    Ich gehe wie in Günters Bericht vermutet davon aus, dass unsere IT-Admins dafür gesorgt haben, dass die Daten im Unternehmen verbleiben und nur von der hauseigenen Instanz des Copilot verwertet werden, aber nicht gespeichert oder an externe MS-Server rausgeleitet werden. Was bleibt mir als "Sachbearbeiter" anderes übrig ?

    Ansonsten bin ich wirklich schwer positiv von Leistung und Ergebnis der MS365-KI beeindruckt:
    Zusammenfassungen von Emails (nicht nur der aktuell geöffneten mitsamt kompletten Email-Verlauf, sondern auch alle weiteren Emails mit gleicher Betreffzeile sowie Teams-Chats zum gleichen Thema), z.B. "alle offenen Punkte aus den letzten 5 Tagen mit offenen Todos für mich" u.ä.,
    Hilfe bei Erstellung von Emails (komplette Neuerstellung mit wenigen Stichpunkten als Prompt-Übergabe) wie auch Änderung/Überarbeitung/Verbesserung von einem ersten eigenen Entwurf, z.B. "schreib kürzer" oder "prägnanter" oder "ausführlicher" oder "professioneller" oder "sachlicher" usw.,
    Umformatierung z.B. eines PDF-Inhaltes als Powerpoint-Foliensatz,
    Zusammenfassung des Inhaltes eines Teamsmeetings (z.B. von verpassten Anfangsminuten), in dem die Speech-to-Text-Transkription aktiviert wurde als Live-Input für die Copilot-KI, Erwähnungen von mir während meiner Abwesenheit,
    und und und.

    Wir haben neben diesem "persönlichen KI-Assistenten" auch noch eine hauseigene Recherche-KI basierend auf ChatGPT eingerichtet,
    die mit unseren hauseigenen Dokumenten und Sharepoint-Inhalten gefüttert wird und dazu fachliche Fragen beantworten und Erklärungen geben kann.

    …Aber wie das so ist mit jeder Art von KI:
    Es scheint weltweit das weit verbreitete Missverständnis zu geben, dass eine KI sich Daten und Informationen "künstlich selbst erdenkt". Dagegen benötigt sie ja immer Inputdaten, die anfangs noch von Menschen stammen, sei es aus dem Internet oder aus hinterlegten Daten/Texten in einem Sharepoint.

    Und dabei gilt naürlich immer noch der alte Datenbankgrundsatz zur Datenpflege:
    Shit in -> Shit out !
    (Auch wenn dazwischen eine KI herumwerkelt und das ganze formal aufhübscht, bleiben falsche Daten falsch…)
    Bei LLM-Trainingsdaten aus dem Internet sortieren die KIs automatisch den größten Bullshit vorab aus: z.B. bewerten sie den Wahrheitsgehalt realistischer, wenn mehr als 70% aller Internetseiten bei den Daten übereinstimmen – oder wenn die Mehrheit von als seriös gelten Nachrichtenportalen oder wissenschaftlichen Servern die gleichen Infos veröffentlicht.

    Firmenintern ist das wg. des geringeren Inputs an Trainingsdaten für eine hauseigene KI schwieriger, solche Vergleiche und Bewertungen anzustellen:
    Da steht und fällt der Nutzen einer KI mit der Qualität der vorhandenen Daten aus den Köpfen der Mitarbeiter. Je mehr Daten die Mitarbeiter ungeprüft oder nur in suboptimaler Form intern "veröffentlichen", desto schlechter ist meist die Datenqualität – und daraus folgend die Antworten einer Recherche- oder Chat-KI.

    Just my 2 pence overall:
    KI wird nur dann weitweit zum Erfolg werden (auch in den Unternehmen bei der täglichen Büro-Arbeit), wenn es immer noch wissende Menschen gibt, die fähig sind, ihr Expertenwissen klar und eindeutig niederzuschreiben und zu veröffentlichen, so dass anschließend eine KI daraus eine Zusammenfassung, Erklärung u.ä. für alle anderen Nicht-Wissenden erstellen kann, damit diese nicht mehr zeitaufwendig den gesamten Originaltext durchlesen und komplett in jeglichen Details verstehen müssen.

    Das ist so ähnlich wie die Einführung der Industrie-Roboter in den 80ern:
    Man befürchtete komplett Menschenleere Industriehallen. Aber es sind dagegen immer noch Menschen nötig, die wissen, wie man die modernen Tools (Roboter wie jetzt KI) richtig konfigurieren+bedienen muss, um zum gewünschten Ergebnis zu kommen. Und diese "Bediener" müssen auch in der Lage sein, das KI-Ergebnis überprüfen zu können (zumindest grob), statt total blind dem Roboter (oder der KI) zu vertrauen.
    Es werden zwar insgesamt weniger Mitarbeiter als Bediener benötigt, aber komplett autark wird KI nur in bestimmten Spezialgebieten funktionieren wie z.B. beim autonomen Fahren, bei denen von Vornherein die "Spielregeln" (StVo) bekannt sind und kein komplett neues Wissen erabeitet werden muss.

    Ergo:
    Auf unsere IT-Admins kommt eine noch viel größere Verantwortung zum Datenschutz zu als in den letzten Jahrzehnten ! Sie müssen sich nicht mehr nur um die Funktion der IT-Infrastruktur und IT-Tools kümmern, sondern in erhöhtem Maße um den Schutz der internen Daten bzw. die Verhinderung von externem Datenabfluss durch eine "Marken-KI". Die KIs sind sozusagen zu einem modernen Hacker geworden, den man freiwillig in eine Firma reingelassen hat, und auf den man nun aufpassen muss, dass er die ihm freiwillig übergebenen Daten nicht nach draußen bringen kann.

  21. Marius sagt:

    Bei mir war die Option in Office im TrustCenter vorher schon deaktiviert und ausgegraut (privater Offic 365-Benutzer mit aktuellster Version und Windows 11 24H2). Habe seit drei Jahren diesen RegKey gesetzt, damit klappts:
    Windows Registry Editor Version 5.00

    [HKEY_CURRENT_USER\SOFTWARE\Policies\Microsoft\Office\common\clienttelemetry]
    "DisableTelemetry"=dword:00000001
    "sendtelemetry"=dword:00000003

    [HKEY_CURRENT_USER\Software\Policies\Microsoft\office\16.0\common\privacy]
    "disconnectedstate"=dword:00000002
    "usercontentdisabled"=dword:00000002
    "downloadcontentdisabled"=dword:00000002
    "controllerconnectedservicesenabled"=dword:00000002

    Gibt es noch zusätzlich Domains, die man im pihole sperren kann? Aufgefallen ist mir da nur augloop.office.com.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Hinweis: Bitte beachtet die Regeln zum Kommentieren im Blog (Erstkommentare und Verlinktes landet in der Moderation, gebe ich alle paar Stunden frei, SEO-Posts/SPAM lösche ich rigoros). Kommentare abseits des Themas bitte unter Diskussion.

Du findest den Blog gut, hast aber Werbung geblockt? Du kannst diesen Blog auch durch eine Spende unterstützen.