Windows 11: Microsoft hilft, die Leistung beim Gaming wiederherzustellen

Windows[English]Spieler leiden unter Windows 11 daran, dass dieses tolle, neue, muss ich unbedingt haben, Betriebssystem die Maschine wohl bei der Leistung schwächeln lässt. Der Grund sind die vielen, tollen, super-duper Sicherheitsmaßnahmen. Sicherheit ist das Eine, hat sich Microsoft gedacht, und Leistung das Andere. Daher hat man nun eine Anleitung zum Abschalten der Sicherheitsfunktionen gemacht. Damit sind die Gamer glücklich und Microsoft kann sich wieder größeren Dingen wie dem Ausrollen von ungewollten Apps oder Features auf die Benutzersysteme widmen.


Anzeige

Über die Kollegen von deskmodder.de bin ich auf die skurrilen Ratschläge von Microsoft aufmerksam geworden. Im Artikel Options to Optimize Gaming Performance in Windows 11 schreibt Microsoft, dass man die Virtualisierung in Windows 11 für Szenarien wie Hypervisor-geschützte Code-Integrität (HVCI), auch Memory Integrity genannt, und die Virtual Machine Platform (VMP) verwendet.

VMP stellt zentrale virtuelle Maschinendienste für Windows bereit. Memory Integrity verhindert, dass Angreifer ihren eigenen bösartigen Code einschleusen und stellt sicher, dass alle in das Betriebssystem geladenen Treiber signiert und vertrauenswürdig sind.

VMP wird auf allen neuen Windows 11-Geräten standardmäßig aktiviert sein. Die standardmäßige Aktivierung von Sicherheitsfunktionen basiert, so Microsoft, auf der sich entwickelnden Bedrohungslandschaft und der Verantwortung, die Redmond für den Schutz seiner über eine Milliarde Windows-Nutzer trägt.

Bei fortlaufenden Tests und nach Feedback von Anwendern hat man nun festgestellt, dass es in einigen Szenarien und bei einigen Konfigurationen von Geräten mit Windows 11, die für Spiele genutzt werden, zu Leistungseinbußen kommen kann, wenn Speicherintegrität und VMP aktiviert sind. Windows bietet Anwendern die Möglichkeit, ihre Systeme so zu konfigurieren, dass sie ihren spezifischen Anforderungen gerecht werden. Dies schließt auch die Möglichkeit ein, Windows-Funktionen wie Memory Integrity und VMP ein- und auszuschalten.

Spieler, die Wert auf Leistung legen, haben die Möglichkeit, diese Funktionen während des Spiels zu deaktivieren und nach dem Spielen wieder einzuschalten. Im Artikel Options to Optimize Gaming Performance in Windows 11 gibt Microsoft dann konkrete Anleitungen zum Abschalten der Sicherheitsfunktionen Virtual Machine Platform (VMP) und  Memory Integrity. Sind die Features ausgeschaltet, kann das Gerät anfällig für Bedrohungen sein.

Es ist genau mein Humor: Microsoft sagt, weil wir mit Windows 11 besonders sicher werden wollen, schreiben wir besondere Hardware vor. Und um das System sicherer zu machen, fügen wir Windows 11 auf dieser leistungsfähigen Hardware auch spezielle Sicherheitsfunktionen hinzu. Kann man natürlich machen – ich finde den Blog-Beitrag nicht mehr, aber zum Start von Windows 11 hatte ich bereits prognostiziert, dass die Hardware-Anforderungen bei Weitem nicht ausreichen, um die vielen Features (u.a. Teams-Dienste, VMP etc.) zu implementieren. Nun wird das Zeug so langsam, dass es den Leuten auffällt. Und nun sagt Microsoft: Kein Problem, wir helfen euch, schaltet einfach die Schutzfunktionen ab. Es war schon immer etwas teurer, einen besonderen "Windows"-Geschmack zu haben.

Ähnliche Artikel:
Windows 11 2022 Update (22H2) freigegeben
Windows 11 22H2: Probleme und Upgrade-Stopper
Windows 11: Druckertreiber als Upgrade-Stopper bestätigt (29. Sept. 2022)
Windows 11: Kompatibilitätsprobleme mit Intel Smart Sound Technology
Windows 11 22H2: Sonderupdate KB5019311 zum 27.9.2022, Media Feature Pack, noch kein FOD?
Windows 11: Preview-Update KB5017389 (30.9.2022)
Windows 11 verstärkt Schutz des SMB-Datenverkehrs
Windows 11 22H2: Nächste Rollout-Phase gestartet, breitere Verteilung
Windows 11 22H2: Bereitstellungspakete funktionieren möglicherweise nicht wie erwartet
Windows 11 22H2: Microsoft untersucht RDP-Probleme

Windows 10/11: Microsoft will Performance-Probleme fixen (Feb. 2022)
Windows 11: Microsoft AMA, die HW-Anforderungen, App-Updates und weitere Einsichten


Cookies blockieren entzieht uns die Finanzierung: Cookie-Einstellungen

Dieser Beitrag wurde unter Problemlösung, Windows abgelegt und mit verschlagwortet. Setze ein Lesezeichen auf den Permalink.

24 Antworten zu Windows 11: Microsoft hilft, die Leistung beim Gaming wiederherzustellen

  1. Micha45 sagt:

    Sicher für Games opfern? Muss man nicht verstehen. Kann ich nur den Kopf schütteln

    • Luzifer sagt:

      naja wenn du dich aufs Gamen konzentrierst und nicht noch 1000fachen Shice neben her machst… brauchst du keinen Schutz der dir deine emails Office usw schützt, da kann man für mehr Leistung schon mal einiges abschalten. Nach dem Gamen sollte man das halt auch wieder einschalten ;-P

      Oder du nutzt mehrere Systeme: nen Arbeitstier und nnen Gamingtier, da brauchst du dann auch kein Officeschutz usw. auf dem Gamingtier.

      Da muss man da auch nicht den Kopf schütteln.

      Ich hab hier nen Office PC für die normalen Tätigkeiten und surfen und so, nen HTPC, nen CAD Station, nen Gaming Rechner und da noch nen FluSim Rechner auf 4D Portal von Festo … die sind alle entsprechend angepasst. Nicht jeder davon braucht da alles! Sicherheitsverlust dadurch: 0%

      Sicherheit kommt 10% von der Maschine, 90% Sicherheit sitzt zwischen Stuhl und Tastatur! Imer noch die Hauptschadensquelle Nummer eins!

      • Mira Bellenbaum sagt:

        Solange Deine Rechner aus dem WWW nicht ansprechbar sind, mögen Deine
        Überlegungen ja passen.
        Nachhaltig und umweltschonend ist aber so etwas aber auch nicht gerade,
        wenn man für jeden Scheiß, einen eigenen Rechner hat (braucht),
        zumal wahrscheinlich dann auch mehrere parallel laufen.

        • Jackie sagt:

          Kann man ganz ohne Probleme nachhaltig abbilden. Meine jetzige Firewall war zuvor, Fileserver, davor Virtualisierungshost und davor Gaming PC. Einfach den alten Kram für einen neuen Zweck nutzen. Davon abgesehen gibt es nunmal Jobs bei denen man dieses Risiko einfach nicht eingehen kann. Systeme mit irgendwelchen Anticheat Kernel Treiber sind für mich nicht mehr als Arbeitsgerät einsetzbar! Warum deswegen mehrere Rechner gleichzeitig laufen sollten sehe ich auch nicht. Ich kann entweder arbeiten, zocken oder fernsehen aber nicht alles gleichzeitig :)

          Ich optimiere allerdings auch schon lange nicht mehr am Gaming PC rum. Das System habe ich sogar schon mehrfach auf neue Hardware umgezogen. Es gibt genau ein Spiel das nicht ordentlich läuft aber das ist auch noch nirgends ordentlich gelaufen!

        • McAlex777 sagt:

          >> "WWW"

          Die Sicherheitsmaßnahmen Speicherschutz und Virtualisierte Sicherheit braucht m.E. kein Heim-Anwender in der Praxis, wenn Software nur aus Original-Quellen installiert, und Defender + Kostenpflichtige Thirdparty Antiviren-Software einsetzt werden. Natürlich sollte auch ein lokaler Useraccount eingesetzt sein. Auch kann es hilfreich sein einen kostenpflichtigen Mailanbieter mit serverseitigem Virencheck einzusetzen.

        • Luzifer sagt:

          ****************************
          Nachhaltig und umweltschonend ist aber so etwas aber auch nicht gerade,
          ****************************
          Wie willst du das beurteilen? die kauf ich ja nicht alle 2 Jahre neu… und entweder ich arbeite oder ich spiele, also parallel läuft da nicht unbedingt, bin zwar multitaskingfähig ( ja auch als Mann) aber so sehr dann doch wieder nicht.
          Stromverbrauch? Ich besitze ein Haus in niedrigenergiebauweise mit BHKW + Solarstrom + Solarthermie… dadurch zu 80% Energieautark alles mit erneuerbarer Energie… 100% energieautark wäre damit sogar möglich, aber auch da liebe ich das Backup.

          Es gibt zwar allen möglichen Malwareshice wie zum Beispiel dryveby etc. aber 98% der Malware da draußen ist immer noch auf den User angewiesen… da ich nicht aus dubiosen Quellen lade und auch nicht einfach alles anklicke was so reinpoppt, muss ich mir da auch keine Sorgen machen.

      • McAlex777 sagt:

        >> 90% Sicherheit sitzt zwischen Stuhl und Tastatur! Imer noch die Hauptschadensquelle Nummer eins!

        Das ist leider so… ich hatte im privaten Umfeld vor einigen Monaten mit einer Anwenderin zutun, die neben Windows10 Defender 3 weitere Thirdparty-Antivirus-Applikationen parallel installiert hatte. Und die drei natürlich alle irgendwelche kostenlose oder abgelaufene Demoversionen.

        Das Ende vom Lied war eine Neuinstallation des Systems, da sich die Software nicht mehr Deinstallieren liess, oder bei reinstallation abbrach. Dann mit "ausdrücklichem", "mehrfachbetontem" Verbot sich weitere Antivirensoftware zu installieren :-)

  2. Herr IngoW sagt:

    Der gemeine Gamer braucht eigendlich keinen Schutz, er will ja nur spielen.
    Die meisten Leute die am PC nur am spielen sind haben meist keine Ahnung von Sicherheit und die ist ihnen auch wurscht, Haupsache die Kiste ist schnell und wenn irgendwas aufploppt schnell auf OK klicken sonst kommt man ja nicht vorwärts.

  3. Anonymous sagt:

    Wenn das abschaltbar ist, führt das das ganze Konzept ad absurdum.

  4. McAlex777 sagt:

    Hallo,
    was ich mich inzwischen Frage: Was nützen all diese Sicherheitsmaßnahmen die selbst 4-8 Kern GHz-Boliden spürbar ausbremsen am Ende?!

    * Defender Antivirus
    * Zusätzlicher Thirdparty Antivirus
    * Besondere BrowserSchutzmaßnahmen
    * Speicherschutz (Adress-Randomizations)
    * UEFI SecureBoot
    * TPM2.0 Zwang
    * Kernelmode VM + Usermode VM
    * Verschiedene Rechtelevel auf CPU/Betriebssystemebene
    * Eingeschränkte Useraccounts
    * Neue Rechtesysteme für ModernApps

    Und dennoch reicht ein einziges Dokument als Mailanhang um den Rechner zu übernehmen. Und dennoch reicht ein einziger USB-Stick, um das Gerät zu übernehmen.

    Microsoft entwickelt 1.000 Sicherheitsschichten, und bremst die Rechner immer weiter aus, und doch können sie ihre Anwender nur begrenzt vor Angriffen schützen.

    Windows krankt m.E. an dem Wunsch der 90er das alles möglichst einfach und schnell machbar sein soll. Beispiele sind AD, Office VBA, oder der IE mit ActiveX.

    Das wird m.E. auch so bleiben, weil die basiskonzepte Windows in den 80/90ern ohne große Sicherheitskonzepte entwickelt wurden, und mit WindowsNT ein weitestgehend kompatibles System entwickelt wurde, bei dem Sicherheit nachträglich angeflanscht wurden.

    Das heute abzuändern würde die Kompatibilität massiv zerstören und damit das Ende von Windows und seinem ganzen Ökosystem.

    Also schottet man alle Systeme in Virtuellen Maschinen voneinander ab. Am Ende laufen dann Browser, Office, Kernel, Applikationen in eigenen geschützten Containern – und verbrennt für den gesamten Overhead massivst Ressourcen.

    Wie macht es GNU/Linux? Sie haben ein Repository, das vom Distributor verwaltet wird, und der Sicherstellt das nur saubere Software auf die Kisten installiert wird. Fertig. Sicherheitsupdates werden sehr schnell über diese Repos verteilt. Das Gesamtkonzept ist am Ende um ein vielfaches Einfacher – und unsicherer ist man am GNU/Linux-Desktop auch nicht als unter Windows.

    Der Nachteil ist: sobald ich Software abseits des Repos benötige bin ich auf mich selbst gestellt.

    • Janami25 sagt:

      Also, im Endeffekt soll es wohl dann auf ein geschlossenes System mit automatischen App Aktualisierungen hinauslaufen, und am besten noch weiter abschotten, nur der Sicherheit wegen. Fals ich das richtig verstanden habe…

      So ein (kommerzielles) Betriebssystem haben wir aber schon auf dem Markt. ;) Wo Hardware und Software sogar aufeinander abngestimmt sind.

      Wozu dann noch Windows? Für Windows spricht doch eben die Kompatbilität und realtiv offene (wenn auch kommerzielle) Software Vielfalt. Jedenfalls im Moment noch. Wenn diese Argumente wegfallen, dann brechen auch alle positiven Aspekte weg, die Windows so erfolgreich gemacht haben. Wenn dann noch die Hardware Beschränkungen strenger werden, gibt es für mich keine Argumente mehr für Windows. Ausser, "das man es nicht besser kennt".

      Sicherheit für Freiheit, bald verliert man beides, dabei ist der Unsicherheitsfaktor weiterhin definitiv der Mensch. Daran wird all das nichts ändern. Ausser Bewusstsein.

    • Anonymous sagt:

      Das System soll von eigenständigen Zugriffen durch den Benutzers abgeschottet werden. Er soll nur noch mit seiner persönlichen digitalen Identität Zugriff auf jegliche Software und auf "seine" Daten (die möglichst ausschliesslich in einer Cloud liegen) haben. So kann man ihn dann zu beliebigen Dingen erziehen, wie keine Hassrede posten oder von Energiesparen bis Impfung brav all das zu tun, was die Obrigkeit vorgibt, sonst wird der Zugang gesperrt und aus ist die Maus.

    • Robert sagt:

      McAlex777 bringt es genau auf den Punkt!!!!

      * Defender Antivirus
      * Zusätzlicher Thirdparty Antivirus
      * Besondere BrowserSchutzmaßnahmen
      * Speicherschutz (Adress-Randomizations)
      * UEFI SecureBoot
      * TPM2.0 Zwang
      * Kernelmode VM + Usermode VM
      * Verschiedene Rechtelevel auf CPU/Betriebssystemebene
      * Eingeschränkte Useraccounts
      * Neue Rechtesysteme für ModernApps

      …und dann ist der Exchange-Server anfällig zur Netzwerk-Übernahme via RemotePowerShell !!

      Und alle neuen User im AD haben AUTOMATISCH RECHTE, die PowerShell per Remote zu nutzen (was sie nie und nimmer jemals brauchen!! wieso zur Hölle ist so etwas DEFAULT????) -> **DER BRÜLLER HOCH 10**

      FINDE DEN FEHLER…

    • 1ST1 sagt:

      "Wie macht es GNU/Linux?"

      Das war einmal… Jetzt wird Linux verdockert. Suse fängt bei der Enterprise-Version an, die haben gerade "Adaptable Linux Platform " als die Zukunft vorgestellt. Man hat da nur ein Basis-System und alle Pakete oben drauf sind Container. Dort ist es noch Zukunft, nimm mal Ubuntu 22, da sind mittlerweile viele Anwendungen containerisiert und werden per Snap gezogen. Ähnlich bei Red Hat, dort ist es OpenShift. Das ganze Konzept mit Shared Libs wird hier aufgebrochen, man hat jetzt nicht nur eine aktuelle Version aller Libs auf der Platte, die von allen Programmes verwendet werden, sondern sie stecken auch noch mal in jedem Container drin, so wie der Maintainer des Containers das mal zusammen gepackt hat, auch mit alten Versionen, wenn der Maintainer das nicht pflegt. Die Idee dahinter ist, nicht mehr der Linux-Distributor pflegt neue Versionen der Anwendungen in seine Landschaft rein, sondern der Software-Entwickler liefert einen Container, der auch auf verschiedenen Distributionen laufen mag. Das bedeutet, das System wird aufgeblasen weil jeder Container immer wieder die selben Bibliotheken mit bringt, das braucht Platz, das braucht Download-Bandbreite, und die Gefahr ist groß, dass innerhalb der Container die Pakete nicht aktuell sind.

      Erinnert sich noch jemand an das NPM-Debakel aus dem Frühjahr, wo dort Pakete als Protest auf den Ukraine-Krieg von den jeweiligen Autoren sabotiert wurde? Solche und ähnliche Supply-Chain-Attacken werden dann unter Linux Alltag, befürchte ich.

      Sicherheitstechnisch ist das eine Katastrophe. Das mag auf einem Server, wo gillt, "Ein Dienst, ein Server" noch Ok sein, aber auf einem Desktopsystem ist das Irrsinn.

      • McAlex777 sagt:

        >> Docker

        (Docker bezeichne ich jetzt mal hier übergreifend auch als Snap/Flatpack etc.)

        Ich hatte mal Probeweise einen Browser über den Weg installiert – und die Desktop-Performance-Unterschiede waren deutlich spürbar. Das mag für einzelne Desktop-Applikationen eine "optionale" Möglichkeit sein, auch wenn man dann definieren welche Applikationen welche Dateisystem/Netzwerk-Zugriffe erhalten. Für Browser halt ich das derzeit für mich nicht praktikabel. Schon garnicht wenn Distributoren alle ihre Apps in Docker-Pakete ausgliedert.

        Schwieriger halte ich dagegen folgende drei Punkte:
        1. Das Konzept das jede App ihre eigenen Libs mitbringt erhält Einzug. Auch die fehlende Qualitätskontrolle eines Distributors.
        2. Zentrale "Appstores" neigen als Ziel für Angriffe.
        3. Es wird vereinfacht proparitäre Apps ins GNU/Linux Ökosystem zu bringen. Warum sollten nicht proparitäre Apps im Docker-Container genauso ihr unwesen Treiben wie unter Windows? Telemtrie-Daten abgreifen, Userverhalten ausforschen, etc.

        Brauch ich als nächstes Virenscanner für GNU/Linux weil Angreifer verseuchte Docker-Container verteilen die irgendwelche ZeroDay Bugs ausnutzen um aus dem Container auszubrechen? Brauch ich dann als nächstes unter GNU/Linux eine Trennung von Usermode und Kernelmode in verschiedenen Virtuellen Maschinen?

        Ich für meinen Teil werde darum derzeit um Distributionen die alles auf Container auslagern einen Bogen machen.

        • OwenBurnett sagt:

          1. Finde ich super, so laufen auch alte Programme ohne neu kompiliert zu werden. Zentrale libs sind eine Pest für Kompatibilität.

          2. Ob Appstore ganze contianer ausliefern oder nicht ist doch irrelevant für den angreifer.

          3. Finde ich gut, so bekommt linux am desktop vieleicht doch eine kleine Chance.

          • McAlex777 sagt:

            Die deutlich bessere Lösung wären bessere GNU-Programme unter GNU/Linux, so das man ohne Closed-Alternativen zurechtkommt. Diese wären dann auch OutOfBox in den Repos enthalten.

          • OwenBurnett sagt:

            > Die deutlich bessere Lösung wären bessere GNU-Programme unter GNU/Linux, so das man ohne Closed-Alternativen zurechtkommt. Diese wären dann auch OutOfBox in den Repos enthalten.
            >

            Wird nicht passieren,
            oder hast du zufällig ein paar 100 Milliarden die du spenden möchtest?

  5. Singlethreaded sagt:

    Bin mal gespannt ob das Ganze auch professionelle Software wie CAD Systeme einbremst. Im Unternehmen wird man die Sicherheitsfunktionen nicht mal eben abschalten können, weil diese schnell als "Stand der Technik" gelten werden und wenn dem so ist, dann hat man bei einem Einschlag weitere Probleme wie z.B. mit Versicherungen.

  6. McAlex777 sagt:

    @OwenBurnett

    Viele Programme sind in den letzten 10Jahren schon deutlich besser geworden – inzwischen kannman mit vielem schon halbwegs leben.

    Klar, es ist noch lange von "perfekt" entfernt. Wenn jedoch Closed-Source unter GNU/Linux die Regel wird, zieht es die ganzen Probleme mit auf die Plattform, was letztlich die ganzen Vorteile der GNU-Umgebung wieder zunichte macht.

    Ich bin dabei das "einzelne" Apps als Docker-Lösung sinnvoll sind, aber m.E. sollte keinesfalls der gesamte Desktop mit allen Desktop-Applikationen in die Richtung wandern.

    • OwenBurnett sagt:

      Naja die goldene Regel an der niemand in der IT vorbei kommt lautet: "Compatibility Rulz!!!"
      Windows-Phoen war ein Flop weil MSFT damals keinen Android Emulator hatte.

      Und was macht GNU-Linux? Sie sabotieren vorsätzlich Software wie den NDISWrapper.

      MMN wird Linux genau so lange auf dem Desktop eine Randerscheinung bleiben bis die meisten Distros mit einem funktionierendem WINE ausgeliefert werden, also einem das 10x besser als der jetzige Käse funktioniert.

      Wenn Closed-Source unter GNU/Linux die Regel wird, ohne das dabei das bestehende Open-Source Angebot kleiner wird ist das doch nur zu begrüßen, mehr Software == mehr User, und wer will kann ja bei reiner Open-Source Software bleiben. Und der ganze Rest der arbeiten muss holt sich was auch immer er da so braucht egal ob es Open oder Closed ist Hauptsache es erfüllt die Aufgaben.

Schreibe einen Kommentar zu Herr IngoW Antworten abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Hinweis: Bitte beachtet die Regeln zum Kommentieren im Blog (Erstkommentare und Verlinktes landet in der Moderation, gebe ich alle paar Stunden frei, SEO-Posts/SPAM lösche ich rigoros). Kommentare abseits des Themas bitte unter Diskussion.