Ex-Microsoftler erklärt die schlechte Windows 10-Qualität

[English]Warum ist die Qualität von Windows 10, zumindest gefühlt, saumäßig? Hier im Blog wird ja immer mal wieder darüber diskutiert. Nun gibt es eine neue Stimme. Ex Microsoft-Mitarbeiter @Barnacules erklärt in einem YouTube-Video, warum die Qualität des aktuellen Betriebssystems und vor allem der Updates aus seiner Sicht 'den Bach runter geht' und momentan 'im Keller ist'.


Anzeige

Ich war das Wochenende unterwegs und daher weitgehend offline (lediglich Kommentare wurden hier im Blog freigeschaltet). Aber Blog-Leser Rudi K. hat mich dankenswerterweise Sonntag per E-Mail auf das Thema und diesen Beitrag aufmerksam gemacht. Ich ziehe nachfolgend mal die Fäden etwas zusammen, beschreibe die Kritikpunkte des Microsoft-Mitarbeiters und ordne das Ganze noch etwas ein. Denn so ganz neu ist das nicht, bestätigt der Ex-Microsoftler doch, was ich in diversen Beiträgen hier im Blog und bei heise schon länger postuliere.

Die Sicht des Ex-Microsoft-Mitarbeiters

In einem Video hat der ehemalige Microsoft-Mitarbeiter Jerry Berg, aka @Barnacules, seine Sicht der Dinge in Bezug auf die Qualitätsprobleme von Windows 10 aufbereitet. Zum Hintergrund: Berg war 15 Jahre als Senior Software Developer (SDET) bei Microsoft und hat dort als Entwickler und Tester im Bereich Vista sowie Windows Server mitgearbeitet. Wann er genau Microsoft verlassen hat, wird im Video nicht ganz klar. Hier das Video von Berg – dessen Präsentation zwar für meinen Geschmack etwas gewöhnungsbedürftig ist – welches aber einige der Probleme aufzeigt, die sich das Microsoft Management mit gewissen Entscheidungen aufgehalst hat.

(Quelle: YouTube).

Ich haben die Kernpunkte, die Berg in seinem Video als Problem für die Qualität von Windows 10 aufzeigt, nachfolgend mal stichpunktartig zusammen gezogen. Schaut euch das Video aber selbst an, möglicherweise habe ich einiges ja überhört, falsch gewichtet oder zu schräg einsortiert. Hier meine Interpretation des Ganzen:

  • Kernproblem von Microsoft ist, dass es früher Testabteilungen für die Produkte gab. Dort wurden die Produkte intensiv getestet, so dass die meisten Bugs gefunden wurden. Erst wenn diese Abteilungen ihr OK gaben, wurde Software für Endbenutzer freigegeben. Diese Testteams wurden aber im Rahmen der großen Entlassungswelle 2014/2015 freigesetzt und aufgelöst. Ich hatte diverse Male hier im Blog berichtet (siehe Linkliste am Artikelende und meinen Beitrag Scheitert Microsofts neuer Entwicklungs-Workflow? aus dem Jahr 2016).
  • Laut Berg, und den Bekundungen Microsofts verlässt man sich heute mehr auf kurze Tests der Entwickler in virtuellen Maschinen, auf die Telemetriedaten und darauf, dass die Fehler beim Anwender (Consumer) – oder bei Insidern – auffallen.
  • Ein Eckpfeiler der (fehlenden) 'Qualitätssicherung' sollen eigentlich die Windows Insider darstellen, die dann die Aufgabe der früheren Testabteilung übernehmen sollen. Problem ist aber, die Windows Insider berichten nicht alle Fehler. Und wenn Fehler berichtet werden, können die Insider Microsoft nicht die Informationen liefern, um den Fehler zu reproduzieren. Mit anderen Worten: Microsoft übt sich in Blindflug und hofft, irgendwie nach dem Prinzip 'Augen zu und durch' weiter zu kommen.
  • Berg führt im Video aus, dass Telemetrie gut sei, um Performancemessungen und Tuning durchzuführen. Manchmal kann man auch Bugs per Telemetrie detektieren. Das funktioniert nicht, wenn der Crash außerhalb eines instrumentierten Moduls passiert.
  • Ein Kernproblem der ganzen Telemetriegeschichte: Bei Abstürzen werden ggf. Mini-Dumps (Speicherauszug des abstürzenden Moduls) gesendet. Vollständige Kernel-Dumps mit den Daten aller Prozessen wären riesig und sind praktisch nicht zu beherrschen und per Internet zu übertragen (es werden 60 bis 120 GByte an Daten übertragen).
  • Microsoft bekommt also über die Telemetrie und bei Abstürzen nur einen Teil der Informationen und versucht, die Daten zu nehmen, um den Absturz zu reproduzieren. Finden die Entwickler ein Problem, wird ein Patch entwickelt. Aber die Entwickler sind nie sicher, ob das wirklich geholfen hat. Also geht der Patch zum Testen an die Windows Insider – in der Hoffnung, dass die irgendwie etwas zurückmelden oder die Telemetrie neue Erkenntnisse liefert.
  • Das Problem besteht darin, dass die Daten der Mini-Dumps oft nicht ausreichen, um das Problem zu lokalisieren. Die Microsoft-Entwickler suchen also die Nadel im Heuhaufen, und wenn sie einen Bug finden und beheben, können sie nicht sicher sein, ob es der  im Crash-Report getriggerte Bug war.
  • Berg macht im Video den Vorschlag, dass Microsoft hin geht, und schaut, ob sich mittels der gesammelten Telemetriedaten eine Ursache ermitteln lässt. Ist es anhand der Minidumps nicht möglich, die Ursache für einen Crash zu finden, sollten von selektierten Testern die 60 oder 120 GByte Dateien eines vollständigen Dumps angefordert werden.

Im Video führt Berg auch aus, dass die Windows Insider nicht die gesamte, im Feld verfügbare Hardware und Software repräsentieren. Nachdem man mit den ersten Windows 10-Funktionsupdates ziemlich auf den Bauch gefallen ist, rollt Microsoft diese nun in Wellen aus. Man hofft so, frühzeitig auf größere Probleme aufmerksam zu werden und größere Katastrophen umgehen zu können. Bekommt eine Maschine kein Funktionsupdate, weil Microsoft die Maschine als 'not ready' ansieht, heißt dies, laut Berg, übersetzt: Microsoft weiß anhand der Telemetriedaten nicht, ob die neue Build auf der Hardware läuft.

Ex-Entwickler fordert Testabteilung

Die Quintessenz von Berg ist: Viele der heute per Telemetrie irgendwann gefundenen Probleme wären früher durch das Testteam gefunden worden. Das ist der Punkt, weshalb bei früheren Produkten die Qualität – zumindest gefühlt – besser war.

Heute findet man bei Microsoft die Bugs nicht oder falls man etwas gefunden hat, kann man nicht sicher sein, ob man einen gemeldeten oder schlicht einen neuen Bug entdeckt hat. Das ist natürlich übel, erklärt mir aber, warum trotz Bug-Fix-Updates Leute immer wieder feststellen, dass ein Problem nicht wirklich behoben ist. Windows 10 ist, trotz vollmundiger Versprechen, eine 'Entwicklung im Blindflug'.

Das würde auch erklären, warum Microsoft selbst Updates bei eigener Hardware wie den Surface-Modellen extrem versiebt und gravierende Bugs nicht erkannt werden. Berg schlägt vor, dass Microsoft wieder eine Testabteilung aufbaut, die Windows 10 auf verschiedener Hardware testet.


Anzeige

Windows as a Service als weiteres Problem

Vieles dessen, was Berg in seinem Video adressiert, kann ich unterschreiben. Allerdings lässt Berg einen relevanten Aspekt außer acht: Mit Windows as a Service hat das Microsoft die Bedürfnisse der Benutzer aus den Augen verloren. Das Management und die Entwickler hetzen an irgendwelchen Timelines entlang, die nichts mit der Wirklichkeit zu tun haben. Da werden Funktionen vorgestellt, die kein Mensch braucht – gut, irgendwelche Blogs jubeln die hoch, und das war es dann. Nur mal einige Stichpunkte:

  • Das Startmenü unter Windows 10 ist Experimentierwiese für Microsofts Entwickler und gleichzeitig ein Problembär allererster Güte. Diverse US-Blogs jubeln dann selbst die geringsten Modifikationen oder irgendwelche GUI-Änderungen als das Non-Plus-Ultra hoch. Bis Windows 7 hatten wir ein sehr effizientes und funktionierendes Startmenü, was meiner Erinnerung nach wenig Probleme machte. Hier im Blog hatte ich einen Artikel Startmenü oder Explorer geht nicht mehr/ist langsam, der Erweiterungen oder geänderte Ordner als Ursache thematisiert. Sucht man nach 'Windows 10 Startmenü geht nicht mehr', gibt es zig Treffer.
  • Bis Windows 8.1 hatten wir eine saubere Update-Steuerung, bei der jeder Anwender, abhängig von seinen Kenntnissen, vorgeben konnte, ob ein Update installiert werden durfte. Geht man die diversen Blogs durch, wird jede kleine Änderung in Meldungen hervorgehoben. Ja, wir können seit Windows 10 V1903 Funktionsupdates zurückstellen. Ja, es sieht so aus, als ob bestimmte optionale Updates jetzt zum Download angestoßen werden müssen. Und es deutet sich an, dass Treiber ab Windows 10 20H1 separat zur Installation angesprochen werden müssen. Aber hey, wie krank ist das denn eigentlich? Es gab eine funktionierende Konstellation zur effizienten und transparenten Update-Kontrolle, die in den Orkus gewandet ist. Und jetzt mäandert man bei Microsoft um den heißen Brei herum und versucht irgendwie mit vielen Schlenkern zu dem Punkt zurück zu kommen, wo der Nutzer wieder 'ein Stück Kontrolle über die Updates bekommt', ohne das Scheitern des bisherigen Ansatzes einzugestehen.

Sets für den Desktop wurden irgendwann für Windows 10 V170x angekündigt, um dann langsam in der Versenkung zu verschwinden. Ähnliches gilt für die Peoples-App. So kann man diverse Entwicklungen in Windows 10 nehmen, wo ziemlicher Manpower für nichts verpulvert wurde. Keiner hat's gebraucht, keiner hat's vermisst, in 2 Jahren redet keiner mehr darüber. Ich hatte einiges an Problemen in meinem oben erwähnten Beitrag Scheitert Microsofts neuer Entwicklungs-Workflow? aus dem Jahr 2016 skizziert. Es zeichnet sich jetzt immer klarer ab, dass die Warner vor 3 Jahren schon nicht falsch lagen. Zudem gibt es von Axel Vahldiek und mir einen Artikel Analyse: Ursachenforschung zu Microsofts Problem-Patches (leider hinter einer Paywall), der die obige Analyse des Ex-Microsoft-Mitarbeiters samt meinem Abriss in Punkto Windows as a Service vorweg nimmt.

Der Schluss des Microsoft Mitarbeiters

Interessant ist für mich das Schlussstatement des Ex-Microsoft-Mitarbeiters, der Windows 10 ist das beste aller Windows-Betriebssysteme hält, welches jemals dort entwickelt wurde, wobei er folgende Ausnahmen anführt: des App-Crapp, die Updates, die fehlenden Testszenarios, und den Spying Crap, wie er die Telemetrie bezeichnet. Übersetzt: Es fehlen saubere Tests, ohne die es mit Windows 10 nix wird. Die Apps sind Schrott und sollten rausgeworfen bzw. optional installierbar gemacht werden. Und die Telemetrie bezeichnet er auch als Spionageschrott. Microsoft sammelt viel zu viele Daten, aber was die Entwickler wirklich bräuchten, dass kann die Telemetrie nicht leisten. Mit anderen Worten: Qualitätssoftware a la Microsoft.

Bergs Empfehlung zum Arbeiten mit Windows 10 lautet: Wenn eine Maschine ein Update erhält, legt euch einen Wiederherstellungspunkt an. Diese Empfehlung kann ich nicht unterschreiben, da diese Art, auf einen vorherigen Zustand zurück zu kommen, schlicht nicht mehr funktioniert. Microsoft legt die Systemwiederherstellung für das Systemlaufwerk bei jedem Funktionsupdate still. Und bei Funktionsupdates werden Wiederherstellungspunkte entfernt. Zudem gibt es die Beobachtung, dass Wiederherstellungspunkte seit Windows 10 Version 1903 verschwinden.

Die zweite Empfehlung Bergs lautet, vor jedem Update ein Vollbackup des Systems (z.B. mit Clonezilla) zu fahren. Damit wäre man auf der sicheren Seite und könne ein System bei Problemen auf den vorherigen Zustand zurücksetzen. Das ist auch das, was ich hier im Blog von Kommentatoren höre. Aber mal zurückgelehnt und nachgefragt: Leute, wie krank sind wir eigentlich geworden? Ich habe bisher noch nie eines meiner Android- oder iOS-Gerät (ältere iPads) vor einem Update mit einem Vollbackup gesichert – und früher war das unter Windows auch nicht notwendig. Das ist in meinen Augen ein Anzeichen, wie kaputt die Windows 10-Entwicklung im Grunde ist. Und jetzt dürft ihr über den Artikel und das Video diskutieren.

Ähnliche Artikel:
Scheitert Microsofts neuer Entwicklungs-Workflow?
Microsoft-Entlassungen und Zukunft von Windows Phones
Microsoft: Zwei neue Aufsichtsräte und Entlassungen
Runde 2 der Microsoft-Entlassungwelle ab 18.9.?


Cookies blockieren entzieht uns die Finanzierung: Cookie-Einstellungen

Dieser Beitrag wurde unter Windows 10 abgelegt und mit verschlagwortet. Setze ein Lesezeichen auf den Permalink.

53 Antworten zu Ex-Microsoftler erklärt die schlechte Windows 10-Qualität

  1. Micha45 sagt:

    Ist schon interessant. Ein ehemaliger MS-Mitarbeiter äußert sich nach mehreren Jahren über die Qualität einer Windowsversion, an deren Entwicklung er gar nicht beteiligt ist.
    Er lässt zwar durchblicken, dass er einst Entwickler bei Microsoft war, aber den Grund für sein Ausscheiden lässt er offen. Nachtigall, ick hör dir trapsen. :-)

    In dem Artikel heißt es sinngemäß, dass in diversen Blogs Kleinigkeiten hochgejubelt werden. Kann ja durchaus sein, aber ist es andererseits nicht auch so, dass in diversen anderen Blogs bei jeder sich bietenden Gelegenheit Kleinigkeiten als "Naturkatastrophe" ausgerufen werden? Wie man's macht, ist es verkehrt. :-)

    Man könnte natürlich auch einen gesunden Mittelweg einschlagen. Aber was weiß ich schon!

  2. Dietmar sagt:

    @Günter Born:
    "…Ich habe bisher noch nie eines meiner Android- oder iOS-Gerät vor einem Update mit einem Vollbackup gesichert…" – dann spende gleich was für die Kirche zum Dank.
    Wir hatten in den letzten 9 Jahren 5 Abbrüche beim Updateprozess bei einigen unserer 12 iPhones sodaß nur mehr eine Rücksicherung half.
    Seither aktualisieren wir (bisher problemlos) die iPhones nur mehr am Gerät selbst (über WLAN) – aber nicht ohne vorheriges Backup via iTunes.
    (Wie man in der EDV-Welt so sagt: Daten die nur einmal vorhanden sind – sind nicht vorhanden).

    • Bernard sagt:

      Gibt es derartige Backup-Möglichkeiten eigentlich auch für Android-Phones?

      • chriscrosser sagt:

        ich kenne nur Titanium Backup – das geht allerdings nur bei ge-rooteten Android Geräten
        benutze es ab und zu auf meinem alten S4-Mini, da kommen allerdings aber auch keine System-Updates mehr da die Android Version zu alt ist – 4.4.2
        Vielleicht kennt hier ja jemand noch eine Alternative ohne das Android gerootet sein muss?

      • Bolko sagt:

        Backup für Android:
        AnyTrans oder Clone-Android oder Android-Manager.
        Alles von iMobie

        Das betrifft aber nur die Daten (Kontaktliste, SMS, Fotos etc), aber nicht das Betriebssystem selbst, denn dafür braucht jedes Backupprogramm root-Rechte.

        Sind aber erstmal root-Rechte vorhanden, dann kann man auch alles manuell mit der adb-Shell sichern bzw aufs Gerät zurück kopieren.
        Also einfach in den fastboot-Modus booten und dann als root mit den adb-Befehlen die gewünschten Dateien oder Ordner oder Partitionen kopieren.

        • Onkel Hotte sagt:

          "Also einfach in den fastboot-Modus booten und dann als root mit den adb-Befehlen die gewünschten Dateien oder Ordner oder Partitionen kopieren."

          LOL, "einfach". Ja, das könnte ich auch wenn ich mich dort einlese. Habe aber schlicht keine Lust dazu.
          Backup und Restore sind in der iOS Welt ungeschlagen. Da kommt Android nicht mal auch nur ansatzweise heran und sollte mal irgendwie, und sei es nur durch Google, angegangen werden.

          • Paul sagt:

            Und wenn du dein Teil gerootet hattest, sperrt sich die Banking App, weil das Gerät gerootet sei, also nicht mehr vertrauenswürdig. Und dann wird das Spiel gespielt : Wer kann sein root am besten vor Banking Apps verstecken, nicht alle tragen dabei rote Hüte…

            Was für eine kaputte Welt…

    • Dietmar sagt:

      @Günter Born:
      Jetzt gehen wir gemeinsam in die Kirche : iOS 13.1.1 – 1. Bugfixbeschteibung….
      Apple: Aaaaaaaaaaaaaaaaaaaah!

  3. i9100 sagt:

    > Diese Testteams wurden aber im Rahmen der großen Entlassungswelle
    > 2014/2015 freigesetzt und aufgelöst.
    >
    Das spricht für sich, denn der Release von Windows 10 war der 29. Juli 2015. Also ist klar, dass von langer Hand geplant war Heimnutzer als Produkttester einzusetzen. Von diese Gurkentruppe spiele ich schon lange kein Update mehr ohne 2 monatige Verzögerung ein.

    Obgleich nur Bekannte betroffen waren, die Bugs alleine in einem Update (KB4515384) haben mir gereicht, dass sich die Nackenhaare aufstellen. Sorry aber ich brauche mein System 24/7 einsatzbereit. Habe absolut keinen Bock mehr den Notfall Joker zu nutzen und meine Clonezilla-Backups einzuspielen. Allein die Frechheit Updates als "required" zu flaggen und die de-installation zu verhindern sagt alles:

    http://borncity.com/win/2016/10/21/windows-updates-fehlende-deinstallation-erzwingen/

  4. Bernard sagt:

    "Da werden Funktionen vorgestellt, die kein Mensch braucht": Candy Crush.

    Warum ist das ein einer Pro-Version mit dabei?

    • Pat sagt:

      Warum sind auf einem Android Gerät alle diese Google Apps? Und warum lassen Sie sich zu Teil nicht deinstallieren?
      Candy Crush und alle die Apps von Partner Firmen etc. lassen sich wenigstens entfernen. Es sind nur wenige Apps die sich nicht entfernen lassen und zum System gehören.

      • Bernard sagt:

        Hallo Pat,

        Candy Crush bei einer HOME-Version ist ja noch OK, aber nicht bei einer PRO-Version.

        DAS muss man verstehen. Oder man ist bezahlter Klatscher.

      • anthropos sagt:

        Weil Du ein Handy gekauft hast, auf dem ein Betriebssystem installiert wurde, das von Google verändert und gepflegt wird und an den Hersteller Deines Geräts geht.

        Wenn Du das nicht willst, kaufe Dir ein anderes Gerät oder installiere die freie Variante von Android oder entwickle selber ein System, dass Du Dich nicht auf Andere verlassen musst.

        Die Google-Apps haben schon eine andere Funktion als Candy Crush auf Windows, aber zur Einsicht muss man bereit sein.

    • Roland Moser sagt:

      Da ist noch eine Menge anderer Müll dabei. Wenn man Satan Nutellas Müll wenigstens richtig deinstallieren könnte, wäre die Sache nur noch halb so schlimm.

  5. Janami25 sagt:

    Guter Beitrag. Auch wenn man nicht die Interna bei MS kennt, aber an den Entlassungen bei MS von altgedientem und erfahrenem Personal gibt es nichts zu beschönigen. Erinnert mich an die gleichen Probleme wie bei uns auf der Arbeit.

    Und es gibt auch nicht "umsonst" die Insider und die ganze Experimentierwiese mit den unzähligen "Ringen", man möchte sich das testen nun mal sparen, und überlässt es Freizeit "Aktivisten" Fehler zu beschreiben. Das da das ganze natürlich recht abenteuerlich werden kann, wundert mich gar nichts mehr. Ausnahmen gibt es hier natürlich dankenswerter Weise, sonst wären noch mehr Fehler vorhanden. Aber die die Mehrheit testet mit Sicherheit nicht ernsthaft oder gibt Feedback, sondern experimentiert.

    Da müss(t)en Profis dran, die wissen ganz genau was zu testen ist, und nicht nur "bei mir läuft alles ohne Fehler" Typen, den die gibt es immer zu Hauf, mehr möchte ich dazu nicht sagen.

    "Aber die Telemtrie macht das schon", das habe ich bei meiner Kritik auch schon vor Jahren immer wieder gehört, und trotzdem gab es nach meiner Erinnerung WESENTLICH mehr und wiederkehrende Bugs, als noch vor Windows 10. Und teilweise tauchen auch immer wieder gleiche Fehler erneut auf.

    Das würde auch erklären, warum Windows 7 und 8(8.1) inzwischen deutlich mehr von Problemen betroffen sind, als früher.

    Qualität kann man nicht erzwingen, sondern muss durch Profis erarbeitet werden. Im Moment zweifle ich das ganze stark an, wenn selbst solche Krankheiten wie die gruppierte Ansicht im Downloads Ordner nicht zeitnah behoben werden. Oder sieht die einfach keiner ?! Manchmal glaube ich, den meisten ist es egal, Hauptsache neue, halbgare Features.

    Zu den Updates ist wohl oben alles gesagt, wurde ja bereits seit 3,5 Jahren davor gewarnt. Mal sehen, wann wir wieder da sind, wo wir mal waren.

    MEINE persönliche Meinung schliesst sich dem Blog an, auch wenn ich Windows 10 nutze und nicht alles schlecht daran ist. Aber die Qualität ist nach meiner Meinung schlechter geworden.

  6. Micha sagt:

    Android ist da auch nicht viel besser. Das Motorola Moto ONE XT1941-4 habe ich in dem vergangenen Jahr auch schon 3 mal wegen Fehlfunktion von Android 8.1 und 9 mit dem Lenovo Moto Smart Assistant Tool neu geflanscht. Das einzig gute man kann über das Lenovo Moto Smart Assistant Tool und den Debug modus den kompletten Inhalt des Handys auf dem PC über ein USB Kabel Sichern.

    Die Fehler waren:
    Sim Karte nicht mehr erkannt
    Mobile Datenverbindung geht nicht mehr obwohl aktiviert und APN korrekt gesetzt
    Die Benutzerdaten sind beschädigt gewesen

    Entweder Android taugt nichts oder die Hardware des Telefons hat irgendwo einen defekt.

    • ThBock sagt:

      Geht auch anders:
      Auf meinem Nokia läuft inzwischen die dritte Android Version.
      2 Jahre lang habe ich jeden Monat Sicherheitsupdates erhalten, nun bekomme ich sie alle 3 Monate.
      Probleme: Null.

  7. ID sagt:

    Ich hab das Video gestern angeschaut.
    Er hat alles auf den Punkt gebracht, volle Zustimmung!

    Ich werde später den Artikel in Ruhe lesen.

  8. deoroller sagt:

    Auf Wiederherstellungspunkte kann man sich in der Tat nicht verlassen und man konnte es auch nicht vor Windows 10. Anstatt, dass man das System so absichert, dass man damit auch einen Hardwareschaden übersteht, werden die wichtigen Daten auf dem selben Laufwerk noch einmal abgelegt, die dann mit dem selben abrauchen.
    Das nennt man wohl Risikokompensation, dass heißt, dass die Pannen trotz der aktiven Systemwiederherstellung nicht zurückgehen.
    Es hilft nur die externe Datensicherung zum Beispiel auf dem USB-Laufwerk, Netzwerkspeicher oder einer 2. Festplatte im PC. Und das möglichst parallel.
    MS soll daran arbeiten, das System aus der Cloud wiederherstellen zu können. Ich halte das für zu kompliziert und damit fehleranfällig.

  9. Roland Moser sagt:

    Vollkrasse Geschichte!
    Der CEO ist das Problem. Er überträgt seine Chaos-Persönlichkeits-Struktur nach Microsoft und Windows. Satan Nutella muss weg, je früher, desto besser für die Welt.

    • Günter Born sagt:

      Bitte persönliche Verunglimpfungen bzgl. Herrn Nadella unterlassen. Wie seine Persönlichkeit aufgestellt ist, dürfte auch der Spekulation anheim fallen. Danke.

      • Micha45 sagt:

        Endlich mal ein Machtwort! Danke!

        • Günter Born sagt:

          Hat mit Macht nichts zu tun – nehmt doch alle die persönlichen Emotionen raus. Man kann und darf unterschiedlicher Meinung sein – aber bitte nicht gegenseitig persönlich verunglimpfen. Das ist die Sache schlicht nicht wert.

          • Roland Moser sagt:

            Ich versuchs :-)
            Aber diese Kröte will ich nicht schlucken, ich will sie aus Microsoft raushaben :-)
            Allen Ernstes!

          • most-garn sagt:

            als wenns auch nur annähernd an Nadella liegen würde. Die Unternehmens-"Strategien" werden von weitaus mehr und anderen bestimmt und gesteuert. Nad. mag das Gesicht vorne sein, der ab + an auch mal was moderiert. Das aber auch alles.
            Wär er weg, würde sich Null ändern. Das Problem sitzt tiefer, es steckt im ökonomischen System. Es ist denen erlaubt so zu verfahren, ohne wirkliche Konsequenzen. DAS ist das eigentliche Problem. Das müsste man abstellen, nennt sich auch Systemfehler. Aber die Schafe wählen 'in the politics' stattdessen ja wieder fdp und noch mehr rechtsaußen, die wirtschaftlich aber, wenn, auch rein neoliberal (= eindimensional. kurzsichtig, Zusammenhänge ausblendend) daherkommen.
            halt dumm und dümmer, es ändert sich nichts.

          • Roland Moser sagt:

            Dazu ist der CEO da, um die Konsequenzen zu ziehen. Ob Nadella vom Verwaltungsrat verboten ist, die Firma sauber zu führen, bezweifle ich.

            Allerdings gibt es tatsächlich die Möglichkeit, dass er gewisse Dinge nicht ändern darf. Dann sollte er aber gehen.

  10. Bolko sagt:

    Das Problem ist die Versuch-und-Irrtum-Methode.
    Würde jemand in ein Flugzeug oder ein Raumschiff steigen, das nach dieser Methode konstruiert worden ist?

    Man sollte es anders angehen:
    – jedes einzelne Modul muss sämtliche mögliche Parameter exakt prüfen und auf jede Möglichkeit die Antwort kennen.
    Pufferüberläufe oder Variablenüberläufe sind sowas von Anfängerfehler, das darf heutzutage einfach nicht mehr passieren, zumal das die Compiler auch unterstützen können. Solche Tools wie Bounds-Checker, die solche Fehler suchen und finden gab es schon vor über 10 Jahren.
    – Fehlerbehebung muss Vorrang haben vor neuen Features.

    Man sollte schwierig aussehende Sachen einem echten Könner und Genie überlassen nach Art eines Werner von Braun.
    Die von ihm mitentwickelte Saturn Rakete ist nie explodiert.
    Der erste Test war bereits ein voller Erfolg.
    Bereits beim dritten Start (normalerweise wäre auch das noch ein Testflug gewesen) hat man dieser Rakete so sehr vertraut, dass man damit bereits Menschen transportiert hat.
    Bis dahin hatte man Raketen erst 10 oder 20 mal getestet, bevor man auch nur daran denken konnte, damit Menschen zu transportieren. Das war bis dahin die Versuch-und-Irrtum-Methode.
    Als Werner von Braun jedoch die Raketen entwarf, da war das kein Versuch-und-Irrtum mehr, sondern er wusste was richtig und was falsch war.

    So muss man es auch mit Betriebssystemen machen.
    Linus Torvalds ist da zum Beispiel ein solches Genie, der weiß was gut und was schlecht ist.

    Will man es besonders sicher machen, dann muss man für jede einzelne Funktion den mathematischen Beweis der Korrektheit nachweisen (so wie es auch bei modernen Raketen gemacht wird).

    Das geht aber nur dann, wenn da kein CEO reinquatscht, der meint alles besser zu wissen und nur die Quartalszahlen im Kopf hat.

    • ID sagt:

      Genau.

      Zudem wird in seinem Video (0:25) erklärt, dass er eben für solche "Prüftools" (best in class automation tool) sogar Award bekommen hat.

      Dieser Weg der Prüfung haben sie wohl im Laufe der Zeit vernachlässigt.

    • 1ST1 sagt:

      Linus Torwald ist nicht der Übervater, wie er hier dargestellt wird, und das nicht nur wegen seinen Wutanfällen. Darf ich an die unzähligen Bugs und Sicherheitslücken im Kernel und Systen-nahen Tools und Diensten erinnern, die jahrelang sperrangelweit offen standen? Ich will hier keinen Kleinkrieg anzetteln, aber die letzten 25 Jahre Linux-Entwicklung haben bewiesen, dass Open-Source auch kein Allheilmittel gegen Fehler ist. Dass viele Augen den Programmcode lesen, verstehen und Fehler dadurch entdecken und beheben, stimmt nur bedingt, es wurde schon viel übersehen oder in seiner sicherheitstechnischen Tragweite erst spät erkannt. Es gibt keine fehlerfreie und sichere Softeware. Es gibt sie nicht.

      • Martin sagt:

        Es gibt sehr wohl Abstufungen in der Zuverlässigkeit und Sicherheit. Gerade Microsoft hat hier ein lehrreiches Auf und Ab demonstriert.
        Windows 9x = furchtbar. Ein zusammengepfriemelter Aufsatz auf DOS, bei dem Zuverlässigkeit und Sicherheit praktisch nicht vorhanden waren.
        Windows NT bis XP = viel besser und stetige Verbesserungen am Innenleben. Die GUI war bei XP gewöhnungsbedürftig, aber im klassischen Modus OK.
        Vista = meiner Meinung unfertig veröffentlicht, mit zuvielen unnötigen Bugs und Ungereimtheiten.
        Windows 7 = was Vista hätte eigentlich sein sollen. Technisch geshen mehr ein Servicepack für Vista, umgelabelt auf Windows 7 weil der Name "Vista" verbrannt war.
        Windows 8 = Grausige GUI, aber intern wohl solide. Ich hab mich drum rum gedrückt, also will ich da keine starke Aussage zur Zuverlässigkeit machen.
        Windows 10 = GUI wird ganz allmählich wieder besser, aber von den im Artikel beschriebenen Problemen habe ich auch schon im Bekanntenkreis gehört. Scheint ein Fall von Kaputtsparen zu sein.

  11. RalphAndreas sagt:

    Nochmal zurück zum Thema. Meines Erachtens ist das Problem, dass der weltweite Wirtschaftszweig – die Softwarehersteller frei jeglicher Haftung agieren können, d.h. je größer ein Hersteller, je weniger Verantwortung. Und da unsere Politiker auch noch den Großen den Hintern pudert, wird sich daran wohl auch nichts mehr ändern.
    Wie man bei der DSGVO für EU sieht, laufen unsere Politiker gewissen Entwicklungen (z.B. Zunehmen der Datenerfassung) zwar hinterher, aber ohne mal an den Kern der Problematik heranzugehen. Selbst im Land der unermesslich Klagen -USA- gibt es m.E. kaum Klagen gegen die Softwarehersteller und dessen fehlerhaften Produkte. Warum findet das Produkthaftungsgesetz auch nicht hier Anwendung, aber wenn schon VW in der EU frei jeglicher Haftung für Betrug ist, dann wundert es mich nicht mehr, warum Microsoft & Co auch machen können wie es Ihnen beliebt.

  12. hai-wo sagt:

    "Ich haben die Kernpunkte" du haben? – scnr ;)

    —-
    Je nun,
    kurz gefasst: it's pure capitalism. nix anderes. MS macht das, was geht. Weil? Weils geht! Janz einfach.
    Kapitalismus ist nunmal moralisch ungerichtet, klammert zunächst immer soziale und ökologische Kosten aus, etc. Die Folgen sind dann nat. oft katatstrophal. Logo. Aber alle machen (+/-) brav mit.
    Gibt's wirkliche Konsequenzen? Nein?
    Achso, bisken schales Gemecker wie in sonem blog hier, et al.
    Wen juckt das wirklich?! Wen? Niemand. Die Fa. aus Redmond jedenfalls nicht.

  13. 1ST1 sagt:

    Das alles war vorherzusehen, nach all dem was über Windows-Update-Fehler in den letzten Jahren zu lesen war, passt das 100%. Die Insider wurden an der Nase herumgeführt, wieviele Entwickler wurden durch "Insider" ersetzt, wieviele Jobs gingen dadurch verloren. Werden die Insider für all das bezahlt? Windows-Lizenzen sind doch heute "as a service", also mehr oder weniger geschenkt. Boah ich bin jetzt Insider… Beta-Tester ist man, ohne auch nur eine Info zu bekommen, was denn zu testen wäre. Macht einfach mal, ihr findet die Fehler schon. Und wenn ihr welche findet, ignorieren wir das. So läuft das. Ja, ich bin übrigens auch als Insider registriert, verwende aber keine Vorab-Versionen, kein Bock zu basteln. Und es ist wohl auch logisch, dass man WLAN Fehler nicht findet, wenn man seine automatisierten Tests nur in virtuellen Maschinen macht. Bleibt noch die Frage, wie lange es überhaupt dauern würde, 120 GB Telemetriedaten über 5-10 MBit VDSL-Upstreams zuverlässig zu uppen und was steckt da drin, die komplette OS-Installation mit Benutzer-Verzeichnis? Fatalerweise kann man Microsoft mit seiner Calling-Home-Funktion nicht mal trauen, weil nicht dokumentiert ist, was genau übertragen wird, außerdem schwebt über alles der Patriot-Act, also schaltet man die Telemetrie ab und verschafft MS damit einen verschärften Blindflug. Haltbare Zustände sind das nicht. Dennoch finde auch ich, das Windows 10 auf bis zu ca. 10 Jahre alter Hardware die beste Wahl ist.

  14. Robert sagt:

    Klingt immer mehr, als wolle man Windows 10 als "Cash Cow" im ursprünglichen
    Sinne nutzen, d.h. so kostengünstig wie möglich den Betrieb aufrechterhalten. Diese Art des Sparens und der Flickschusterei deuten jedenfalls nicht auf einen Anspruch hin, Windows 10 kontinuierlich besser machen zu wollen.

    Geschäftlich betrachtet läuft es hingegen perfekt. Fast jeder ausgelieferte Rechner lässt mindestens einmal die Kasse klingeln, Gewährleistung gibt es nicht, Hersteller, Dienstleister und Firmen können kaum anders und eine treue Gemeinde hält auch unter Schmerzen die Fahne hoch. Wer würde das alles gegen immensen Aufwand und große Risiken beim "Entkernen und Neubau" tauschen?

  15. RUTZ-AhA sagt:

    Günter, vielen Dank für diesen großartig aufbereiteten Artikel!!!

    Aufgrund der umfassenden Darstellung kann der Leser sich einen guten Überblick von den vielen Unzulänglichkeiten seitens Microsoft in den letzten Jahren verschaffen.

    Es bestätigen sich viele der bereits geäußerten Vermutungen hier im Blog.

    Bei MS wird doch einiges fehlgeleitet, nun gibt es Erklärungen dafür.

  16. Hans Thölen sagt:

    Vielen Dank an Günter für diesen hervorragend aufbereiteten Artikel.
    Jetzt haben wir endlich einen Einblick von kompetenter Seite über die
    Machenschaften bei Microsoft, und die Spekulationen haben ein Ende.
    Aus dem Bericht geht deutlich hervor : Windows 10 ist das beste OS, aber
    so wie es jetzt gehändelt wird ist es für den User unzumutbar. Der User ist
    und bleibt das Versuchskaninchen von Microsofts verfehlter Philosophie.

    • nusband-olio sagt:

      was denn für Machenschaften? MS gehts bestens, da ist nichts "verfehlt". Das ist alles voll beabsichtigt! Frag mal deren "Aktionäre". :-P
      wir leben übrigens, bemerkt?, im Kapitalismus.
      Da baut jemand wohl eine wirklichkeitsferne Traumwelt(?). Auch permenente Wiederholung macht das nicht sinnvoller…

  17. Max sagt:

    Erstmal danke für den übersichtlichen Abriss, Günter.

    Ich kann als MA in einem spezialisierten Systemhaus aus der Praxis berichten. Wir haben wöchentlich mindestens 5-6 Workstations (Desktop wie Mobil), die mit Windows-Updates (insbesondere die KB-Updates) irgendein Problem haben. Was auffällt: Die Update-Konflikte sind verschieden. Es verdeutlicht sich, dass die Konstellation aus Hardware und Software entscheidend ist. Die zuletzt thematisierten Updates KB4515384 oder KB4512941 sind unter frisch installierten Systemen kein Ärgernis. In produktiven Systemen verhielten sie sich sehr unterschiedlich. Bei der einen Workstation gab es keinen Mucks, bei anderen wiederum gab es mehr als nur die bekannten Probleme.

    Was mich verwundert: Selbst unter identischen Systemen (zwei HP ZBook 17 G5 ausgeliefert und lediglich aktualisiert) gibt es unterschiedliche Reaktionen. Bei einem ZBook gab es Probleme, bei dem anderen nicht. Dabei waren die ZBooks bis auf die letzte Komponente identisch. Vielleicht ein Zufall, vielleicht auch nicht.

    Für ein Systemhaus ist es ärgerlich, dass man inzwischen immer mehr Zeit dafür benötigt, die auftauchenden Probleme in den Produktivsystemen der Kunden zu beseitigen. Da diese in unserem Fall allesamt Spezialanwendungen aus den Gebieten CAD, CAM, BIM und Co. verwenden, ist die Deinstallation eines gescheiterten KB-Updates nicht ohne. Zuletzt machte das zurzeit aktuelle Feature-Update 1903 bei einigen Kunden Probleme. Diese mussten wir teilweise wiederum auf ältere Versionen (u. a. 1809) zurückbringen oder bei einzelnen Kunden sogar Neuinstallationen vornehmen, da diese Updates mitunter das halbe System zerschießen, wenn irgendwas nicht reibungslos funktioniert.

    Ich kann definitiv bestätigen, dass die Qualität bei Windows 10 (Home, Pro, Enterprise) immer schlechter wird. Wir können aber auch nicht etwaige Szenarien testen, da wir keine Architekten oder Ingenieure sind, sodass wir auf die Informationen der Softwarehersteller angewiesen sind. Wir haben zwar MA im Haus, die die Kunden in den Anwendungen schulen, aber dann auch "nur" in den Grundlagen und vereinzelt in speziellen Fragen.

    • DavidXanatos sagt:

      Das Problem ist nicht die Hardware Diversität, du schreibst es ja selber 2 gleiche System verhalten sich unterschiedlich, oder bei neu Instalation kein Problem.

      Dieses ganze Gerede von testen in VM's sei schlecht weil Hardware gleich und so ist eine Nebelwand um echte Probleme zu verstecken.
      Wieso sollten bitte überhaupt Mser-Mode Komponenten sich darun scheren was für Hardware verbaut ist?

      Die versuchen damit nur eine noch weitergehendes ausrollen von Tests an Insider zu rechtfertigen, weil die haben ja diverse Hardware. Das läuft dann an irgend so was hinaus das Windows nur noch im Hyper-V läuft und bei den Insidern eine 2te Instanz mitläuft die irgendwelche von Redmond verordneten synthetischen Tests die ganze zeit ausführt. So sparen sie sich die Hardware für die VM's.

      Und mehr Fehler finden sie dadurch nicht, da wie gesagt die allermeisten Probleme Komponenten betreffen die im User-Mode laufen.
      Cortana, dieses SNAFU mit dem Upgrade das eigenen Dateien löschte, etc ,etc…

      Die brauchen einfach eine bezahlte Horde an Profis die mit den Systemen spielen und versuchen sie zu verhunzen um dann diese Sonderfälle herauszufinden wen etwas doch auf ein mal furchtbar schief läuft.

      Das wird ohne eine dedizierte Testabteilung niemals besser werden.

  18. Tim sagt:

    Naja, schlussendlich ist es doch wie überall, es muss gespart werden und daran leidet am Ende eben die Qualität. Kennt doch sicher jeder in irgend einer Form von seinem eigenen Arbeitgeber.

    • mettbroedl sagt:

      Nein, es MUSS überhaupt nicht – bei einer Firma, die tonnenweise verdient und vor allem: mehr als genug!
      Grad die kann sich einen besseren Support leisten, bzw. könnte.
      Dass sowas gespart wird, ist nichts als reine Rendite-Gier, purer Dumpf-Kapitalismus halt. Vollkommen unnötig, eigentlich.
      Aber solange wir Verbraucher solch simplen Spielchen weitgehend unwidersprochen mitmachen, jetzt in der Summe, die paar Gegenstimmen interessieren wenig, solange wird sich nichts ändern. Support kostet – guter mehr, als schlechter.
      Solang es da keine Konsequenzen hat, und die hat es nicht wirklich, solange keine Änderung. Und das Gemecker sparen.

    • RUTZ-AhA sagt:

      Ja, ist eine bekannte Krankheit bei vielen AG … heute und morgen gespart, und übermorgen rollen die Krokodilstränen … weil am falschen Ende gespart :-)

  19. Joe_Gerhard sagt:

    Microsoft ist ein Quasi-Monopolist, zumindest ein Unternehmen mit marktbeherrschender Stellung. In solch einer Situation wundert das Verhalten des Managements überhaupt nicht. Die allermeisten Kunden sehen keine Alternative dazu, bei MS zu kaufen und das weiß man bei MS natürlich. Deshalb kann man bis zu einem gewissen Grad die Produktqualität verschlechtern bzw. die Qualitätskontrolle an den Kunden auslagern und Kosten (besonders Mitarbeiter ein-) sparen.

    Daraus entstehen höhere Gewinne und die sind nicht nur shareholder value sondern insbesondere auch verantwortlich für Prämien und damit für die bessere Bezahlung des Managements. Was in einer starken Wettbewerbssituation ein hervorragendes Instrument ist, wird so zum Selbstbedienungsladen.
    Theoretisch müssten Manager bei Monopolisten nach der Kundenzufriedenheit bezahlt werden, aber auch das dürfte nicht leicht umzusetzen sein.

    Wenn dieselben Manager sich dann noch ganz clevere Abomodelle ausdenken, die bei ähnlich (kurzfristig) denkenden und handelnden Managern auf Kundenseite natürlich hervorragend ankommen, dann wird ein Protest wie in diesem Blog vermutlich nur noch belächelt.

    In diesem Zusammenhang auf die Marktwirtschaft zu schimpfen, ist übrigens weder angebracht noch richtig. Die Marktwirtschaft an sich funktioniert weitgehend hervorragend. Wo allerdings ein Marktversagen vorliegt oder marktbeherrschende Situationen entstehen sind die gefordert, die die Rahmenbedingungen für die Märkte bestimmen, Wettbewerbs- und Kartellbehörden. Zugegeben, bestimmt auch keine einfache Forderung, besonders nicht in den USA der Gegenwart.

    Was also tun? Zunächst Menschen wie Günter Born danken, die nicht müde werden, den kompetenten Finger in die Wunden der IT zu legen. Solche Menschen gilt es zu unterstützen.

    Und weiter? Die Produkte von Microsoft sind für die weltweite Wirtschaft systemrelevant! Jeder der mit Ihnen umgeht und etwas mehr davon versteht als der Durchschnittsuser ist aufgerufen, seine Meinung über die unschönen Entwicklungen kundzutun und zwar überall, am Arbeitsplatz genauso wie in der Familie und unter Freunden. Aussagen wie „ich bleibe bis zum St. Nimmerleinstag bei Windows 7" helfen da nicht weiter. Alle Betroffenen sollten immer wieder und auf allen Wegen, überall wo es gesehen, gelesen und gehört wird, natürlich auch bei Microsoft selbst, einfordern, einfach zu nutzende und problemlos funktionierende Produkte zu erhalten!

    • Martin sagt:

      Wer es problemlos kann (keine unverzichtbaren Windows-Anwendungen) sollte ruhig mal Linux probieren. Ubuntu Linux z.B. mittlerweile durchaus anfängerfreundlich.
      netmarketshare.com meldet mittlerweile auch 3.6% Marktanteil für Linux. Deren Zahlen sind zwar mit Vorsicht zu genießen, aber der Aufwärtstrend hält nun schon drei Monate an. Vielleicht zeigt das tatsächlich Bewegung am Markt an.

      Parallel dazu hält sich MacOS konstant um die 10%, obwohl ich nicht den Eindruck habe, daß sich Macintosh besonders um die Desktop-Plattform bemüht.

  20. segoii sagt:

    es ist doch offensichtlich, warum das so ist. Es wird an belanglosem Quatsch herumgedoktert (Erstellen von immer mehr sinnlosen Untermenüs, neues Design der Systemsteuerung, wonach niemand gefragt hat, verbuggte Sinnlosfeatures in Akkordarbeit usw…).
    Während gleichzeitig Fehler, die schon seit Windows 7 Zeiten bestehen, nicht behoben werden, wahrscheinlich weil die aktuellen Mitarbeiter den Code nicht durchschauen.

    So hängen sich noch immer Computer im Energiesparmodus manchmal auf und müssen dann hart ausgeschaltet werden.
    Genauso gehen sie manchmal nicht in den Energiesparmodus, weil Netzwerkkarten bei bestehenden Netzwerkshares dies verhindern. Beides seit Windows 7 Anfangstagen so.
    Genauso kann der Partitionsmanager noch immer in bestimmen Speicherkonstellationen keine neuen Partitionen erstellen. Generell sieht das Ding arg aus als hätte das seit Windows 98 niemand mehr angerührt.
    Auch generell sind wichtige Grundeinstellungen oft nur mit Hilfe des Webs zu finden, weil die Menüführung völlig wirr, unkonstant im Auftreten und überkompliziert ist. Das gilt nicht nur für Windows, sondern für alle Microsoft Programme. Verschlimmernd kommt hinzu, dass die ihre Menüführung alle Paar Jahre grundlos und ohne jeden Vorteil für den Nutzer verändern.

  21. Dieter Kowalschek sagt:

    Ich habe gemerkt,daß windows 7 sehr logisch aufgebaut war. mit anderen Worten,
    ordentlich gemacht. von den Entwicklern. ich bin mittlerweile 74 Jahre alt,und versuche
    mich bei Windows 10 durchzukämpfen. Ich bin zu dem Schluss gekommen, das man windows10 als Schrott oder Pfusch bezeichnen kann,und auch sollte.
    Ich habe etwas positives: Es giebt einen Vogel,den man als Langstrecken-Flieger
    bezeichnen kann. nämlich den Albatross. Die Gruppe-Fleetwood Mac-Albatreoss
    von 1968. hört es euch einfach an!! das wars von meiner Seite….der Dieter.

  22. Dieter Kowalschek sagt:

    Ich schreibe es nur noch einmal…
    Ich habe die Erfahrung gemacht…….Das die Softies ( software-Entwickler) nur
    Geld im Auge haben. Und diese Sichtweise ist natürlich falsch.
    Da muß ich doch nichts mehr sagen. Dieter.

  23. Dieter Kowalschek sagt:

    Windows 10 ist einfach Schrott.
    und dazu giebt es nicht mehr zu sagen.

Schreibe einen Kommentar zu Bernard Antworten abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Hinweis: Bitte beachtet die Regeln zum Kommentieren im Blog (Erstkommentare und Verlinktes landet in der Moderation, gebe ich alle paar Stunden frei, SEO-Posts/SPAM lösche ich rigoros). Kommentare abseits des Themas bitte unter Diskussion.