Spannende Geschichte – vor Monaten noch konnte man den Eindruck gewinnen, dass alles in die Cloud will. Aber die schöne neue Welt der Cloud hat Risse bekommen. Steigende Kosten, steigende Risiken bei Cloud-Nutzern fördern ein Umdenken. Aus der Leserschaft gab es erste Reaktionen, die berichteten, dass ihre Unternehmen wieder auf On-Premises zurück gehen. Nun ist mir ein Text mit dem Titel "Die Rückverlagerung von Daten aus der Cloud nimmt Fahrt auf" von Quantum zugegangen, der mich nachdenklich macht. Die Aussagen von Quantum sind, dass Unternehmen verstärkt darüber nachdenken, Daten aus der Cloud zurück auf On-Premises-Lösungen zu verlagern.
Anzeige
Cloud: Gebrochene Versprechen
Wenn ich so die letzten Jahre die Protagonisten für Cloud-Lösungen gehört habe, war der Sprung in die Cloud doch das alleine selig machende. Kosten lassen sich reduzieren, man brauch keine IT-Fachkompetenz mehr, da man auslagert, und die Sicherheit wird doch von den Cloud-Anbietern gewährleistet. Zudem sind die Daten auch noch international verfügbar. Cloud-Anbieter sehr sich einem Multi-Milliarden-Markt für Cloud-Leistungen gegenüber, und in Firmen machte sich so etwas wie Torschlusspanik bereit, den Sprung in die Cloud zu verpassen.
Allerdings gewinne ich den Eindruck, dass in einigen Chefetagen bereits Ernüchterung eingetreten ist. Wer die Cloud verstehen und beherrschen will, braucht im Unternehmen nicht weniger sondern eigentlich mehr IT-Kompetenz, die die Komplexität der Lösungen versteht und das Ganze sicher beherrscht. Steht oder ruckelt die Cloud – hier im Blog berichte ich ja häufiger von Beeinträchtigungen – drehen Firmenmitarbeiter Däumchen.
Und da wären noch die Kosten für Cloud-Dienste anzusprechen. Haben sich die Betriebswirte zu Beginn richtig besoffen gerechnet, wie günstig die Cloud doch kommt, herrscht in manchen Controlling-Abteilungen jetzt irgendwie Katzenjammer. Microsoft hat bei seiner Cloud die Preise im Frühjahr diesen Jahres angehoben (siehe Microsoft Cloud: Ab 1. April 2023 wird es teurer) und inzwischen auch Speicherplatz bei bestimmten Angeboten reduziert.
Die Tage habe ich bei The Register den Beitrag The Pentagon has no idea how to deal with bad cloud contracts, say auditors gesehen. Nach Angaben des Government Accountability Office (GAO) haben restriktive Softwarelizenzen der Anbieter im Zusammenhang mit kommerziellen Cloud-Verträgen unter anderem zu erhöhten Kosten und einer eingeschränkten Auswahl an Dienstleistern geführt. Der Vorwurf der Auditoren lautet, dass das US-Verteidigungsministerium keinen Plan für die Cloud hatte und nun an der Angel hängt und viel mehr blechen muss als vorgesehen. Eine Lösung ist nicht in Sicht. Und in Deutschland geht es den Bundesministerien auch nicht besser, wie ich im Artikel Bundesministerien in der Microsoft Cloud-Abo-Falle; Bund gibt noch mehr Geld für Microsoft-Produkte aus berichtet habe. Die Fälle ließen sich sicherlich fortsetzen.
Anzeige
Und dann wäre da noch die Frage der Cloud-Sicherheit. Es stimmt zwar, dass die Cloud-Anbieter sich um das Einpflegen von Sicherheitsupdates kümmern (oder auch nicht). Mit dem Eindringen der chinesischen Hacker der Gruppe Storm-0558 in Exchange Online-Konten mittels eines erbeuteten privaten MSA-Schlüssels wurde das Vertrauen in Microsofts Cloud-Kompetenz in meinen Augen sturmreif geschossen. Und es gibt weitere Fälle, wo Cloud-Infrastruktur gehackt wurde oder Sicherheitslücken aufwies. Der Hack der US-Spielkasinobetreiberkette MGM erfolgte auch über die Azure-Cloud von Microsoft. Bereits im Juli 2023 hatte ich im Artikel Infosplitter zur Cloud: Wachstum lässt nach, Restriktionen für China? auf einen Bericht der Marktforscher von IDC vorgelegt, die eine sinkende Nachfrage nach Cloud-Infrastruktur konstatierten.
Rückverlagerung von Daten aus der Cloud
Ines Wolf von Quantum, einem Anbieter von Leistungen zur Speicherung und zum Schützen von Daten, sieht angesichts steigender Kosten für Cloud-Dienste und einem massiven Datenwachstum eine Rückverlagerung von Daten aus der Cloud, hin zu bei lokalen Speicherlösungen. Wolf bestreitet die Vorteile von Cloud Computing nicht und schreibt, dass die Akzeptanz innerhalb des letzten Jahrzehnts rapide zugenommen habe.
Der große Schub fand in den vergangenen drei Jahren statt, als IT-Modernisierung und Remote-Arbeit viele Unternehmen regelrecht in die Cloud trieb. Während einige Workloads in der Cloud gut aufgehoben seien, stellten viele Unternehmen nun fest, dass ihre Daten und Workloads teilweise im eigenen Rechenzentrum besser aufgehoben wären, stellt Ines Wolf fest. Folgerichtig setzen viele Unternehmen heute auf einen hybriden oder Multi-Cloud-Ansatz. Vor diesem Hintergrund habe sich die Rückverlagerung von Daten aus der Cloud in jüngster Vergangenheit zu einem wachsenden Trend entwickelt, so Wolf. Dafür sieht sie verschiedene Ursachen, die ich teilweise weiter oben angerissen habe.
Die Kosten für Cloud-Computing steigen
Während die Public Cloud für bestimmte Anwendungsfälle kosteneffizient sein kann, hat sie im Allgemeinen zu höheren Kosten für Unternehmen geführt, die Daten und Workloads in die Public Cloud verlagert haben, nennt Wolf eines der Probleme. Es gibt laut Wolf viele gute Gründe wie steigende Kosten, höhere Nachfrage oder wachsende Komplexität, warum Cloud-Dienste teurer geworden sind.
Ein Hauptgrund, für die enorm gestiegenen Cloud-Budgets liegt jedoch darin, dass die Kosten für die Speicherung in einer Public Cloud aufgrund von Ausstiegs- oder anderen Servicegebühren unvorhersehbar geworden sind, so die Fachfrau. Am Ende zahlten viele Unternehmen viel mehr für ihre Cloud-Dienste, als sie erwartet oder veranschlagt hatten. Um die Kosten zu senken und besser planbar zu gestalten, sehen sich die Unternehmen nach anderen Optionen um.
Unternehmen brauchen mehr Flexibilität in der Cloud
In einer perfekten Cloud-Welt könnten die Kunden ihre ideale Konfiguration einfach auswählen und ihre Daten und Workloads flexibel zwischen den Ebenen des von ihnen gewählten Multi-Cloud-Ökosystems verschieben. Das ist jedoch alles andere als einfach. Zum einen haben die Anbieter von Public Clouds die Kunden und ihre Daten erfolgreich an ihre Plattformen gebunden.
Die Preislisten der Anbieter sind zudem so strukturiert, dass es günstig ist, Daten in die Cloud hochzuladen, aber unvergleichlich teurer, sie wieder herunterzuladen. Da die Datenmengen immer weiter anwachsen, vor allem bei immer größeren Dateien unstrukturierter Daten, ist die Speicherung und Verarbeitung in der Cloud sehr teuer geworden, hat Wolf beobachtet.
Zum anderen zwingt das Phänomen der "Data Gravity" Unternehmen dazu, ihre Daten und Workloads in der Nähe zu halten. Und es kristallisiert sich heraus, dass ein Teil der Daten eines Unternehmens im Rechenzentrum verbleiben und nicht in die Cloud verlagert werden sollte, da es Bedenken hinsichtlich der Implementierung von Cloud-Speicher, der Datenhoheit und der Sicherheit gibt.
Um diese Probleme zu lösen und ihre Cloud-Einrichtung zu verbessern, vergleichen Unternehmen nach Aussage von Wolf, alle Optionen, wo ihre Daten und Workloads idealerweise untergebracht werden könnten. Dabei kommen sie unweigerlich zu dem Schluss, dass ein Teil ihrer Cloud-Workloads wieder lokal angesiedelt werden sollte, da dies einen höheren Return of Investment (ROI) verspricht.
Eine vollständige Rückführung aus der Cloud ist wenig sinnvoll
Mehrere Faktoren beeinflussen, laut Indes Wolf, die Entscheidung für eine Rückverlagerung aus der Cloud ins eigene Rechenzentrum. Auf der Speicherebene bietet das Aufkommen der Objektspeicherung auf preiswerten Bändern den Unternehmen ein verlockendes Argument für die Rückverlagerung geeigneter Daten auf ihre eigene Hardware. Die Renaissance des Bandspeichers kommt zu einer Zeit, in der sich die Speicherlandschaft von der Plattenspeicherung hin zu einer Speicherstrategie mit zwei Hauptebenen entwickelt: einer schnellen Flash-Ebene für Hochleistungs-Workloads und einer Bandebene als kostengünstiger Massenspeicher.
Eine vollständige Rückführung von Daten und Workloads aus der Public Cloud ist für die meisten Unternehmen jedoch wenig sinnvoll, glaubt Wolf. Ebenso erteilt sie einer reinen Cloud-Strategie eine klare Absage, da diese weder wirtschaftlich noch praktikabel sei. In der Vergangenheit hätten sich Unternehmen bewusst dafür entschieden, die zusätzlichen Kosten für den Betrieb von Anwendungen in Public Clouds in Kauf zu nehmen, um Flexibilität und Skalierbarkeit zu erhalten.
Unternehmen, die aktiv nach Möglichkeiten einer besseren Datenportabilität suchen, sehen die Beweglichkeit sowohl auf der Hardware- als auch auf der Softwareebene als essentielle Komponente an. Nur mit einem flexiblen Gesamtsystem werden sie in der Lage sein, den optimalen Infrastruktur-Mix zu finden, einschließlich der Rückführung von Daten und Workloads zurück auf lokale Hardware, was einen "Nettogewinn" an ROI brächte, heißt es von Quantum.
Workloads und Daten sinnvoll platzieren
Für einen höheren ROI brauchen Unternehmen mehr Flexibilität im Rechenzentrum. Der Aufbau von Hybrid- und Multi-Cloud-Umgebungen ermöglicht es den Unternehmen, ihre Workloads und Daten dort zu platzieren, wo es den meisten Sinn ergibt. Für einige Daten und Workloads bedeutet dies, dass sie aus der Public Cloud zurück ins Rechenzentrum verlagert werden, wo sie sich wesentlich kostengünstiger speichern lassen.
Die Verfügbarkeit von NVMe als performante Flash-Speicher für Hochleistungs-Workloads bietet eine weitere Ebene der Flexibilität. Und für spezielle Anwendungsfälle, wie PaaS-Lösungen, eignet sich die Plattform eines Hyperscalers möglicherweise am besten, schreibt Wolf.
Um von den Vorteilen des Cloud-Computings zu profitieren, benötigen Unternehmen heute ein Höchstmaß an Flexibilität, um für jeden Anwendungsfall die am besten geeignete Infrastruktur zu nutzen. Moderne Technologien wie softwaredefinierte Datenverwaltungslösungen helfen Unternehmen dabei, diese Flexibilität zu erreichen, während die Kombination von schnellem NVMe und preiswertem Bandspeicher Optionen zur Identifizierung des idealen Speicherorten für Daten und Workloads bietet. Es geht also längst nicht mehr um die Frage, ob man auf "Cloud-only" oder "Nur vor Ort" (On-Premises) setzt, sondern um eine Kombination aus beidem. Flexibilität, Daten und Workloads bei Bedarf anzupassen, zu verschieben und zu migrieren sind weitere Vorteile.
Ähnliche Artikel:
Microsoft Cloud: Ab 1. April 2023 wird es teurer
Bundesministerien in der Microsoft Cloud-Abo-Falle; Bund gibt noch mehr Geld für Microsoft-Produkte aus
Infosplitter zur Cloud: Wachstum lässt nach, Restriktionen für China?
Microsoft 365 for Education: Programm-Updates vom 1. August 2023 – weniger Cloud-Speicher, A1-Programm endet
Sicherheitsrisiko Microsoft? Feuer von der US-Politik nach Microsofts Azure Cloud-GAU und Forderung zum Microsoft Exit – Teil 1
Anzeige
Das dürfte für Micrsoft Kunden sehr schwierig werden sofern sie denn bei MS bleiben wollen da jene Firma alles tuht um On-Premise unattraktiv zu machen.
Evtl. führt das Umdenken großer Firmen in der Cloud-Strategie ja auch zum Umdenken bei Microsoft. Denn wenn die großen Druck bekommen bewegen die sich auch. Die leben nicht so sehr von kleinen Unternehmen und Privatpersonen. Wenn aber das große Firmengeschäft wegzubrechen droht wird auch wieder On-Premise angeboten. Oder Microsoft gibt es dann nicht mehr. Software können auch andere anbieten.
War denn das OnPrem-Angebot je weg? Hab ich nicht so das Gefühl.
Nein.
Aber bestimmte Features gingen anfangs nur in der Cloud und nicht bei der OnPrem-Version.
Weg nicht unbedingt, aber MS macht es einem gefühlt immer schwerer On-Premises zu bleiben. Das geht bei absurden Systemvoraussetzungen los (Exchange 2019 will ja minimum 128GB RAM haben, obwohl der in kleineren Umgebungen auch mit 32 auskommt) bis hin zur Frage, wann die Nachfolgeversionen kommen (Exchange 2019 hat Support bis Ende 2025, es soll aber dann auch erst der neue kommen, was passiert mit dem RDS-Server usw.)
Alles in allem wäre es speziell MS am liebsten, alle würden zu EXO und Azure wechseln (Ist ja auch erklärtes Ziel von Nadella).
ich weiß genau was du meinst mit den Systemvorraussetzungen, weil unglücklich formuliert, aber bei den 128 GB RAM steht "minimum RECOMMENDED" auch wenn es unter den requirements angeführt wird. Der Exchange 2019 hat keine Vorraussetzung für 128GB – für zukünftige Versionen kann ich natürlich nicht sprechen.
"tut", "On-Premises" od. "On-Prem"
Cloudnutzung setzt Datendurchsatz, insbesondere auch im Upstream, voraus. Damit ist eigentlich Alles gesagt. Stichwort: Breitbandwüste Deutschland.
Hier geht es nicht um Privatkunden und kleine Klitschen! Sorry aber Große Unternehmen leisten sich auch den entsprechenden Bussiness Zugang und den legt die Telekom dir gerne, den den bezahlt die Firma. Da ist nix mit Breitbandwüste. Also ich hab in meiner Firma FTTH 1000/500 über die Telekom und das auf dem Land. Privat hab ich FTTH+VDSL wo ich aktuell VDSL nutze mit 250/50 da das für mich ausreichend ist, kann da aber jederzeit umswitchen wenn nötig, da der FTTH Anschluß bereits liegt. Mein Unternehmen hat nur 30 Mitarbeiter. Klar die Kosten waren erstmal da, aber a. ist das ne Investition in die Zukunft und b. sind die Kosten ja abschreibbar.
Und jetzt willst du mir sagen das ein Milliarden Unternehmen das nicht stemmen kann?
Im übrigen kenne ich kein Provider der dir nicht mit Handkuss nen Standleitung legt wenn du die Kosten trägst.
Klar GeizistGeil Primaten haben das nachsehen.
Und wenn du es als Firma billiger haben willst nimmst halt mehrere VDSL Anschlüße mit Bündelung, die Hardware dazu kostet auch kein Vermögen. Also zumindest bei Firmen gilt wer da nen lahmen Anschluß hat ist selbst schuld!
Privat hier hatte die Telekom FTTC ausgebaut und in diesem Zuge jedem Häuslebesitzer angeboten für 500€ direkt FTTB zu legen. Keine 5% habens angenommen ist ja zu teuer. Nachbar hat erst 2 Jahre später sich den Anschluß legen lassen: Kosten Erdarbeiten plus einblasen usw. 5000€ … Tja Geiz ist Geil tut eben weh, auch wenn es nur im Geldbeutel ist!
Deutschland Breitbandwüste? Nö Geizistgeilhausen!
In D kann jeder nen Breitbandanschluß haben wenn er den will, nur kostet Luxus eben!
Nicht gehen tut: für nen Apple und nen Ei!
Wir wurden als Firma auch von der Telekom lange vor dem allgemeinen Glasfaserausbau angeschlossen. LWL direkt bis ins RZ1. Die Tiefbaukosten lagen in unserem Fall bei rund 60.000 €. Die Hälfte hat die Telekom getragen, wenn wir uns für drei Jahre binden.
Wir haben damals für 100 MBit symmetrisch mit fester IP 999 € im Monat bezahlt. Nach drei Jahren sank der Preis auf 679 € im Monat. Inzwischen läuft der vierte 3-Jahresvertrag für 629 € im Monat bei inzwischen 300 MBit symmetrisch. Technisch könnten wir auch ohne Probleme 1 GBit symmetrisch erhalten, nur benötigen wir das derzeit nicht.
Das mag vielen teuer erscheinen, aber da gibt es auch einen anderen Service was persönliche Ansprechpartner und Fristen für eine Entstörung im Fehlerfall angeht.
Im beruflichen Umfeld lasse ich echt nix auf die Telekom kommen. Keine Probleme und auch im Bereich Telefonanlage (Netphone) immer sehr kompetent.
Vorsicht mit dem Denken in Abschreibung!
Man kann nur dann abschreiben wenn man entsprechende Gewinne zu versteuern hat. Und dann bringt es auch nur so 45%.
Es ist ein nettes Zubrot, darf aber nicht der zur Finanzierung eingesetzt werden.
In Kurzform hybride Lösung:
1)
Leistungspeaks draussen abfangen sofern die Daten dafür fachlich und juristisch „geeignet" sind
2)
Test und Demosysteme wenn die Daten (siehe 1)
Fzit:
Die Krinjuwelen gehören in eigenen Safe.Fertig.
Schön aber aber das es kein nationales Problem ist sondern sogar die eigene Landesverteidigung ausgenommen und vermutlich auch geschwächt wird.
Gruß
Neulich hatte ich ein super Bank Angebot.
Keine Kontoführungs-Gebühren und Spitzen Zinsen.
Nun wollte ich das Geld umbuchen, da die Bank jetzt doch heftige Kontoführungsgebühren will (pro Kontobewegung 1 Euro) und die Bank fordert einem heftigen Prozentsatz, für den aufwändige Rückzahlung…und eine Entschädigung für die Zinsen, die sis nicht mehr bekommen, aber bekommen hätten.
Ich glaube so etwas nennt man "anfixen" und juristisch Nötigung.
Natürlich gibt es so etwas nicht in RL.
Keine Bank könnte sich leisten ihre Kunden derart abzuzocken…weil ich ja das Geld brauche.
…
Darf ich fragen, wie dieser Kommentar zum Kontext des Artikels, bei dem es um die Cloud geht, passt?
Ich verstehe das als einen Vergleich zu der Geschäftsstrategie mancher (aller?) Cloudanbieter. Anfixen und wenn man nicht mehr zurück kann, dann Preise anheben. Drogendealer arbeiten auch so.
Was haben Dealer und Software Anbieter gemeinsam?
Sie nennen ihre Kunden "User"
Liegt eigentlich auf der Hand – schaut euch das Verhalten von MS an – die agieren genau so. Klassische Drogendealer.
Erst anfixen, dann in die Cloudverlagern und das entsprechende on prem Produkt daann nicht mehr weiterentwicklen / supporten etc. MS-Dynamics, Exchange, Power-BI …
MS-Teams ist dabei noch etwas komplexer – gab es in der Form ja nicht on prem.
Leistungsstart war Chat – jetzt Richtung komplexes, unverwaltbares Ökosystem mit der Aussage MS-Team wird das lokale Office ersetzen, u.v.a.. Ein Horror Szenario für jeden verantwortungsvollen Admin. Zurück nach on prem ist aber – bei umfänglicher Nutzung – keine Option.
Führt in der Diskussion aber arg weit vom Thema "wie sinnvoll ist die Cloud und ist der Hype vorbei" weg. Dass der OP drauf hinaus wollte, war mich irgendwie klar – aber ich möchte solche Diskussionen abseits des Kernthemas gerne mehr einfangen. Danke für das Verständnis.
Ich finde, das ist ein ganz wichtiger Aspekt des Themas. Fortschritt, auf den man nicht mehr verzichten will, wenn man damit mal gearbeitet hat.
Die Lettera 22 packt da keiner mehr freiwillig aus.
Der KGB tat es.
Der Verständige hingegen ist weder so dumm, seine Daten in die Cloud zu geben, noch zu Schiefer und Griffel zurückzukehren.
Also ich finde das ist die gleiche Frage!
Wie sinnvoll und nötig sind Banken.
Oft hilft der Aufbau einer Analogie beim finden einer Lösung.
Z.B. könnte man Zinsen verbieten.
Wie kann man das auf die Cloud übertragen?
Die Bank ist der Cloud Anbieter.
Der Cloud Dienst ist das Geld, mit dem Du Deinen am Laufen hälst.
Je mehr Du da holst, desto abhängiger biste von Der Bank.
Und solltest Du durch einen Gücksfall, das Geld on-prem haben, dann kommste nicht so billig von der Bank weg, die wollen Entschädigung.
Ich sehe da viele Ähnlichkeiten.
Was -noch- nicht der Fall ist, das Cloud Anbieter sich für entgangene Gewinne entschäden lassen.
Vielleicht ist es diese Ähnlichkeit, die die Nieten in Nadelstreifen so sehr in die Cloud ziehen?
Im BWL Studium haben sie ja gelernt, das, wenn der Laden läuft, man diesen mittels Bankkrediten ausweiten muss. Die Mehr-Zinsen wirft der eigene Laden ja sicher ab(sonst könnte man ihn ja verkaufen und nur von den Zinsen leben)
Hier dasselbe Problem:
Wenn eng wird, kann man die Lasten nicht mehr bedienen.
Meinen uralten, aber bezahlten Server kann ich auch in einer Flaute nutzen. und, verdammt, dann kommt da nicht die größeres neueste Version drauf, solange wir damit arbeiten können.
Das Cloud Angebot nützt mir mangels Umsatz nichts.
Das ist wie ein viel zu großer Kredit, den ich bezahlen muss, der mir nichts mehr einbringt. Zurück geben ist ja auch nicht so einfach.
Wobei man eine Bank "eigentlich" leichter wechseln kann,… solange das Geschäft gut läuft. Wenn es nicht läuft, ist man am A.
Banken verkaufen Regenschirme nur, wenn es nicht regnet. (So weit ist es in der Cloud noch nicht)
Sicherlich keine übliche Sichtweise, aber zulässig und vielleicht auch interessant.
Das Thema 0558 ist inzwischen wahrscheinlich mehr oder weniger durch, hier ist MS nochmal mit einem blauen Auge davon gekommen, back to business. Eine gute Zusammenfassung der Situation findet ihr hier, die Quelle sollte ja über alle Zweifel erhaben sein:
https://www.msxfaq.de/cloud/security/storm_0588_nachbereitung.htm
Es gibt in diesem Kontext Montag ein Interview mit mir bei Kontrafunk – sobald es online ist, werde ich da was im Blog bringen. Es wird zwar gerne "back to business as usual" propagiert – der Fall zeigt mir aber, dass Microsoft mit seiner Azure-Cloud nicht wirklich gut aufgestellt ist – die Kette/Summe der Versäumnisse ist haarsträubend – und wenn ich mir vorstelle, dass jede Behörde, jede Krankenkasse, jede Firma meine persönlichen Daten da irgendwo mit Microsoft 365 in der Azure-Cloud ablegt, wird mir ganz anders. In Ami-Land und auch in Australien erleben wir doch ständig die Datenschutzvorfälle, bei denen Millionen Nutzerdatensätze mit persönlichsten Informationen geleakt werden.
Da wird man noch einige dicke Bretter bohren und einigen Leuten arg auf die Füße treten müssen – ich warte darauf, dass das EU-US DPF Abkommen vom EuGH gekippt wird, dann können die Daumenschrauben angezogen werden.
Sicher wird da noch einiges passieren, weitere ähnliche Fälle, aber an Microsoft wird das abprallen wie von einer Teflonpfanne. Die machen einen Bericht, zeigen damit den wahrscheinlichen Kompromittierungspfad auf, schreiben dass die erkannten Lücken und fehlerhaften Workflows verbessert wurden und erwähnen nebenbei auch noch dass sie Datenschutzkonform die Logs nicht so lange aufheben als dass sie den Angriff mit Sicherheit bestätigen können und damit ist das Thema für fast ganz Gallien erledigt. Und die Unbeugsammen in dem kleinen Dorf, naja, die erlegen weiter ihre Wildsäue, werfen mit Hinkelsteinen durch die Gegend und lassen den einen oder anderen Legionär durch die Gegend fliegen, aber Cäsar macht halt weiter.
Jüngster Datenleak 'Dank' Cloud: Google Authenticator wurde durch Zugriff auf dessen Cloud-Backup geknackt.
https://blog.fefe.de/?ts=9bfb3285
Ich habe es auf dem Radar (heute ist aber Sonntag und ich werde eher spazieren gehen) – die Kollegen von Golem haben es in diesem Artikel aufgegriffen.
Auch der Microsoft Authenticator syncronisiert seit einigen Updates die Daten in die Cloud, ist also theoretisch genauso angreifbar. Auf solche Apps zu verzichten ist aber auch keine Lösung, Aufklärung der Anwender solcher Apps ist bitter nötig.
Nein, nicht Aufklärung ist bitter nötig, sondern die Nutzung von sensitiven Daten ausschliesslich unter eigener Gewalt zu halten. Das schliesst MS' und Googles MFA-Lösungen aus (nicht nur wegen des Cloudbackups, sondern auch, weil sie nicht vertrauenswürdig sind).
Cloud ist böse.
Schaut mal auf der entsprechend benannten Website nach und beachtet bitte das "Alles ohne Windows" Projekt.
Es gibt Plan C, besonders für kleinere Unternehmen.
Eine gute IT Infrastruktur darf in Krisenzeiten kein Lösegeld kosten!
Liebe Grüsse
Das Umgehen einer 2FA Authentifizierung auf dem Weg hat nur wenig mit Cloud zu tun.
Gibt es eine Primärquelle/Studie für die Aussagen von Ines Wolf?
Finde nur wenig, zB PDF beim Storagekonsortium hier ist Ines Wolf als Manager PreSales CE genannt.
Also ich sehe in der Praxis leider noch immer eher einen deutlichen Trend zu Cloud First. Sowohl bei uns in der Firma, mit rund 10.000 Clients, also auch bei anderen Firmen in unserem Umfeld und größeren Firmen.
Kann ich voll unterschreiben. Wenn man keine Kompetenz im eigenen Unternehmen hat, dann macht man halt in Cloud.
Ist halt wie immer: Die Nichts-Blicker aus den geisteswissenschaftlichen Studiengängen entscheiden über die IT – fast überwiegend. Oft dazu noch gläubige Technikrat:innen und Maschinist:innen ohne Horizont aber eine Heilserwartung durch Technik. Sie fallen dann schnell auf Erlösungs-Phantasien wie "die Cloud" herein und als Powerpoint-Gläubige sind sie billige Opfer. Die Nichts-Blicker opfern auch gerne mal ihre ganze Firma mit der Preisgabe aller Dateien und Mails auf der MS Cloud.
Ich würde die US dominierte Cloud eher als klassischen Honeypot bezeichnen – lustiger Weise bezahlen die Firmen auch noch ihr eigens Ausspionieren – und das nicht zu knapp – ROFL.
Sehe ich auch so. Das ist/wird noch ein grosses Problem bis hin zur Existenz der Betriebe.
Sensation: Eine Vertriebsmitarbeiterin eines Anbieter von Storage-Produkten hat einen Werbetext für Ihren Arbeitgeber geschrieben! In dem mit vielen Worten Selbstverständlichkeiten erläutert werden. Denn wer ohne guten Grund Sachen in die Cloud geschoben hat, die man auch on premises machen kann, hat es halt falsch gemacht.
Und die Problem mit Kostensteigerungen und Lock-In-Effekten? Sind weder etwas neues noch auf die Cloud beschränkt. Auch On-Premises-Anwendungen können, schon aus Sicherheitsgründen, nicht ohne kontinuierliche Pflege betrieben werden. Was mache ich, wenn das eingesetzte Produkt plötzlich eingestellt wird, teurer wird, oder nur noch als Abo erhältlich ist?
Selbst Open Source hilft da nicht unbedingt weiter. Auch dort werden Projekte kommerzialisiert oder aufgegeben. Theoretisch könnte man dann die Software forken und selbst weiterentwickeln. Das ist ein großer Vorteil, wird nur in der Praxis meist an den Kosten oder den fehlenden Kompetenzen scheitern.
Aber ist das dann nicht das normale Lebens-/Unternehmer Risiko, Das Software eingestellt wird?
Ich erinnere da eine CAD Software, der Hersteller wurde unfreundlich von einem Konkurrenten übernommen.
Die Kunden bekamen ein Update, mit der sie ihre Konstruktionen bis zu einem Bestimmten Termin als PDF ausdrucken konnten. Dann war Ende, es mußte das bisherige Konkurrenz Projekt verwendet werden und die Daten, aus den PDF manuell übertragen werden.
Der neue Besitzer hielt es nicht für nötig eine Import Funktion zu bauen.
Aber was anderes sollte man tun? Lock-in
Die Software war nur gemietet, klar.
CAD-Zeichnungen als PDF ausdrucken?
ROTFL!
Damit ist 90% der bisherigen Konstruktionsarbeit verloren!
Man kann das dann alles neu machen und muß sich zudem in die neue Software einarbeiten.
Das ist für die betroffenen Unternehmen ein erheblicher wirtschaftlicher Schaden!
Konnte man aus der alten Software die Zeichnungen denn nicht einmal in einem gängigen Format wie z.B. DXF oder DWG exportieren?
Bei Kaufsoftware ist man übrigens nicht zum Umstieg gezwungen. Die funktioniert auch weiter, wenn der Hersteller den Support eingestellt hat oder wenn es ihn nicht mehr gibt oder übernommen wurde.
Genau, aber davon wollen ja alle Update-Indoktrinierten nichts wissen – gute Arbeit, die dahingehend mit dem Narrativ "Alles muß immer Up-to-date sein!" geleistet wurde.
Sowas kann natürlich entsprechend auch nur bei, für und mit (IT-)Inkompetenten funktionieren. 🤷♂️
Es gibt einige Beispiele, wo Forks gemacht wurden, weil die ursprüngliche Software kommerzialisiert wurde. Das neue, freie Produkt ist teilweise sogar dem alten überlegen. Wer aber open-source für Freibier hält, kann damit nichts anfangen.
z. B. baccula -> bareos
oder schau dir Fluggesellschaften an.
Die benutzten entweder Boing oder Airbus.
Warum?
Weil sie nur für diesen Hersteller Piloten haben.
Auch lock-in.
Darum ist Boing auch noch immer im Geschäft, trotz der durch deren Gier über 200 getöteten Menschen. (Schon vergessen, gell?)
Ich habe vorsichtshalber hin geschrieben, was das mit Cloud zu tun hat.
puh…, schwere Kost für mich diesen Kommentar zu verstehen, insbesondere den Zusammenhang zwischen dem eigentlichen Thema "Ist der Cloud-Hype schon wieder vorbei?" und der Verbindung zu Fluggesellschaften.
Mag an meinem Alter liegen (55+), dass ich das nicht nachvolllziehen kann, sorry…
Wir haben alle EXO Postfächer zurückmigriert. Teams und Onedrive wird jetzt auch beerdigt. Die Kosten und vorallem die ständigen Probleme und Ausfälle waren der Grund. Ich muss jeden noch so kleinen User teuer lizensieren, auch wenn dieser nur ein paar PDFs in Teams ansieht und alle 3 Wochen mal eine Exceldatei öffnet. Die Sicherheit ist natürlich auch ein großer Punkt. Wenn ich sehe wieviele Angriffsversuche ich aus Azure in den Logs sehe, über die ich keine richtige Kontrolle habe, dann wird mir schlecht.
Wir testen jetzt Nextcloud mit Nextcloud Office. Viel billiger, im Prinzip sogar kostenlos, viel mehr Kontrolle und vorallem alles onprem und in Verbindung mit z.B. Wireguard mit noch der Webserver Security der Firewall dazwischen in Sachen Sicherheit kaum zu toppen!
wir sind ein kleines IT Unternehmen und nur 1 Kunde hat zu 100% Cloud Nutzung, alle anderen haben alles Wichtige on-premise. ich rede mit seit Jahren den Mund fusselig, dass Cloud nie on-premise ersetzen wird, schon gar nicht in Deutschland. der Trend der Rückführung ist auch bei unseren Mitbewerbern stark ersichtlich, denke die steigenden Preise, Ausfälle und vor allem stetigen Nachrichten über Sicherheitsvorfälle, lässt glücklicherweise umdenken.
Genau so sehe ich es auch und rede ebenso. Kunden haben allerdings Probleme sich einzugestehen, dass ein Berater letztlich vielleicht doch recht hatte, als er besonders von MS Cloud Produkten abriet.
Wettbewerb hat es schwer, wenn Kunden eng eingebunden sind, die Alternativen schwer umzusetzen und auch noch mit hohen Anfangsinvestitionen verbunden sind. Das gibt dem (besonders dem einen) Anbieter die Möglichkeit die Kunden so richtig auszuquetschen.
Es ist ja nicht nur die unverschämte Abzocke bei Cloudnutzung, sondern den Nutzern soll auch noch das Eigentum an der Softwarenutzung genommen werden. Zudem ist die Cloud so ziemlich der unsicherste Platz für Software und Daten. Aber die Niten in Nadelstreifen, die da Entscheidungen treffen lassen eben keinerlei Nähe zu Sachkenntnis zu.
Keine Sorge wenn sich die KI durchsetzt spielt es keine Rolle mehr ob On Prem oder Cloud… Ich hoffe das sich bis dahin eine gute Alternative zu "arbeiten gehen" durchsetzt… den davon wird es nicht mehr viel geben.