[English]Dass Künstliche Intelligenz nicht nur Chancen, sondern auch Risiken mit sich bringt, ist längst kein Geheimnis mehr. Umso entscheidender ist es, dass Unternehmen KI nicht vorschnell im (Arbeits-) Alltag implementieren und dadurch die Sicherheit aller Nutzer und ihrer Daten unnötig aufs Spiel setzen.
Tiho Saric, Senior Sales Director bei Gigamon, plädiert dafür, dass Unternehmen im ersten Schritt eine robuste Sichtbarkeits- und Sicherheitsstrategie definieren, um eine sichere Grundlage für den KI-Einsatz zu schaffen. Das Ganze kommt nicht von ungefähr, denn kürzlich geriet das chinesische DeepSeek in Europa auf die Abschussliste (siehe DeepSeek AI-Apps in Deutschland wegen Datenübermittlung nach China blockiert). Experten und Gesetzgeber sehen in dem chinesischen KI-Chatbot ein eindeutiges Risiko und rufen dazu auf, die Anwendung von digitalen App-Marktplätzen zu entfernen.
Und auch Sam Altman warnte bei der Vorstellung von ChatGPT Agent, diesen allzu sorglos auf seine persönlichen Daten los zu lassen (siehe OpenAI stellt ChatGPT Agent vor; Sam Altman warnt vor Risiken). Diese beiden Splitter unterstreichen die Notwendigkeit, dass Systeme, die auf neuen Technologien aufbauen, immer mit Vorsicht zu genießen sind. Tiho Saric, Senior Sales Director von Gigamon, rät: Ein vorschnelles Implementieren in den (Arbeits-) Alltag setzt die Sicherheit aller Nutzer und ihrer Daten unnötig aufs Spiel. Vielmehr braucht es eine solide Sichtbarkeitsstrategie als Grundlage.
Unternehmen hoffen auf Geschäfte
In der Regel sehen Unternehmen in neuen Technologien das Gute, das Praktische – die Chancen, die sich für ihr Geschäft ergeben. Dann wird für sie ein passender Use Case gesucht, um sie – ohne Rücksicht auf Verluste – zügig zu implementieren. Schließlich möchte niemand hinter der Konkurrenz zurückfallen, die sich womöglich ebenfalls als Early Adopter hervortun.
Doch auch wenn sich Technologien wie generative KI (GenAI) in einigen Fällen als äußerst praktische Helfer im Arbeitsalltag erweisen und auch in skalierter Form unternehmensweit den nachhaltigen Erfolg boosten können, sind Unternehmen nicht die einzigen, die von ihnen profitieren. Auch Cyberkriminelle nutzen sie, um zum Beispiel ihre Phishing-Attacken noch überzeugender und effizienter zu machen.
Technologie entwickelt sich weiter
Während Unternehmen sich gerade einmal in der Skalierungsphase ihrer KI- und Large-Language-Modelle (LLM) befinden und erörtern, wie sie maximalen Profit herausschlagen können, zeichnet sich laut Gigamon bereits ein neuer Stern am Horizont ab: Mit Quanten-Computing wird Rechenleistung unvorstellbare Dimensionen erreichen. In der Geschäftswelt ist das Fluch und Segen zugleich. Informationen lassen sich in rasender Geschwindigkeit verarbeiten ohne dabei an Effizienz und Innovationskraft einbüßen zu müssen. Doch auch Cyberkriminelle profitieren davon und können selbst die kompliziertesten Passwörter im Handumdrehen knacken.
Allerdings trägt jede neue technologische Komponente zum Wachstum der Netzwerkkomplexität und des Datenvolumens bei, was wiederum sowohl bestehende Infrastrukturen als auch Sicherheits- und IT Teams belastet. Für Cyberangreifer ist das die perfekte Umgebung, in der sie ungesehen Schaden anrichten können.
KI nimmt bei Angriffen eine prominente Rolle ein
Gigamon schreibt, dass 95 Prozent der deutschen Sicherheits- und IT-Entscheider berichten, in Sachen Cybersicherheit Abstriche zu machen. Das sind die Ergebnisse der aktuellen Hybrid-Cloud-Security-Studie (erfordert eine Registrierung) von Gigamon.
- Zum Beispiel fehlt es 53 Prozent von ihnen an sauberen, genauen und qualitativ hochwertigen Daten, mit denen sie KI-Workloads normalerweise unterstützen würden.
- 43 Prozent sagen, dass ihre Sicht über die gesamte IT-Infrastruktur sowie der Einblick in sämtliche Datenströme eingeschränkt sind. Dadurch setzen sie die Netzwerksicherheit aufs Spiel, da Entscheidungen wie diese das Entstehen von Blind Spots und anderen Schwachstellen begünstigen.
Es verwundert daher nicht, dass deutsche Sicherheits- und IT-Entscheider eine Zunahme von Angriffsrate und -intensität beobachten. So waren 63 Prozent von ihnen in den vorangegangenen zwölf Monaten von mindestens einer Attacke betroffen – vier Prozent mehr als im Vorjahr. 63 Prozent verzeichnen einen Anstieg von Social-Engineering-Angriffen wie Phishing oder Smishing; 53 Prozent der Sicherheits- und IT-Entscheider haben dies in Verbindung mit KI-gestützter Ransomware bemerkt. Bei 46 Prozent waren ihre LLM das Hauptziel der Angreifer und 40 Prozent berichten von mehr DeepFake-Attacken.
Diese Entwicklung zeigt Wirkung: Die meisten deutschen Sicherheits- und IT-Entscheider priorisieren nun ganz klar die Abwehr KI-gestützter Bedrohungen. Dafür setzen sie selbst verstärkt auf KI. 56 Prozent bereiten sich zudem auf den Einsatz von Post-Quanten- bzw. quantenresistenter Kryptografie vor.
Der Security Stack soll wachsen? Nicht ohne vollständige Sichtbarkeit
Angesichts der wachsenden Cyberbedrohungslandschaft ist der Einsatz neuer, vielversprechender Technologien wie KI, GenAI, Quanten-Computing und Post-Quanten-Kryptografie unerlässlich, meint Gigamon. Denn mit herkömmlichen Sicherheitslösungen lässt sich der Vorsprung, den sich Cyberkriminelle unter anderem dank KI verschafft haben, nicht mehr einholen – vor allem dann nicht, wenn es an Sichtbarkeit mangelt. Das bestätigt zumindest die Mehrheit der deutschen Sicherheits- und IT-Entscheider (56 Prozent). Sie sagen, dass sie ihre Tools wesentlich effektiver schützen könnten. Dazu ist ein sehr hoher Grad an Sichtbarkeit notwendig – und zwar bis hinunter auf Netzwerkebene (Deep Observability).
Durch die Kombination aus Netzwerktelemetrie- und MELT-Daten (Metrik, Event, Log, Trace) erhalten Sicherheits- und IT Teams einen vollständigen Einblick in ihren gesamten IT-Stack und können unter anderem Fragen beantworten wie: Welche Identitäten halten sich im Netzwerk auf? Welche Anwendungen und Daten nutzen sie? Wohin bewegen sich welche Daten? Die Antworten geben frühzeitig Aufschluss über verdächtige Aktivitäten und Bedrohungen, auf die Teams dann umgehend reagieren können. Gleichzeitig ist der transparente Zugriff auf sämtliche Daten – einschließlich lateral fließender sowie verschlüsselter – die Grundvoraussetzung, sie für KI-Systeme aufzubereiten. Denn erst mit sauberen, akkuraten und qualitativ hochwertigen Informationen können die Modelle effizient arbeiten.
Wer also von einer reaktiven zu einer proaktiven Verteidigung übergehen will – und das in einer KI- und Quanten-Computing-freundlichen Umgebung –, braucht vollständige Netzwerksichtbarkeit. Sie ist Grundvoraussetzung für den erfolgreichen (Security-) Einsatz von Emerging Tech.
Anmerkung: Die obigen Ausführungen wurden mir in Teilen von Gigamon zur Verfügung gestellt und zufällig bietet der Hersteller auch eine Lösung für Deep Observability, die verwertbaren Informationen auf Netzwerkebene nutzt, um die Leistung von Observability-Tools zu optimieren. Ich habe die Ausführungen des Senior Sales Director bei Gigamon im Artikel berücksichtig, da die Ausführungen grundsätzlicher Natur sind.
Ähnliche Artikel:
AI + Microsoft: Explodierende Energieverbräuche und Kosten
Microsoft und die Quatschmaschine Copilot
Lethal Injection: Microsoft AI-Bot für das Gesundheitswesen mal eben gehackt
EchoLeak: Erste AI 0-Click-Sicherheitslücke in Microsoft Copilot
Copilot+AI: Recall-Sicherheitsdesaster- KI-gestützter Diebstahl
ChatGPT: Scam Crypto-API in Quellcode-Vorschlag schädigt Opfer um 2.500 US-Dollar
ChatGPT & Co: Chance oder eher (DSGVO-)Risiko?
Kriminelle Geschäfte und bösartige KI-Modellen im Darknet
KI im Alltag: Was Verbraucher wissen sollten
OpenAI stellt ChatGPT Agent vor; Sam Altman warnt vor Risiken
DeepSeek AI-Apps in Deutschland wegen Datenübermittlung nach China blockiert



MVP: 2013 – 2016




Quantenphysiker hier, als ich "Mit Quanten-Computing wird Rechenleistung unvorstellbare Dimensionen erreichen" gelesen habe hab ich mir vor lauter lachen glaube ich was im Bauch gezerrt.
Nein, Quanten-Computing können ein paar spezielle Sachen berechnen was klassisch nicht get effizient, aber für das allermeiste bringen die keinen Vorteil. Dazu kommt das die Quanten-Computing immer noch in den Kinderschuhen stecken und noch hat keiner ein Plan wie man die da ausholt, wir sind klassisch bei Terabyte speicher pro node, wären man bei Quanten-Computern jeden einzelnen qbit mehr abfeiert wie sonst was. Der weltgrößte Quanten-Computern hat gerade mal 1 kb an qbits.
Ja, KI ist bzgl. der Sicherheit eine Seuche.
Ich betreibe ein Forum, bei dem bei der Registrierung ein Captcha zu lösen ist.
Das funktionierte wunderbar, keine einzige Spamanmeldung über einige Jahre!
Dann plötzlich, ziemlich zeitgenau mit der Einführung der öffentlichen Nutzbarkeit von diversen KIs wars damit vorbei. Das Forum wurde plötzlich mit Spamanmeldungen geflutet. Änderung des Captchas hat keine Besserung gebracht.
Erst ein komplett neues Captcha, das selbst KIs nicht lösen können, hat das Problem dann gelöst. Man kann KIs und Suchmaschinen befragen und es kommen auch Antworten. Aber die sind alle unvollständig und reichen daher nicht aus, um das Captcha zu lösen.
Und gibt es noch neue Anmeldungen, oder ist es für Menschen auch unlösbar? ;-)