Apple löscht auf seiner Webseite Hinweise auf CSAM-Kinderporno-Scans

Sicherheit (Pexels, allgemeine Nutzung)Apple ist ja mit dem Vorhaben vorgeprescht, sogenannte Kindersicherheitsfunktionen auf seinen Geräten (iPhone, Mac, Software) einzuführen, die einen Scan auf Kinderpornos (CSAM) durchzuführen sollen. Die Art der Einführung bzw. die Scans auf den Geräten wurde von Datenschützern heftig kritisiert. Nun beginnt Apple mit der Einführung der CSAM-Funktion in iOS 15.2, und streicht gleichzeitig alle Erwähnung in seiner Web-Dokumentation.


Anzeige

Ich ja bereits im Blog-Beitrag iOS 15.2 verfügbar darauf hingewiesen, dass der umstrittene Nacktfotofilter (CSAM) jetzt im Betriebssystem integriert wurde und sich aktuell nur für iMessages aktivieren lässt. Nun berichtet MacRumors hier, dass Apple in heimlich alle Erwähnungen von CSAM von seiner Kindersicherheits-Webseite entfernt hat. Die Leute von MacRumors spekulieren nun, dass der umstrittener Plan, Bilder von sexuellem Kindesmissbrauch auf iPhones und iPads aufzuspüren, nach erheblicher Kritik an seinen Methoden in der Schwebe hängen könnte. Meine obige Erwähnung, dass die Funktion mit iOS 15.2 ausgeliefert wird, zeigt aber, dass Apple das Ganze jetzt einführt.

Der Apple-Sprecher Shane Bauer sagte gegenüber The Verge, dass die CSAM-Erkennungsfunktion zwar nicht mehr auf der Website erwähnt wird, sich die Pläne für die CSAM-Erkennung aber seit September nicht geändert haben.

Apple und die CSAM-Erkennungstechnik in Geräten

Kürzlich hatte ich ja im Beitrag Apple will bald Geräte auf Kinderpornos scannen berichtet, dass Apple noch in 2021 (vorerst) in den USA eine CSAM-Erkennungstechnik zur Erkennung von Kindesmissbrauch auf Geräten wie Macs, iPhones und iPads implementieren will. Das wäre zwar im Hinblick auf die Verhinderung der Verbreitung von Kinderpornographie eine gute Sache, wenn es nicht so viele Haken hätte.

Sicherheitsforscher sind jedenfalls alarmiert und lassen kein gutes Haar an der Sache. Sie sehen einen gefährlichen Präzedenzfall und befürchten, dass die Technik später zum Scan von allem möglichen eingesetzt wird. Statt Scans auf Material zum Kindesmissbrauch auf den eigenen Servern durchzuführen, was bei US-Unternehmen seit Jahren Usus ist, kann Apple mit CSAM die Geräte auf Inhalte durchsuchen lassen.

Edward Snowden kritisiert, dass Apple damit ein Überwachungssystem schaffe, mit dem Geräte auf beliebige Inhalte durchsucht werden könnten – und Apple gibt die Kriterien vor.

Ähnliche Artikel:
Apple will bald Geräte auf Kinderpornos scannen
Sündenfall: Apple, die Privatsphäre und der Kinderschutz – aber man kriegt selbst nix auf die Reihe


Cookies blockieren entzieht uns die Finanzierung: Cookie-Einstellungen

Dieser Beitrag wurde unter Sicherheit abgelegt und mit verschlagwortet. Setze ein Lesezeichen auf den Permalink.

5 Antworten zu Apple löscht auf seiner Webseite Hinweise auf CSAM-Kinderporno-Scans

  1. Zocker sagt:

    Ich tippe mal darauf, dass man dieses Thema lieber totschweigen möchte, nachdem es nicht wie erhofft angekommen ist. Vermutlich auch deshalb, weil es ihnen weniger um das genannte Thema geht, sondern sie die Scans in Zukunft auf andere Themen und Bereiche ausweiten wollen. Die grundlegende Technik ist schließlich schon da. Ähnlich wie bei den Internetsperren, wo damals gleich die Rufe kamen, die noch auf andere Themen auszuweiten. Büchse der Pandora und so…

    • Ralf S. sagt:

      "Büchse der Pandora und so…"

      Eben, genau das ist der Punkt! Es wird immer jede Menge "Sicherheitsfetischisten" geben, die einfach jedes Mittel bejubeln und für gut befinden, das auch nur den Ansatz von (noch) mehr Sicherheit verspricht. In großen Teilen ist unsere Gesellschaft inzwischen leider nur noch verängstigt – obwohl die Sicherheit permanent in so gut wie allen Lebensbereichen zunimmt… Psychologisch gesehen ist das Sicherheitsbedürfnis nämlich wie eine Droge: Die Dosis muss immer weiter gesteigert werden, um ein gutes Sicherheitsgefühl zu haben. Und für möglichst 100 %ige Sicherheit sind sehr viele Menschen bereit, sehr viel auf- und preiszugeben. Allerdings bedeutet ein Mehr an Sicherheit zwangsläufig immer, dass im Gegenzug ein Stück der selbstbestimmten Freiheit und damit auch der Privatsphäre, verschwinden wird. Dabei wird leider auch immer wieder vergessen, dass es eben absolute Sicherheit niemals geben kann und wird! Wir werden wohl über kurz oder lang in die Totalüberwachung laufen – und fast jeder hat dies zu einem gewissen Teil mitverursacht, da eben unser Sicherheitsbedürfnis immer weiter wächst… Und Totalüberwachung bedeutet im Umkehrschluss wohl am Ende Diktatur (!?) – von und mit wem auch immer. Ich tippe mal auf die üblichen Tech-Riesen, die ja schon jetzt skrupellos unsere "Digitalisierung first, Bedenken second"-Politiker munter vor sich hertreiben und hinter deren Rücken eh schon sehr lange Zeit machen was sie wollen. Wer das Wissen hat, hat letztendlich die Macht…

      • Zocker sagt:

        Kann ich leider nur zu 100% unterschreiben. Die Techriesen aus Amerika haben doch heute schon mehr oder weniger die Kontrolle übernommen. Sieht man z.B. im Bildungssystem und der öffentlichen Verwaltung, wo man komplett von einem Anbieter abhängig ist, der mit diesen macht, was er will. Die Bürger selbst machen sich von FB, Google, Amazon und anderen immer abhängiger und diese Konzerne wissen mehr über sie als sie selbst. Die Spirale wird sich immer weiter drehen. Der Point of no return ist wahrscheinlich schon überschritten. Auch, weil beispielsweise die EU nicht hart durchgreift.

  2. PattyG sagt:

    Der Ansatz, diesen KiPo-Mist zu bekämpfen und unseres Kids zu schützen, ist in meinen Augen grundsätzlich lobenswert.
    Ich weiß, dass viele Eltern das Thema Digitalisierung in den Kinderzimmern sehr kritisch sehen. Teilweise aufgrund "gesunden Halbwissens" und "Hören-Sagens", aber auch aufgrund von Zeitmangel, sich damit auseinander zu setzen.
    PCs, Notebooks, Tablets, Apple und Android usw. der heranwachsenden Jugend vorenthalten geht jedoch mittlerweile nicht mehr.
    Und ständig neben dem Kind stehen und es überwachen ist schier unmöglich.
    Da müssen wir uns die technischen Möglichkeiten zunutze machen, die die Kommunikation im Netz und über andere Kanäle sicher macht.

    Mit der Funktion "Bildschirmzeit" lässt sich schon Einiges auf den i-Geräten einschränken und steuern, sofern man sich die Mühe macht, sich intensiv mit den ganzen Funktionen zu befassen.
    Und die Aufklärung der Kids, welche Gefahren lauern und wie man sich in der digitalen Welt verhalten muss, ist ebenfalls sehr wichtig.
    Auch kann man Blacklists einsetzen, die Sicherheits- und Filterfunktionen bestimmter Apps nutzen etc.
    Alles oben genannte kostet sicherlich Zeit. Aber diese ist mMn gut investiert und ein nicht zu vernachlässigender Schutz unserer Kinder und Enkelkinder.

    Das ganze Thema CSAM ist aktuell aber nur zum Teil zu Ende gedacht.
    Ich persönlich zumindest kenne niemanden, der ein i-Produkt besitzt und per iMessage kommuniziert.
    Sehr häufig ist iMessage auf den Geräten sogar deaktiviert.
    Daher frage ich mich, inwiefern CSAM dem Schutz unserer Kinder dient, die TikTok, Whatsapp, Instagram etc. nutzen?

    Allerdings teile ich uneingeschränkt die Meinung derer, die das Potential dieser Technik sehen, diese "Macht" auf andere Daten auszuweiten.
    Wenn CSAM auch Zugriff auf den privaten Foto-Ordner hat (was technisch sicherlich kein Problem darstellt), dann beginnt das ganze schon unheimlich zu werden.
    Dann ist der Schritt, die Inhalte (Text, Medien) anderer Apps zu "durchleuchten", nicht sehr groß.
    Und wenn Du dann ein Foto von deinem Kind am Strand oder am Pool auf deinem i-Gerät hast, kannst du dich dann auf etwas gefasst machen, weil CSAM ein "false positive" meldet und dich plötzlich unangemeldeter "Besuch" überrascht?
    Zugegeben sehr übertrieben dargestellt … aber wer weiß?

    • Zocker sagt:

      "aber auch aufgrund von Zeitmangel, sich damit auseinander zu setzen"

      Zeit zum Kinder machen war aber offensichtlich genug vorhanden. Dann sollte man auch mit den Konsequenzen leben. Und wenn da schon ein Zeitmangel besteht, wird für Erziehung und Zuneigung noch mehr Zeitmangel bestehen. Folglich müsste das Jugendamt eingreifen. Zeitmangel ist keine Ausrede!

      "Da müssen wir uns die technischen Möglichkeiten zunutze machen, die die Kommunikation im Netz und über andere Kanäle sicher macht."

      Ja, am Besten das gesamte Internet verbieten und sperren. Dann ist alles sicher. Das wird nämlich die einzige Möglichkeit sein.

      "Auch kann man Blacklists einsetzen, die Sicherheits- und Filterfunktionen bestimmter Apps nutzen etc."

      Das müssen sich täglich automatisch aktualisierende Filterlisten von sehr hoher Vollständigkeit sein. Ansonsten bringt das wenig bis nichts.

      "Alles oben genannte kostet sicherlich Zeit. Aber diese ist mMn gut investiert und ein nicht zu vernachlässigender Schutz unserer Kinder und Enkelkinder."

      Das Stichwort heißt "Medienkompetenz" und das fängt bereits in der Schule an, nicht erst zu Hause. Sollte es jedenfalls. Mit Verboten erreicht man im Normalfall genau das Gegenteil von dem, was eigentlich dadurch erhofft wird. Das weiß eigentlich jeder, der selbst mal in einem solchen Alter war. ;)
      Das alles hat mit CSAM aber rein gar nichts zu tun, da Kinder wohl kaum die Zielgruppe von solchen Inhalten sind. Die interessieren sich eher für Erwachseneninhalte. Ziel von CSAM sind Erwachsene mit sagen wir mal etwas seltsamen Vorstellungen. Mal sehr vorsichtig formuliert. Aber auch das ist eigentlich schon der komplett falsche Ansatz. Dieser wäre, dass die Inhalte erst gar nicht entstehen und CSAM somit überflüssig ist. CSAM ist nichts anderes als eine reine Symptombekämpfung, die nie erfolgreich sein wird, weil es schlicht unmöglich ist. Zumindest wenn den Bürgern noch ein Funken Freiheit und Privatsphäre erhalten bleiben soll.

      "Daher frage ich mich, inwiefern CSAM dem Schutz unserer Kinder dient, die TikTok, Whatsapp, Instagram etc. nutzen?"

      Ganz einfach: gar nicht. Das Zeug wird weiterhin über andere Kanäle verbreitet. Daher ist das auch nur ein zahnloser Tiger, der nichts bringen wird, außer jedem Nutzer grundlos die Hosen auszuziehen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Hinweis: Bitte beachtet die Regeln zum Kommentieren im Blog (Erstkommentare und Verlinktes landet in der Moderation, gebe ich alle paar Stunden frei, SEO-Posts/SPAM lösche ich rigoros). Kommentare abseits des Themas bitte unter Diskussion.