EU Digital Service Act: Diese Unternehmen fallen drunter

Sicherheit (Pexels, allgemeine Nutzung)Die EU-Kommission hat zum 25. April 2023 die Namen der Big-Tech-Unternehmen bekannt gegeben, die zukünftig unter den EU Digital Service Act fallen. Die als Digital Services Act (DSA) bekannten Vorschriften verlangen von den Unternehmen, dass sie ein Risikomanagement betreiben, externe und unabhängige Prüfungen durchführen, Daten mit Behörden und Forschern austauschen und bis August einen Verhaltenskodex annehmen.


Anzeige

Das Gesetz über digitale Dienste (Digital Service Act, DSA) wurde 2022 im EU-Parlament verabschiedet und soll zusammen mit dem Gesetz über digitale Märkte in den kommenden Jahren die Standards für einen sichereren und offeneren digitalen Raum für Nutzer sowie gleiche Wettbewerbsbedingungen für Unternehmen innerhalb der EU setzen.

Der DSA folgt dem Grundsatz, dass das, was offline illegal ist, auch online illegal sein muss. Das Gesetz zielt darauf ab, den digitalen Raum gegen die Verbreitung illegaler Inhalte zu schützen und den Schutz der Grundrechte der Nutzer zu gewährleisten. Ich hatte hier im Blog mehrfach über den DSA berichtet (siehe Links am Artikelende). Ab August 2023 wird der DSA innerhalb der EU verbindlich und EU-Kommissar Thierry Breton hat zum 25. April 2023 die Unternehmen genannt, die ab dem 25. August 2023 unter den DSA fallen.

Von der EU-Kommission wurden folgende 17 sehr große Online-Plattformen (VLOPs) und 2 sehr große Online-Suchmaschinen (VLOSEs), die mindestens 45 Millionen monatlich aktive Nutzer erreichen, genannt. Diese fallen ab dem 25. August 2023 unter den DSA:

Sehr große Online-Plattformen:

  • Alibaba AliExpress
  • Amazon Store
  • Apple AppStore
  • Booking.com
  • Facebook
  • Google Play
  • Google Maps
  • Google Shopping
  • Instagram
  • LinkedIn
  • Pinterest
  • Snapchat
  • TikTok
  • Twitter
  • Wikipedia
  • YouTube
  • Zalando

Sehr große Online-Suchmaschinen:

  • Bing
  • Google Search

Die Plattformen wurden auf der Grundlage der Nutzerdaten benannt, die sie bis zum 17. Februar 2023 zu veröffentlichen hatten.

So geht es weiter

Nach ihrer Benennung müssen die Unternehmen nun innerhalb von vier Monaten (bis 25. August 2023) alle neuen Verpflichtungen des DSA erfüllen. Diese zielen auf die Stärkung und den Schutz von Online-Nutzern, einschließlich Minderjährigen, ab, indem sie von den benannten Diensten verlangen, ihre systemischen Risiken zu bewerten und abzuschwächen und robuste Tools zur Inhaltsmoderation bereitzustellen. Dies umfasst die hier genannten Auflagen:

  • Stärkung der Handlungsfähigkeit der Nutzerinnen und Nutzer:
    • Die Nutzer erhalten klare Informationen darüber, warum ihnen bestimmte Inhalte empfohlen werden, und haben das Recht, sich gegen auf Profiling beruhende Empfehlungssysteme zu entscheiden.
    • Die Nutzerinnen und Nutzer werden illegale Inhalte leicht melden können, und die Plattformen müssen solchen Meldungen sorgfältig nachgehen.
    • Werbung darf nicht auf der Grundlage sensibler Daten des Nutzers angezeigt werden (z. B. ethnische Herkunft, politische Meinungen oder sexuelle Ausrichtung).
    • Die Plattformen müssen jegliche Werbung kennzeichnen und die Nutzer darüber informieren, wer sie finanziert.
    • Die Plattformen müssen eine leicht verständliche und klare Zusammenfassung ihrer allgemeinen Geschäftsbedingungen in allen Sprachen der Mitgliedstaaten, in denen sie tätig sind, bereitstellen.
  • Starker Schutz Minderjähriger:
    • Die Plattformen müssen ihre Systeme umgestalten, um für ein hohes Maß an Privatsphäre, Sicherheit und Schutz von Minderjährigen zu sorgen.
    • Gezielte Werbung auf der Grundlage des Profilings von Kindern sind nicht mehr zulässig.
    • Besondere Risikobewertungen, auch in Bezug auf negative Auswirkungen auf die psychische Gesundheit, sind der Kommission vier Monate nach der Benennung vorzulegen und spätestens ein Jahr später zu veröffentlichen.
    • Die Plattformen müssen ihre Dienste, einschließlich ihrer Schnittstellen, Empfehlungssysteme und allgemeinen Geschäftsbedingungen, neu gestalten, um diese Risiken zu mindern.
  • Sorgfältigere Moderation von Inhalten, weniger Desinformation:
    • Plattformen und Suchmaschinen müssen Maßnahmen ergreifen, um den Risiken im Zusammenhang mit der Verbreitung illegaler Inhalte im Internet und den negativen Auswirkungen auf die Meinungs- und Informationsfreiheit entgegenzuwirken.
    • Die Plattformen müssen über klare allgemeine Geschäftsbedingungen verfügen und sie sorgfältig und ohne Willkür durchsetzen.
    • Plattformen müssen über einen Mechanismus verfügen, über den Nutzer illegale Inhalte melden können, und müssen auf die Meldungen zügig reagieren.
    • Plattformen müssen ihre besonderen Risiken analysieren und Risikominderungsmaßnahmen ergreifen – beispielsweise um die Verbreitung von Desinformation und die unauthentische Nutzung ihres Dienstes zu bekämpfen.
  • Ein höheres Maß an Transparenz und Rechenschaftspflicht:
    • Die Plattformen müssen sicherstellen, dass ihre Risikobewertungen und die Einhaltung aller Verpflichtungen aus dem Gesetz über digitale Dienste einer unabhängigen externen Prüfung unterzogen werden.
    • Sie müssen Forschenden Zugang zu öffentlich verfügbaren Daten gewähren. Zu einem späteren Zeitpunkt wird ein spezieller Mechanismus für zugelassene Forschende eingerichtet.
    • Die Plattformen müssen Archive aller auf ihrer Schnittstelle dargestellten Werbeanzeigen veröffentlichen.
    • Die Plattformen müssen Transparenzberichte über Moderationsentscheidungen zu Inhalten und über das Risikomanagement veröffentlichen.

Spätestens vier Monate nach der Mitteilung der Benennungsbeschlüsse müssen die benannten Plattformen und Suchmaschinen ihre Systeme, Ressourcen und Verfahren zur Einhaltung der Bestimmungen anpassen und ein unabhängiges Compliance-System einrichten sowie ihre erste jährliche Risikobewertung durchführen und der Kommission übermitteln.


Anzeige

Risikobewertung

Die Plattformen müssen ein breites Spektrum an systemischen Risiken ermitteln und analysieren – von der Frage, wie illegale Inhalte und Desinformation durch ihre Dienste verstärkt werden können, bis hin zu den Auswirkungen auf die Freiheit der Meinungsäußerung und die Medienfreiheit – und entsprechende Risikominderungsmaßnahmen ergreifen. Ebenso müssen spezifische Risiken im Zusammenhang mit geschlechtsspezifischer Gewalt im Internet und dem Schutz Minderjähriger und ihrer psychischen Gesundheit im Internet bewertet und gemindert werden. Die Risikominderungspläne der benannten Plattformen und Suchmaschinen werden einer unabhängigen Prüfung durch die Kommission unterzogen und von ihr beaufsichtigt.

Eine neue Aufsichtsstruktur

Das Gesetz über digitale Dienste wird mithilfe einer europaweiten Aufsichtsstruktur durchgesetzt. Zwar ist die Kommission für die Beaufsichtigung der benannten Plattformen und Suchmaschinen zuständig, jedoch arbeitet sie innerhalb des mit dem Gesetz über digitale Dienste errichteten Aufsichtsrahmens eng mit den Koordinatoren für digitale Dienste zusammen. Diese nationalen Behörden, die auch für die Beaufsichtigung kleinerer Plattformen und Suchmaschinen zuständig sind, müssen von den EU-Mitgliedstaaten bis zum 17. Februar 2024 eingerichtet werden. Zu derselben Frist müssen auch alle anderen Plattformen ihren Verpflichtungen aus dem Gesetz über digitale Dienste nachkommen und ihren Nutzerinnen und Nutzern den im Gesetz über digitale Dienste festgelegten Schutz bieten sowie die entsprechenden Schutzvorkehrungen einrichten.

Um das Gesetz über digitale Dienste durchzusetzen, stärkt die Kommission auch ihr internes und externes multidisziplinäres Fachwissen. Außerdem hat sie vor Kurzem ein Europäisches Zentrum für die Transparenz der Algorithmen (ECAT) eröffnet. Dieses wird die Bewertung der Frage unterstützen, ob die Funktionsweise der algorithmischen Systeme mit den Risikomanagementverpflichtungen im Einklang steht. Darüber hinaus richtet die Kommission ein Ökosystem für die digitale Durchsetzung ein, in dem Fachwissen aus allen einschlägigen Sektoren zusammengeführt wird.

Datenzugang für Forschende

Die Kommission hat heute auch eine Aufforderung zur Stellungnahme zu den Bestimmungen des Gesetzes über digitale Dienste in Bezug auf den Datenzugang für Forschende veröffentlicht. Diese Bestimmungen dienen dazu, die Maßnahmen der Plattformanbieter zur Bekämpfung illegaler Inhalte wie illegaler Hassreden sowie in Bezug auf andere gesellschaftliche Risiken wie die Verbreitung von Desinformation und Risiken, die sich auf die psychische Gesundheit der Nutzerinnen und Nutzer auswirken können, besser zu überwachen. Zugelassene Forschende werden auf die Daten von VLOPs und VLOSEs zugreifen können, um Untersuchungen zu systemischen Risiken in der EU durchzuführen. Dies bedeutet, dass sie beispielsweise die Entscheidungen der Plattformen darüber analysieren könnten, was Nutzer im Internet sehen und womit sie in Kontakt kommen, und dass sie Zugang zu zuvor nicht offengelegten Daten haben. Unter Berücksichtigung der eingegangenen Rückmeldungen wird die Kommission einen delegierten Rechtsakt vorlegen, um ein einfaches, praktisches und klares Verfahren für den Datenzugang zu konzipieren und gleichzeitig angemessene Schutzmaßnahmen zur Vermeidung von Missbrauch zu treffen. Die Konsultation läuft bis zum 25. Mai.

Ähnliche Artikel:
EU: Einigung auf Digital-Gesetz gegen Hass und Hetze (Digital Services Act, DSA)
EU-Parlament stimmt "Digital Service Act" zu


Cookies blockieren entzieht uns die Finanzierung: Cookie-Einstellungen

Dieser Beitrag wurde unter Sicherheit abgelegt und mit verschlagwortet. Setze ein Lesezeichen auf den Permalink.

3 Antworten zu EU Digital Service Act: Diese Unternehmen fallen drunter

  1. Frankel sagt:

    >Risikomanagement betreiben, externe und unabhängige Prüfungen durchführen, Daten mit Behörden und Forschern austauschen und bis August einen Verhaltenskodex
    >

    Klingt für mich nach Compliance-Theater, dass *keinen* besseren Datenschutz oder *kein* Löschen bereits erhobener Daten für den Nutzer bedeutet. Das dürfte mir kaum bis wenige Vorteile einbringen.

    >gegen auf Profiling beruhende Empfehlungssysteme zu entscheiden
    >

    Personalisierte Werbung kann man seit Jahren auch unter Android abschalten, nicht das ich einen Unterschied mit Werbeblocker sehen könnte. Kein echter Vorteil.

    >Sorgfältigere Moderation von Inhalten, weniger Desinformation:
    >

    Oh weh..

    >Starker Schutz Minderjähriger:
    >negative Auswirkungen auf die psychische Gesundheit
    >spätestens ein Jahr später zu veröffentlichen
    >

    Bis dahin werden viele wieder sterben, die sich mit einer ganzen Tube Schmerzsalbe einreiben (Leberschaden) oder Zimtpulver versuchen zu schlucken (Erstickung). Aber hey, die Challenges!

    Ich glaube das alles erst, wenn sie diesen Mist löschen den die jungen glotzen. Sehe es jeden Tag im Zug auf dem Weg zur Arbeit. Das ist Gedankengift.

    @Günni
    Was mir seit Jahren fehlt ist ein WP-Addon, das Zitate farbig anders darstellt. Kannst du sowas finden und installieren?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Hinweis: Bitte beachtet die Regeln zum Kommentieren im Blog (Erstkommentare und Verlinktes landet in der Moderation, gebe ich alle paar Stunden frei, SEO-Posts/SPAM lösche ich rigoros). Kommentare abseits des Themas bitte unter Diskussion.