News

Digital Services Act: Zwang zum Löschen für ein sicheres Internet

Digital Services Act: Zwang zum Löschen für ein sicheres Internet Digital Services Act: Zwang zum Löschen für ein sicheres Internet

Nach dem Digital Markets Act hat die Europäische Union nun auch nach langen Verhandlungstagen den Digital Services Act (DSA) erlassen 

Er wird bereits als „neues Grundgesetz für Onlinedienste“ , als „weltweit einer der mutigsten Schritte“  aber auch als „legislatives Mega-Vorhaben der Europäischen Union“  im Bereich der Plattformregulierung bezeichnet. Der Ruf nach strengeren Regelungen und „digitaler Souveränität“  für große Plattformen wird lauter. Aktuelle Entwicklungen sind nicht nur in der EU, sondern auch in Australien und in den USA zu sehen. Die E-Commerce Richtlinie aus dem Jahre 2000 soll durch den Digital Services Act aktualisiert und ergänzt werden.  Darüber hinaus soll die E-Commerce-Richtlinie bei der Auslegung des Digital Services Acts „als Maßstab richtlinienkonformer Auslegung heranzuziehen “ sein. Dies spiegelt daher die immense Rolle der E-Commerce-Richtlinie wieder. Jedoch hat sich seit dem Inkrafttreten der E-Commerce-Richtline viel geändert und macht somit den Digital Services Acts notwendig. Es ist sogar von einer „explosionsartigen Entwicklung“  die Rede. Unstreitig ist, dass digitale Dienste das Leben von Milliarden von Menschen revolutioniert, zu Innovation und Wachstum im digitalen Bereich geführt aber auch gleichzeitig zu Monopolstellungen insbesondere der Internetgiganten geführt hat. Dies hat (digitale) Märkte geöffnet und den internationalen Handel mehr in das Internet verlegt, was durch die Corona-Pandemie nochmals bestärkt wurde. Die großen Internetplattformen dominieren heute den digitalen Markt und existierten zum Teil zuvor aber noch gar nicht. Die Bedeutung der großen Internetplattformen ist daher „dramatisch gestiegen.“ Bei dem Sturm auf das Kapitol im Januar 2021 mobilisierten sich die späteren Täter. Daher kann den großen Internetplattformen insoweit vorgeworfen werden, als dass sie „erhebliche Gefahren für den Schutz der medialen Öffentlichkeit und damit für die Demokratie“ verursachen würden. Zudem sind „Transparenz von Werbung und Werbealgorithmen“ verstärkt in den Fokus der Verbraucher und Regierungen geraten, was auch im Zusammenhang mit dem vermehrtem Einsatz von Künstlicher Intelligenz erwogen werden könnte. Am 6. Oktober 2021 hat das europäische Parlament eine Entschließung über Künstliche Intelligenz im Bereich Strafrecht und deren Umgang der Polizei und Justiz in strafrechtlichen Angelegenheiten (Resolution on artificial intelligence in criminal law and its use by the police and judicial authorities in criminal matters) veröffentlicht. Es ist daher nicht nur im Bereich des Umgangs mit großen Plattformanbietern, sondern auch in anderen Bereichen eine Tendenz zu stärkeren Regulierungen zu beobachten. Die Kommission unterstreicht dieses Zeil mit dem Motto: „A Europe fit for the digital age “.

Der DSA-E ist eine Verordnung und hat daher Anwendungsvorrang vor dem nationalen Recht und erlangt unmittelbar Anwendung in den europäischen Mitgliedsstaaten. Hierbei ist die Tendenz zu einem menschenzentrierten Ansatz ersichtlich. Der DSA-E sieht EU-weit verbindliche Pflichten für alle digitalen Dienste vor, die den Verbrauchern Waren, Dienstleistungen oder Inhalte vermittelt. Der DSA-E ist zudem Teil der Datenstrategie der EU-Kommission.

  1. a) Digital Services Act im Rahmen der europäischen Datenstrategie

Nicht nur der Digital Services Act ist Ausdruck der europäischen Datenstrategie, sondern auch der Digital Markets Act. Diese Vorhaben sollen die „Plattformökonomie“ stärken. Eines der Kernziele der EU für die nächsten Jahrzehnten ist der „digitale Wandel.“ Europa soll bereit sein für ein digitales Zeitalter und digitale Gesetzesvorhaben stehen damit im Fokus der Kommissionsarbeit. 

  1. b) Anwendungsbereich des Digital Services Act

Zunächst ist zu untersuchen, für wen der Anwendungsbereich des DSA-E  eröffnet ist. Laut Artikel 1 III DSA-E soll dieser für alle Online-Plattformen gelten, die ihre Dienste in der EU anbieten. Hierbei kommt es nicht darauf an, ob sie ihren Sitz in der EU haben oder nicht. Die Regelungen gelten damit für alle Unternehmen, die Online-Dienste im europäischen Binnenmarkt anbieten. Es soll hierbei darauf ankommen, ob die Nutzer in der EU ansässig sind. Es wird daher alleine auf die Nutzung in der EU abgestellt.

Unstreitig ist, dass Hassreden im Netz sowohl die Meinungsfreiheit als auch demokratische Prinzipien gefährden. Die Gefahr im Netz bedroht also nicht nur den einzelnen Nutzer, sondern auch den Rechtsstaat und stellt damit ein nicht zu unterschätzendes Risiko dar. Es soll eine neue europäische Aufsichtsbehörde eingerichtet werden, die sogenanntes „Digital Services Coordinator“. Hierbei handelt es sich um eine mitgliedstaatlich ernannte Behörde, die die Vorschriften des DSA-E effektiver auf europäischer Ebene umsetzen soll. Die Umsetzung könnte dann innerhalb des gesamten Binnenmarktes gewährleistet werden. Zudem ist laut Artikel 2 lit. h und i DSA-E das Merkmal der Online-Plattform an das Merkmal eines „öffentlich verbreiteten Inhalt“ geknüpft. Demnach sind damit persönliche Kommunikationswege nicht von diesem Merkmal erfasst, aber gerade in solchen privaten Gruppen könne auch Hassrede und terroristische Inhalte verbreitet werden.

  1. a) Festlegung des Begriffes “Illegaler Inhalt“

Zunächst ist zu klären, was ein illegaler Inhalt ist. Dieser Begriff wird in Artikel 2 lit. g DSA-E definiert. Diese Definition ist jedoch vage formuliert und zwar wie folgt: Unter einem illegalen Inhalt versteht man demnach „alle Informationen, die in irgendeiner Weise gegen das Unionsrecht oder das Recht eines Mitgliedsstaats verstoßen“. Hierbei ist ersichtlich, dass die Auslegung über das Vorliegen eines illegalen Inhalts dem Ermessen der Mitgliedsstaaten unterliegt. Dies ermöglicht damit etwaige Abweichungen und wird zwangsläufig zu anderen nationalen Wertungen führen. Im schlimmsten Fall könnte die Schaffung von Rechtssicherheit verfehlt werden und der Schaffung eines klaren Rechtsrahmen im Wege stehen.

  1. b) Gute-Samariter-Privilegierung (Good Samaritan)

Die Gute-Samariter-Privilegierung wird in Art. 6 DSA-E erwähnt. Dort wird festgelegt, dass die Anbieter eine Haftungsprivilegien erhalten könnten, wenn sie von sich aus, mithin also freiwillig und eigeninitiativ nach rechtswidrigen Inhalten suchen und diese Verstöße melden.

  1. c) Schnelle Löschung illegaler Inhalte

Plattformen werden verpflichtet, geprüfte sowie strafbare Inhalte innerhalb einer Frist von 24 Stunden zu entfernen oder unzulänglich zu machen. Wer die Deutungshoheit über ein solches Vorgehen hat, bleibt jedoch offen.

  1. d) Löschung illegaler Inhalte als Lösung des Problems?

Erwähnenswert ist, dass es sich nur um einen geringen Inhalt handelt, der von den Plattformen gelöscht wird. Hierbei geht es um einen Wert zwischen 0.16-0,18%. Demgegenüber sind 99% der Inhalte als positiv zu werten. Aber jeder zweite junge Europäer wurde schon Ziel von Hass im Netz. Fraglich ist damit wie diese sich deutlich widersprechenden Zahlen in Verbindung gebracht werden können.

  1. e) Bessere Nachvollziehbarkeit für den Verbraucher

In Art. 12 bis 13 DSA-E werden Transparenzregeln etabliert, die es dem Verbraucher erleichtern sollen besser einschätzen zu können, warum ihre Inhalte gelöscht wurden. In Betracht kommt ferner auch ein mögliches Recht gegen eine solche Löschung vorzugehen. Daher kann dem Punkt der Transparenzregeln die Funktion zugeschrieben werden, dass diese das Recht auf ein faires Verfahren (sog. Fair trial) verwirklichen. Das Recht auf ein faires Verfahren ist  ein europäisches Grundrecht. Der Umgang mit personalisierter Werbung spielt eine Schlüsselfigur in dem DSA-E. Diese wird in Artikel 24 näher erwähnt. Hier wird auf die Pflichten der Plattformbetreiber eingegangen. Die Plattformbetreiber haben hierbei zwei wesentliche Punkte zu beachten. Zum Einen sind sie zur Angabe verpflichtet, wer Werbetreibender ist und zum Anderen die Darlegungspflicht, warum der Nutzer die jeweilige Werbung erhalten hat. Dies ermöglicht es dem Nutzer die ihm angezeigten Werbeanzeigen besser nachvollziehen zu können.

  1. Differenzierung zwischen kleinen und großen/ systemrelevanten Anbietern

Die Verordnung sieht eine Differenzierung zwischen kleinen und großen Online-Plattformen vor. Die Hauptadressaten der in dem DSA-E festgelegten Regelungen richten sich vornehmlich an Online-Plattformen sowie an sehr große Internet-Plattformen. Zunächst ist daher festzustellen was eine Online-Plattform ist. Dieser Begriff wird in Artikel 2 lit. h DSA-E definiert. Für diese sollen strengere Vorgaben gelten. Ferner wird in Erwägungsgrund 13 DSA-E konkretisiert, dass Plattformen insbesondere soziale Netzwerke und Online-Marktplätze seien. Hierbei sind „sehr große Online-Plattformen“ solche Plattformen, die durchschnittlich mehr als 10% der EU-Bevölkerung (45 Millionen Nutzer) ausmachen, so Art. 25 DSA-E. Daher sind diese laut dem Vorschlag der Kommission als systemrelevant einzustufen. Die Pflichten variieren je nach Größe und Rolle. In Artikel 16 DSA-E werden die Ausnahmen für sog. KMUs näher geregelt. Dies ist als Ausdruck der Verhältnismäßigkeit anzusehen, da kleine und mittlere Unternehmen kaum den vielen Pflichten der großen Plattformanbieter nachkommen dürften.

  1. a) Konflikt zwischen Datenschutzgesetzen und den Nutzungsbedingungen der Plattformbetreiber

Der Konflikt zwischen Datenschutzgesetzen und den Nutzungsbedingungen der Plattformbetreiber könnte zu einer Divergenz führen. Hierbei bleibt es offen, inwiefern man einen wirksamen und für alle Seiten zufriedenstellenden Ausgleich zwischen Meinungsfreiheit, Rechten Dritter, demokratischen Prinzipien und Freiheit finden kann und wird. Die Plattformen selber sind berechtigt, durch ihre Nutzungsbedingungen zu definieren, welche Inhalte auf ihren Seiten zugelassen werden sollen und welche gegen diese Nutzungsbedingungen verstoßen. Eine solche Belassung über die Auslegung ist sowohl als positiv als auch negativ zu sehen. Positiv, weil „Plattformbetreiber eine grundrechtlich geschützte Position“ bei der Erstellung ihrer Nutzungsbedingungen zukommen soll. Als negativ erachtet werden kann jedoch der Punkt, dass die Deutungshoheit über einen Verstoß nicht einheitlich geregelt werden kann und vielmehr den privatrechtlichen Akteuren zukommt. Ob ein solches Vorgehen effektiv ist und dem Sinn und Zweck entspricht, ist fraglich. Diese beiden Interessen müssen in ein geeignetes Gleichgewicht gebracht werden, um öffentliche und private Interessen wirksam in Konkordanz zu bringen. Wünschenswert wäre also eine klare Regelung seitens des europäischen Gesetzgebers, damit Plattformen wissen wann sie Inhalte löschen müssen. 

Die noch ausstehende Zustimmung zum Kompromiss von EU-Parlament und Rat wird lediglich als Formsache angesehen. Wenn der DSA im Sommer verabschiedet ist, wird er nach einer Übergangsfrist von 15 Monaten, noch im Jahre 2023 in Kraft treten.

 

Bild: madartzgraphics auf pixabay