Mythos #07: Internetplattformen haften nicht für nutzer*innengenerierte Inhalte.
Amélie Pia Heldt

Mythos: Internetplattformen sind lediglich Kanäle für nutzer*innengenerierte Inhalte. Sie funktionieren wie ein Schlauch  und schauen nicht auf den Inhalt selbst, sodass sie für von ihren Nutzer*innen hochgeladene illegale Inhalte weder haften noch verantwortlich sind.

 

Stimmt’s? Ursprünglich wurden Internetplattformen als Verteiler*innen und nicht als Herausgeber*innen betrachtet, d. h. als inhaltsneutrale Plattformen, mit deren Hilfe ihre Nutzer*innen Inhalte teilen können, ohne dass die Plattformen diese Inhalte überprüfen oder bearbeiten. Dieses Prinzip wurde mit § 230 des Communications Decency Act aus dem Jahr 1996 in eine wegweisende US-amerikanische Internetgesetzgebung gegossen, wonach (einfach ausgedrückt) kein „interaktiver Computerdienst“ als Herausgeber*in oder Sprecher*in anzusehen ist und daher nicht für Äußerungen von Nutzer*innen haftet. Internetplattformen haften daher für nutzer*innengenerierte Inhalte nur in nach US-Bundesrecht strafbaren Fällen, bei Urheberrechtsansprüchen oder bei Ausübung einer redaktionellen Tätigkeit. Ursprung dieses Gesetzes ist eine Entscheidung des Supreme Court (Smith v. California) über die Haftung eines Buchhändlers im Vergleich zur Haftung eines Autors oder Verlegers. Das Gericht entschied, dass ohne Kenntnis des Inhalts keine strafrechtliche Haftung vorliegt, d. h. hier, dass es keine Haftung allein für den Besitz eines Buches mit obszönen Bildern gibt. Eine entgegenstehende Haftungsregelung wurde mit Blick auf den 1. Zusatzartikel der US-Verfassung als verfassungswidrig angesehen, obwohl obszöne Rede selbst nicht geschützt ist.

Andere Länder haben vergleichbare Gesetze, so beispielsweise § 79 des Indian Information Technology Act, der eine bedingte Straffreiheit für Intermediäre vorsieht, oder Artikel 14 der EU-Richtlinie 2000/31/EG über den elektronischen Geschäftsverkehr.

In den letzten fünf Jahren hat sich jedoch ein spürbarer Wandel vollzogen: Die Gerichte in der EU und der europäische Gesetzgeber tendieren jetzt zu einer strengeren Haftung für Plattformen. Im Zuge der Einführung einer ausgewogeneren Verantwortungsteilung wurde die Straffreiheit von Intermediären bei Hassrede und Terrorpropaganda oder bei Urheberrechtsverletzungen wie beispielsweise durch Art. 17 Abs. 3 der EU-Richtlinie über das Urheberrecht und die verwandten Schutzrechte im digitalen Binnenmarkt aus dem Jahr 2019, wonach der Dienstanbieter für das Teilen von Onlineinhalten nun bei Urheberrechtsverletzungen haftet, zunehmend eingeschränkt. Das deutsche Netzwerkdurchsetzungsgesetz (NetzDG) verpflichtet Plattformen zur Sicherstellung eines effizienten Beschwerdeverfahrens für „offensichtlich rechtswidrige Inhalte“. Nach einigen EU-Rechtsaktsvorschlägen könnten Plattformen auch verpflichtet werden, nutzer*innengenerierte Inhalte de facto proaktiv zu filtern, um ein Hochladen rechtswidriger Inhalte zu verhindern, wobei diese Ansätze allerdings umstritten sind (# 6). Insgesamt verdeutlicht die Frage der Haftung von Plattformen die Unterschiede zwischen den USA und der EU in Bezug auf die Regulierung von Äußerungen im Internet.

Neben den vom Gesetzgeber selbst beschlossenen Grenzen ist das Prinzip selbst jedoch auch strittig. Die Grundlage dieser relativen Immunität des Intermediärs, d. h. seiner Neutralität gegenüber dem Inhalt selbst, ist in den meisten Fällen eine Schimäre. Plattformen klassifizieren, priorisieren und moderieren nutzer*innengenerierte Inhalte. Mit technologischen Mitteln ist es ihnen zunehmend möglich, Inhalte zu erkennen und zu entfernen, bevor sie von Nutzer*innen markiert werden, sodass die Analogie des unwissenden Buchhändlers nicht mehr zum Tragen kommt.

 

Stimmt also nicht! Internetplattformen sind nicht bloße neutrale Verteiler von Inhalten, die sie weder kennen noch interessieren. Während die Haftung von Plattformen in den USA stark eingeschränkt ist, kennt das europäische Recht differenziertere Verantwortungsregelungen insbesondere in Bezug auf den Schutz geistigen Eigentums, eindeutig rechtswidrige Inhalte und schwere Straftaten wie beispielsweise die Förderung des Terrorismus.

 


Quelle: Daphne Keller, Toward a Clearer Conversation About Platform Liability, Schriftenreihe „Emerging Threats“ des Knight First Amendment Institute (2018), https://knightcolumbia.org/content/toward-clearer-conversation-about-platform-liability; Aleksandra Kuczerawy, Intermediary Liability and Freedom of Expression: Recent Developments in the EU Notice and Action Initiative (2014), Computer Law and Security Review 31 (2015) 1, 46-56; CiTiP Working Paper 21/2015, https://ssrn.com/abstract=2560257.