201130 StN BReg öffentliche Konsultation DSA Package - Zusammenfassung
Dieses Dokument ist Teil der Anfrage „Positionierung zum DSA und DMA“
November 2020 3. Aktivitäten, die einen Schaden verursachen könnten („harmful“), aber an sich nicht illegal sind Neue Regeln für die Digitalwirtschaft sollten über die Regelung von illegalen Waren und Inhal- ten hinausgehen. Auch die Verbreitung von (noch) nicht illegalen Informationen und Inhalten kann in vielfältiger Weise schädlich sein, insbesondere Desinformation sowie kinder- und ju- gendschutzrelevante Aktivitäten. Die Bundesregierung spricht sich zur Bekämpfung von Desinformation dafür aus, dass die sozi- alen Netzwerke in transparenten Prozessen dazu angehalten werden sollten, relevante, authen- tische und zuverlässige Informationen nach ggf. gesetzlich festgelegten und behördlich/gericht- lich überprüfbaren Maßstäben, die die Meinungsfreiheit angemessen berücksichtigen, zu priori- sieren. Nachweislich falsche Informationen, die zu ernsthaften Gefahren für das Individuum o- der die Gesellschaft führen können, sollten nachrangig behandelt, mit einem Warnhinweis ver- sehen oder gelöscht werden. Nutzerinnen und Nutzern sollte die Suche nach verschiedenen Sichtweisen auf ein Thema erleichtert werden. Ein transparenter Beschwerdemechanismus in beide Richtungen ist sicherzustellen, wofür ein einheitliches Verständnis von Desinformation notwendig ist. Die Bundesregierung hält die unter dem Verhaltenskodex zur Bekämpfung von Desinformation (Oktober 2018) eingegangenen Selbstverpflichtungen für einen wichtigen, allerdings nicht aus- reichenden Schritt hin zum Schutz von Nutzerinnen und Nutzern und Gesellschaften vor Desin- formation. Zu prüfen ist, ob die Selbstverpflichtung etwa durch einen regulatorischen Rahmen ergänzt werden soll. Es sollte hierbei nicht bei den Inhalten von Desinformation ansetzt werden; stattdessen sollten Rahmenbedingungen für die (technische) Verbreitung bzw. Auswahl von In- formationen und für die Überprüfung der Echtheit von Nutzerkonten aufgestellt werden, die mit- hilfe von weitreichenden Transparenzverpflichtungen gegenüber der Öffentlichkeit und gegen- über Fachkreisen und durch Einführung eines Aufsichtsmechanismus überwacht werden. Die Verantwortung zur Einhaltung dieser Verpflichtungen sollte bei den Betreibern von Online- Plattformen liegen – unabhängig von ihrem Unternehmenssitz (inner- bzw. außerhalb der EU). Die Verpflichtungen könnten dabei je nach Größe der Online-Plattformen gestaffelt sein. Die Plattformen sollten verpflichtet werden, durch Einführung angemessener interner Prozesse für die Einhaltung der Verpflichtungen zu sorgen. Bei allen Maßnahmen sind der Schutz des Grundrechts auf Meinungsfreiheit und der Schutz vor Inhalten, die Schaden verursachen kön- nen, nach Maßgabe der einschlägigen Gesetze und unter Wahrung der Verhältnismäßigkeit ge- geneinander abzuwägen. Diese Entscheidungen müssen von geschultem Personal getroffen werden. 3
November 2020 Die Aufsichtsstrukturen in diesem spezifischen Bereich sollten grundsätzlich unabhängig und staatsfern ausgestaltet sowie pluralistisch mit allen relevanten Stakeholdern besetzt sein; wenn es um die Einhaltung allgemeiner Gesetze geht, kann etwas anderes gelten. Zu beachten ist, dass die für die Inhalteanbieter geltenden Regelungen und Aufsichtsstrukturen nicht eins zu eins auf die Plattformen übertragen werden können. Zudem ist zu beachten, dass z.B. Inhalte von Rundfunkanbietern bereits umfangreichen inhaltlichen europaweiten Mindeststandards nach der AVMD-RL unterliegen, deren Einhaltung durch die Aufsichtsbehörden des Herkunfts- landes des Rundfunkanbieters sichergestellt werden. Presseangebote unterliegen allein der Kontrolle durch den Presserat als Organ der Selbstregulierung. Es sollten Monitoringverfahren sowie Beschwerde- bzw. Klagemöglichkeiten für Nutzerinnen und Nutzer geschaffen werden. Besondere Verpflichtungen sollten für die Verbreitung von politischer Werbung bzw. parteipoliti- schen Inhalten gelten und auch neuartige technischen Entwicklungen berücksichtigen. 4. Klarstellung der Verpflichtungen für Online-Plattformen und andere digitale Dienste Die Bundesregierung begrüßt, dass die KOM in ihrer kombinierten Roadmap / Folgenabschät- zung in der Anfangsphase (nachfolgend: Folgenabschätzung) eine Reihe von ambitionierten Politikoptionen diskutiert. Die Bundesregierung spricht sich insbesondere für eine Klarstellung, Harmonisierung und Vertiefung der Pflichten der Plattformbetreiber und damit für die Einführung von Regelungen zu Verantwortlichkeit, Verpflichtungen und Transparenz für digitale Dienste aus (Politikoption 2). Entsprechende Ansätze sollten nicht auf bestimmte Sektoren oder Geschäftsmodelle be- schränkt sein, sondern all diejenigen Online-Dienste (d.h. soziale Netzwerke, Messenger- Dienste, Plattformen usw.) erfassen, welche von den Bürgerinnen und Bürgern substantiell ge- nutzt werden und wo diese daher auf ein erhöhtes Schutzniveau durch Anstrengungen bzw. Pflichten der Anbieter angewiesen sind. Aus Sicht der Bundesregierung sollten Online-Plattformen verpflichtet werden, Verfahren bereit- zuhalten, mit denen illegale Aktivitäten auf einfache Weise durch Nutzerinnen und Nutzer ge- meldet werden können, auch über anonyme Meldewege, ohne eine Verpflichtung, personenbe- zogene Daten offenbaren zu müssen. Das Beschwerdemanagement sollte zudem mindestens beinhalten, dass eine Prüfung der Meldungen innerhalb bestimmter Reaktionszeiten erfolgt und festgestellte illegale Inhalte und Warenangebote daraufhin gelöscht oder der Zugang zu ihnen gesperrt wird, dass die beteiligten Nutzerinnen und Nutzer über die Meldung und die Entschei- dung informiert werden und dass auf Antrag eine Überprüfung der Entscheidung erfolgt. Es sollte erwogen werden, abhängig von der jeweiligen Größe des Diensteanbieters – die aller- dings für bestimmte Nischenbereiche unerheblich ist – und abhängig von der Reichweite der 4
November 2020 Plattform und dem Risiko der Verbreitung illegaler Inhalte (risikobasierter Ansatz) unterschied- lich strenge Regelungen zu treffen. Je weiter die Tätigkeit des Vermittlers entfernt von dem übermittelten Inhalt ist, desto weniger Anforderungen sollten an das Überprüfen von Inhalten gestellt werden. In einem europäischen Rechtsakt könnte ein europäischer Basiskatalog von Inhalten festgelegt werden, die europaweit als illegal gelten und die europaweit zu löschen sind bzw. zu denen eu- ropaweit der Zugang zu sperren ist. Zugleich sollten aber alle Mitgliedstaaten die Möglichkeit haben, weitere Inhalte zu definieren, die in dem jeweiligen Mitgliedstaat als illegal gelten und in diesem Mitgliedstaat zu löschen oder zu sperren sind. Bei der Frage, welche Äußerungen tole- rierbar und welche Äußerungen strafbar sind, bestehen zwischen den Mitgliedstaaten zwar er- hebliche Übereinstimmungen, doch sind auch substantielle Unterschiede erkennbar. Die straf- rechtlichen Wertungen des Mitgliedstaats, in dem die Auswirkungen einer Äußerung eintreten, dürfen nicht ignoriert werden, zumal die Auswirkungen ungehinderter Verbreitung von rechts- widrigen Inhalten unmittelbar Auswirkung auf die nationalen demokratischen Systeme haben können. Im Rahmen der Löschung illegaler Inhalte wird es daher zentral auf hinreichende Handlungsspielräume der Mitgliedstaaten ankommen. Die Regulierung von illegalen Inhalten steht dabei in einem Spannungsfeld zwischen den rechtlichen Interessen und Grundrechtsposi- tionen der von illegalen Inhalten betroffenen Personen und der Meinungsfreiheit der Inhaltever- fasserinnen / Inhalteverfasser. Die Löschung rechtmäßiger Inhalte (Overblocking) muss verhin- dert und der grundrechtlich verbürgte Meinungspluralismus erhalten bleiben. Die Entscheidungen der Plattformbetreiber, Inhalte, die gegen die selbst gesetzten Community Standards verstoßen, zu entfernen, dürfen nicht willkürlich, sondern sollten anhand zuvor auf- gestellter, transparenter Kriterien, die gleichzeitig keine inhaltliche Kontrolle journalistisch-re- daktioneller Inhalte vorsehen, erfolgen. Ziel eines neuen Regulierungssystems ist es, eine aus- gewogene Lösung zwischen der Gefahr einer willkürlichen / unkontrollierten Einflussnahme der Plattformen und einer ungerechtfertigten Einflussnahme des Staates in diesem mit Blick auf die Meinungsfreiheit hochsensiblen Bereich zu finden. Dazu ist von den Plattformbetreibern auch zu fordern, dass sie Transparenz über die konkrete Anwendung ihrer Standards bei Lö- schung/Sperrung von Inhalten ihrer Nutzerinnen und Nutzer herstellen. Auch nehmen Entscheidungen der Anbieter über die Art und Weise der Veröffentlichung (z.B. Content-Ranking, Zeitpunkt, Zugangsbeschränkungen für bestimmte Gruppen, aber auch Fact- Checking-Hinweise) bedeutenden Einfluss auf die individuelle Meinungsäußerung und den de- mokratischen Diskurs. Entscheidend für die Wahrung aller betroffener Grundrechtspositionen ist, dass die wirkmächtigen Entscheidungen der Plattformbetreiber nur auf Grundlage eng um- rissener und transparenter, den Meinungspluralismus wahrender Kriterien und nach sorgfältiger 5
November 2020 und zielgenauer Prüfung erfolgen und eine effektive Überprüfung durch Beschwerdemöglichkei- ten und im Wege gerichtlichen Rechtsschutzes möglich sind. Einen Beitrag zu solchen Überprüfungen leistet auch das Konzept inländischer verantwortlicher Ansprechpartner, z.B. sog. Zustellungsbevollmächtigter. Damit wird es Bürgerinnen und Bür- gern erleichtert, Streitigkeiten mit „ihren“ Anbietern auch den unabhängigen Gerichten zuzufüh- ren. Zum Schutz der beteiligten Grundrechtspositionen können zudem verschiedene weitere Si- cherungsmechanismen in dem jeweiligen Regulierungsrahmen vorgesehen werden. Die Perso- nen des Diensteanbieters, die über die Behandlung eines Inhalts entscheiden, sollten hinrei- chend qualifiziert sein und regelmäßig Schulungs- und Betreuungsangebote erhalten. Die Lei- tung des Diensteanbieters sollte regelmäßige Kontrollen durchführen, wie die Beschwerden be- arbeitet werden, und organisatorische Unzulänglichkeiten unverzüglich beseitigen. Zusätzlich sollte ein Verfahren zur Verfügung gestellt werden, mit dem sowohl die Beschwerde- führerin bzw. der Beschwerdeführer als auch die Inhalteverfasserin bzw. der Inhalteverfasser die Überprüfung einer getroffenen Entscheidung verlangen kann. Auch kann die Möglichkeit vorgesehen werden, dass der Anbieter seine Entscheidung über die Behandlung von Inhalten an eine Einrichtung der Regulierten Selbstregulierung überträgt, bei der die Sachkunde und Un- abhängigkeit der Prüfer gewährleistet ist. Daneben sollte geprüft werden, in den europäischen Rechtsakt Regelungen aufzunehmen, die die Strafverfolgung und die zivilrechtliche Rechtsdurchsetzung gegenüber dem Verfasser/der Verfasserin des illegalen Inhalts erleichtern. Dies kann Auskunftsrechte der Strafverfolgungsbe- hörden und Betroffenen, Meldepflichten gegenüber Strafverfolgungs- und/oder Gefahrenab- wehrbehörden oder gegebenenfalls auch anlassbezogene Identifizierungspflichten der Anbieter beinhalten. Um digitale Dienste und insbesondere Verkäuferinnen und Verkäufer mit Sitz außerhalb der EU zu erreichen, dürften zudem besondere Regelungen betreffend den Schutz geistiger Eigen- tumsrechte zur Produktpiraterie auf europäischer Ebene erforderlich sein. Die Bundesregierung begrüßt die von der KOM ins Auge gefassten Transparenz- und Berichts- mechanismen für bestimmte, auf Plattformen eingesetzte KI-Systeme. Dabei dürfen insbeson- dere KMU und Start-ups nicht unverhältnismäßig belastet werden, um Innovationen nicht zu be- hindern. Denn während mit den stetig wachsenden Einsatzmöglichkeiten von KI-Systemen ein großer wirtschaftlicher, gesellschaftlicher und individueller Nutzen einhergehen kann, können mit ihnen auch Risiken verbunden sein, etwa eine fehlende Transparenz der KI-Systeme, die Perpetuierung von Diskriminierungsstrukturen oder in besonderen Fällen die Opazität neurona- ler Netze („Blackbox-Effekt“). 6
November 2020 Digitale Waren und Dienstleistungen für Verbraucherinnen und Verbraucher sollten von Anfang an („by design“ und „by default“) nutzerfreundlich gestaltet sein. Rechtlich verpflichtend sollte in diesem Zusammenhang eine faire, angemessene und nutzerfreundliche Ausgestaltung von Webseiten und digitalen Diensten sein. Dazu gehören auch stärkere Maßnahmen gegen irre- führende „Design-Tricks“ und „Psycho-Kniffe“. An der Schaffung bzw. Erleichterung des Zugangs zu nicht-personenbezogenen Daten und In- formationen durch gesetzliche Regelung kann insbesondere dort ein öffentliches Interesse be- stehen, wo gemeinwohlrelevante Belange unmittelbar berührt sind und hinreichende marktwirt- schaftliche Anreize zur Einräumung von Datenzugang nicht existieren. Durch rechtliche Maß- nahmen können Anreize für Online-Plattformen geschaffen werden, freiwillig Zugang zu den von ihnen gehaltenen Daten und Informationen einzuräumen. Unter bestimmten Umständen kann es aber auch erforderlich werden, Zugangsrechte bzw. Bereitstellungspflichten gesetzlich verpflichtend auszugestalten. Bei der Prüfung möglicher rechtlicher Maßnahmen wird u.a. zu berücksichtigen sein, welche konkreten Datenbestände von einem etwaigen gesetzlichen Zugangsrecht erfasst sein sollen und wie Art und Umfang eines gesetzlichen Zugangsrechts konkret ausgestaltet sein können. Für den Zugang von Gerichten zu den Daten und Informationen bei Plattformen sollte aus- schließlich das einschlägige nationale Gerichtsverfahrensrecht maßgeblich sein.Die Entfernung von Inhalten bewegt sich in einem besonders sensiblen Bereich, der nicht nur Auswirkungen auf individuelle Rechte hat, sondern auch die öffentliche Meinungsbildung als Funktionsvoraus- setzung demokratischer Systeme insgesamt betrifft. Dies soll auch den inhärenten Gefahren ei- ner Über- oder Unterregulierung begegnen. Hierfür erscheint eine grundsätzliche Orientierung am Umfang der Berichtspflichten aus dem deutschen NetzDG sinnvoll, welche bei der Identifi- zierung und Entfernung illegaler Inhalte verhältnismäßig abgestuft werden könnten. So sollten die Transparenzberichte zunächst allgemeine Ausführungen dazu enthalten, welche Anstren- gungen Diensteanbieter bezüglich der Entfernung von Inhalten vornehmen. Die Berichte sollten zudem zumindest die Anzahl entfernter Inhalte, aufgeschlüsselt nach Beschwerdeführer (Be- schwerdestelle oder Nutzerinnen und Nutzer) und Beschwerdegrund sowie maßgebliche Verän- derungen gegenüber vorherigen Berichtszeiträumen enthalten. Die Transparenzberichte sollten dabei ausreichend standardisiert sein, um eine Vergleichbarkeit zu gewährleisten. Weiterhin sollte ein besonderes Augenmerk auf etwaige maschinelle Entscheidungsfindung und -vorbereitung gelegt werden, da diese ein besonderes Gefahrenpotenzial bergen. Automati- sierte Systeme bieten zwar Vorteile durch eine höhere Arbeitskapazität und ein höheres Ar- beitstempo. Soweit sie technisch hinreichend fortgeschritten und demokratischen und rechts- staatlichen Grundsätzen entsprechend programmiert sind, können sie akkurate und faire Ent- scheidungen ermöglichen. Die Risiken automatisierter Systeme liegen in ihrer Intransparenz für 7
November 2020 die Allgemeinheit und der mangelnden Nachvollziehbarkeit der Grundsätze ihrer Entscheidun- gen. Informationen zu Datensets, die für die Programmierung / das Anlernen von KI-Systemen verwendet werden, sollten verpflichtend bereitgestellt werden. Beim Einsatz von Systemen, die geeignet sind, die Wahrung von Individualrechten oder die Interessen der Zivilgesellschaft zu beeinträchtigen, sollten entsprechende Sicherungen vorgesehen werden. Die Berichtspflicht sollte auch Angaben zu Art, Grundzügen der Funktionsweise und Reichweite von gegebenenfalls freiwillig eingesetzten Verfahren zur automatisierten Erkennung von zu ent- fernenden Inhalten oder Waren umfassen. Hierin sind auch Angaben zu verwendeten Trai- ningsdaten und zu den Überprüfungsmechanismen der Verfahren durch Diensteanbieter einzu- beziehen. Um die Nachvollziehbarkeit der vom Diensteanbieter getroffenen Entscheidungen weiter zu stärken, sollte die Berichtspflicht darüber hinaus u.a. auch eine Darstellung der Ent- scheidungskriterien und des Prüfungsverfahrens hinsichtlich der Frage enthalten, ob ein zu ent- fernender Inhalt vorliegt. Schließlich ist eine verständliche Ausgestaltung und leichte Auffindbar- keit des Transparenzberichtes notwendig, um die bezweckte öffentliche Kontrolle effektiv zu er- möglichen. Verbraucherinnen und Verbraucher sollten, wie bislang nach Artikel 17 der E-Commerce-Richt- linie, die Möglichkeit haben, ihre Rechte aus einem Vertrag mit einem Unternehmen in einem außergerichtlichen Verfahren geltend zu machen, das leicht zugänglich ist und so Kosten und Risiken eines Gangs zum Gericht erspart. Auch Instrumente des kollektiven Rechtsschutzes können für einen umfassenden Verbraucherschutz notwendig sein. Die Bundesregierung setzt sich auch dafür ein, dass Verbraucherinnen und Verbraucher bei Beratung, Information und Wahrnehmung ihrer Rechte auf starke und unabhängige Verbrau- cherorganisationen vertrauen können. Dazu gehören auch bestehende europäische Strukturen, wie etwa das Netzwerk Europäischer Verbraucherzentren (ECC Net). Die Verantwortlichen von Plattformen sollten zeitnah auf bereits veröffentlichte illegale Inhalte reagieren und – wenn und soweit erforderlich – mit den Strafverfolgungsbehörden auf Grund- lage der geltenden Gesetze kommunizieren und zusammenarbeiten. Zur Zusammenarbeit und Beantwortung von Anfragen von Strafverfolgungsbehörden sollte ein geschultes Team zur Verfügung stehen, um eine unverzügliche Bearbeitung von Anfragen und die Löschung von Inhalten gewährleisten zu können. Bei der Feststellung von bestimmten straf- rechtlich relevanten Inhalten sollte bei schwerwiegenden Straftaten eine entsprechende Mel- dung an die Strafverfolgungsbehörden für die Online-Plattformen rechtlich verpflichtend sein. 5. Überprüfung der Haftungsregelung für digitale Dienste Die Bundesregierung begrüßt, dass die KOM nun zur Diskussion stellt, das System der Verant- wortlichkeit für digitale Dienste und Online-Plattformen zu überprüfen. Denn das derzeit durch 8
November 2020 die Regelungen der Artikel 14 und 15 der E-Commerce-RL bestehende „Notice and take down“- Prinzip bietet den Plattformen keinen Anreiz, aus eigenem Interesse Maßnahmen gegen illegale Aktivitäten zu ergreifen. Da die Plattformen die Rahmenbedingungen setzen und zumeist einen beherrschenden Einfluss auf die Plattformaktivitäten Dritter haben, sollten die bestehenden Re- gelungen nach Ansicht der Bundesregierung zu einer Sorgfalts- oder Verkehrssicherungspflicht der Plattformen umgestaltet werden. Dabei muss jedoch zwischen der regelmäßig vertraglichen Haftung einer Plattform, auf der Waren angeboten werden, und der außervertraglichen Haftung einer Plattform, auf der rechtswidrige Inhalte von Nutzerinnen und Nutzern verbreitet werden, unterschieden werden. E-Commerce-Plattformen und Online-Marktplätze sollten – wie auch in Option 2 der Folgenab- schätzung vorgesehen – zu möglichen, zumutbaren und ggf. auch automatisiert ausführbaren Sorgfalts- und Verhaltensmaßnahmen zum Schutz der Verbraucherinnen und Verbraucher ge- setzlich verpflichtet werden (keine flächendeckenden Upload-Filter). Plattformen sollten dafür Sorge tragen, dass – soweit dies für sie mit wirtschaftlich angemessenem Aufwand erkennbar ist – auf ihnen keine verbotenen oder gefälschten Produkte angeboten werden und keine Fake- Shops und sonstigen betrügerischen Angebote auf der Plattform erscheinen. Bei der Etablierung einer angemessenen zivilrechtlichen Verantwortlichkeit sollte die Größe der Onlineplattformen berücksichtigt werden, damit die Stärkung der Verantwortlichkeit von Online- plattformen zukünftig keine Markteintrittsbarriere darstellen wird. Auch weiterhin sollte es aber dabei bleiben, dass die Verantwortungsbereiche eines Verkäufers und einer Plattform klar abgrenzbar bleiben: Der Plattform darf nicht die haftungsrechtliche Ver- antwortung für die Qualität der auf ihr angebotenen Waren aufgebürdet werden; dies muss die Verantwortung des Verkäufers bleiben, der allein hierfür einzustehen hat. Als weitere Voraussetzung der außervertraglichen Haftung von Plattformen gegenüber Rechte- inhaberinnen und Rechteinhabern sieht das Unionsrecht die zivilrechtliche Verantwortlichkeit von Plattformen für das Verbreiten von rechtswidrigen Inhalten von Nutzerinnen und Nutzern vor. Der außervertragliche Haftungsanspruch bleibt weiterhin in der Kompetenz der Mitglied- staaten. Daher sind nur die Verantwortlichkeitsregeln tauglicher Gegenstand unionsrechtlicher Harmonisierung. Bei der Überarbeitung der unionsrechtlichen Verantwortlichkeitsregeln sollte deshalb auf deren Kohärenz mit dem nationalen Haftungsrecht und auch mit weiteren erwoge- nen Reformen auf EU-Ebene geachtet werden. Die Überprüfung des Haftungsregimes ist auch für das Strafrecht von erheblicher Bedeutung. Das europäische Haftungsregime darf die Möglichkeit nicht ausschließen, dass das Betreiben von Plattformen, deren Zweck darauf ausgerichtet ist, die Begehung von fremden Straftaten zu ermöglichen oder zu fördern, von den Mitgliedstaaten auch dann unter Strafe gestellt wird, 9
November 2020 wenn der Betreiber lediglich die kriminelle Ausrichtung kennt, jedoch keine positive Kenntnis von konkreten strafrechtlich relevanten Transaktionen hat. Aus Sicht der Bundesregierung ist das Konzept des Vermittlers in der E-Commerce-Richtlinie nicht mehr zeitgemäß. Mittlerweile kommt den „Vermittlern“ in Form von Online-Plattformen eine zentrale, Informationen steuernde Rolle zu, so dass sie mehr als nur Vermittler „rein techni- scher, automatischer und passiver Art“ sind. Neben die Kategorie des passiven Hosts treten im- mer häufiger Anbieter, die sich nicht rein passiv verhalten, ohne die Voraussetzungen des Con- tent-Providers zu erfüllen. Diese Plattformen, die neben dem Hosting auch Einfluss auf die Dar- stellung der Inhalte nehmen oder die Inhalte ihrer Nutzer bewusst kommerzialisieren, ohne sie selbst einzustellen, sollten von den passiven Hosts und den an diese Definition gebundenen Haftungsprivilegierungen abgegrenzt werden. So könnten eigene Regeln für jene Dienste in Be- tracht gezogen werden. Die Subsumtion unter die Dienstekategorien sollte angesichts der Vielgestaltigkeit der Funktio- nen großer Plattformen nicht pauschal, sondern ggf. für Teilbereiche eines Dienstes gelten. Ob und welche Pflichten für die Teilbereiche eines Dienstes gelten bzw. angemessen sind, muss insbesondere im Verhältnis zur Bedeutung des Teilbereichs für das Gesamtangebot eines Dienstes beurteilt werden. Als Blaupause könnte hierfür Artikel 28b Absatz 3 der geänderten AVMD-RL dienen. Sektorspezifische Regelungen (AVMD-RL, DSM-RL) sollten bei der Neure- gelung aufrechterhalten bleiben, wobei klargestellt werden sollte, in welchem Verhältnis die Richtlinien zueinanderstehen. Synergien mit sektorspezifischen Regelungen sollten genutzt werden. Auf die dortigen Definitionen kann aufgebaut werden, um eine weitere Rechtszersplitte- rung zu vermeiden. Gleiches gilt für bereits etablierte Aufsichts- und Kontrollstrukturen. Insbe- sondere ist hierfür die Definition der Video-Sharing-Plattform in Artikel 1 Absatz 1 lit. aa der ge- änderten AVMD-RL zu beachten. Sofern im Ergebnis auch eine teilweise Inhalteregulierung an- gestrebt wird, muss Ziel immer eine Mindestharmonisierung sein, da hohe nationale Standards nicht unterlaufen werden sollten. Zudem muss der Schutz vor allem der Presse- und Meinungs- freiheit sichergestellt werden. Auch Vorgaben zur staatsfernen Ausgestaltung der Aufsicht in sektorspezifischen Regelungen (wie etwa in Artikel 30 der geänderten AVMD-RL) dürfen nicht durch horizontale Regelungen ausgehebelt werden. Die Informationspflichten von Plattformen und Sanktionsmöglichkeiten bei einem Verstoß gegen Artikel 5 der E-Commerce-Richtlinie sollten geprüft bzw. präzisiert werden, denn viele illegal operierende Online-Plattformen, insbesondere strukturell urheberrechtsverletzende Webseiten, nehmen einen Verstoß gegen Artikel 5 bewusst in Kauf, indem sie ihre Identität oder die ihrer Geschäftskunden verschleiern. Die Identität von gewerblichen Nutzern von Plattformen, wozu auch Werbekunden gehören, sollte durch die Plattformen vor der Aufnahme auf die Plattform 10
November 2020 mittels verlässlichen Identitätsnachweises festgestellt werden („know your business customer“). Auch die Identität des Plattformbetreibers sollte zweifelsfrei festgestellt werden können. 6. Herkunftslandprinzip a. Grundsatz nach der E-Commerce Richtlinie Um den damals noch jungen und meist kleinen Unternehmen eine grenzüberschreitende Diensterbringung zu erleichtern und schnelles Wachstum zu ermöglichen, wurde in der E-Com- merce-Richtlinie das Herkunftslandprinzip eingeführt. Dieser europäische Ansatz des Herkunfts- landprinzips ist als besonderer Ausdruck der Dienstleistungsfreiheit auch Kern der europäi- schen Medienregulierung im Rahmen der Richtlinie über audiovisuelle Mediendienste und wich- tiger Bestandteil der europäischen Medienordnung. b. Situation im Bereich strafbarer Hassrede Dieser Ansatz kann jedoch nur zu ausgewogenen Ergebnissen führen, wenn europaweit ausrei- chend harmonisierte Regelungen bestehen und die Behörden des Sitzlandes ausreichend handlungsfähig sind, um die Überwachung „ihrer“ Anbieter für den gesamten Binnenmarkt wahrzunehmen. Dies sicherzustellen, begegnet zunehmend Schwierigkeiten, wenn sich im Markt inzwischen sehr große marktmächtige Unternehmen etabliert haben, ohne dass die ent- sprechenden allgemeinen Schutzstandards angehoben und insbesondere in jedem Mitglied- staat durchgesetzt werden (können). Insbesondere in dem sich in den letzten Jahren neu entwickelten Bereich von illegalen Inhalten, strafbarer Hassrede und Desinformation ergeben sich ganz besondere Herausforderungen: Das wachsende Volumen an gemeldeten Inhalten, die unterschiedlichste strafbare Handlungen be- treffen, kann bereits eine einzelne nationale Behörde überfordern. Die beanstandeten Inhalte werden zudem häufig in anderen Sprachen als der Sprache des Sitzlands verfasst sein und auch die Nutzerinnen und Nutzer, die sich an die Behörde wenden, werden oftmals eine andere Sprache sprechen. Folgt man dem Ansatz, dass alle Mitgliedstaaten die Möglichkeit haben sol- len, über einen europäischen Basiskatalog hinaus weitere Inhalte zu definieren, die im Einklang mit der in der Charta der Grundrechte der EU (GRC) garantierten Meinungsfreiheit in dem je- weiligen Mitgliedstaat als illegal gelten und in diesem Mitgliedstaat zu löschen oder zu sperren sind, so wird die Behörde im Sitzland oftmals vor dem Problem stehen, dass solche strafbaren Inhalte häufig nur im nationalen Kontext zu verstehen und einzuordnen sind. Die Mitarbeiterin- nen und Mitarbeiter der Behörde des Sitzlandes werden meist nicht die Tatbestandsvorausset- zungen kennen, wann ein Inhalt in anderen Mitgliedstaaten strafbar und daher zu löschen oder zu sperren ist. 11
November 2020 Zwar ermöglicht bereits die derzeitige E-Commerce-Richtlinie Ausnahmen vom Herkunftsland- prinzip, die jedoch den aktuellen Herausforderungen im Bereich strafbarer Hassrede nicht ge- recht werden. Die nach Artikel 3 Absatz 4 der E-Commerce-Richtlinie durchzuführenden Ver- fahren sind teilweise umständlich und können lange dauern, es herrscht Rechtsunsicherheit. Nach Auffassung der Bundesregierung muss jedoch sichergestellt werden, dass gegen illegale Inhalte auch bei grenzüberschreitenden Sachverhalten zeitnah und effektiv vorgegangen wer- den kann. Die Mitgliedstaaten sollen nicht in die Lage geraten, die Ausbreitung illegaler Inhalte in ihrem Staatsgebiet hinnehmen zu müssen. Den Mitgliedstaaten sollte es in klar definierten Ausnahmefällen möglich sein, gegen strafbare Inhalte in ihrem eigenen Staatsgebiet vorzuge- hen, wenn der Anbieter seinen Sitz in einem anderen Mitgliedstaat hat. Es sollte zudem geprüft werden, ob in bestimmten weiteren Bereichen punktuelle Ausnahmen vom Herkunftslandprinzip gelten sollten. c. Medien Für die Regulierung von Inhalten von Medien (insbesondere Rundfunk und Presse) sind die Un- abhängigkeit und Staatsferne / Staatsfreiheit der Regulierungsbehörden bzw. der Organe der freiwilligen Selbstkontrolle aufrechtzuerhalten. Eine staatliche und zentral gesteuerte EU-Regu- lierungsbehörde ist im Bereich der Medien (insbesondere Rundfunk und Presse) zu vermeiden. Die bestehenden Regulierungsbehörden im audiovisuellen Bereich müssen für die grenzüber- schreitende Rechtsdurchsetzung ausreichend ausgestattet werden. Außerdem sollte die grenz- überschreitende Zusammenarbeit verbessert und verschlankt werden. 7. Online-Werbung Da sich der Informationsaustausch und damit auch die Wertschöpfung immer mehr ins Netz verlagern, gewinnen die Themen Online-Werbung und Wettbewerb im digitalen Bereich erheb- lich an Bedeutung. Einnahmen aus Werbung stellen für viele Plattformen eine Finanzierungsquelle dar. Daher sol- len die Nutzerinnen und Nutzer aus Sicht solcher Plattformen möglichst lange auf der Seite ge- halten und zu vielen „Klicks“ und Interaktionen verleitet werden. Dies befördert die Anzeige von immer dramatischeren Inhalten. In der Konsequenz kann dies zu Falschnachrichten, Verschwö- rungstheorien und Hetze führen, da derartige Inhalte eine besonders hohe Interaktionsquote haben. Es sollte geprüft werden, ob Nutzerinnen und Nutzern die Wahlfreiheit gegeben werden sollte, Online-Vermittlungsplattformen auch ohne personalisierte Werbung zu nutzen und ob bei per- sonalisierter Werbung die Kriterien angeben werden müssen, auf deren Basis die personali- sierte Werbung ausgespielt wird. 12