Im Hinblick auf die Verabschiedung des Digital Services Act (DSA) im Jahr 2022, der einen neuen horizontalen Rechtsrahmen für die Regulierung digitaler Dienste vorsieht, analysiert dieses Diskussionspapier die Moderation von Inhalten auf Online-Plattformen. Die Moderation von Inhalten ist eine sehr komplexe und herausfordernde Aufgabe. Sie wird von vielen Faktoren beeinflusst:
- den Anreizen der Plattformanbieter
- dem Moderationsprozess, einschließlich der eingesetzten automatisierten Systeme und menschlichen Moderatoren, und
- den regulatorischen Anforderungen.
Ein wesentliches Problem besteht darin, dass heutige Moderationsprozesse nicht frei von Ungenauigkeiten und Intransparenz sind. Diese Mischung aus Fehleranfälligkeit und Intransparenz erschwert es, Moderationsentscheidungen nachzuvollziehen und zu differenzieren, ob der rein technische Moderationsprozess oder die Moderationspolitik der Plattformanbieter oder eine Kombination aus beiden, die sich gegenseitig bedingen können, für die getroffenen Moderationsentscheidungen verantwortlich sind. Darüber hinaus besteht die Frage ob daraus Risiken für die Gesellschaft und den Einzelnen entstehen, die gemindert werden müssen, und wo die entsprechenden Verantwortlichkeiten dafür liegen. Dies ist insbesondere bei sehr großen Plattformen problematisch, da diese eine große Anzahl von Konsumenten erreichen und sowohl falsch negative als auch falsch positive Entscheidungen zu schwerwiegenden individuellen oder gesellschaftlichen Schäden führen können.
Dem trägt der DSA insbesondere durch zahlreiche Transparenzpflichten Rechnung, die die Prozesse nachvollziehbarer machen können.