Change language: Deutsch
Teilen:

Zusammenfassung der Stellungnahme des Kinderschutzbundes Bundesverband e.V. zur Öffentlichen Anhörung des Ausschusses für Digitales zur “Chatkontrolle”

Allgemein

Originale Stellungnahme hier.

Einordnung des Verordnungsentwurfs und seiner Implikationen

Die EU-Initiative sendet ein deutliches Signal an alle Staaten der EU, stärker gegen sexualisierte Gewalt an Kindern vorzugehen. Das begrüßen wir nachdrücklich. Um dieses unterstützenswerte Ziel umzusetzen, schlägt die Richtlinie notwendige und richtige Maßnahmen vor, geht aber an entscheidenden Punkten zu weit. 

  • Das anlasslose Scannen privater Kommunikation in Messenger-Diensten oder E-Mails ist weder verhältnismäßig noch zielführend
  • Ein Umfeld, in dem freie Meinungsäußerung und vertrauliche Kommunikation selbstverständlich sind, ist ein wesentlicher Pfeiler von Demokratie und Partizipation
  • Beim anlasslosen Scannen werden Kinder und Jugendliche noch viel häufiger kriminalisiert
  • Datenschutz und Kinderschutz sollen nicht gegeneinander ausgespielt werden, Kinderrechte brauchen beides: das Recht auf körperliche Unversehrtheit, aber auch das Recht auf geschützte Kommunikation.
  • Nur wenn sie darauf vertrauen können, nicht konstant überwacht zu werden, können sie das notwendige Vertrauen in ihre Erziehungsberechtigten, Lehrer:innen und Freund:innen entwickeln, das dazu beiträgt, dass sie Hilfe bei Vertrauenspersonen suchen, wenn sie welche benötigen.
  • Millionen von legalen Nachrichtenaustauschen gerät zu Unrecht ins Visier von Behörden
  • Eine “Chatkontrolle” würde eine Überwachungsstruktur schaffen, die sich auch für andere Zwecke missbrauchen ließe.
  • Der Vorschlag bedroht dadurch beispielsweise auch bestimmte Berufsgruppen, die zur Verschwiegenheit verpflichtet sind.
  • Technologie, die eine Zensur von bestimmten Inhalten noch vor dem Versenden oder Hochladen ermöglicht, gefährdet vor allem in (teil) autoritär regierten Ländern lebende Menschen, die politisch aktiv sind, Journalist:innen oder Menschen der LGBTIQ+ Communities. Dies betrifft Kinder genauso, vor allem die besonders schutzbedürftigen Kinder. 
  • Es ist nicht vertretbar, die Ende-zu-Ende-verschlüsselte Kommunikation in garantiert vertraulicher privater Kommunikation durch Algorithmen aufzuheben.

Sinnvolle Maßnahmen für Kinderrechte im Netz und gegen Cyber Grooming

  • Wirksame Altersverifikation (Grundrechtskonform: ohne Ausweispflicht, ohne Erhebung biometrischer Daten, ohne Eingriff in verschlüsselte Kommunikation), in beiden Richtungen (Inhalte vor Jüngeren verbergen; Zutritt für Ältere bei von Kindern genutzten Angeboten verhindern)
  • Sicherheitsauflagen und Pflicht zu Risikoanalysen für die Anbieter (Hosting und Anbieter von Social Media Plattformen)
  • Qualitativ hochwertige, sensible Moderation von Chats
  • Pattern-Analyse, um Groomer:innen zu entdecken, um sie zu sperren und/oder zu melden
  • Leicht erreichbare Meldeverfahren für Kinder und Jugendliche, die Hilfe benötigen
  • Server-Side-Scanning von öffentlichen Plattformen: Scannen von Bildmaterial auf den Servern der Plattformen und Filehoster verpflichtend (Suche nach bekanntem Material mit Hashes und neuen Daten mit KI-Unterstützung)
  • Einrichtung einer zentralen Behörde (die wie NCMEC Daten sammelt, Strategien entwickelt, neue technische Verfahren unterstützt, Unternehmen kontrolliert und bei den Risikoabschätzungen begleitet). Diese muss unabhängig sein (vor allem von Europol) und eng mit Kinderschutzorganisationen zusammenarbeiten.
  • Mehr in Forschung investieren. Es braucht Fakten, Daten und Zahlen, um die breite Diskussion auf eine verlässliche Grundlage zu stellen
  • Stärkung der Ermittlungskapazitäten
  • Missbrauchsmaterial, das z.B. in geschlossenen Gruppen, auch im Darknet, angeboten wird, ließe sich am besten entdecken, indem die Ermittler*innen in die Lage versetzt würden, häufiger online “auf Streife” zu gehen. Die rechtlichen Möglichkeiten dazu gibt es (z.B. das Angebot künstlich erzeugten Materials als „Eintrittskarte“)
  • Angemessene Ausstattung von Institutionen, die sich aktiv für den Schutz von Kindern einsetzen
  • Technische Unterstützung durch Quick-Freeze, staatliche Meldestellen im Netz  
  • Anbieter:innen in die Pflicht nehmen (Material aufspüren/melden/löschen, transparente Schutzkonzepte implementieren)
  • Prävention und Aufklärung (u.a. Medienkompetenzförderung) 
  • Ausnahmeregelung noch einmal zu verlängern damit Filehoster ihre Server scannen und Hinweise an die amerikanische Nichtregierungsorganisation NCMEC auslösen dürfen (Erlaubnis bietet eine Ausnahmeregelung einer Datenschutzvorschrift, der EU-Privacy Richtlinie). U.a. erhält so das BKA vom NCMEC (National Center for Missing and Exploited Children) Daten zur weiteren eigenen Ermittlung.
  • Pattern-Analyse bei Kommunikationsplattformen (z.B. anlassbezogene Nachforschung wenn ein Konto andere Konten kontaktiert die Missbrauch gemeldet haben)
  • Plattformbetreiber stärker in die Verantwortung nehmen. (Bereich der Überwachung von Interaktionsmöglichkeiten, bei Angeboten die stark von Kindern frequentiert werden Verhalten, das auf erwachsene Nutzer deutet, Angebot auf kindgerecht zu schalten, sobald die eigenen Systeme davon ausgehen, dass sie es mit einem Kind als Nutzer:in zu tun haben.)
  • Ergänzend zu Impressum/AGB/Datenschutzerklärung eine leicht erreichbare Erläuterung in Einfacher Sprache anbieten, um Kindern den Zweck und die Hintergründe des Auftritts zu erklären und Rat und Hilfe anzubieten.
  • Bei Anbietern vergünstigter “Familien-Accounts” , müssten Eltern mit ihren Kindern die Altersangabe vornehmen (nicht änderbar und ggf. auslesbar zur Altersangabe bei Apps)
  • Fokus auf Prävention, siehe auch BIK-Initiative (Better Internet for Kids) der EU-Kommission
  • Löschen von illegalem Material statt Netzsperren

Kritik

  • Ablehnung der als „Chatkontrolle“ bezeichnete sogenannte „Aufdeckungsanordnung“. (Am Ende eines behördlichen und juristischen Verfahrens bei allen Kund*innen eines Providers die Kommunikation über Wochen und Monate hinweg zu scannen.)
  • Wenn Service-Provider den Auflagen nicht folgen, wird das Recht der Kund:innen eingeschränkt (beim Thema Geldwäschegesetz würde dies analog bedeuten, dass die Konten aller Kund*innen überwacht werden wenn Banken fahrlässig arbeiten).
  • Der Fokus auf eine technische Lösung ist zu einseitig und bleibt einem gesamtgesellschaftlichen Problem gegenüber blind.
  • Vertrauen in Technologie, die das Potential zur Massenüberwachung trägt, ist naiv und ignoriert die Wahrung der Grundrechte aller Menschen.
  • Vertrauen auf eine hohe Trefferquote automatisierter Systeme anhand der Angaben der Hersteller:innen ist ein Fehler.
  • Verordnung fokussiert sich ausschließlich auf die Verbreitung im Internet, nicht aber auf die eigentliche Anfertigung von sexualisierten Gewaltdarstellungen von Kindern. 
  • Maßnahmen sind ungeeignet, um die Verbreitung zu bekämpfen.
  • Die enorme Menge an Falschmeldungen, behindern die Ermittlungen gegen die Täter*innen
  • Darstellungen sexualisierter Gewalt von organisierten Gruppen wird kaum über die durch dieses Gesetz kontrollierten Wege verbreitet
  • Grundsätzliche Frage, wie ein KI zwischen unbedenklicher und sexualisierter Kommunikation unterscheiden soll. (Training mit welchen Datensätzen?)
  • Technik kann kein Ersatz sondern lediglich eine Unterstützung bei Ermittlungen sein.