Change language: Deutsch
Teilen:

Startschuss zu den Verhandlungen über die EU-Chatkontrolle: Kommissarin Johansson verteidigt umstrittenes Überwachungsgesetz vor dem LIBE-Ausschuss

Europaparlament Freiheit, Demokratie und Transparenz Pressemitteilungen

Heute von 15-16 Uhr wird EU-Innenkommissarin Ylva Johansson ihren umstrittenen Gesetzentwurf zur verpflichtenden Nachrichten- und Chatkontrolle offiziell im Ausschuss für Bürgerliche Freiheiten (LIBE) des EU-Parlaments präsentieren und den Abgeordneten Rede und Antwort stehen. Mit dem Gesetz will die Kommission mit der Begründung der Verfolgung von „Kinderpornografie“ u.a. Anbieter von E-Mail-, Chat- und Messengerdiensten verpflichten lassen, vollautomatisiert nach verdächtigen Nachrichten zu suchen und diese an die Polizei weiterzuleiten. Ende-zu-Ende-Verschlüsselung müsste durch Scans auf allen Handys ausgehebelt werden.

Der Europaabgeordnete und Bürgerrechtler Dr. Patrick Breyer (Piratenpartei), der das Gesetz als Schattenberichter für Fraktion Grüne/Europäische Freie Allianz mitverhandelt, kommentiert:

„Eine wahllose und grundrechtswidrige Suche ins Blaue hinein ist der falsche Weg zum Schutz von jungen Menschen und gefährdet diese sogar, indem ihre privaten Aufnahmen in die falschen Hände geraten und Kinder vielfach kriminalisiert werden. Der Opferschutz hängt davon ab, dass alle Ressourcen auf die Verhinderung von Missbrauch und der Produktion von Missbrauchsmaterial konzentriert werden. Kinderpornoringe organisieren sich nicht auf Facebook oder Whatsapp sondern verwenden selbst betriebene Foren und verschlüsselte Archive, an denen eine automatisierte Chatkontrolle völlig vorbei geht. Kinder haben ein Recht auf Schutz vor politischer Instrumentalisierung!

Neben unwirksamer Netzsperren-Zensur droht mit der Chatkontrolle das Ende des digitalen Briefgeheimnisses und sicherer Verschlüsselung, mit der Durchleuchtung persönlicher Cloudspeicher die Massenüberwachung privater Fotos, mit der Altersverifikation das Ende anonymer Kommunikation, mit Appstore-Zensur das Ende sicherer Messenger-Apps und die Bevormundung Jugendlicher. Nicht geplant ist dagegen eine längst überfällige Pflicht zur Löschung bekannten Missbrauchsmaterials im Netz oder dringend notwendige europaweite Standards für wirksame Präventionsmaßnahmen, Opferhilfe und -beratung und konsequente strafrechtliche Ermittlungen.

Chatkontrolle ist, wie wenn die Post alle Briefe öffnen und scannen würde – ineffektiv und illegal. Selbst intimste Nacktfotos und Sex-Chats können wegen der fehleranfälligen Algorithmen plötzlich bei Unternehmenspersonal oder der Polizei landen. Wer das digitale Briefgeheimnis zerstört, zerstört Vertrauen. Auf Sicherheit und Vertraulichkeit privater Kommunikation sind wir alle angewiesen: Menschen in Not, Missbrauchsopfer, Kinder, die Wirtschaft und auch Staatsbehörden.“

Bei der erstmaligen Präsentation des Gesetzesentwurfs zur Chatkontrolle im Mai 2022 hatte die EU-Kommission das umstrittene Vorhaben mit verschiedenen Argumenten beworben. Im Folgenden werden diverse Behauptungen hinterfragt:

1. „Heutzutage werden Fotos und Videos, die den sexuellen Missbrauch von Kindern zeigen, im Internet massiv verbreitet. Im Jahr 2021 wurden beim US-amerikanischen National Centre for Missing and Exploited Children 29 Millionen Fälle gemeldet.“

Im Zusammenhang mit der Chatkontrolle ausschließlich von Darstellungen sexuellen Kindesmissbrauchs zu reden, ist irreführend. Bei sexuell ausbeutenden Darstellungen Minderjähriger (child sexual exploitation material, CSEM) handelt es sich zwar oft um Aufnahmen sexualisierter Gewalt an Minderjährigen (child sexual abuse material, CSAM). Eine internationale Arbeitsgruppe aus Kinderschutzinstitutionen weist aber darauf hin, dass zum strafbaren Material auch Aufnahmen sexueller Handlungen oder von Sexualorganen Minderjähriger zählen, bei denen keine Gewalt angewendet wird oder auch keine andere Person beteiligt ist. Auch in Alltagssituationen entstandene Aufnahmen werden genannt wie ein Familienbild eines Mädchens im Bikini oder nackt in den Stiefeln ihrer Mutter. Erfasst sind auch ohne Wissen der minderjährigen Person angefertigte oder weitergegebene Aufnahmen. Zu strafbarem CSEM zählen auch Comics, Zeichnungen, Manga/Anime und computergenerierte Darstellungen fiktionaler Minderjähriger. Schließlich gehören zu strafbaren Darstellungen auch selbst gemachte sexuelle Aufnahmen Minderjähriger etwa zur Weiterleitung an gleichaltrige Partner („Sexting“). Die Studie schlägt zur korrekten Umschreibung deshalb den Begriff „Darstellungen der sexualisierten Ausbeutung“ von Minderjährigen vor. Strafbar sind dabei gleichermaßen Aufnahmen von Kindern (bis 14 Jahre) und von Jugendlichen (bis 18 Jahre).

2. “Allein im Jahr 2021 wurden weltweit 85 Millionen Bilder und Videos von sexuellem Kindesmissbrauch gemeldet.”

Es kursieren viele irreführende Angaben darüber, wie das Ausmaß sexuell ausbeutender Darstellungen Minderjähriger (CSEM) beziffert werden kann. Die Zahl, mit der die EU-Kommission ihre Pläne verteidigt, stammt von der US-amerikanischen Nichtregierungsorganisation NCMEC (National Center for Missing and Exploited Children) und umfasst auch Duplikate, da CSEM mehrfach geteilt und oft nicht gelöscht wird. Ohne Duplikate verbleiben von den 85 Millionen gemeldeten Aufnahmen noch 22 Millionen einzigartige Aufnahmen.

75 Prozent aller NCMEC-Meldungen aus dem Jahr 2021 stammen von Meta (FB, Instagram, Whatsapp). Facebooks eigene interne Analyse besagt, dass “mehr als 90 Prozent von [CSEM auf Facebook im Jahr 2020] mit zuvor gemeldeten Inhalten identisch oder ihnen visuell ähnlich waren. Und Kopien von nur sechs Videos waren für mehr als die Hälfte der kinderausbeutenden Inhalte verantwortlich”. Die viel zitierten Zahlen des NCMEC beschreiben also nicht wirklich das Ausmaß der Aufnahmen von sexualisierter Gewalt gegen Kinder im Internet. Sie beschreiben vielmehr, wie oft Facebook Kopien von bereits bekannten Aufnahmen entdeckt. Auch das ist relevant.

Nicht alle einzigartigen Aufnahmen, die der NCMEC gemeldet werden, zeigen Gewalt gegen Kinder. Die 85 Millionen von NCMEC gemeldeten Darstellungen beinhalten zum Beispiel auch einvernehmliches Sexting. Die Anzahl von Missbrauchsdarstellungen, die NCMEC im Jahr 2021 gemeldet wurden, betrug 1,4 Millionen.

7% der weltweiten Verdachtsmeldungen von NCMEC gehen an die Europäische Union.

Darüber hinaus steigen selbst auf Facebook, wo die Chatkontrolle seit langem freiwillig eingesetzt wird, die Zahlen für die Verbreitung von missbräuchlichem Material immer weiter an. Die Chatkontrolle ist somit keine Lösung.

Quelle: https://netzpolitik.org/2022/ncmec-zahlen-erklaert-das-raunen-vom-millionenfachen-missbrauch/

3. “64% Anstieg der Berichte über bestätigten sexuellen Kindesmissbrauch im Jahr 2021 im Vergleich zum Vorjahr.“

Dass die Algorithmen zur freiwilligen Chatkontrolle großer US-Anbieter mehr CSEM gemeldet haben, lässt keinen Rückschluss darauf zu, wie sich die Menge an CSEM insgesamt entwickelt hat. Schon die Konfiguration der Algorithmen hat großen Einfluss auf die Zahl der Verdachtsmeldungen. Im Übrigen zeigt der Anstieg, dass sich die Zirkulation von CSEM mithilfe einer Chatkontrolle nicht in den Griff bekommen lässt.

4. “Europa ist die globale Drehscheibe für dem Großteil des Materials.”

7% der weltweiten Verdachtsmeldungen von NCMEC gehen an die Europäische Union. Im Übrigen melden europäische Strafverfolgungsbehörden wie Europol und BKA wissentlich Missbrauchsmaterial nicht den Speicherdiensten zur Entfernung, so dass die Menge des hier gespeicherten Materials nicht sinken kann.

5. “Eine von Europol unterstützte Untersuchung, die auf der Meldung eines Online-Diensteanbieters beruhte, führte zur Rettung von 146 Kindern weltweit, wobei über 100 Verdächtige in der gesamten EU identifiziert wurden.”

Der Bericht wurde von einem Anbieter von Cloud-Speichern und nicht von einem Kommunikationsdienstleister erstellt. Zur Durchleuchtung von Cloudspeichern ist es nicht notwendig, die Überwachung der Kommunikation aller Menschen vorzuschreiben. Wenn man die Täter von Online-Verbrechen im Zusammenhang mit Kindesmissbrauchsmaterial erwischen möchte, sollte man sogenannte Honeypots und andere Methoden verwenden, die nicht die Überwachung der Kommunikation der gesamten Bevölkerung erfordern.

6. „Die bestehenden Möglichkeiten zur Aufdeckung entsprechender Inhalte werden nicht mehr zur Verfügung stehen, wenn die gegenwärtige Übergangslösung ausläuft.“

Anbieter von Speicherdiensten (Filehoster, Clouds) und von sozialen Medien dürfen auch nach Auslaufen der ePrivacy-Ausnahmeverordnung weiter scannen. Für Anbieter von Kommunikationsdiensten könnte die Ausnahmeverordnung zur freiwilligen Chatkontrolle verlängert werden, ohne dass sämtliche Anbieter zur Durchsuchung verpflichtet werden müssten.

7. Metaphern: Die Chatkontrolle ist “wie ein Spam-Filter” / “wie ein Magnet, der nach einer Nadel im Heuhaufen sucht: der Magnet sieht das Heu nicht.” / “wie ein Polizeihund, der Briefe erschnüffelt: er hat keine Ahnung, was drin ist”. Der Inhalt Ihrer Kommunikation wird von niemandem eingesehen, wenn es keinen Treffer gibt. “Die Erkennung zu Zwecken der Cybersicherheit findet bereits statt, wie z. B. die Erkennung von Links in WhatsApp” oder Spam-Filtern.

Malware- und Spamfilter geben den Inhalt privater Kommunikation nicht an Dritte weiter und führen nicht dazu, dass unschuldige Menschen angezeigt werden. Sie führen nicht zur Löschung oder langfristigen Sperrung von Profilen in sozialen Medien oder von Online-Diensten.

8. “Was die Erkennung neues Missbrauchsmaterials im Netz betrifft, so liegt die Trefferquote deutlich über 90 %. … Einige der bestehenden Technologien zur Erkennung von Grooming (wie die von Microsoft) haben eine “Genauigkeitsrate” von 88%, vor der menschlichen Überprüfung.”

Bei der unüberschaubaren Anzahl von Nachrichten führt selbst eine geringe Fehlerquote zu unzähligen Falschmeldungen, die die Zahl der richtigen Meldungen bei weitem übersteigen können. Selbst bei einer Trefferquote von 99 % würde dies bedeuten, dass von den 100 Milliarden Nachrichten, die täglich allein über Whatsapp verschickt werden, 1 Milliarde (d. h. 1.000.000.000) falsch positive Meldungen überprüft werden müssten. Und das jeden Tag und nur auf einer einzigen Plattform. Der “menschliche Überprüfungsaufwand” für die Strafverfolgungsbehörden wäre immens, während der Rückstau und die Überlastung der Ressourcen bereits gegen sie arbeiten.

Unabhängig davon hat eine FOI-Anfrage des ehemaligen Europaabgeordneten Felix Reda die Tatsache aufgedeckt, dass diese Behauptungen über die Genauigkeit von der Industrie stammen – von denjenigen, die ein persönliches Interesse an diesen Behauptungen haben, weil sie Ihnen die Erkennungstechnologie verkaufen wollen (Thorn, Microsoft). Sie weigern sich, ihre Technologie einer unabhängigen Prüfung zu unterziehen, und wir sollten ihre Behauptungen nicht für bare Münze nehmen.

Die Bewertung der EU von Instrumenten zur Aufdeckung von Kindesmissbrauch basiert lediglich auf Industrieangaben, die für bare Münze genommen werden.