Change language: Deutsch

Chatkontrolle

🚹 EU-Rat will Donnerstag, 20. Juni ĂŒber die Chatkontrolle abstimmen! 🚹

Kontaktiere jetzt deine Regierung; wie das geht erklÀre ich in diesem Blogartikel.

Am 20. Juni soll die Chatkontrolle durchgedrĂŒckt werden. Jetzt sind wir alle gefragt, um die anlasslose MassenĂŒberwachung und den Angriff auf verschlĂŒsselte Kommunikation zu stoppen!

đŸ‡«đŸ‡· Französisch: Traduction du dossier Chat Control 2.0 
🇾đŸ‡Ș Schwedisch: Chat Control 2.0
đŸ‡łđŸ‡± NiederlĂ€ndisch: Chatcontrole

Die Abschaffung des Digitalen Briefgeheimnisses

Die EU will es Chat- und Messenger-Providern vorschreiben, private Chats, Nachrichten und E-Mails massenhaft, anlass- und unterschiedslos auf verdĂ€chtige Inhalte durchsuchen. Die BegrĂŒndung: Strafverfolgung von Kinderpornographie. Die Konsequenz: Eine nie dagewesene MassenĂŒberwachung durch vollautomatisierte Echtzeit-Chatkontrolle und damit die Abschaffung des digitalen Briefgeheimnisses.

Weitere Konsequenzen des Gesetzentwurfs zur Chatkontrolle sind unwirksame Netzsperren-Zensur, die Durchleuchtung persönlicher Cloudspeicher einschließlich privater Fotos, durch verpflichtende AltersĂŒberprĂŒfung das Ende anonymer Kommunikation, durch Appstore-Zensur das Ende sicherer Messengerapps und die Bevormundung Jugendlicher.

Freiwillige Chatkontrolle 1.0

Am 6. Juli 2021 hatte bereits eine Mehrheit der Abgeordneten des EuropĂ€ische Parlaments dem freiwilligen Einsatz der Chatkontrolle zugestimmt (Chatkontrolle 1.0), wovon bisher nur unverschlĂŒsselte US-Kommunikationsdienste wie GMail, Facebook/Instagram Messenger, Skype, Snapchat, iCloud E-Mail oder X-Box Gebrauch machen (Übersicht hier).

Verpflichtende Chatkontrolle 2.0 auf jedem Smartphone droht

Die EuropĂ€ische Kommission hat am 11. Mai 2022 eine Folgeverordnung zum verpflichtenden Einsatz der Chatkontrolle durch alle Anbieter vorgestellt (Chatkontrolle 2.0). Infolge der kĂŒnftig verpflichtenden Chatkontrolle erwartet die EU-Kommission einen Anstieg der Berichte aus Chatkontrollen um 354%. Eine öffentliche Konsultation der Kommission zu diesem Vorhaben hatte ergeben, dass die Mehrheit der Befragten BĂŒrger:innen und Interessengruppen eine Verpflichtung zum Einsatz der verdachtslosen Nachrichten- und Chatkontrolle ablehnt. Über 80% der Befragten sprachen sich gegen eine Anwendung auf Ende-zu-Ende verschlĂŒsselte Kommunikation aus.

Das Parlament hat sich 2023 fast einstimmig gegen eine verdachtslose Chatkontrolle positioniert. Nachdem sich im EU-Rat die BefĂŒrworter und Gegner einer verpflichtenden Chatkontrolle unversöhnlich gegenĂŒberstehen und eine gemeinsame Position nicht absehbar ist, hat die EU-Kommission im November 2023 eine VerlĂ€ngerung der freiwilligen Chatkontrolle 1.0 um zwei Jahre vorgeschlagen – siehe Zeitplan und Dokumente. Ein Missbrauchsbetroffener und der Piraten-Europaabgeordnete Patrick Breyer klagen gegen die eigenmĂ€chtige Chatkontrolle 1.0 durch US-Internetkonzerne.

Video: Kurz gesagt: Wie funktioniert die Chatkontrolle? Was bedeutet sie fĂŒr Jugendliche?

Video: Chatkontrolle – Es ist noch nicht vorbei. Vortrag auf dem Chaos Computer Congress am 29.12.2023 mit Patrick Breyer, khaleesi (CCC) und Ulrich Kelber (Bundesdatenschutzbeauftragter)

Der Gesetzentwurf zur Chatkontrolle 2.0

Was konkret im Entwurf vorgesehen ist:

Chatkontrolle-Gesetzentwurf der EU-KommissionKonsequenzenPosition des EU-ParlamentsPosition des Rates (Entwurf)
Vorgesehen ist die Chatkontrolle, Netzsperren, verpflichtende Altersverifikation fĂŒr Nachrichten und Chats, Altersverifikation und Ausschluss MinderjĂ€hriger von der Installation vieler Apps  keine Chatkontrolle, Netzsperren optional, keine verpflichtende Altersverifikation fĂŒr Nachrichten und Chats, kein genereller Ausschluss MinderjĂ€hriger von der Installation vieler Apps wie Kommission
Alle Dienste, die normalerweise gegen Entgelt erbracht werden (einschließlich werbefinanzierter Dienste), fallen in den Anwendungsbereich, ohne MindestgrĂ¶ĂŸe, Mindestnutzerzahl usw. Nur nicht-kommerzielle Dienste, die nicht werbefinanziert sind, wie z. B. vielfach Open-Source-Software, sind ausgenommenwie Kommissionwie Kommission
Auch außerhalb der EU niedergelassene Anbieter sind verpflichtet, die Verordnung umzusetzenSiehe Artikel 33wie Kommissionwie Kommission
Als Kommunikationsdienste betroffen sind u.a. Telefonie, E-Mail, Messenger, Chats (auch als Teil von Spielen, auf Datingportalen usw.), VideokonferenzenNachrichten, Bilder, Videos und Sprachaufzeichnungen (z.B. Video-Meetings, Sprachnachichten, Telefonaten) mĂŒssten durchsucht werdenTelefonie ausgeschlossen, kein Scannen von Nachrichtentexten, betroffen sind E-Mail, Messenger, Chats, Videokonferenzenwie Kommission
Ende-zu-Ende verschlĂŒsselte Messenger sind nicht ausgenommenDie Anbieter mĂŒssen Nachrichten auf jedem Smartphone durchsuchen (client-side scanning) und ggf. unverschlĂŒsselt ausleiten. Das zerstört das Vertrauen in sichere VerschlĂŒsselung und erzwingt eine HintertĂŒr, die eine Überwachung bisher sicher verschlĂŒsselter Kommunikation auch fĂŒr viele andere Zwecke ermöglicht.Ende-zu-Ende verschlĂŒsselte Messenger sind ausgenommenwie Kommission
Als Hostingdienste betroffen sind u.a. Webhoster, soziale Medien, Video-Streamingdienste, Filehoster und ClouddiensteAuch persönliche Speicher, die nicht geteilt werden, wie Apples iCloud sind betroffenwie Kommissionwie Kommission
Zur verdachtslosen und flĂ€chendeckenden Durchsuchung des Inhalts persönlicher Kommunikation und gespeicherter Daten (Chatkontrolle) verpflichtet werden Dienste, die wahrscheinlich auch fĂŒr sexuell ausbeutende Darstellungen oder zur Kontaktaufnahme mit Kindern/Jugendlichen genutzt werdenDa vermutlich jeder Dienst auch fĂŒr illegale Zwecke genutzt wird, werden sĂ€mtliche Dienste zur Chatkontrolle verpflichtetDurchsuchung nur mit richterlichem Beschluss und beschrĂ€nkt auf Personen oder Personengruppen, die im Verdacht stehen, mit Kinderpornografie und Missbrauchsdarstellungen in Verbindung zu stehenwie Kommission
Die Behörde des Sitzlandes ist zur Anordnung der Chatkontrolle verpflichtetEs besteht kein Ermessenwie Kommissionwie Kommission
Bei der Chatkontrolle muss nach bekannten Bildern und Videos gesucht werden, verdĂ€chtige Nachrichten/Dateien werden der Polizei angezeigtDiese Hashverfahren fĂŒhren laut Schweizer Bundespolizei bisher dazu, dass 80% der Meldungen strafrechtlich irrelevant sind. Auch in Irland wurden nur 20% der im Jahr 2020 eingegangenen NCMEC-Meldungen als tatsĂ€chliche “Kinderpornografie” (“CSAM”) bestĂ€tigt. In Deutschland liegt der prozentuale Anteil der Meldungen, die letztlich in Ermittlungsverfahren mĂŒnden, ĂŒber die Jahre relativ konstant im einstelligen Bereich (unter 10%). GrĂ¶ĂŸtenteils werden Unschuldige verdĂ€chtigt und teils intime Nacktfotos oder Chats offenbart.wie Kommissionwie Kommission
Bei der Chatkontrolle muss auch nach unbekannten Bildern und Videos gesucht werden, verdĂ€chtige Nachrichten/Dateien werden der Polizei angezeigtMaschinell nach unbekannten Missbrauchsdarstellungen zu suchen ist ein experimentelles Verfahren unter Verwendung maschinellen Lernens („kĂŒnstliche Intelligenz“). Die Algorithmen sind Öffentlichkeit und Wissenschaft nicht zugĂ€nglich, auch der Entwurf enthĂ€lt keine Offenlegungspflicht. Die Fehlerquote ist unbekannt und wird durch den Verordnungsentwurf nicht begrenzt, vermutlich fĂŒhren diese Verfahren zu massenhaft Falschmeldungen. Der Entwurf erlaubt es Providern, Treffermeldungen ungeprĂŒft an die Polizei weiterzugeben.wie KommissionzunĂ€chst ausgeschlossen
Bei der Chatkontrolle muss im Nachrichtentext maschinell nach möglichen Hinweisen auf Kontaktaufnahmen zu Kindern und Jugendlichen gesucht werden, verdĂ€chtige Nachrichten werden der Polizei angezeigtMaschinell nach Anbahnungsversuchen zu suchen ist ein experimentelles Verfahren unter Verwendung maschinellen Lernens („kĂŒnstliche Intelligenz“). Die Algorithmen sind Öffentlichkeit und Wissenschaft nicht zugĂ€nglich, auch der Entwurf enthĂ€lt keine Offenlegungspflicht. Die Fehlerquote ist unbekannt und wird durch den Verordnungsentwurf nicht begrenzt, vermutlich fĂŒhren diese Verfahren zu massenhaft Falschmeldungen.ausgeschlossenausgeschlossen
Kommunikationsdienste, die fĂŒr Anbahnungsversuche missbraucht werden können (also alle), mĂŒssen das Alter ihrer Nutzer ĂŒberprĂŒfenIn der Praxis erfolgt eine AltersprĂŒfung mittels vollstĂ€ndiger Identifizierung, so dass eine anonyme Kommunikation per E-Mail, Messenger usw. verboten wird. Auf den Schutz der AnonymitĂ€t sind Whistleblower, Menschenrechtsverteidiger und marginalisierte Gruppen angewiesen.keine verpflichtende AltersprĂŒfungwie Kommission
Appstores mĂŒssen das Alter ihrer Nutzer ĂŒberprĂŒfen und Kindern/Jugendlichen unter 17 die Installation von Apps verbieten, die fĂŒr Anbahnungszwecke missbraucht werden könnenAllen Kommunikationsdienste wie Messenger, Datingapps, Spiele können auch zur Anbahnung von Kontakten missbraucht werden (siehe Umfrage) und wĂ€ren fĂŒr Kinder/Jugendliche verboten. Und die AltersĂŒberprĂŒfung liefe auf eine Identifikationspflicht gegenĂŒber Anbietern von Appstores heraus.Fordert die App eine Einwilligung in die Verarbeitung persönlicher Daten, mĂŒssen die großen Appstores (Google, Apple) vernĂŒnftige Anstrengungen unternehmen, um bei Jugendlichen bis 16 die Einwilligung der Eltern zu ĂŒberprĂŒfenwie Kommission
Internet-Zugangsanbieter mĂŒssen verpflichtet werden, den Zugang zu verbotenen und nicht zu löschenden Bildern und Videos außerhalb der EU mittels Netzsperren (URL-Sperren) zu blockierenNetzsperren sind technisch unwirksam und leicht zu umgehen, außerdem bauen sie eine technische Zensurinfrastruktur aufNetzsperren KÖNNEN von Gerichten verhĂ€ngt werdenwie Kommission

Verhandlungsmandat des EuropÀischen Parlaments

Im November 2023 hat das EuropĂ€ische Parlament fast einstimmig ein gemeinsames Verhandlungsmandat zum Gesetzentwurf beschlossen. Mit dem Europaabgeordneten der Piratenpartei Dr. Patrick Breyer saß der entschiedenste Gegner einer Chatkontrolle mit am Verhandlungstisch. Das Ergebnis: Das Parlament will dem extremen Entwurf der EU-Kommission folgende GiftzĂ€hne ziehen:

  1. Wir wollen das digitale Briefgeheimnis retten und die grundrechtswidrigen PlĂ€ne flĂ€chendeckender verdachtsloser Chatkontrollen stoppen. Auch die aktuelle freiwillige Chatkontrolle privater Nachrichten (nicht sozialer Netzwerke) durch US-Internetkonzerne soll auslaufen. Eine zielgerichtete TelekommunikationsĂŒberwachung und -durchsuchung soll nur auf richterliche Anordnung und nur beschrĂ€nkt auf Personen oder Personengruppen zugelassen, die im Verdacht stehen, mit Kinderpornografie und Missbrauchsdarstellungen in Verbindung zu stehen.
  2. Wir wollen das Vertrauen in sichere Ende-zu-Ende-VerschlĂŒsselung retten. Das sogenannte client-side scanning, also den Einbau von Überwachungsfunktionen und SicherheitslĂŒcken in unsere Smartphones, schließen wir klar aus.
  3. Wir wollen das Recht auf anonyme Kommunikation garantieren und eine Altersnachweispflicht fĂŒr Benutzer von Kommunikationsdiensten ausschließen. Whistleblower könnten so weiterhin MissstĂ€nde anonym leaken, ohne Ausweis oder Gesicht vorzeigen zu mĂŒssen.
  4. Löschen statt sperren: Netzsperren sollen nicht verhĂ€ngt werden mĂŒssen. Auf keinen Fall sollen zulĂ€ssige Inhalte als „Kollateralschaden“ mitgesperrt werden.
  5. Wir wollen keine App-Verbote fĂŒr junge Menschen: Appstores sollen junge Menschen unter 17 nicht wie geplant ‘zu ihrem eigenen Schutz’’’ an der Installation von Messengerapps, sozialen Netzwerken und Spielen hindern mĂŒssen. Es bleibt bei der Datenschutz-Grundverordnung.

Junge Menschen und Missbrauchsopfer wollen wir viel wirksamer schĂŒtzen als im Entwurf der EU-Kommission vorgesehen:

  1. Security by design: Um junge Menschen vor sexueller Ansprache und Ausbeutung zu schĂŒtzen, sollen Internetdienste und Apps sicher ausgestaltet und voreingestellt werden. Es muss möglich sein, andere Nutzer zu blockieren und zu melden. Nur auf Wunsch des Nutzers soll dieser öffentlich ansprechbar sein und Nachrichten oder Bilder anderer Nutzer sehen. Vor dem Verschicken von Kontaktdaten oder Nacktbildern wird rĂŒckgefragt. Potenzielle TĂ€ter und Opfer werden bei konkretem Anlass gewarnt, beispielsweise wenn versucht wird anhand bestimmter Suchworte nach Missbrauchsmaterial zu suchen. Öffentliche Chats sind bei hohem Grooming-Risiko zu moderieren.
  2. Das Netz sĂ€ubern: Um das Netz von Kinderpornografie und Missbrauchsdarstellungen zu sĂ€ubern, soll das neue EU-Kinderschutzzentrum proaktiv öffentlich abrufbare Internetinhalte automatisiert nach bekannten Missbrauchsdarstellungen durchsuchen. Dieses Crawling ist auch im Darknet einsetzbar und dadurch effektiver als PrivatĂŒberwachungsmaßnahmen der Anbieter.
  3. Löschpflicht: Anbieter, die auf eindeutig illegales Material aufmerksam werden, sollen – anders als von der EU-Kommission vorgeschlagen – zur Löschung verpflichtet werden. Strafverfolger, die auf illegales Material aufmerksam werden, sollen dies dem Anbieter zur Löschung melden mĂŒssen. Damit reagieren wir auf den Fall der Darknetplattform Boystown, bei der schlimmstes Missbrauchsmaterial mit Wissen des Bundeskriminalamts monatelang weiter verbreitet wurde.

Achtung: Dies ist nur das Verhandlungsmandat des Parlaments, das sich normalerweise nur zum Teil durchsetzt. Die meisten EU-Regierungen unterstĂŒtzen weiterhin den ursprĂŒnglichen Vorschlag der EU-Kommission ohne wesentliche Abstriche. Viele andere Regierungen verhindern aber eine solche Positionierung (sog. SperrminoritĂ€t). Sobald sich die EU-Regierungen im Rat verstĂ€ndigt haben, werden Parlament, Rat und Kommission die sogenannten Trilog-Verhandlungen ĂŒber die endgĂŒltige Fassung der Verordnung aufnehmen. Patrick Breyer bzw. mit UnterstĂŒtzung der WĂ€hler:innen seine Nachfolgerin Anja Hirschel von der Piratenpartei werden wieder mit am Verhandlungstisch sitzen, um gegen die Chatkontrolle zu kĂ€mpfen.

Position der EU-Regierungen im Rat

Die meisten EU-Regierungen unterstĂŒtzen weiterhin den ursprĂŒnglichen extremen Vorschlag der EU-Kommission ohne wesentliche Abstriche. Viele andere Regierungen verhindern aber eine solche Positionierung (sog. SperrminoritĂ€t), so dass eine Positionierung schon zweimal gescheitert ist.

Ausweislich von Statements der EU-Innenminister am 19. Oktober lÀsst sich die Position der meisten EU-LÀnder ungefÀhr so zusammenfassen:

FĂŒr die Chatkontrolle:

  • Irland
  • Italien
  • Zypern
  • Litauen
  • Bulgarien
  • Lettland
  • RumĂ€nien
  • Litauen
  • Ungarn
  • Malta
  • Griechenland

Fordert Änderungen:

  • Estland
  • Deutschland
  • Österreich
  • Schweden
  • Niederlande
  • Belgien

Unklar:

  • Frankreich
  • DĂ€nemark
  • Finnland
  • Slovenien

Position der Bundesregierung

Positiv:

  • Kein client-side scanning, d.h. Ende-zu-Ende-verschlĂŒsselte Nachrichten sollen von der Nachrichten- und Chatkontrolle ausgenommen werden. Das betrifft Whatsapp, Signal, Threema.
  • Keine freiwillige, eigenmĂ€chtige Nachrichten- und Chatkontrolle durch die Anbieter ohne Anordnung mehr, wie zurzeit auf diversen US-Diensten wie Facebook/Instagram Messenger, Gmail, outlook.com praktiziert.
  • Kein Scannen von Audiokommunikation und Telefonanrufen.

Negativ:

  • Keine Ablehnung der server-seitigen Chatkontrolle jeglicher unverschlĂŒsselter privater Nachrichten. Das betrifft E-Mails, Chats (z.B. Dating-Apps) und nicht Ende-zu-Ende-verschlĂŒsselte Messenger wie Facebook Messenger, Instagram, Telegram.
  • Keine Ablehnung des server-seitigen Scannens privater Videoanrufe und privater Cloudspeicher, z.B. der Sicherungskopie des privaten Smartphones.
  • Keine Ablehnung unwirksamer Netzsperren.
  • Keine Ablehnung des Ausschlusses von Menschen unter 17 Jahren von der Installation von Apps mit Grooming-Risiko, also de facto allen Chat- und Messengerapps wie Whatsapp
  • Keine Ablehnung verpflichtender Altersverifikation, die anonyme Kommunikation de facto unmöglich macht.

Quelle

Videos zur Chatkontrolle sind in dieser Playlist hinterlegt.

Die Verhandlungen: Zeitschiene und Termine

2020: Die europÀische Kommission schlÀgt ein zeitlich begrenztes Gesetz vor welches die Chatkontrolle erlaubt

Die EuropĂ€ische Kommission hat 2020 ein Gesetz auf den Weg gebracht, das es erlaubt, alle privaten Chats, Nachrichten und E-Mails verdachtslos und flĂ€chendeckend auf verbotene Darstellungen MinderjĂ€hriger und Anbahnungsversuche (Kontaktaufnahme zu MinderjĂ€hrigen) zu durchsuchen. Das heißt: Facebook Messenger, Gmail & Co dĂŒrfen jede Kommunikation auf verdĂ€chtiges Text- und Bildmaterial scannen. Und zwar vollautomatisiert, durch den Einsatz von sog. ‘KĂŒnstlicher Intelligenz’ – ohne, dass ein Verdacht vorliegen muss. Meldet ein Algorithmus einen Verdachtsfall, werden alle Nachrichteninhalte und Kontaktdaten automatisch und ohne menschliche PrĂŒfung an eine private Verteilstelle und weiter an Polizeibehörden weltweit geleitet. Die Betroffenen sollen nie davon erfahren.

6. Juli 2021: Das europĂ€ische Parlament stimmt fĂŒr die EinfĂŒhrung der Chatkontrolle

Das EuropĂ€ische Parlament hat fĂŒr die ePrivacy-Ausnahmeregelung gestimmt, die eine freiwillige Chat-Kontrolle fĂŒr Messaging- und E-Mail-Anbieter ermöglicht. Infolgedessen fĂŒhren einige US-amerikanische Anbieter von Diensten wie Gmail und Outlook.com bereits solche automatisierten Messaging- und Chat-Kontrollen durch.

9. Mai 2022: Mitglied des EuropÀischen Parlaments Patrick Breyer reicht eine Klage gegen das US-Unternehmen Meta ein

Nach einem Urteil des EuropĂ€ischen Gerichtshofs ist die dauerhafte und flĂ€chendeckende automatisierte Analyse privater Kommunikation grundrechtswidrig und verboten (Abs. 177). Die ehemalige EuGH-Richterin, Prof. Dr. Ninon Colneric, kommt in ihrem Rechtsgutachten (englisch) zu dem Ergebnis, dass die EU-Gesetzesvorhaben zur Chatkontrolle nicht im Einklang mit der Rechtsprechung des EuropĂ€ischen Gerichtshofs stehen und die Grundrechte aller EU-BĂŒrger*innen auf Achtung der PrivatsphĂ€re, auf Datenschutz und auf freie MeinungsĂ€ußerung verletzen. Auch der Wissenschaftliche Dienst des Bundestags stellt fest: “Die latente Dauergefahr der Begehung von (auch schwerwiegenden) Straftaten dĂŒrfte daher zur Rechtfertigung einer stĂ€ndigen und umfassenden automatisierten Analyse wohl nicht genĂŒgen.” Der Europaabgeordnete Patrick Breyer hat aus diesem Grund das US-Unternehmen Meta wegen der freiwillig praktizierten Chatkontrolle verklagt.

11. Mai 2022: Die Kommission stellt einen Gesetzesentwurf vor, der zur Chatkontrolle verpflichtet

Die EU-Kommission will mit einem zweiten Gesetz nun alle Anbieter zum Einsatz dieser Technologie verpflichten. Dabei zeigt eine im MĂ€rz 2021 durchgefĂŒhrte Umfrage, dass die Mehrheit der EuropĂ€erInnen den Einsatz der Chatkontrolle entschieden ablehnt. (Detaillierte Umfrageergebnisse hier)

Die Akteure

Berichterstatter und Schattenberichterstatter

EVPS&DRenewDie GrĂŒnen/ EFADie LinkeEKRID
LIBEJavier ZarzalejosPaul TangHilde VautmansPatrick BreyerCornelia ErnstVincenzo SofoAnnalisa Tardino
IMCOMarion WalsmannAlex Aguis SalibaCatharina RinzemaMarcel KolajaKateƙina KonečnáAdam BielanJean-Lin Lacapelle
CULTAsim AdemovMarcos Ros SempereLucia Duris NicolsonovaMarcel KolajaNiyazi KizilyĂŒrekElzbieta KrukCatherine Griset
FEMMEleni StavrouHelĂ©ne FritzonKaren MelchiorPierrette Herzberger-FofanaSandra PereiraJadwiga Wiƛniewska
BUDGNiclas HerbstNils UơakovsNils TorvaldsAlexandra GeeseSilvia ModigBogdan RzoƄcaJoachim Kuhs

Was hat das Ganze mit dir zu tun?

Nachrichten- und Chatkontrolle:

  • Alle deine Chats und E-Mails werden automatisch auf verdĂ€chtige Inhalte durchsucht. Nichts ist mehr vertraulich oder geheim. Kein Gericht muss diese Durchsuchung anordnen. Sie passiert immer und automatisch.
  • Falls die MaschinenprĂŒfung anschlĂ€gt, werden deine privaten Fotos und Videos von Mitarbeitern von internationalen Konzernen und Polizeibehörden angesehen. Auch intime Nacktbilder von dir werden dann von unbekannten Menschen auf der ganzen Welt gesichtet, in deren HĂ€nde sie nicht sicher sind.
  • Flirts und Sexting werden mitgelesen, denn Texterkennungsfilter schlagen besonders hĂ€ufig auf solche intimen Chats an.
  • Du kannst unschuldig in den Verdacht geraten, Material von Kindesmissbrauch zu verschicken. Denn die Bilderkennungsfilter sind bekannt dafĂŒr, dass sie auch auf völlig legale Urlaubsfotos mit Kindern am Strand anschlagen. 80% aller maschinell gemeldeten VerdachtsfĂ€lle erweisen sich als unbegrĂŒndet, so die Schweizer Bundespolizei. Auch in Irland wurden nur 20% der im Jahr 2020 eingegangenen NCMEC-Meldungen als tatsĂ€chliche “Kinderpornografie” (“CSAM”) bestĂ€tigt. In Deutschland liegt der prozentuale Anteil der Meldungen, die letztlich in Ermittlungsverfahren mĂŒnden, ĂŒber die Jahre relativ konstant im einstelligen Bereich (unter 10%). GrĂ¶ĂŸtenteils werden Unschuldige verdĂ€chtigt und teils intime Nacktfotos oder Chats offenbart. Knapp 40% aller in Deutschland wegen “Kinderpornografie” von der Polizei verfolgter Personen sind MinderjĂ€hrige.

“Die Trefferquote ist dabei sehr tief: «2020 trafen bei uns rund 8000 Meldungen ein», sagt Fedpol-Sprecher Florian NĂ€f. «Strafrechtlich relevant waren davon zirka 14 Prozent.»”

Quelle: Sonntagszeitung vom 14.03.2021, Seite 9
2021 waren 20% der Meldungen strafrechtlich relevant

“Und auch hierzulande bekommen die Ermittler von Google jede Menge falsche Alarmmeldungen aufgetischt, ergaben die Recherchen der WELT AM SONNTAG schon 2021: Laut Experten des Landeskriminalamts NRW lag die Fehlerquote in der Vergangenheit bei etwa 40 Prozent.”

Quelle: Die Welt, 23.08.2022
  • Bei deiner nĂ€chsten Auslandsreise könnten dich große Probleme erwarten. Verdachtsmeldungen werden unkontrollierbar an Staaten wie die USA, wo es keinerlei Datenschutz gibt, weitergeleitet – mit unabsehbaren Konsequenzen.
  • Geheimdienste und Hacker können einfacher Zugriff auf deine privaten Chats und E-Mails erhalten. Denn sobald sichere VerschlĂŒsselung fĂŒr den Einsatz der Chatkontrolle ausgehebelt wird, ist die TĂŒr offen zum massenhaften Auslesen deiner Nachrichten durch jeden, der die technischen Mittel dazu hat.
  • Das ist nur der Anfang. Ist die Technologie zur Nachrichten- und Chatkontrolle einmal etabliert, kann sie spielend leicht auch fĂŒr andere Zwecke eingesetzt werden. Und wer garantiert, dass die VerdĂ€chtigungsmaschinen kĂŒnftig nicht auch unsere Smartphones und Laptops kontrollieren?

AltersprĂŒfung und App-Verbot unter 17:

  • Du kannst nicht mehr anonym E-Mail- oder Messenger-Konten einrichten oder anonym chatten, ohne dich ausweisen oder dein Gesicht zeigen zu mĂŒssen, wodurch du identifizierbar wirst und Datenlecks riskierst. Dies verhindert zum Beispiel sensible Chats zum Thema SexualitĂ€t im Schutz der AnonymitĂ€t, anonyme Pressekommunikation mit Quellen (z. B. Whistleblowern) sowie politische AktivitĂ€ten.
  • Unter 17 Jahren wirst du aus dem Appstore beispielsweise folgende Apps nicht mehr installieren können (BegrĂŒndung: Grooming-Gefahr): Messenger wie Whatsapp, Snapchat, Telegram oder Twitter, soziale Medien wie Instagram, TikTok oder Facebook, Spiele wie FIFA, Minecraft, GTA, Call of Duty, Roblox, Dating Apps, Videokonferenzen wie Zoom, Skype, Facetime.
  • Wenn du keinen Appstore nutzt, wird die Einhaltung des vom Anbieter festgesetzten Mindestalters ĂŒberprĂŒft werden. Wenn du nicht das von Whatsapp festgelegte Mindestalter von 16 Jahren erreichst, wirst du Whatsapp aufgrund der geplanten Altersverifizierung nicht mehr nutzen können; dasselbe gilt fĂŒr die Onlinefunktionen des Spiels FIFA 23. Wenn du unter 13 Jahre alt bist, kannst du TikTok, Snapchat oder Instagram nicht mehr nutzen.

Weitere Argumente gegen die Chatkontrolle


Was du gegen die Chatkontrolle unternehmen kannst

BefĂŒrchtest du, dass dieses Gesetz die Grundrechte massiv einschrĂ€nkt und der falsche Ansatz ist? Handele jetzt:

Rede darĂŒber! ErzĂ€hle anderen von den Gefahren der Chatkontrolle. DafĂŒr kannst du hier auf Sharepics und Videos zugreifen. Du kannst natĂŒrlich auch selbst Bilder und Videos erstellen.
Schaffe Aufmerksamkeit in den Sozialen Medien! Nutze dafĂŒr die Hashtags #Chatkontrolle und #digitalesBriefgeheimnis
Medienberichte anstoßen! Journalistinnen und Journalisten haben die freiwillige Nachrichten- und Chatkontrolle bisher kaum aufgegriffen. Wende dich direkt an Medienunternehmen und bitte sie, darĂŒber zu schreiben – online und offline.
Sprich mit deinen Anbietern! Vermeide Gmail, Facebook/Instagram Messenger, outlook.com, Snapchat und die Chatfunktion der X-Box, wo schon heute verdachtslos durchleuchtet wird. Frage deine E-Mail-, Messenger- und Chatanbieter, ob sie private Nachrichten verdachtslos nach verbotenen Inhalten durchsuchen oder dies planen.
Drucke und verteile Informationsflyer zur Chatkontrolle! Wir haben einen Flyer erstellt, der druckfertig hier runtergeladen werden kann.

Sharepics und Info-Grafiken fĂŒr dich zum Download und Teilen:

(Rechtsklick auf ein Bild und wĂ€hle “Bild speichern unter…” aus)

Bildbeschreibungen

Visualisierung der Ergebnisse einer Studie. Links eine Lupe mit einem Smartphone in der Mitte. Umrundet mit einem Ring der zu 80% gefĂŒllt ist. Rechts ein Textkasten mit dem Text: “80% der MinderjĂ€hrigen sind gegen ein automatisiertes Scannen ihrer Nachichten nach verdĂ€chtigen Inhalten”.

Visualisierung der Ergebnisse einer Studie. Links eine Lupe mit dem Text: “40% der Jugendlichen nutzen Kommunikations-Apps um legale intimie Fotos von sich zu versenden”. In einer kleinerer Lupe rechts unten steht: “Mit der #Chatkontrolle leitet die K.I. diese Fotos direkt weiter an die EU”. Rechts auf dem Bild sind Line-Art Menschen zu sehen, die linken zwei mit Zensurbalken.

Visualisierung der Ergebnisse einer Studie. Links ist ein Textkasten: “87% der Jugendlichen wĂŒrden sich unwohl fĂŒhlen ihre SexualitĂ€t zu erkunden oder politisch aktiv zu sein wenn Unternehmen oder die Polizei in der Lage wĂ€ren, ihre digitalen Unterhaltungen zu ĂŒberwachen.” Rechts davon eine Lupe im Hintergrund mit einem Lautsprecher in der Mitte.


Mythen entlarvt

Bei der erstmaligen PrÀsentation des Gesetzesentwurfs zur Chatkontrolle im Mai 2022 hatte die EU-Kommission das umstrittene Vorhaben mit verschiedenen Argumenten beworben. Im Folgenden werden diverse Behauptungen hinterfragt:

1. „Heutzutage werden Fotos und Videos, die den sexuellen Missbrauch von Kindern zeigen, im Internet massiv verbreitet. Im Jahr 2021 wurden beim US-amerikanischen National Centre for Missing and Exploited Children 29 Millionen FĂ€lle gemeldet.“

Im Zusammenhang mit der Chatkontrolle ausschließlich von Darstellungen sexuellen Kindesmissbrauchs zu reden, ist irrefĂŒhrend. Bei sexuell ausbeutenden Darstellungen MinderjĂ€hriger (child sexual exploitation material, CSEM) handelt es sich zwar oft um Aufnahmen sexualisierter Gewalt an MinderjĂ€hrigen (child sexual abuse material, CSAM). Eine internationale Arbeitsgruppe aus Kinderschutzinstitutionen weist aber darauf hin, dass zum strafbaren Material auch Aufnahmen sexueller Handlungen oder von Sexualorganen MinderjĂ€hriger zĂ€hlen, bei denen keine Gewalt angewendet wird oder auch keine andere Person beteiligt ist. Auch in Alltagssituationen entstandene Aufnahmen werden genannt wie ein Familienbild eines MĂ€dchens im Bikini oder nackt in den Stiefeln ihrer Mutter. Erfasst sind auch ohne Wissen der minderjĂ€hrigen Person angefertigte oder weitergegebene Aufnahmen. Zu strafbarem CSEM zĂ€hlen auch Comics, Zeichnungen, Manga/Anime und computergenerierte Darstellungen fiktionaler MinderjĂ€hriger. Schließlich gehören zu strafbaren Darstellungen auch selbst gemachte sexuelle Aufnahmen MinderjĂ€hriger etwa zur Weiterleitung an gleichaltrige Partner („Sexting“). Die Studie schlĂ€gt zur korrekten Umschreibung deshalb den Begriff „Darstellungen der sexualisierten Ausbeutung“ von MinderjĂ€hrigen vor. Strafbar sind dabei gleichermaßen Aufnahmen von Kindern (bis 14 Jahre) und von Jugendlichen (bis 18 Jahre).

2. “Allein im Jahr 2021 wurden weltweit 85 Millionen Bilder und Videos von sexuellem Kindesmissbrauch gemeldet.”

Es kursieren viele irrefĂŒhrende Angaben darĂŒber, wie das Ausmaß sexuell ausbeutender Darstellungen MinderjĂ€hriger (CSEM) beziffert werden kann. Die Zahl, mit der die EU-Kommission ihre PlĂ€ne verteidigt, stammt von der US-amerikanischen Nichtregierungsorganisation NCMEC (National Center for Missing and Exploited Children) und umfasst auch Duplikate, da CSEM mehrfach geteilt und oft nicht gelöscht wird. Ohne Duplikate verbleiben von den 85 Millionen gemeldeten Aufnahmen noch 22 Millionen einzigartige Aufnahmen.

75 Prozent aller NCMEC-Meldungen aus dem Jahr 2021 stammen von Meta (FB, Instagram, Whatsapp). Facebooks eigene interne Analyse besagt, dass “mehr als 90 Prozent von [CSEM auf Facebook im Jahr 2020] mit zuvor gemeldeten Inhalten identisch oder ihnen visuell Ă€hnlich waren. Und Kopien von nur sechs Videos waren fĂŒr mehr als die HĂ€lfte der kinderausbeutenden Inhalte verantwortlich”. Die viel zitierten Zahlen des NCMEC beschreiben also nicht wirklich das Ausmaß der Aufnahmen von sexualisierter Gewalt gegen Kinder im Internet. Sie beschreiben vielmehr, wie oft Facebook Kopien von bereits bekannten Aufnahmen entdeckt. Auch das ist relevant.

Nicht alle einzigartigen Aufnahmen, die der NCMEC gemeldet werden, zeigen Gewalt gegen Kinder. Die 85 Millionen von NCMEC gemeldeten Darstellungen beinhalten zum Beispiel auch einvernehmliches Sexting. Die Anzahl von Missbrauchsdarstellungen, die NCMEC im Jahr 2021 gemeldet wurden, betrug 1,4 Millionen.

7% der weltweiten Verdachtsmeldungen von NCMEC gehen an die EuropÀische Union.

DarĂŒber hinaus steigen selbst auf Facebook, wo die Chatkontrolle seit langem freiwillig eingesetzt wird, die Zahlen fĂŒr die Verbreitung von missbrĂ€uchlichem Material immer weiter an. Die Chatkontrolle ist somit keine Lösung.

Quelle: https://netzpolitik.org/2022/ncmec-zahlen-erklaert-das-raunen-vom-millionenfachen-missbrauch/

3. “64% Anstieg der Berichte ĂŒber bestĂ€tigten sexuellen Kindesmissbrauch im Jahr 2021 im Vergleich zum Vorjahr.“

Dass die Algorithmen zur freiwilligen Chatkontrolle großer US-Anbieter mehr CSEM gemeldet haben, lĂ€sst keinen RĂŒckschluss darauf zu, wie sich die Menge an CSEM insgesamt entwickelt hat. Schon die Konfiguration der Algorithmen hat großen Einfluss auf die Zahl der Verdachtsmeldungen. Im Übrigen zeigt der Anstieg, dass sich die Zirkulation von CSEM mithilfe einer Chatkontrolle nicht in den Griff bekommen lĂ€sst.

4. “Europa ist die globale Drehscheibe fĂŒr dem Großteil des Materials.”

7% der weltweiten Verdachtsmeldungen von NCMEC gehen an die EuropĂ€ische Union. Im Übrigen melden europĂ€ische Strafverfolgungsbehörden wie Europol und BKA wissentlich Missbrauchsmaterial nicht den Speicherdiensten zur Entfernung, so dass die Menge des hier gespeicherten Materials nicht sinken kann.

5. “Eine von Europol unterstĂŒtzte Untersuchung, die auf der Meldung eines Online-Diensteanbieters beruhte, fĂŒhrte zur Rettung von 146 Kindern weltweit, wobei ĂŒber 100 VerdĂ€chtige in der gesamten EU identifiziert wurden.”

Der Bericht wurde von einem Anbieter von Cloud-Speichern und nicht von einem Kommunikationsdienstleister erstellt. Zur Durchleuchtung von Cloudspeichern ist es nicht notwendig, die Überwachung der Kommunikation aller Menschen vorzuschreiben. Wenn man die TĂ€ter von Online-Verbrechen im Zusammenhang mit Kindesmissbrauchsmaterial erwischen möchte, sollte man sogenannte Honeypots und andere Methoden verwenden, die nicht die Überwachung der Kommunikation der gesamten Bevölkerung erfordern.

6. „Die bestehenden Möglichkeiten zur Aufdeckung entsprechender Inhalte werden nicht mehr zur VerfĂŒgung stehen, wenn die gegenwĂ€rtige Übergangslösung auslĂ€uft.“

Anbieter von Speicherdiensten (Filehoster, Clouds) und von sozialen Medien dĂŒrfen auch nach Auslaufen der ePrivacy-Ausnahmeverordnung weiter scannen. FĂŒr Anbieter von Kommunikationsdiensten könnte die Ausnahmeverordnung zur freiwilligen Chatkontrolle verlĂ€ngert werden, ohne dass sĂ€mtliche Anbieter zur Durchsuchung verpflichtet werden mĂŒssten.

7. Metaphern: Die Chatkontrolle ist “wie ein Spam-Filter” / “wie ein Magnet, der nach einer Nadel im Heuhaufen sucht: der Magnet sieht das Heu nicht.” / “wie ein Polizeihund, der Briefe erschnĂŒffelt: er hat keine Ahnung, was drin ist”. Der Inhalt Ihrer Kommunikation wird von niemandem eingesehen, wenn es keinen Treffer gibt. “Die Erkennung zu Zwecken der Cybersicherheit findet bereits statt, wie z. B. die Erkennung von Links in WhatsApp” oder Spam-Filtern.

Malware- und Spamfilter geben den Inhalt privater Kommunikation nicht an Dritte weiter und fĂŒhren nicht dazu, dass unschuldige Menschen angezeigt werden. Sie fĂŒhren nicht zur Löschung oder langfristigen Sperrung von Profilen in sozialen Medien oder von Online-Diensten.

8. “Was die Erkennung neues Missbrauchsmaterials im Netz betrifft, so liegt die Trefferquote deutlich ĂŒber 90 %. 
 Einige der bestehenden Technologien zur Erkennung von Grooming (wie die von Microsoft) haben eine “Genauigkeitsrate” von 88%, vor der menschlichen ÜberprĂŒfung.”

Bei der unĂŒberschaubaren Anzahl von Nachrichten fĂŒhrt selbst eine geringe Fehlerquote zu unzĂ€hligen Falschmeldungen, die die Zahl der richtigen Meldungen bei weitem ĂŒbersteigen können. Selbst bei einer Trefferquote von 99 % wĂŒrde dies bedeuten, dass von den 100 Milliarden Nachrichten, die tĂ€glich allein ĂŒber Whatsapp verschickt werden, 1 Milliarde (d. h. 1.000.000.000) falsch positive Meldungen ĂŒberprĂŒft werden mĂŒssten. Und das jeden Tag und nur auf einer einzigen Plattform. Der “menschliche ÜberprĂŒfungsaufwand” fĂŒr die Strafverfolgungsbehörden wĂ€re immens, wĂ€hrend der RĂŒckstau und die Überlastung der Ressourcen bereits gegen sie arbeiten.

UnabhĂ€ngig davon hat eine FOI-Anfrage des ehemaligen Europaabgeordneten Felix Reda die Tatsache aufgedeckt, dass diese Behauptungen ĂŒber die Genauigkeit von der Industrie stammen – von denjenigen, die ein persönliches Interesse an diesen Behauptungen haben, weil sie Ihnen die Erkennungstechnologie verkaufen wollen (Thorn, Microsoft). Sie weigern sich, ihre Technologie einer unabhĂ€ngigen PrĂŒfung zu unterziehen, und wir sollten ihre Behauptungen nicht fĂŒr bare MĂŒnze nehmen.

Die Bewertung der EU von Instrumenten zur Aufdeckung von Kindesmissbrauch basiert lediglich auf Industrieangaben, die fĂŒr bare MĂŒnze genommen werden.

Weitere entlarvten Mythen und Argumentationshilfen hat D64 Zentrum fĂŒr Digitalen Fortschritt zusammengestellt und kann man hier finden.


WeiterfĂŒhrende Informationen und Argumente gegen die Nachrichten- und Chatkontrolle

MassenĂŒberwachung ist der falsche Weg im Kampf gegen “Kinderpornografie” und sexuell ausbeutende Darstellungen

  • Das Scannen privater Nachrichten und Chats dĂ€mmt die Verbreitung ausbeutender Darstellungen nicht ein. Facebook beispielsweise praktiziert die Chatkontrolle seit Jahren und die Zahl der “Treffermeldungen” und automatisierten Strafanzeigen steigt von Jahr zu Jahr an auf zuletzt 22 Millionen im Jahr 2021.
  • Die verpflichtende Chatkontrolle trifft die TĂ€ter, die Kindesmissbrauch aufnehmen und weitergeben, nicht. MissbrauchstĂ€ter tauschen ihr Material nicht ĂŒber kommerzielle E-Mail-, Messenger- oder Chatdienste, sondern organisieren sich ĂŒber selbst betriebene geheime Foren, ohne Scanner zu installieren. Bilder und Videos laden MissbrauchstĂ€ter außerdem typischerweise als verschlĂŒsselte Archive hoch und teilen nur die Links und Passwörter. Chatkontrolle-Algorithmen erkennen weder verschlĂŒsselte Archive noch Links wieder.
  • Der richtige Weg wĂ€re die Löschung bekannter Speicherorte ausbeutender Darstellungen im Netz. Weder Bundeskriminalamt noch Europol melden aber bekanntes Missbrauchsmaterial den Speicherdiensten.
  • Chatkontrolle schadet der Verfolgung von Kindesmissbrauch, weil sie Ermittler millionenfach mit Computermeldungen ĂŒberlastet, die zum Großteil strafrechtlich irrelevant sind.

Nachrichten- und Chatkontrolle schadet allen

  • Alle BĂŒrgerinnen und BĂŒrger werden ohne Anlass unter Verdacht gestellt, Straftaten zu begehen. Die Text- und Bilderkennungsfilter werten unterschiedslos alle Nachrichten aus – unabhĂ€ngig davon, ob ein konkreter Verdacht vorliegt oder nicht. Kein Richter muss dieser Durchsuchung zustimmen – ganz im Gegensatz zur analogen Welt, in der das Briefgeheimnis und damit die Vertraulichkeit der schriftlichen Kommunikation gewĂ€hrleistet ist. Laut der Rechtsprechung des EuropĂ€ischen Gerichtshofes ist eine permanente und verdachtslose automatische Auswertung privater Kommunikation grundrechtswidrig (Rechtssache C-511/18, Abs. 192). Die EU will die Gesetze trotzdem verabschieden. Sie vor Gericht zu stoppen kann Jahre dauern. Deswegen mĂŒssen die Gesetze bereits jetzt verhindert werden!
  • Die Vertraulichkeit privater Kommunikation wird nachhaltig zerstört. Nutzerinnen und Nutzer von Messenger-Diensten und E-Mail mĂŒssen davon ausgehen, dass alle ihre Nachrichten kĂŒnftig in Echtzeit mitgelesen und ausgewertet werden. Sensible Bild- und Textinhalte können an unbekannte Personen weltweit vollautomatisiert weitergeleitet werden und in falsche HĂ€nde geraten. Es sind bereits FĂ€lle bekannt geworden, in denen die Mitarbeiter von US-Behördenabgefangene Nacktbilder von Nutzer*innen in Umlauf gebracht haben. Auch Konzernmitarbeiter haben bereits Kinderdaten missbraucht.
  • Die Chatkontrolle zeigt Tausende zu Unrecht an. Nach Angaben der Schweizer Bundespolizei sind 80% der maschinell angezeigten Inhalte nicht strafbar, etwa Urlaubsfotos am Strand mit nackten Kindern. Auch in Irland wurden nur 20% der im Jahr 2020 eingegangenen NCMEC-Meldungen als tatsĂ€chliche “Kinderpornografie” (“CSAM”) bestĂ€tigt. In Deutschland liegt der prozentuale Anteil der Meldungen, die letztlich in Ermittlungsverfahren mĂŒnden, ĂŒber die Jahre relativ konstant im einstelligen Bereich (unter 10%). GrĂ¶ĂŸtenteils werden Unschuldige verdĂ€chtigt und teils intime Nacktfotos oder Chats offenbart.
  • Sicher verschlĂŒsselte Kommunikation ist in Gefahr. Denn verschlĂŒsselte Nachrichten können bisher nicht von den Algorithmen erfasst werden. Um die Chatkontrolle fĂŒr jede Online-Kommunikation zu ermöglichen, mĂŒssen HintertĂŒren eingebaut werden. Sobald das geschieht, kann diese SicherheitslĂŒcke von jeder und jedem, der oder die die technischen Mittel dazu hat, ausgenutzt werden. Private Kommunikation, aber auch GeschĂ€ftsgeheimnisse und sensible Regierungsinformationen, wĂ€ren Angriffen ab dann schutzlos ausgesetzt. Sichere VerschlĂŒsselung schĂŒtzt Minderheiten, LGBTQI-Personen, Demokratieaktivisten, Journalisten usw.
  • Strafverfolgung wird privatisiert. Denn in Zukunft entscheiden die Algorithmen von Unternehmen wie Facebook, Google und Microsoft, welche Inhalte als verdĂ€chtig eingestuft werden und welche nicht. Dabei geht es nicht nur um Bilder, sondern auch bestimmte Wort-Kombinationen, die den Chatfiltern verdĂ€chtig erscheinen. Eine Transparenzpflicht ĂŒber die Algorithmen ist nicht vorgesehen. In einem Rechtsstaat gehört die Ermittlung von Straftaten aber in die HĂ€nde unabhĂ€ngiger Beamter unter gerichtlicher Aufsicht.
  • Die Chatkontrolle ist ein Dammbruch. Die Technologie zum automatischen Mitlesen privater online-Kommunikation ist gefĂ€hrlich. Denn sie kann spielend leicht auch fĂŒr andere Zwecke entfremdet werden. In autoritĂ€ren Staaten werden solche Filter zur Verfolgung und Inhaftierung unliebsamer Regierungsgegner*innen verwendet.  FĂŒr die Algorithmen macht es keinen Unterschied, ob nach Kindesmissbrauch, nach UrheberrechtsverstĂ¶ĂŸen, Drogenmissbrauch oder unliebsamen MeinungsĂ€ußerungen gesucht wird. Ist die Technik erst einmal flĂ€chendeckend etabliert, gibt es kein ZurĂŒck.

Warum die Nachrichten- und Chatkontrolle Kindern und Missbrauchsopfern besonders schadet

Die EU-Kommission argumentiert, dass die Chatkontrolle die Strafverfolgung von Kindesmissbrauch erleichtern soll. Das ist jedoch selbst unter Betroffenen von Missbrauch umstritten. TatsĂ€chlich fĂŒgt das Vorhaben Opfern sexuellen Missbrauchs sowie Kindern und Jugendlichen im Allgemeinen am meisten Schaden zu:

  1. SchutzrĂ€ume werden zerstört. Gerade Betroffene sexualisierter Gewalt sind auf die Möglichkeit angewiesen, sicher und vertraulich kommunizieren zu können. RĂ€ume zum sicheren Austausch untereinander oder etwa mit Therapeut*innen und AnwĂ€lt*innen helfen Betroffenen bei der Verarbeitung und dem Umgang mit ihren Erfahrungen. Diese sicheren RĂ€ume werden ihnen nun durch die EinfĂŒhrung von EchtzeitĂŒberwachung genommen. Das kann Opfer davon abhalten, Hilfe und UnterstĂŒtzung zu suchen.
  2. Selbst aufgenommene Nacktaufnahmen von MinderjÀhrigen (Sexting) geraten in die HÀnde von Unternehmensmitarbeitern und Polizei, wo sie nicht hingehören und nicht sicher sind.
  3. Jugendliche werden ĂŒberproportional kriminalisiert. Laut Kriminalstatistik sind fast 40% aller wegen Kinderpornografie von der Polizei verfolgten Personen MinderjĂ€hrige.
  4. Die Chatkontrollen dĂ€mmen den Austausch illegalen Materials nicht ein, sondern erschweren die Strafverfolgung von Kindesmissbrauch zusĂ€tzlich. Denn sie verdrĂ€ngen kriminelle TĂ€ter in den Untergrund, wo sie kaum noch zu ĂŒberwachen sind. Auch in offenen KanĂ€len haben die Kontrollen die Menge der weitergegebenen Darstellungen nicht eingedĂ€mmt, wie die von Jahr zu Jahr steigenden Zahlen an Verdachtsmeldungen belegen.

Alternativen zur Chatkontrolle

Ausbau der KapazitÀten der Strafverfolgung

Momentan sind die KapazitĂ€ten der Strafverfolger so unzureichend, dass oft Monate und Jahre vergehen, bis Hinweisen nachgegangen und Daten ausgewertet sind. Bekanntes Material wird hĂ€ufig lange weder gesichtet noch gelöscht. Die HintermĂ€nner des Missbrauchs tauschen ihr Material nicht ĂŒber Facebook und Ă€hnliche KanĂ€le aus, sondern im Darknet. Um Produzenten von Missbrauchsmaterial aufzuspĂŒren, muss verdeckte Polizeiarbeit stattfinden, statt die knappen KapazitĂ€ten auf Massenverfahren zu verschwenden. Es ist außerdem unerlĂ€sslich, die verantwortlichen Ermittlungseinheiten personell und finanziell aufzustocken, damit grĂŒndliche und nachhaltige Ermittlungen ĂŒber lĂ€ngere ZeitrĂ€ume hinweg möglich sind. Auch mĂŒssen verlĂ€ssliche Standards/Richtlinien fĂŒr die polizeiliche Bearbeitung von FĂ€llen sexuellen Missbrauchs erarbeitet und eingehalten werden.

Nicht nur Symptome bekÀmpfen, sondern die Ursache

Anstelle untauglicher Versuche Missbrauchsdarstellungen nachtrĂ€glich wieder „einfangen“ zu wollen, muss alles daran gesetzt werden, dass solche Aufnahmen niemals entstehen und dass Missbrauch verhindert und gestoppt wird. PrĂ€ventionskonzepte und Schulungen in Betreuungseinrichtungen spielen eine SchlĂŒsselrolle, weil die allermeisten MissbrauchsfĂ€lle nie auch nur bekannt werden. Es fehlt auch den Opferschutzorganisationen meist eine stabile Finanzierung.

Schnelle und einfach verfĂŒgbare Hilfe fĂŒr (potenzielle) Opfer

  1. Verpflichtende Meldemechanismen bei Online-Diensten: Um die wirkungsvolle PrĂ€vention von Online-Missbrauch und insbesondere Grooming zu erreichen, sollten die Online-Dienste verpflichtet werden, Hinweis- und Meldefunktionen auf den Plattformen prominent zu platzieren. Wenn sich das Angebot an Jugendliche oder Kinder richtet und/oder von Jugendlichen und Kindern genutzt wird, sollten Anbieter auch verpflichtet sein, sie ĂŒber die Risiken des Online-Groomings zu informieren.
  2. Hotlines und Beratungsstellen: Viele nationale Hotlines, die sich mit FÀllen von gemeldetem Missbrauchsmaterial befassen, haben mit finanziellen Problemen zu kÀmpfen. Hier muss unbedingt sicher gestellt werden, dass ausreichend KapazitÀt besteht, gemeldeten FÀllen nachzugehen.

Verbesserung der Medienkompetenz

Die frĂŒhe Vermittlung von digitaler Kompetenz ist ein wesentlicher Bestandteil zum Schutz von Kindern und Jugendlichen online. Die Kinder selbst mĂŒssen ĂŒber das Wissen und die Werkzeuge verfĂŒgen, sich im Internet sicher zu bewegen. Sie mĂŒssen darĂŒber informiert werden, dass auch online Gefahren lauern und lernen, die Muster von Grooming zu erkennen und zu hinterfragen. Hierzu wĂ€ren zum Beispiel gezielte Angebote in Schulen und AusbildungsstĂ€tten sinnvoll, in denen geschultes Personal Wissen vermittelt und Diskussionen leitet.

Kinder mĂŒssen lernen, sich zu Ă€ußern, zu reagieren und Anzeige zu erstatten, selbst wenn der Missbrauch aus ihrem Vertrauensbereich kommt (d. h. von nahestehenden Personen oder anderen Personen, die sie kennen und denen sie vertrauen), was hĂ€ufig der Fall ist. Sie mĂŒssen auch Zugang zu sicheren, zugĂ€nglichen und altersgerechten KanĂ€len haben, um Missbrauch ohne Angst melden zu können.


Dokumente zur Chatkontrolle 2.0

EP legislative observatory (Englisch) (regelmĂ€ĂŸig aktualisiert)

EuropÀisches Parlament

Rat der EuropÀischen Union (Ministerrat)

EuropÀische Kommission

Gutachten & Stellungnahmen

Dokumente zur freiwilligen Chatkontrolle 1.0

Kritische Stellungnahmen und Hintergrundartikel zur Nachrichtendurchleuchtung

“Wir mĂŒssen bessere Lösungen fĂŒr die Menschen schaffen, die sich dazu hingezogen fĂŒhlen.”

“Jede digitale Überwachung von Kindern und jede damit verbundene automatisierte Verarbeitung personenbezogener Daten sollte das Recht des Kindes auf PrivatsphĂ€re respektieren und nicht routinemĂ€ĂŸig, wahllos oder ohne das Wissen des Kindes durchgefĂŒhrt werden
”

(eigene Übersetzung)

“[D]die Verordnung ĂŒbertrĂ€gt privaten Unternehmen die Verantwortung fĂŒr eine Angelegenheit, die von öffentlichen Behörden erledigt werden sollte.”

“Wir schlagen vor, dass die Kommission nicht-technischen Maßnahmen und der schnelleren Entfernung von anstĂ¶ĂŸigen Websites den Vorrang vor clientseitiger Durchsuchung von Nachrichteninhalten einrĂ€umt“

“Die in dem Vorschlag vorgesehenen Maßnahmen wĂŒrden einen Eingriff in die Grundrechte auf Achtung des Privatlebens und den Datenschutz aller Nutzer sehr beliebter elektronischer Kommunikationsdienste, wie Instant-Messaging-Plattformen und -Anwendungen, darstellen. Die Vertraulichkeit der Kommunikation ist ein Eckpfeiler der Grundrechte auf Achtung des Privat- und Familienlebens. Selbst freiwillige Maßnahmen privater Unternehmen stellen einen Eingriff in diese Rechte dar, wenn die Maßnahmen die Überwachung und Analyse des Inhalts der Kommunikation und die Verarbeitung personenbezogener Daten beinhalten.”

“Mit der geplanten Regelung verstĂ¶ĂŸt die EU-Kommission gegen die Grundrechte der BĂŒrgerinnen und BĂŒrger, die in der EuropĂ€ische Grundrechtecharta (GRCh) garantiert werden: insbesondere Artikel 7 (Achtung des Privat- und Familienlebens), Artikel 8 (Schutz personenbezogener Daten) und Artikel 11 (MeinungsĂ€ußerungsfreiheit und Informationsfreiheit) garantieren grundsĂ€tzlich vertrauliche Kommunikation. Eine derartige Überwachung legt auch die verschlĂŒsselte und unverschlĂŒsselte Kommunikation von Unternehmen, Behörden offen – ebenso von Medienschaffenden und ihren Informantinnen und Informanten.”

“Als MissbrauchsĂŒberlebender bin ich (und Millionen anderer Überlebender auf der ganzen Welt) auf vertrauliche Kommunikation angewiesen, um UnterstĂŒtzung zu finden und die Verbrechen gegen uns zu melden – unsere Rechte auf PrivatsphĂ€re und Vertraulichkeit zu beschneiden, bedeutet, uns weiteren Verletzungen auszusetzen, und offen gesagt, haben wir genug gelitten. […] es spielt keine Rolle, welche Schritte wir unternehmen, um TĂ€ter zu finden, es spielt keine Rolle, wie viele Freiheiten oder verfassungsmĂ€ĂŸige Rechte wir zerstören, um diese Agenda zu erfĂŒllen – es wird Kinder NICHT vor Missbrauch schĂŒtzen, es wird den Missbrauch einfach weiter in den Untergrund treiben, es immer schwieriger machen, ihn zu entdecken und letztendlich dazu fĂŒhren, dass mehr Kinder als Endergebnis missbraucht werden.”

“In der Praxis bedeutet dies, dass private Unternehmen mit einer Angelegenheit betraut wĂŒrden, die eigentlich von öffentlichen Behörden behandelt werden sollte”

“Sowohl hinsichtlich des Mandatsgeheimnisses als auch im Hinblick auf [die Rechte der AnwĂ€lte] erscheinen die mit den VorschlĂ€gen der Kommission fĂŒr AnwĂ€ltinnen und AnwĂ€lte und [
] fĂŒr deren Mandantschaft einhergehenden Risiken besonders hoch. Denn die Bewertung von mit Kindesmissbrauch in Zusammenhang stehenden Sachverhalten gehört zum Aufgabenbereich der Anwaltschaft. Dementsprechend hĂ€ufig wird die zwischen AnwĂ€lten und Mandanten ausgetauschten Kommunikation entsprechende Schlagwörter beinhalten. [
] Nach den VorschlĂ€gen der Kommission  [steht] zu befĂŒrchten, dass es in allen genannten Konstellationen aufgrund der unvermeidbaren Verwendung einschlĂ€giger Begrifflichkeiten regelmĂ€ĂŸig zu einem Bruch der Vertraulichkeit kommen wird. Ein solches Ergebnis wĂ€re aus GrĂŒnden der Rechtsstaatlichkeit sowie zum Schutze der Rechte von Mandanten und RechtsanwĂ€lten schlechterdings inakzeptabel. Die Vertraulichkeit der Kommunikation zwischen AnwĂ€lten und Mandanten muss in jedem Fall gewĂ€hrleistet bleiben. Sie ist nicht verhandelbar.“

“Ich hatte keine vertraulichen Kommunikationsmittel, als ich vergewaltigt wurde; meine gesamte Kommunikation wurde von meinen TĂ€tern ĂŒberwacht – es gab nichts, was ich tun konnte, es gab kein Vertrauen. […] Ich kann nicht umhin, mich zu fragen, wie viel anders mein Leben verlaufen wĂ€re, wenn ich Zugang zu diesen modernen Technologien gehabt hĂ€tte. [Die geplante Abstimmung ĂŒber die e-Privacy-Ausnahmeregelung] wird Missbrauch in den Untergrund treiben, was es viel schwieriger macht, ihn zu entdecken; es wird Selbsthilfegruppen daran hindern, Missbrauchsopfern zu helfen – ES WIRD LEBEN ZERSTÖREN.”

„Eine flĂ€chendeckende und anlasslose Überwachung von digitalen KommunikationskanĂ€len ist weder zielfĂŒhrend noch erforderlich, um Online-Kindesmissbrauch aufzuspĂŒren. Die BekĂ€mpfung von sexualisierter Gewalt an Kindern muss mit zielgerichteten und konkreteren Maßnahmen angegangen werden. Die Ermittlungsarbeit ist Aufgabe der Strafverfolgungsbehörden und darf nicht auf private Betreiber von Messenger-Diensten ausgelagert werden.“

“Wie bei anderen Arten des Scannens von Inhalten (ob auf Plattformen wie YouTube oder in der privaten Kommunikation) schafft das stĂ€ndige Scannen von allem und jedem ein enormes Risiko, zu einer MassenĂŒberwachung zu fĂŒhren, indem es den Test der Notwendigkeit und VerhĂ€ltnismĂ€ĂŸigkeit nicht besteht. DarĂŒber hinaus entsteht ein Dammbruch, bei dem wir mit dem Scannen fĂŒr weniger schĂ€dliche FĂ€lle (Urheberrecht) beginnen und dann zu hĂ€rteren Themen ĂŒbergehen (sexueller Kindesmissbrauch, Terrorismus) und bevor wir wissen, was passiert ist, wird das stĂ€ndige Scannen von allem zum neuen Normalzustand.”

“Der DAV spricht sich ausdrĂŒcklich dafĂŒr aus, die Vorbereitung und Begehung von sexuellem Kindesmissbrauch und deren Verbreitung ĂŒber das Internet durch wirksame Maßnahmen auf europĂ€ischer Ebene zu bekĂ€mpfen. Die von der Kommission vorgeschlagene Übergangs-VO wĂŒrde jedoch eklatant unverhĂ€ltnismĂ€ĂŸige Eingriffe in die Freiheitsgrundrechte von redlichen Nutzern internet-basierter Kommunikationsdienste ermöglichen. DarĂŒber hinaus lĂ€sst der Verordnungsvorschlag hinreichende prozessuale Absicherungen fĂŒr Betroffene vermissen. Das Gesetzesvorhaben ist daher insgesamt abzulehnen.”

“Positive Treffer mit nachfolgender Offenbarung gegenĂŒber staatlichen und nichtstaatlichen Stellen wĂŒrden neben Beschuldigten vor allem die Opfer sexuellen Kindesmissbrauchs zu befĂŒrchten haben. Dabei ist die absolute Vertraulichkeit der anwaltlichen Beratung gerade in diesen hĂ€ufig mit Scham behafteten Sachverhalten im Interesse der Opfer unabdingbar. Die Entscheidungshoheit darĂŒber, welche Mandatsinhalte gegenĂŒber wem offenbart werden dĂŒrfen, muss gerade in diesen FĂ€llen bei der Mandantschaft verbleiben. Es stĂŒnde sonst zu befĂŒrchten, dass Opfer sexuellen Kindesmissbrauchs keine anwaltliche Beratung in Anspruch nehmen.”

“Im Zuge der Initiative “Fighting child sexual abuse: detection, removal, and reporting of illegal content” plant die EuropĂ€ische Union die Abschaffung des digitalen Briefgeheimnisses. Um illegale Inhalte automatisch zu erkennen, sollen kĂŒnftig alle privaten Chat-Nachrichten durchleuchtet werden. Dies soll auch fĂŒr Inhalte gelten, die bisher mit einer starken Ende-zu-Ende-VerschlĂŒsselung geschĂŒtzt sind. Sollte diese Initiative nach dem jetzigen Plan umgesetzt werden, wĂŒrde sie unseren europĂ€ischen Idealen und den unbestreitbaren Grundlagen unserer Demokratie, nĂ€mlich der Meinungsfreiheit und dem Schutz der PrivatsphĂ€re, enorm schaden […]. Die Initiative wĂŒrde auch der strategischen Autonomie Europas und damit den in der EU ansĂ€ssigen Unternehmen schwer schaden.”

Experten aus Polizei und Wissenschaft sehen das Vorhaben der EU eher kritisch: Sie fĂŒrchten einerseits viele falsche Anzeigen durch die Scanner, andererseits eine Alibi-Funktion des Gesetzes. Daniel Kretzschmar, Sprecher des Bundesvorstandes des Bundes Deutscher Kriminalbeamter, sagt, dass seinem Verband die BekĂ€mpfung von Kindesmissbrauchsdarstellungen “enorm wichtig” ist. Trotzdem ist er skeptisch: Es könnten leicht UnverdĂ€chtige in den Fokus der Ermittlungen geraten. Gleichzeitig bedeute eine Privatisierung dieser Initiativermittlungen eine “AbhĂ€ngigkeit der Strafverfolgung von diesen Unternehmen, die eigentlich staatliche und hoheitliche Aufgabe ist.”

Auch Thomas-Gabriel RĂŒdiger, Leiter des Instituts fĂŒr Cyberkriminologie an der Hochschule der Polizei in Brandenburg, sieht das EU-Vorhaben eher kritisch. “Am Ende wird es vermutlich vor allem wieder MinderjĂ€hrige treffen”, sagte er WELT. RĂŒdiger verweist auf Zahlen aus der KriminalitĂ€tsstatistik, wonach 43 Prozent der erfassten Straftaten im Bereich kinderpornographische Inhalte auf Kinder und Jugendliche selbst zurĂŒckgehen wĂŒrden. Das ist etwa beim sogenannten “Sexting” und der “Schulhof-Pornografie” der Fall, wenn sich 13- und 14-JĂ€hrige anzĂŒgliche Bilder schicken.

Echte TĂ€ter, die man eigentlich erwischen wolle, wĂŒrde man vermutlich eher nicht fassen. “Die sind sich nĂ€mlich ihrer Taten bewusst und weichen auf Alternativen aus. Vermutlich werden dann wieder vermehrt USB-Sticks und andere DatentrĂ€ger genutzt”, so RĂŒdiger weiter.

“Die automatische Durchsuchung der privaten Kommunikation eines jeden Menschen zu jeder Zeit stellt einen unverhĂ€ltnismĂ€ĂŸigen Eingriff in den Kern des Grundrechts auf PrivatsphĂ€re dar. Sie kann eine Form der undemokratischen MassenĂŒberwachung darstellen und schwerwiegende und ungerechtfertigte Auswirkungen auch auf viele andere Grundrechte und Freiheiten haben.”

“Im Vorfeld des offiziellen Gesetzentwurfs im Laufe dieses Jahres fordern wir alle EU-Kommissare auf, sich an ihre Verantwortung fĂŒr die Menschenrechte zu erinnern und sicherzustellen, dass kein Vorschlag vorgelegt wird, der das Recht der Menschen auf PrivatsphĂ€re und den Grundpfeiler der demokratischen Gesellschaft in Frage stellt.”

“In the view of our experts, academics and IT professionals, all efforts to intercept and extensively monitor chat communication via client site scanning has a tremendous negative impact on the IT security of millions of European internet users and businesses. Therefore, a European right to secure communication and effective encryption for all must become a standard.”

“Das massenhafte Scannen greift nicht nur vertrauliche Kommunikation an ihren Grundfesten an, sondern wĂ€re obendrein unwirksam: Kriminelle nutzen bereits heute Verbreitungswege, die von diesen Scans nicht betroffen wĂ€ren und werden auch in Zukunft den Scans leicht entgehen:

Die TĂ€ter*innen nutzen statt den von der Kommission ins Visier genommenen Messengern Ă¶ffentliche Hoster – nicht zuletzt, weil Messenger zum Tauschen großer Dateisammlungen völlig ungeeignet sind. Vor dem Tausch verschlĂŒsseln sie die Daten zudem zusĂ€tzlich.

Allein schon deshalb wird die geplante Überwachung die Weiterverbreitung von Missbrauchsabbildungen nicht verhindern.”

(…)

“Die Chatkontrolle ist als fundamental fehlgeleitete Technologie grundsĂ€tzlich abzulehnen.”

Es brauche „vor allem den Ausbau der personellen und technischen Ressourcen bei den Strafverfolgungsbehörden, mehr sichtbare PrĂ€senz von Polizei im Netz, mehr staatliche Meldestellen sowie die Entkriminalisierung von der Verbreitung selbstgenerierten Materials unter Jugendlichen“.

die aktuellen PlĂ€ne wĂŒrden nicht unbedingt dazu fĂŒhren, mehr PĂ€dokriminelle festzunehmen, erlĂ€utern mehrere langjĂ€hrige Ermittler. Einer der GrĂŒnde: Zwar wĂŒrde das Gesetz zu mehr Meldungen von Missbrauchsbildern fĂŒhren, aber diese fĂŒhrten nicht automatisch zu mehr Ermittlungserfolgen. Die Strafverfolger hĂ€tten heute schon genug Datenpunkte. Das Problem sei, all die FĂ€lle mit den vorhandenen Ressourcen abzuarbeiten und die besonders gefĂ€hrlichen TĂ€ter zu finden. »Wir haben heute schon ein Heuhaufen-Problem. Die Masse der neuen Meldungen nach den EU-PlĂ€nen droht unsere Strafverfolgung eher lahmzulegen«, beschreibt es ein Ermittler.