Dieser Vorschlag bewegt sich im Spannungsfeld verschiedener hochwichtiger Güter: Schutz der Kinder und Schutz der Privatsphäre aller Nutzer sind nur zwei davon. Die Zahlen der vergangenen Jahre haben gezeigt, dass wir beim Kinderschutz immer weiter zurückfallen. Die EU ist weltweit führend in der Menge der hier gehosteten Videos und Fotos von sexueller Gewalt gegen Kinder. Dies ist nicht länger hinnehmbar.
Mein erstes und zentrales Ziel ist die Prävention. Kein Kind sollte dem Grauen ausgesetzt sein, sexueller Gewalt zum Opfer zu fallen. Der Täter ist oft eine Vertrauensperson: ein Familienmitglied, ein Trainer, ein Freund der Familie. Kinder schaffen es nicht, sich zu wehren oder auch nur Hilfe zu suchen. Daher kommt die sexuelle Gewalt oft nur über die Spuren im Internet und in Nachrichten zwischen Tätern überhaupt je ans Licht. Und dies ist das Herzstück: die Verbindung zwischen der Straftat des Austauschs von Bildern und Videos von sexueller Gewalt gegen Kinder und der Begehung der sexuellen Gewalt wird stetig enger.
Ich trage als Politikerin die Verantwortung dafür, zu tun, was ich kann, um Kinder zu schützen.
Dafür haben wir bereits viel in die Wege geleitet: die EU-Richtlinie gegen sexuellen Kindesmissbrauch stellt fest, was strafbar ist, und verpflichtet Mitgliedstaaten, präventive Maßnahmen zu treffen – Aufklärung, Schulungen oder Forschungsprogramme, um Kinder und ihr Umfeld zu stärken und zu schützen, aber auch Unterstützungsmaßnahmen für potentielle Täter, um die Nachfrage zu verringern. Wir haben ein Präventionsnetzwerk geschaffen, um erfolgreiche Präventionsmaßnahmen aus einem Mitgliedstaat auch in anderen Mitgliedstaaten einzusetzen, und die Prävention insgesamt zu stärken. Und wir stellen regelmäßig Fördermittel bereit: gerade haben wir wieder 16 Millionen Euro für Projekte zur Stärkung der Prävention und Bekämpfung des sexuellen Kindesmissbrauchs ausgeschrieben.
Auch unser Gesetzgebungsvorschlag setzt einen Schwerpunkt auf präventive Maßnahmen. Diensteanbieter werden verpflichtet, eine Risikoprüfung durchzuführen. Sie müssen sich ein Bild davon verschaffen, ob ihre Dienste für den Austausch von Bildern und Videos von sexuellem Kindesmissbrauch ausgenutzt werden können, oder für das „Grooming“ von Kindern. Dann müssen sie geeignete Gegenmaßnahmen ergreifen und diese zusammen mit ihrer Risikoanalyse einer nationalen Behörde vorlegen. Die kann dann weitere Informationen verlangen und Maßnahmen vorschlagen, um ein eventuelles Risiko weiter zu senken.
Erst wenn dies nicht ausreicht und nach wie vor ein signifikantes Risiko bleibt, können im Einzelfall nach gründlicher Abwägung und Einholung von Expertise, auch von den zuständigen Datenschutzbehörden, gezielte Anordnungen beantragt werden, den Austausch von Bildern und Videos oder das Grooming von Kindern zu identifizieren. Diese müssen auf das Risiko zugeschnitten werden, also beziehen sich nur auf den Teil des Dienstes, der ein erhöhtes Risiko aufweist.
Ein Beispiel sind größere Nutzergruppen, die viele Bilder und Videos teilen und bei denen viele Nutzer auch schnell wieder ausgeschlossen werden – dies kann auf Gruppen hinweisen, bei dem jedes Gruppenmitglied als „Bezahlung“ für die Mitgliedschaft und den Zugriff auf Bilder und Videos von Kindesmissbrauch auch eigenes Material beisteuern muss. Und ein signifikantes Risiko von „grooming“ kann wiederum nur dann gegeben sein, wenn ein Kind Teil des Chats ist und von einem Erwachsenen kontaktiert wird, der meist zuvor keinerlei Verbindung zu dem Kind hatte.
Dieser Vorschlag beinhaltet auch keine Verpflichtung, Verschlüsselung zu durchbrechen. Verschlüsselung ist eine zentrale Technologie, insbesondere Ende-zu-Ende-Verschlüsselungstechnologie: sie ist ein wichtiges Instrument, um die Sicherheit und Vertraulichkeit der Kommunikation von Nutzern, einschließlich der von Kindern, zu gewährleisten. Gleichzeitig wird verschlüsselte Kommunikation missbraucht, um Kinder zu „groomen“ und Bilder und Videos von sexuellem Missbrauch auszutauschen. Daher ist es notwendig, auch verschlüsselte Dienste nicht von der Verpflichtung auszunehmen.
Jedoch ist eine Verpflichtung davon abhängig, dass Technologien zur Verfügung stehen, die die Privatsphäre der Nutzer umfassend schützen und der Eingriff verhältnismäßig ist. Diensteanbieter müssen zudem Schutzmaßnahmen ergreifen, damit die Sicherheit und Vertraulichkeit der Kommunikation der Nutzer nicht untergraben wird.
Falls eine Anordnung getroffen wird, muss überdies stets die Maßnahme, die den geringsten Eingriff beinhaltet, angeordnet werden. Wo Metadaten ausreichen, um eine Identifizierung zu ermöglichen. Leider sind auf Metadaten basierende Analysen allein zur Zeit noch nicht hinreichend zuverlässig, aber technische Entwicklungen schreiten rapide voran, und ich bin optimistisch, dass wir in Zukunft auch hier große Fortschritte sehen werden.
Ich freue mich auf die Zusammenarbeit mit allen Interessierten, um einen sicheren Raum für unsere Kinder zu schaffen – offline und online.
The European Commission proposal to fight online Child Sexual Abuse targets abusers
– accurately, proportionately and fairly
This proposal reconciles various very important objectives: protection of children and protection of the privacy of all users are just two of them. The figures of the past few years have shown that we are falling further and further behind when it comes to child protection. The EU leads the world in the amount of child sexual abuse content hosted here. This is not acceptable.
My first and main goal is prevention. No child should experience the horror of becoming a victim of sexual violence. The perpetrator is usually a trusted person, a member of the family, a coach, a family friend. Often this abuse is only discovered once it is online. And this is the crux of the issue. The link between the crime of viewing child sexual abuse and committing that abuse is growing.
I have a responsibility as a politician to do what I can to keep children safe.
We have already done a lot for this: the EU directive against child sexual abuse determines what is punishable and obliges member states to take preventive measures - education, training or research programs to strengthen and protect children and their environment, but also support measures for potential perpetrators to reduce demand. We have created a prevention network in order to use successful prevention measures from one Member State in other Member States and to strengthen prevention overall. And we regularly provide funding: we have just made available another 16 million euros for projects to strengthen the prevention and combating of child sexual abuse.
Our legislative proposal also focuses on preventive measures. Service providers are obliged to carry out a risk assessment. They need to understand if their services can be exploited for sharing images and videos of child sexual abuse, or for grooming children. They then have to take appropriate countermeasures and submit these together with their risk analysis to a national authority. They can then request further information and suggest measures to further reduce any risk.
Only if this is not sufficient and a significant risk still remains, can specific orders be requested in individual cases, after thorough consideration and obtaining expertise, including from the responsible data protection authorities, to identify the exchange of images and videos or the grooming of children. These need to be tailored to the risk, so only relate to the part of the service that is at increased risk.
An example is larger user groups that share many images and videos, and where many users are also quickly banned - this can indicate groups where each group member is considered "payment" for membership and access to child abuse images and videos as well have to contribute their own material. And again, a significant risk of grooming can only exist when a child is part of the chat and is contacted by an adult who often has had no prior connection with the child.
This proposal also does not include any obligation to break encryption. Encryption is a key technology, especially end-to-end encryption technology: it is an important tool to ensure the security and confidentiality of users' communications, including those of children. At the same time, encrypted communications are being misused to groom children and share images and videos of sexual abuse. It is therefore necessary not to exempt encrypted services from the obligation.
However, an obligation is dependent on technologies being available that fully protect the privacy of users and the interference being proportionate. Service providers must also take safeguards to ensure that the security and confidentiality of users' communications is not undermined.
Moreover, if an order is made, the measure involving the least intrusiveness must always be ordered. Where metadata is sufficient to enable identification. Unfortunately, analytics based on metadata alone are not yet sufficiently reliable at this time, but technical developments are advancing rapidly and I am optimistic that we will see great advances here in the future as well.
I look forward to working with everyone interested to create a safe space for our children - offline and online.
Einzelheiten
- Datum der Veröffentlichung
- 13. Mai 2022
- Autor
- Generaldirektion Kommunikation