FOR ENGLISH SEE BELOW
De Europese Commissie heeft op 24 juli 2022 een EU-strategie voor een meer effectieve strijd tegen seksueel kindermisbruik gepresenteerd, als onderdeel van de brede EU Veiligheidsuniestrategie. Het doel van de strategie is om de strijd tegen seksueel misbruik van kinderen, zowel online als offline, in de EU doeltreffender te maken. De Commissie kondigt hiertoe concrete initiatieven aan.
Het Expertisebureau Online Kindermisbruik (EOKM) zet kanttekeningen bij het voorstel en wil u in voorbereiding op de technische briefing over de EU-strategie voor het bestrijden van seksueel kindermisbruik onze zorgen meegeven.
Positie EOKM ten aanzien van het voorstel:
Proportionaliteit
De Europese Commissie rechtvaardigt dit wetsvoorstel op basis van een aantal cijfers dat gegeven wordt. Er wordt gesproken over een explosieve groei van het aantal meldingen en 85 miljoen foto’s en video’s van kinderporno die alleen al in 2021 zijn onderschept. Maar een stijging van het aantal meldingen wil niet zeggen dat er ook meer kindermisbruik plaatsvindt. Ten eerste weet men niet of de stijging van de meldingen komt door een groei in het gebruik van internet, betere detectiemiddelen of betere bereidheid tot melden.. Daarnaast zegt het aantal meldingen niets over de omvang van het daadwerkelijke misbruik.
Uit onderzoek van META (Facebook) blijkt dat de afbeeldingen van seksueel kindermisbruik die zij hebben ondervangen voor bijna 90% van het totaal uit slechts enkele afbeeldingen bestaat. Dat wil zeggen dat 90% van de afbeeldingen die gedeeld worden bestaan uit slechts vijf à zes unieke beelden.
Aantasten privacy
De Europese Commissie wil internetbedrijven verplichten te scannen op beeld én tekst in privé- communicatie op bekend en onbekend misbruikmateriaal. Het scannen van privé-communicatie is een inbreuk op de privacy van het kind en is een schending van artikel 16 van het Kinderrechtenverdrag van de Verenigde Naties, hetgeen alleen gerechtvaardigd zou zijn wanneer het kind beter beschermd wordt. Maar het voorstel maakt het internet juist onveiliger voor kinderen. Het internet is voor kinderen een onlosmakelijk onderdeel van hun leven. Daarbij hoort ook het onderling sturen van seksueel getinte foto’s. Het is een onderdeel van het opgroeien en de seksuele ontwikkeling. Het gros van deze uitwisseling van afbeeldingen gebeurt zonder enige problemen. Het voorstel zorgt ervoor dat alle afbeeldingen onderschept kunnen worden, juist ook wanneer er geen problematische situatie is. Vervolgens worden de afbeeldingen door vele mensen
bekeken om te analyseren. Daarmee wordt er onnodig een enorme inbreuk gepleegd op de privacy van het kind. Het voorstel heeft dus geen rekening gehouden met de diversiteit van de redenen om naaktbeelden te delen, noch het feit dat veel materiaal vrijwilliger gedeeld wordt.
Onveiliger internet
Om de kans dat de beelden in verkeerde handen vallen te verkleinen, is een veilige omgeving van groot belang. Het voorstel van de Commissie maakt de omgeving juist onveiliger. Om mee te kijken in versleutelde berichten (end-to end-encryptie) moeten er achterdeurtjes worden ingebouwd. Dit zal kinderen en jongeren juist schaden. Nu al worden kinderen en jongeren afgeperst met foto’s uit gehackte sociale media accounts. Kwetsbaarheden introduceren voor de opsporing maakt het internet ook onveiliger voor hen. Als je een achterdeur op een kier zet bij de bestrijding van misbruik, opent het ook nieuwe wegen voor kwaadwillenden.
Artificiële Intelligentie is onvoldoende ontwikkeld
In de zoektocht naar mogelijk nieuw materiaal wordt in het wetsvoorstel uitgegaan van technieken, zoals Artificiële Intelligentie, zoals die in de nabije toekomst beschikbaar zouden moeten zijn. De suggestie wordt gewekt dat de techniek zo ver gevorderd is, dat met Artificiële Intelligentie afbeeldingen van kindermisbruik goed te onderscheiden zijn. Maar die technologie is nog helemaal niet ver genoeg om dat te kunnen. Ook het scannen op tekst, waarbij het met technologie mogelijk moet zijn om gesprekken op eventuele schadelijke inhoud te analyseren, staat nog in haar kinderschoenen. Navraag leert dat de ontwikkelaars van de technieken scannen op teksten als: ‘is je moeder thuis?’ Dit soort teksten kan door heel veel onschuldige burgers gebruikt worden.
Meldpunten worden buiten werking gesteld en websites niet aangepakt
Wanneer een platform een aanwijzing krijgt op verplicht scannen, moet al het gevonden materiaal gemeld worden aan het nieuw op te richten onafhankelijk Europese Centrum. Daarmee komen er geen meldingen meer naar de Meldpunten. Een wereldwijd netwerk van samenwerking komt daarmee onder druk te staan en snelle acties om afbeeldingen te verwijderen verdwijnen. Het internationale netwerk van meldpunten Inhope, heeft haar zorgen geuit over deze ontwikkeling. Zorgwekkender is dat het voorstel vooral toeziet op prive-communicatie, zoals chats, emails, berichten in social media, maar niet op de websites waar de Meldpunten mee te maken hebben. Het probleem van de verspreiding van dit materiaal zoals we dat in Nederland kennen wordt hiermee nagenoeg niet aangepakt.
Vrijwillig scannen
In het voorstel worden platforms verplicht om actief afbeeldingen van seksueel kindermisbruik op te sporen en te rapporteren bij de autoriteiten. Alle vrijwillige inspanningen worden voortaan verboden. Ook activiteiten anders dan het scannen, maar die wel patronen van misbruik kunnen ontdekken, zijn voortaan verboden. Het wetsvoorstel maakt de aanpak van online kindermisbruik minder flexibel.
Wat dan wel?
Het Expertisebureau Online Kindermisbruik (EOKM) vindt dat aanbieders van online diensten op vrijwillige basis, met getoetste waarborging, door moeten kunnen blijven gaan met het scannen op bekende afbeeldingen van seksueel kindermisbruik. Om dit mogelijk te maken zou de tijdelijke ontheffing (derogatie) van de Elektronische Communicatiewet (EECC) gedeeltelijk in een permanente ontheffing kunnen worden omgezet.
Programma’s die gebruik maken van artificiële intelligentie of het scannen op tekst zijn niet volwassen genoeg om ingezet te worden voor een detectie die uiteindelijk kan leiden tot rechtsvervolging. Deze horen dus niet in die ontheffing thuis.
Andere wijze van detecteren moeten mogelijk zijn, met de juiste waarborgen. Voorstellen daartoe kunnen getoetst worden aan privacy wetgeving. Hier kan het Europees Centrum een belangrijke rol in spelen. Ook kan het Europees Centrum een rol spelen bij het aanbieden van middelen om platforms te helpen hun netwerk schoon te houden. Onze ervaring leert dat vele website eigenaren niet goed weten waar te beginnen om het probleem op hun netwerk te voorkomen of aan te pakken. Daarnaast bepleit het EOKM het hebben van een toezichthouder, zoals het ATKM in wording, zodat lakse aanbieders van internetdiensten beboet kunnen worden.
Als laatste benadrukt het EOKM dat preventie nagenoeg geen rol heeft en preventie van daderschap veel te weinig aandacht heeft in het voorstel. In alle gevallen heeft voorkomen van het misbruik de voorkeur boven het slechts detecteren van kwaad dat als geschied is.
———————————————————————————————————————————
ENGLISH
On 24 July 2022, as part of the EU Security Union Strategy, the European Commission presented an approach aimed at more effectively combatting sexual child abuse. The objective of the strategy is to ensure that EU-wide efforts to fight sexual abuse of children, both online and offline, are more effective. The Commission has announced a series of concrete initiatives.
The Expertise Centre on Online Child Abuse (EOKM) has concerns regarding the proposal and we would like to share our misgivings with you.
The EOKM’s position regarding the proposal:
Proportionality
The European Commission justifies this legislation based on a number of figures presented. One of these figures is the exponential increase in the number of reports and 85 million photos and videos containing child sexual abuse material intercepted in 2021 alone. However, an increase in reporting does not necessarily equate to an increase in child abuse. First of all, we cannot determine whether this increase in reporting is due to an increased use of the internet, better detection instruments, or a higher willingness to report. In other words, the level of reporting does not necessarily relate to the extent of actual abuse.
Research by META (formerly known as Facebook) shows that the images of sexual child abuse intercepted by the company comprise no more than a few images in close to 90% of cases. This means that 90% of the images being shared involve just five or six unique images.
Invasion of privacy
The European Commission wants to order internet companies to scan images and text for known and unknown abuse materials in private communications. Scanning private communication is an invasion of privacy of the child and constitutes a violation of Article 16 of the Child Rights Treaty of the United Nations – something which might be justifiable only if it serves to better protect the child. However, this proposal, makes the Internet in fact more unsafe for children. For kids, the internet is an indispensable part of their lives. For many, this includes exchanging photographs with sexual connotations. This is part of a healthy adolesence and normal sexual development and exploring. The large majority of such exchanges take place without any issues. The proposal, however, makes it possible for all images to be intercepted, even without any indication of a problematic situation. In order to analyse them, the images are subsequently viewed by scores of people. This poses an unnecessary invasion of privacy of the child. The proposal clearly has not taken into consideration the varied reasons for sharing nude images, nor taken note of the fact that much material is shared on a voluntary basis.
Less safe internet
To reduce the chance of images falling into the wrong hands, a safe environment is of utmost importance. The Commission’s proposal is in fact making the environment less safe as backdoors will have to be built in order to monitor these encrypted messages (end-to-end encryption). This will harm children and young people. Already, children and youths are being extorted with photos from social media accounts that have been hacked. Introducing weak spots aimed at detection also makes the internet less safe for them. When you set a backdoor ajar to combat abuse, this simultaneously opens up new avenues for people with bad intentions.
Artificial Intelligence is insufficiently developed
In the search for possible new material, the legislative proposal relies on techniques, including artificial intelligence that may become available in the near future. The suggestion is made that the technology is so far advanced that artificial intelligence can easily distinguish images of sexual child abuse. In reality, the technology has not progressed this far. Scanning for text, using technology to analyse conversations for harmful context, is also still in its infancy. Inquiry shows that developers of these technologies scan for phrases such as, ‘Is your mother home?’. These types of phrases may be used by scores of innocent citizens.
Hotlines are deactivated and websites not dealt with
When a platform is instructed on mandatory scanning, all the material found must be reported to the new independent European Centre that is to be established. This will stop reporting to the hotlines. This puts a global network of collaboration under pressure and quick actions to remove images will disappear. INHOPE, the international network of hotlines, has expressed its concern about these developments. More concerning is the fact that the proposal predominantly focuses on private communication, such as chats, emails, and social media posts, instead of the websites hotlines are dealing with. As such, the problem of the dissemination of these materials as known in the Netherlands fails to be addressed.
Voluntary scanning
The proposal makes it mandatory for platforms to actively trace and report images of sexual child abuse to the authorities. All voluntary efforts will be prohibited. Activities other than scanning that are able to detect patterns of abuse will be outlawed. The legislative proposal makes combatting online child abuse less flexible.
What should be done?
The Expertise Centre on Online Child Abuse (EOKM) is of the opinion that online service providers should be able to continue scanning on a voluntary basis, with verified assurance, for known images of sexual child abuse. To make this possible, the temporary waiver (derogation) of the European Electronic Communications Code (EECC) could partially be converted into a permanent exemption.
Programmes using artificial intelligence or scanning for text are insufficiently advanced to be used in detecting that can ultimately lead to prosecution. Therefore, these should not fall under this waiver.
Other ways of detection must remain possible, with the right guarantees. Proposals to this end may be assessed against privacy law. The European Centre might play an important role in this. The European Centre could also play a role in offering platforms the means to help keep their networks clean. In our experience, many website owners often do not quite know where to start to prevent and counter this problem occurring on their networks. The EOKM also advocates for a supervisory authority, such as the ATKM that’s in the making, so that lax internet providers may be fined.
Lastly, the EOKM wants to call attention to the fact that the proposal barely provides a role for prevention and pays far too little attention to the preclusion of perpetration. Prevention of abuse should always take precedence over detection of damage already done.