Pornosite xhamster moet onrechtmatige beelden offline halen

Amsterdam – In het vonnis van Rechtbank Amsterdam in de zaak van Expertisebureau Online Kindermisbruik (EOKM) tegen pornowebsite xhamster is vandaag bepaald dat xhamster alleen niet-professionele naaktbeelden mag blijven publiceren als zij beschikt over de toestemming van alle personen die in beeld komen. Het is een overwinning voor de rechten en privacy van slachtoffers waarvan deze naaktbeelden zonder aantoonbare toestemming werden gepubliceerd.

In een eerdere mede door het EOKM aangespannen rechtszaak tegen pornosite vagina.nl, oordeelde de rechtbank Amsterdam vorig jaar al dat het onrechtmatig is zogenaamde amateurbeelden te publiceren, tenzij de exploitant zich ervan heeft vergewist dat iedereen in beeld instemt met publicatie. Arda Gerkens, directeur EOKM, is blij met de uitspraak: “Ik ben blij dat de rechter opnieuw bevestigt dat dit soort amateurbeelden niet zomaar online geplaatst kunnen worden. Het op deze manier verspreiden van naaktbeelden moet gestopt worden en daar spelen alle pornosites een rol in.”

Beelden offline halen
De uitspraak is een tegenslag voor xhamster, zij moet haar pornosite flink opschonen. Tijdens de rechtszaak bleek dat er op xhamster.com miljoenen video’s online staan zonder dat xhamster over expliciete toestemming van de personen in beeld beschikt. xHamster moet nu binnen drie weken alle video’s met amateurbeelden van personen die in Nederland wonen offline halen als zij niet over de expliciete toestemming van die personen beschikt. Amateurbeelden van niet in Nederland woonachtige personen moeten binnen drie weken in Nederland ontoegankelijk worden gemaakt als expliciete toestemming van de personen in beeld ontbreekt.

Vervolgstappen
De uitspraak heeft ook impact op andere websites die seksuele beelden commercieel exploiteren. Gerkens: “We gaan zeker nadenken over vervolgstappen tegen andere pornosites die zonder expliciete toestemming beeldmateriaal publiceren, of gepubliceerd hebben, met herkenbare personen die in de privésfeer seksuele handelingen verrichten.”

Het vonnis toont aan dat ook buitenlandse exploitanten kunnen worden aangesproken. Hanna van Til van Boekx Advocaten die het EOKM bijstond in deze zaak: “Ook grote spelers in de online porno-industrie zoals xhamster moeten zich houden aan de regels. Doen zij dat niet, dan grijpt de Nederlandse rechter in. Dat kan dus ook met een kort geding. Dat pornosites dit soort beelden niet mogen (blijven) publiceren zonder aantoonbare toestemming van de personen in beeld lijkt vanzelfsprekend, maar de praktijk blijkt helaas nog te vaak anders. Na dit vonnis kunnen xhamster en ook andere exploitanten echt niet meer de andere kant op kijken.”

Haar collega Otto Volgenant van Boekx Advocaten vult aan: “Dit is een historische uitspraak met grote gevolgen voor de hele porno-industrie. De grootste speler is Pornhub, die verwijderde eerder al 10 miljoen filmpjes. Nu is xHamster aan de beurt. Per dag kijken er 30 miljoen mensen naar die website. xHamster zit op Cyprus maar moet zich gewoon aan de Nederlandse wet houden. Hoog tijd dat de porno-industrie zelf maatregelen neemt en niet langer filmpjes online zet zonder toestemming. Daar zou eigenlijk helemaal geen kort geding voor nodig moeten zijn.”

Overwinning voor slachtoffers
Voor (potentiële) slachtoffers van online shaming is de uitspraak een overwinning. Het is een erkenning voor het leed dat hierdoor wordt aangericht. Gerkens: “Voor een individueel slachtoffer is het heel moeilijk om onrechtmatige beelden offline te krijgen en vaak weten slachtoffers niet eens dat ze op internet zijn geplaatst. Deze uitspraak maakt het makkelijker om die beelden te laten verwijderen. Helpwanted, onderdeel van het EOKM, kan daarbij helpen als slachtoffers zich daar melden. Tevens geeft dat meer duidelijkheid over welke websites zich nog steeds niet aan de regels houden.”

De uitspraak is hier terug te lezen.

Om de rechtszaak te kunnen bekostigen, is het EOKM een crowdfunding-actie onder de naam “Niet zonder mijn toestemming” gestart. Gerkens: “We roepen mensen op ons te steunen met een klein bedrag. Elke euro helpt. Zo kunnen we deze rechtszaak financieren en kunnen supporters laten zien dat zij achter de eis staan, dat dit soort sites niet zomaar naaktfilmpjes kunnen plaatsen.” De crowdfundingsite is hier te vinden.

Pornosite aangeklaagd wegens illegale naaktbeelden

Amsterdam 20 maart 2023 – Het Expertisebureau Online Kindermisbruik (EOKM) is een rechtszaak tegen de pornowebsite xhamster.com gestart. De pornosite exploiteert naaktbeelden zonder aantoonbare toestemming van de mensen die in beeld zijn.

Met de rechtszaak wil het EOKM duidelijk maken dat alle exploitanten van pornosites moeten nagaan of er toestemming is van iedereen die in beeld is om naaktbeelden op internet te zetten. Het EOKM constateert al langer dat sommige pornosites zogenaamde amateurbeelden publiceren zonder uitdrukkelijke toestemming van de personen die in beeld zijn. “Vervolgens krijgen we verzoeken om te helpen het materiaal verwijderd te krijgen, iets wat niet altijd gemakkelijk gaat”, aldus Arda Gerkens directeur van het EOKM.

Op xhamster.com, geëxploiteerd door Hammy Media, staat naast professionele porno ook veel beeldmateriaal met herkenbare personen die in de privésfeer seksuele handelingen verrichten. Pornowebsites als xhamster.com moeten volgens het EOKM garanderen dat de betrokkenen toestemming hebben gegeven voor het plaatsen van video’s met blootmateriaal. Nu kunnen deze video’s geüpload worden zonder dat adequaat gecontroleerd wordt op toestemming van de betrokkenen. “Dat moet omkeren”, onderstreept Gerkens: “Laat deze sites maar aantonen dat daar wel toestemming voor is.”

Hanna van Til van Boekx Advocaten staat het EOKM bij in deze rechtszaak en zegt: “Het is vanuit juridisch oogpunt duidelijk dat het online aanbieden van dit soort beelden niet is toegestaan. De rechtbank Amsterdam oordeelde in een eerdere mede door het EOKM aangespannen rechtszaak dat het onrechtmatig is dit soort beelden te publiceren, tenzij de exploitant zich ervan heeft vergewist dat iedereen in beeld instemt met publicatie. Nu is het de hoogste tijd dat exploitanten zich daar ook aan gaan houden.”

Hammy Media zegt in het verweer een beleid te voeren dat erop gericht is geen enkel illegaal beeldmateriaal te publiceren. Zij zou al het beeldmateriaal voorafgaand aan openbaarmaking controleren, en dat zou in combinatie met haar haar notice & takedown beleid voldoende moeten zijn.

Deze zaak volgt op de rechtszaak die het EOKM eerder met succes voerde tegen pornosite vagina.nl. Gerkens hoopt ook nu weer op een uitkomst die in het voordeel uitpakt van de (potentiële) slachtoffers, waarbij hun rechten en privacy voorop staan.

De dagvaarding is gepubliceerd in het Centraal register voor collectieve vorderingen en is hier te vinden: https://www.rechtspraak.nl/SiteCollectionDocuments/RBAMS-stichting-eokm-vs-hammy-media-ltd.pdf De zitting vindt plaats op 27 maart a.s. om 13.30 uur bij de Rechtbank Amsterdam.

Om de rechtszaak te kunnen bekostigen, start het EOKM een crowdfunding-actie onder de naam “Niet zonder mijn toestemming”. Gerkens: “We roepen mensen op ons te steunen met een klein bedrag. Elke euro helpt. Zo kunnen we deze rechtszaak financieren en kunnen supporters laten zien dat zij achter de eis staan, dat dit soort sites niet zomaar naaktfilmpjes kunnen plaatsen.” De link naar de crowdfundingsite is: www.geef.nl/nl/actie/niet-zonder-mijn-toestemming

Nieuwe technologie vermindert bekijken van en vraag naar beelden seksueel kindermisbruik

*For English see below*

Amsterdam, 24 februari 2023 – In samenwerking met deskundigen uit de EU en het VK wordt unieke veiligheidstechnologie ontwikkeld, die op basis van machine learning, real time beelden en video’s van seksueel kindermisbruik zal herkennen.

Het tweejarige zogenaamde Protech-project gaat in maart 2023 van start met het onderzoeken, ontwerpen en ontwikkelen van een applicatie voor mensen die neigen om beeldmateriaal van seksueel kindermisbruik te bekijken. Gebruikers worden volledig op de hoogte gebracht van het doel van de app en de effecten ervan op hun toestel.

De app monitort zowel het netwerkverkeer als de beelden die in real time op het scherm van de gebruiker worden bekeken. De app functioneert op de achtergrond waardoor de gebruikers niets merken van deze app, tenzij seksuele misbruikbeelden van minderjarigen worden waargenomen.

De partners van het project zijn ervan overtuigd dat de app de groeiende vraag naar online materiaal van seksueel kindermisbruik kan helpen verminderen. Bovendien voorkomt de app het herhaald slachtofferschap bij de slachtoffers van seksueel misbruik die kunnen lijden onder het feit dat hun beelden steeds opnieuw online bekeken kunnen worden.

De app is uniek omdat deze is ontworpen voor de gebruikers ervan. Er worden zeer accurate machine learning modellen toegepast. Doordat de app in de real time werkt, wordt voorkomen dat de gebruiker dergelijke beelden te zien krijgt.

Deze app kan een essentieel instrument zijn voor een duurzame en lange termijn preventie van beelden van seksueel kindermisbruik. Dit naast de huidige digitale interventies die dergelijke beelden bestrijden en verwijderen, zoals strafrechtelijke onderzoeken en verwijdering en hashing van beelden van seksueel kindermisbruik.

Het project wordt geleid door één van de grootste universitaire ziekenhuizen in Europa, Charité – Universitätsmedizin Berlin (CUB), dat voor dit project samenwerkt met deskundigen van uiteenlopende disciplines zoals criminologie, volksgezondheid, ontwikkelings-, klinische en forensische psychologie, softwareontwikkeling en internetveiligheid.

Het project van 2 miljoen euro is gefinancierd door de Europese Commissie. 

Arda Gerkens, algemeen directeur Stop it Now, onderdeel van het Expertisebureau Online Kindermisbruik: “Stop it Now Nederland is verheugd deel te kunnen uitmaken van dit Protech-onderzoeksproject. Onze hulplijn biedt ondersteuning, begeleiding en online zelfhulpmiddelen voor mensen die materiaal van seksueel kindermisbruik bekijken. Mensen die onze hulplijn contacteren zijn echter vaak op zoek naar technische interventies die hen helpen weg te blijven van dit materiaal.

In onze missie om (online) seksueel kindermisbruik te voorkomen en te bestrijden, en in ons werk om een veilige online omgeving tot stand te brengen voor iedereen, ervaren we dat onderzoek en voortdurende verbetering van ondersteunings- en preventiemiddelen essentieel zijn.”

———————

ENGLISH:

Amsterdam, 24 februari 2023 A unique safety tech tool which uses machine learning in real-time to detect child sexual abuse images and videos is to be developed by a collaboration of EU and UK experts.

Launching in March, the two-year Protech project will research, design and create an app that can be installed on the devices of individuals at risk of or concerned about their sexual thoughts about children, which may lead to them accessing child sexual abuse material.

The app will be deployed voluntarily, and users will have full knowledge of its purpose and its effect on their device.

The safety app will monitor both network traffic and images viewed on the user’s screen in real-time. After being installed, the app will run silently and will not require user interaction unless sexual images of children are detected and blocked.

Collaborators behind the €2m (£1.8m) project, which is funded by the European Commission, believe the tool could help stem the growing demand for child sexual abuse material online.

It will prevent the revictimisation of child sexual abuse survivors who continue to suffer in the knowledge that others may still be able to view images and videos of them online.

The app’s uniqueness lies in its user-centred design which employs highly accurate machine learning models to provide effective intervention to individuals at risk of viewing sexual images of children. It will work in real-time to detect and halt the viewing of criminal content before it is seen by the user.

It could prove to be a vital tool for the sustainable, long-term prevention of child sexual abuse content, alongside current digital activities that tackle and remove the imagery, such as criminal investigations and the removal and hashing of images.

The project is led by one of the largest university hospitals in Europe, Charité – Universitätsmedizin Berlin (CUB), in partnership with experts from diverse and wide-ranging fields including criminology, public health, developmental, clinical and forensic psychology, software engineering, child protection and internet safety.

Arda Gerkens, Managing Director of Stop it Now Netherlands, part of the Centre for Expertise on Online Child Sexual Abuse: “Stop it Now Netherlands is very excited to be a part of the Protech research project. Our helpline offers support, guidance and online self-help resources for people who use child sexual exploitation material (CSEM). However, individuals who contact our helpline are often in search for technical interventions that will keep them away from CSEM.

“In our mission to stop and prevent child sexual abuse (online) and work towards a safe online environment for everyone, we feel that research and continued improvement of support and prevention tools are essential.”

Dickpics: ontvanger voelt vooral walging, zender hoopt juist op seksuele opwinding

Amsterdam, 2 februari 2023 – Eén op de vijf meisjes en vrouwen boven de 12 jaar heeft wel eens een dickpic ontvangen, vaak meermaals en het merendeel van onbekenden. 76% van de ontvangers, zowel vrouwen als mannen, ervaart ‘walging’ bij het krijgen hiervan, terwijl 86% van de verzenders juist hoopt seksuele opwinding te bereiken. Dit blijkt uit onderzoek van Helpwanted, onderdeel van het Expertisebureau Online Kindermisbruik (EOKM).

Slechts 2% raakt seksueel opgewonden bij het ontvangen van een dickpic
Uit het onderzoek ‘Dickpics onder de loep’ van Helpwanted komen nauwelijks positieve gevoelens bij het ontvangen van een dickpic naar voren. Bijna geen van de ontvangers (88%) vroegen om het sturen van een dickpic, stemden ermee in of gaven hints om er een te ontvangen. Dickpics, zowel het ontvangen als het versturen, worden door de meerderheid als een ‘onvrijwillige seksuele interactie gezien’. Na ‘walging’ vindt een grote groep (60%) het ontvangen ‘ordinair’. Slechts 2% zegt seksueel opgewonden te raken, terwijl een ruime meerderheid (86%) van de zenders juist hoopt ‘seksuele opwinding’ te bereiken. Een meerderheid (54%) geeft helemaal geen reactie op het ontvangen van een dickpic. Een oorzaak kan zijn dat ze niet weten hoe zij kunnen reageren.

Mannen positief
Het onderzoek van Helpwanted laat zien dat bijna twee keer zoveel mannen naaktbeelden van zichzelf sturen als vrouwen. Mannen zijn ook beduidend ‘positiever’ over het ontvangen én het versturen van een dickpic. Ze vinden het dan ‘normaal’ en ‘het hoort bij het flirten’. Ze noemen het ‘gangbaar’ en ‘spannend’. Vrouwen zien het vaker als ‘onvrijwillige seksuele interactie’ en vinden het ‘beledigend’.

Arda Gerkens, directeur Helpwanted: “We zien dus dat er een groot verschil van beleving is tussen degene die de foto stuurt en degene die hem ontvangt. Natuurlijk kan het sturen van sexy foto’s onderdeel zijn van iemands seksleven. Zeker voor jonge mensen bij wie het sociale leven voor een belangrijk deel online plaatsvindt. Maar we zien het eigenlijk bij alle leeftijden. Check van tevoren wel of het oké is, als je een dickpic stuurt. En respecteer het vooral ook als iemand ‘nee’ zegt. Een ongevraagde dickpic kan namelijk zeer intimiderend zijn voor de ontvanger. In dat geval is het gewoon seksueel overschrijdend gedrag.”

Heb je te maken met online grensoverschrijdend gedrag? Bel of chat gratis en anoniem met Helpwanted via helpwanted.nl

Standpunten van het EOKM over de Europese Verordening ter voorkoming en bestrijding van seksueel kindermisbruik

FOR ENGLISH SEE BELOW

De Europese Commissie heeft op 24 juli 2022 een EU-strategie voor een meer effectieve strijd tegen seksueel kindermisbruik gepresenteerd, als onderdeel van de brede EU Veiligheidsuniestrategie. Het doel van de strategie is om de strijd tegen seksueel misbruik van kinderen, zowel online als offline, in de EU doeltreffender te maken. De Commissie kondigt hiertoe concrete initiatieven aan. 

Het Expertisebureau Online Kindermisbruik (EOKM) zet kanttekeningen bij het voorstel en wil u in voorbereiding op de technische briefing over de EU-strategie voor het bestrijden van seksueel kindermisbruik onze zorgen meegeven.

Positie EOKM ten aanzien van het voorstel:

Proportionaliteit 

De Europese Commissie rechtvaardigt dit wetsvoorstel op basis van een aantal cijfers dat gegeven wordt. Er wordt gesproken over een explosieve groei van het aantal meldingen en 85 miljoen foto’s en video’s van kinderporno die alleen al in 2021 zijn onderschept. Maar een stijging van het aantal meldingen wil niet zeggen dat er ook meer kindermisbruik plaatsvindt. Ten eerste weet men niet of de stijging van de meldingen komt door een groei in het gebruik van internet, betere detectiemiddelen of betere bereidheid tot melden.. Daarnaast zegt het aantal meldingen niets over de omvang van het daadwerkelijke misbruik. 

Uit onderzoek van META (Facebook) blijkt dat de afbeeldingen van seksueel kindermisbruik die zij hebben ondervangen voor bijna 90% van het totaal uit slechts enkele afbeeldingen bestaat. Dat wil zeggen dat 90% van de afbeeldingen die gedeeld worden bestaan uit slechts vijf à zes unieke beelden. 

Aantasten privacy 

De Europese Commissie wil internetbedrijven verplichten te scannen op beeld én tekst in privé- communicatie op bekend en onbekend misbruikmateriaal. Het scannen van privé-communicatie is een inbreuk op de privacy van het kind en is een schending van artikel 16 van het Kinderrechtenverdrag van de Verenigde Naties, hetgeen alleen gerechtvaardigd zou zijn wanneer het kind beter beschermd wordt. Maar het voorstel maakt het internet juist onveiliger voor kinderen. Het internet is voor kinderen een onlosmakelijk onderdeel van hun leven. Daarbij hoort ook het onderling sturen van seksueel getinte foto’s. Het is een onderdeel van het opgroeien en de seksuele ontwikkeling. Het gros van deze uitwisseling van afbeeldingen gebeurt zonder enige problemen. Het voorstel zorgt ervoor dat alle afbeeldingen onderschept kunnen worden, juist ook wanneer er geen problematische situatie is. Vervolgens worden de afbeeldingen door vele mensen 

bekeken om te analyseren. Daarmee wordt er onnodig een enorme inbreuk gepleegd op de privacy van het kind. Het voorstel heeft dus geen rekening gehouden met de diversiteit van de redenen om naaktbeelden te delen, noch het feit dat veel materiaal vrijwilliger gedeeld wordt. 

Onveiliger internet 

Om de kans dat de beelden in verkeerde handen vallen te verkleinen, is een veilige omgeving van groot belang. Het voorstel van de Commissie maakt de omgeving juist onveiliger. Om mee te kijken in versleutelde berichten (end-to end-encryptie) moeten er achterdeurtjes worden ingebouwd. Dit zal kinderen en jongeren juist schaden. Nu al worden kinderen en jongeren afgeperst met foto’s uit gehackte sociale media accounts. Kwetsbaarheden introduceren voor de opsporing maakt het internet ook onveiliger voor hen. Als je een achterdeur op een kier zet bij de bestrijding van misbruik, opent het ook nieuwe wegen voor kwaadwillenden. 

Artificiële Intelligentie is onvoldoende ontwikkeld
In de zoektocht naar mogelijk nieuw materiaal wordt in het wetsvoorstel uitgegaan van technieken, zoals Artificiële Intelligentie, zoals die in de nabije toekomst beschikbaar zouden moeten zijn. De suggestie wordt gewekt dat de techniek zo ver gevorderd is, dat met Artificiële Intelligentie afbeeldingen van kindermisbruik goed te onderscheiden zijn. Maar die technologie is nog helemaal niet ver genoeg om dat te kunnen. Ook het scannen op tekst, waarbij het met technologie mogelijk moet zijn om gesprekken op eventuele schadelijke inhoud te analyseren, staat nog in haar kinderschoenen. Navraag leert dat de ontwikkelaars van de technieken scannen op teksten als: ‘is je moeder thuis?’ Dit soort teksten kan door heel veel onschuldige burgers gebruikt worden. 

Meldpunten worden buiten werking gesteld en websites niet aangepakt 

Wanneer een platform een aanwijzing krijgt op verplicht scannen, moet al het gevonden materiaal gemeld worden aan het nieuw op te richten onafhankelijk Europese Centrum. Daarmee komen er geen meldingen meer naar de Meldpunten. Een wereldwijd netwerk van samenwerking komt daarmee onder druk te staan en snelle acties om afbeeldingen te verwijderen verdwijnen. Het internationale netwerk van meldpunten Inhope, heeft haar zorgen geuit over deze ontwikkeling. Zorgwekkender is dat het voorstel vooral toeziet op prive-communicatie, zoals chats, emails, berichten in social media, maar niet op de websites waar de Meldpunten mee te maken hebben. Het probleem van de verspreiding van dit materiaal zoals we dat in Nederland kennen wordt hiermee nagenoeg niet aangepakt. 

Vrijwillig scannen 

In het voorstel worden platforms verplicht om actief afbeeldingen van seksueel kindermisbruik op te sporen en te rapporteren bij de autoriteiten. Alle vrijwillige inspanningen worden voortaan verboden. Ook activiteiten anders dan het scannen, maar die wel patronen van misbruik kunnen ontdekken, zijn voortaan verboden. Het wetsvoorstel maakt de aanpak van online kindermisbruik minder flexibel. 

Wat dan wel? 

Het Expertisebureau Online Kindermisbruik (EOKM) vindt dat aanbieders van online diensten op vrijwillige basis, met getoetste waarborging, door moeten kunnen blijven gaan met het scannen op bekende afbeeldingen van seksueel kindermisbruik. Om dit mogelijk te maken zou de tijdelijke ontheffing (derogatie) van de Elektronische Communicatiewet (EECC) gedeeltelijk in een permanente ontheffing kunnen worden omgezet. 

Programma’s die gebruik maken van artificiële intelligentie of het scannen op tekst zijn niet volwassen genoeg om ingezet te worden voor een detectie die uiteindelijk kan leiden tot rechtsvervolging. Deze horen dus niet in die ontheffing thuis.
Andere wijze van detecteren moeten mogelijk zijn, met de juiste waarborgen. Voorstellen daartoe kunnen getoetst worden aan privacy wetgeving. Hier kan het Europees Centrum een belangrijke rol in spelen. Ook kan het Europees Centrum een rol spelen bij het aanbieden van middelen om platforms te helpen hun netwerk schoon te houden. Onze ervaring leert dat vele website eigenaren niet goed weten waar te beginnen om het probleem op hun netwerk te voorkomen of aan te pakken. Daarnaast bepleit het EOKM het hebben van een toezichthouder, zoals het ATKM in wording, zodat lakse aanbieders van internetdiensten beboet kunnen worden. 

Als laatste benadrukt het EOKM dat preventie nagenoeg geen rol heeft en preventie van daderschap veel te weinig aandacht heeft in het voorstel. In alle gevallen heeft voorkomen van het misbruik de voorkeur boven het slechts detecteren van kwaad dat als geschied is. 

———————————————————————————————————————————

ENGLISH

On 24 July 2022, as part of the EU Security Union Strategy, the European Commission presented an approach aimed at more effectively combatting sexual child abuse. The objective of the strategy is to ensure that EU-wide efforts to fight sexual abuse of children, both online and offline, are more effective. The Commission has announced a series of concrete initiatives.

The Expertise Centre on Online Child Abuse (EOKM) has concerns regarding the proposal and we would like to share our misgivings with you.

The EOKM’s position regarding the proposal:

Proportionality

The European Commission justifies this legislation based on a number of figures presented. One of these figures is the exponential increase in the number of reports and 85 million photos and videos containing child sexual abuse material intercepted in 2021 alone. However, an increase in reporting does not necessarily equate to an increase in child abuse. First of all, we cannot determine whether this increase in reporting is due to an increased use of the internet, better detection instruments, or a higher willingness to report. In other words, the level of reporting does not necessarily relate to the extent of actual abuse. 

Research by META (formerly known as Facebook) shows that the images of sexual child abuse intercepted by the company comprise no more than a few images in close to 90% of cases. This means that 90% of the images being shared involve just five or six unique images. 

Invasion of privacy 

The European Commission wants to order internet companies to scan images and text for known and unknown abuse materials in private communications. Scanning private communication is an invasion of privacy of the child and constitutes a violation of Article 16 of the Child Rights Treaty of the United Nations – something which might be justifiable only if it serves to better protect the child. However, this proposal, makes the Internet in fact more unsafe for children. For kids, the internet is an indispensable part of their lives. For many, this  includes exchanging photographs with sexual connotations. This is part of a healthy adolesence and normal sexual development and exploring. The large majority of such exchanges take place without any issues. The proposal, however, makes it possible for all images to be intercepted, even without any indication of a problematic situation. In order to analyse them, the images are subsequently viewed by scores of people. This poses an unnecessary invasion of privacy of the child. The proposal clearly has not taken into consideration the varied reasons for sharing nude images, nor taken note of the fact that much material is shared on a voluntary basis.

Less safe internet

To reduce the chance of images falling into the wrong hands, a safe environment is of utmost importance. The Commission’s proposal is in fact making the environment less safe as backdoors will have to be built in order to monitor these encrypted messages (end-to-end encryption). This will harm children and young people. Already, children and youths are being extorted with photos from social media accounts that have been hacked. Introducing weak spots aimed at detection also makes the internet less safe for them. When you set a backdoor ajar to combat abuse, this simultaneously opens up new avenues for people with bad intentions.

Artificial Intelligence is insufficiently developed

In the search for possible new material, the legislative proposal relies on techniques, including artificial intelligence that may become available in the near future. The suggestion is made that the technology is so far advanced that artificial intelligence can easily distinguish images of sexual child abuse. In reality, the technology has not progressed this far. Scanning for text, using technology to analyse conversations for harmful context, is also still in its infancy. Inquiry shows that developers of these technologies scan for phrases such as, ‘Is your mother home?’. These types of phrases may be used by scores of innocent citizens. 

Hotlines are deactivated and websites not dealt with

When a platform is instructed on mandatory scanning, all the material found must be reported to the new independent European Centre that is to be established. This will stop reporting to the hotlines. This puts a global network of collaboration under pressure and quick actions to remove images will disappear. INHOPE, the international network of hotlines, has expressed its concern about these developments. More concerning is the fact that the proposal predominantly focuses on private communication, such as chats, emails, and social media posts, instead of the websites hotlines are dealing with. As such, the problem of the dissemination of these materials as known in the Netherlands fails to be addressed. 

Voluntary scanning

The proposal makes it mandatory for platforms to actively trace and report images of sexual child abuse to the authorities. All voluntary efforts will be prohibited. Activities other than scanning that are able to detect patterns of abuse will be outlawed. The legislative proposal makes combatting online child abuse less flexible.

What should be done?

The Expertise Centre on Online Child Abuse (EOKM) is of the opinion that online service providers should be able to continue scanning on a voluntary basis, with verified assurance, for known images of sexual child abuse. To make this possible, the temporary waiver (derogation) of the European Electronic Communications Code (EECC) could partially be converted into a permanent exemption. 

Programmes using artificial intelligence or scanning for text are insufficiently advanced to be used in detecting that can ultimately lead to prosecution. Therefore, these should not fall under this waiver.

Other ways of detection must remain possible, with the right guarantees. Proposals to this end may be assessed against privacy law. The European Centre might play an important role in this. The European Centre could also play a role in offering platforms the means to help keep their networks clean. In our experience, many website owners often do not quite know where to start to prevent and counter this problem occurring on their networks. The EOKM also advocates for a supervisory authority, such as the ATKM that’s in the making, so that lax internet providers may be fined.

Lastly, the EOKM wants to call attention to the fact that the proposal barely provides a role for prevention and pays far too little attention to the preclusion of perpetration. Prevention of abuse should always take precedence over detection of damage already done.

Aanpak online kindermisbruik werpt vruchten af

FOR ENGLISH SEE BELOW

(Dit persbericht is opgesteld na aanleiding van de halfjaarcijfers van het Meldpunt Kinderporno).

Het Expertisebureau Online Kindermisbruik (EOKM) krijgt minder meldingen binnen over kinderporno. Dit blijkt uit de halfjaarcijfers van het Meldpunt Kinderporno, onderdeel van het EOKM. Het aantal anonieme meldingen laat over de eerste twee kwartalen een daling zien van 93% ten opzichte van 2021. De meldingen die binnenkomen via internationale meldpunten zijn ten opzichte van 2021 met 77% gedaald. Deze dalende cijfers tonen aan dat de aanpak van online seksueel kindermisbruik zijn vruchten af lijkt te werpen.

Toegenomen druk
De daling is toe te schrijven aan een aantal factoren. Eén ervan is de toegenomen druk op hosters. Ondanks de goede samenwerking zag het EOKM in het verleden vaker dat niet alle hosting-partijen voldoende inspanningen verrichtten om het internet schoon te houden van seksueel beeldmateriaal van minderjarigen. Maar door het programma ‘Kindveilig Internet’, een initiatief van voormalig minister van Justitie en Veiligheid Grapperhaus, en een samenwerking tussen internetbedrijven, het EOKM en het ministerie van Justitie en Veiligheid, is de druk op hosters toegenomen. Daarbij heeft de in oprichting zijnde autoriteit kinderporno de mogelijkheid tot het geven van boetes. Dit speelt een belangrijke rol bij het besluit van hosters om mee te werken aan het opschonen van internet.

Instant Image Identifier
Veel hosters sluiten zich aan bij de Instant Image Identifier, voorheen bekend als de Hashcheckserver. Met dit technische hulpmiddel kunnen hostingproviders controleren of materiaal dat wordt geüpload op hun platformen voorkomt in een database met bekend kinderpornografisch materiaal. Zij kunnen dit vervolgens verwijderen en zo voorkomen dat er materiaal van seksueel misbruik van minderjarigen online wordt gezet.

Verhuizing hosters
Door de aanpak van online seksueel kindermisbruik ziet het EOKM dat een aantal imagehosters naar het buitenland is vertrokken. Dit is zorgelijk omdat het probleem zich verplaatst. Ook kunnen hosters volledig uit beeld verdwijnen omdat een deel van hen naar landen is vertrokken waar geen enkele handhaving op dergelijk beeldmateriaal plaatsvindt. Het EOKM roept dan ook op om internationaal nog meer samen te werken en blijft waakzaam.


ENGLISH:

Dutch approach to removal online child abuse bears fruit

The Expert Centre Online Child Abuse (EOKM) has seen a steep decline in reports of child sexual abuse material (CSAM), according to the half-yearly figures of the Hotline, part of the EOKM. The number of anonymous reports over the first two quarters shows a decline of 93% compared to 2021. The reports received through international hotlines have decreased by 77% compared to 2021. These decreasing figures show that the approach to combat online child sexual abuse seems to bear fruit.

Increased pressure
The decline can be attributed to a number of factors. One is the increased pressure on hosters. Despite the good cooperation in the past, the EOKM often saw that not all hosting parties made sufficient efforts to keep the Internet clean of sexual images of minors. But through the programme ‘Children Safe on the Internet’, an initiative of former Minister of Justice and Security Grapperhaus, and a cooperation between internet companies, the EOKM and the Ministry of Justice and Security, the pressure on hosters has increased.
In addition, the Child Sexual Abuse Material Authority, which is currently being set up, has the option of imposing fines. This plays an important role in the decision of hosters to cooperate in cleaning up the Internet.

Instant Image Identifier
Many hosters subscribe to the Instant Image Identifier, formerly known as the Hashcheckserver. This technical tool allows hosting providers to check whether material uploaded onto their platforms is in a database of known child sexual abuse material. They can then remove it and thus prevent material of sexual abuse of minors from being put online.

Relocation hosters
Because of the Dutch approach to online child sexual abuse, the EOKM has noticed that a number of image hosts have moved abroad. This is worrying because the problem is moving. Hosters can also disappear completely from view because some of them have moved to countries where there is no enforcement whatsoever on such image material. The EOKM therefore calls for even more international cooperation and remains vigilant.

Rapporten verwijderen CSAM beschikbaar

In opdracht van de Europese Commissie heeft het Expertisebureau Online Kindermisbruik (EOKM) in samenwerking met PwC een tool ontwikkeld voor de snellere verwijdering van online beeldmateriaal van seksueel kindermisbruik (CSAM). Aan de ontwikkeling van deze tool, de Instant Image Identifier genaamd, ging een onderzoek vooraf. De samenvattingen hiervan zijn momenteel beschikbaar gesteld.

Het doel van het vooronderzoek was onder andere het in kaart brengen van bestaande CSAM datasets en tools; welke gegevens worden hoe verzameld en bewaard door bijvoorbeeld Interpol en de Nederlandse politie. Er is gekeken naar bestaande wetgeving, verschillende classificatiesystemen en het technologische landschap. 

Uit het onderzoek blijkt onder andere dat er geen eenduidige definitie is van CSAM. En wetgeving over CSAM blijkt per land sterk te verschillen.

Er zijn aanbevelingen gedaan zoals een eenduidige definiëring van CSAM, een gestandaardiseerd classificatiesysteem en het koppelen van bestaande CSAM-hashlijsten. 

Op basis van het vooronderzoek en de aanbevelingen is de tool Instant Image Identifier (3-is) verder ontwikkeld. Met de tool kunnen gebruikers, zoals webproviders, controleren of geüploade bestanden voorkomen in datasets met bekend online seksueel beeldmateriaal (CSAM). Het doel is om dat materiaal zo snel mogelijk te detecteren en van het internet te verwijderen. 

De samenvattingen van de rapporten zijn te vinden op: 

https://op.europa.eu/en/publication-detail/-/publication/986ca706-cce4-11ec-a95f-01aa75ed71a1/language-en/format-PDF/source-257046699 (vooronderzoek)

https://op.europa.eu/en/publication-detail/-/publication/3e8e564c-cce7-11ec-a95f-01aa75ed71a1/language-en/format-PDF/source-257046650 (aanbevelingen)

Een kopie van het volledige rapport is op te vragen bij de EU: CNECT-G3@ec.europa.eu. 

Lancering baanbrekende internationale aanpak van online seksueel beeldmateriaal

De strijd tegen online seksueel misbruik van minderjarigen is een van de grootste uitdagingen van deze eeuw. Illegaal gedeelde afbeeldingen en video’s van online seksueel beelmateriaal (CSAM=Child Sexual Abuse Material) circuleren soms al jaren op internet. Slachtoffers blijven daardoor levenslang slachtoffers. De Instant Image Identifier (hiervoor bekend als Hashcheckserver) die het afgelopen jaar in opdracht van de Europese commissie en in samenwerking met PwC, Web-IQ en ESN is doorontwikkeld, kan daar verandering in brengen. Het idee is dat gebruikers, zoals webhostingproviders, met de Instant Image Identifier kunnen controleren of beeldmateriaal dat naar hun server is geüpload, al bestaat in databases met bekende CSAM. De Instant Image Identifier maakt daarbij gebruik van verschillende internationale databases zoals die van Interpol, NCMEC en de Nederlandse politie. De Instant Image Identifier moet zorgen voor het snellere en grondige verwijderen van beeldmateriaal van online seksueel kindermisbruik. Op 31 mei vindt de online presentatie plaats en wordt dit bijzondere instrument uitgebreid toegelicht door meer dan tien verschillende sprekers. Mocht je je willen aanmelden voor het online event, kijk dan op www.3-is.eu.

Blinde vlekken bij het detecteren van kinderporno zichtbaar dankzij nieuwe technologie

De nieuwe baanbrekende hightechtool LIBRA maakt het mogelijk dat kinderporno voortaan wereldwijd kan worden gedetecteerd en verwijderd op plaatsen waar nog nooit iemand heeft gekeken.

Jaarlijks komen er bij het Meldpunt vele honderdduizenden meldingen binnen. Dankzij de komst van de Hashcheckserver daalt sinds een aantal jaren het percentage nieuwe meldingen, maar dat is slechts het topje van de ijsberg. Het Meldpunt Kinderporno kan namelijk alleen acteren naar aanleiding van een melding en mag zelf niet zoeken naar materiaal. Daardoor hebben we geen goed beeld waar precies beeldmateriaal van seksueel misbruik van minderjarigen zich bevindt. Bovendien geven de meldingen onjuiste informatie over waar het zwaartepunt van de verspreiding ligt.

LIBRA (Labelling Identifiability by Remote Analyses) moet daar verandering in brengen. Deze hightechtool, ontwikkeld door Web-IQ, is in staat om real time inzicht te geven in de verspreiding van beeldmateriaal van seksueel misbruik van minderjarigen op het open internet. Er kan heel gericht en zonder de foto’s te downloaden, op te slaan of te bekijken, worden gescand. Er wordt uitsluitend open data gescand en de privacyregels zijn nauwkeurig in acht genomen.

LIBRA scant op afstand delen van het internet waarbij een zogenaamde ‘hash’, een digitale vingerafdruk wordt berekend van de gevonden afbeeldingen. Vervolgens wordt deze met behulp van de hashceckserver vergeleken met bekend strafbaar materiaal. Is dat het geval? Dan wordt dit geregistreerd. LIBRA bevat de omstandigheden van alle scans waarin de hash is aangetroffen. Een mogelijke omstandigheid zou kunnen zijn dat er eerder strafbaar materiaal is gevonden. Op basis daarvan worden de hashes voorzien van een simpele risicoscore. Hashes met hoge scores komen vervolgens alsnog bij het Meldpunt terecht om gecheckt te worden. Tot nu bleken 80% van de hashes die door LIBRA als verdacht werden aangemerkt, ook daadwerkelijk afbeeldingen van seksueel kindermisbruik te bevatten.

Tot op de dag van vandaag werd er voornamelijk materiaal gemeld met afbeeldingen van meisjes, terwijl we weten dat ook veel jongens slachtoffer worden van misbruik. Al tijdens de testfase vond LIBRA een Europese hotspot met zeer veel beelden van met name misbruikte jongens. LIBRA is niet alleen een uitstekend tool voor detectie, het geeft de politie ook meer inzicht en richting. Slachtofferschap kan hiermee worden voorkomen en andere hotspots binnen en buiten Europa kunnen in beeld worden gebracht.

Langslepende rechtszaak over naaktbeelden gewonnen door Stichting Stop Online Shaming en EOKM

Amsterdam – In het vonnis van Rechtbank Amsterdam in de zaak van Stichting Stop Online Shaming (‘SOS’) en HelpWanted, onderdeel van het Expertisecentrum Online Kindermisbruik (‘EOKM’), tegen een pornowebsite is vandaag bepaald dat pornowebsites alleen naaktbeelden mogen publiceren indien zij over de toestemming van de personen die in beeld komen beschikken. Alleen overduidelijk professionele beelden zijn van dit verbod uitgezonderd. Het is een overwinning voor de rechten van slachtoffers waarvan deze naaktbeelden ongewenst werden gepubliceerd.

Verstrekkende gevolgen

De uitspraak is daarnaast niet alleen een tegenslag voor de betreffende pornowebsite, maar heeft impact op álle websites die seksuele beelden commercieel exploiteren. Willem van Lynden, bestuurslid van SOS: “Nu vast is komen te staan dat niet-professionele naaktbeelden alleen geopenbaard mogen worden indien hiervoor toestemming is gegeven door degenen die in beeld komen, zijn de meeste pornowebsites direct in overtreding.” Niet langer hoeft de onrechtmatigheid van iedere individuele video te worden aangetoond, van deze beelden mag er nu van worden uitgegaan dat ze onrechtmatig zijn, ook al zijn de slachtoffers onbekend, een enorme stap voorwaarts.

“Wij zullen dan ook niet schromen om door te pakken en de grote, wereldwijde, pornowebsites aan te spreken op hun onrechtmatig handelen en aanpassing van hun werkwijze te eisen”, aldus Van Lynden namens Stop Online Shaming. Hoewel een enkele pornowebsite zelf reeds maatregelen heeft getroffen om alleen beelden waarvoor expliciete toestemming voor is gegeven te publiceren, heeft 99% van de websites dat volgens SOS nog niet gedaan.

Overwinning voor de slachtoffers

Voor slachtoffers van ongewenste sexting en online shaming is de uitspraak een overwinning. Zowel het handelen van de publicerende websites als de uploaders zelf is door dit vonnis als onrechtmatig bestempeld. Het is een erkenning voor het leed dat hierdoor wordt aangericht.

Arda Gerkens, directeur/bestuurder van het van EOKM is blij met de uitspraak: “We zijn blij dat de rechter heeft besloten wat we al dachten: je kunt niet zo maar zonder expliciete toestemming filmpjes plaatsen. Dit maakt het ook makkelijker om die beelden te laten verwijderen. En daar kan Helpwanted bij helpen.” Ook EOKM en Helpwanted willen ‘doorpakken’ en platforms aanspreken die zich niet aan het vonnis houden: “Platforms zullen nu hun verantwoordelijkheid moeten nemen. Ze mogen geen content plaatsen zonder expliciete toestemming, simpel en alleen omdat ze daar geld mee kunnen verdienen”, aldus Gerkens. 

Het vonnis maakt het aanspreken van deze platforms makkelijker. Otto Volgenant van Boekx Advocaten staat EOKM en SOS bij: “Dit vonnis is een mijlpaal, een ‘landmark decision’. De online porno-industrie zal drastisch moeten opschonen. Voor een individueel slachtoffer is het heel moeilijk om onrechtmatige beelden offline te krijgen en vaak weten slachtoffers niet eens weten dat ze stiekem op internet zijn geplaatst. Het belang van deze uitspraak is in deze collectieve procedure is dat voor het eerst recht wordt gedaan aan deze slachtoffers. Wereldwijd is dit nog niet eerder gebeurd.”

De uitspraak is hier terug te lezen.