
NemoKennislink. Sexual deepfakes now tackled.
Citaat Harold Pinter: “There are no hard distinctions between what is real and what is unreal, nor between what is true and what is false. A thing is not necessarily either true or false; it can be both true and false.”
Lees je net in het NRC (28/4/25) een artikel over etiquette deskundige Anne-Marie van Leggelo, die het vrijelijk delen van je seksuele escapades met je collega’s (ja ja, dat is een hype aan het worden) niet gepast vindt, lees ik in NemoKennislink, dat dat eigenlijk al een gepasseerd station is. Deepfake namelijk, confronteert je als het even tegenzit met je collega’s op internet in bizarre posities, waarvan je het bestaan niet eens wist. En dan ben je wel het gesprek van de kantoordag, waarvoor de collega’s graag even hun thuiswerkdag voor willen wisselen.
Bart van der Sloot, privacy-onderzoeker aan Tilburg University.
“Om in Nederland de schadelijke effecten van ongewenst AI-naakt nu substantieel tegen te gaan, is er volgens Van der Sloot een pakket van maatregelen nodig. “De politie zou hier meer capaciteit voor moeten hebben. Op scholen en daarbuiten moet worden gewerkt aan bewustwording.” En, zo stelt Van der Sloot verder, ook de meest verstrekkende maatregel, namelijk het verbieden van apps die het mogelijk maken om nepnaakt te maken, moet worden overwogen. “Het is zo makkelijk om dit materiaal te maken en tegen iemands wil te verspreiden. Ik vrees dat het dweilen met de kraan open is, als je deze apps niet verbiedt.“
Heeft Van der Sloot gelijk? Of is AI zo’n ongrijpbaar monster aan het worden, dat het symptoombestrijding wordt dergelijke apps te verbieden? Immers, de zwakste schakel in de keten van veiligheid is altijd de mens. En die laat zich niet weerhouden door een verbod. En dan hebben we het nog niet eens over avatars gehad.
https://www.nemokennislink.nl/publicaties/seksuele-deepfakes-te-lijf
Just read an article in the NRC (28/4/25) about etiquette expert Anne-Marie van Leggelo, who finds it inappropriate to freely share your sexual escapades with your colleagues (yes, that is becoming a hype), I read in NemoKennislink that that is actually a thing of the past. Deepfake, namely, confronts you with your colleagues on the internet in bizarre positions, which you did not even know existed. And then you are the talk of the office day, for which your colleagues would gladly exchange their home working day.
Bart van der Sloot, privacy researcher at Tilburg University.
“According to Van der Sloot, a package of measures is needed to substantially counteract the harmful effects of unwanted AI nudity in the Netherlands. “The police should have more capacity for this. Awareness needs to be raised in schools and elsewhere.” And, Van der Sloot continues, the most far-reaching measure, namely banning apps that make it possible to create fake nudity, should also be considered. “It is so easy to create this material and distribute it against someone’s will. I fear that it is like mopping the floor with the tap open if you do not ban these apps.”
Is Van der Sloot right? Or is AI becoming such an elusive monster that banning such apps is treating the symptoms? After all, the weakest link in the chain of security is always the human being. And they will not be deterred by a ban. And we haven’t even talked about avatars yet.
Ricky Turpijn