Wist je dat het aantal deepfakes wereldwijd in slechts twee jaar zestien keer zo groot is geworden? Dankzij kunstmatige intelligentie (AI) is het makkelijker dan ooit om een stem na te bootsen of een gezicht te reconstrueren en zo een overtuigende nepvideo te verspreiden.
Dit kan leiden tot gevaarlijke situaties, zoals identiteitsfraude of manipulatie van verkiezingscampagnes, iets wat we al meerdere keren in andere landen hebben zien gebeuren. Technologie, gecombineerd met menselijke alertheid, wordt onmisbaar om de echtheid van beelden te verifiëren en misleiding te voorkomen.
De snelle toename van deepfakes stelt onze wetgeving op de proef. Hoewel de GDPR persoonsgegevens beschermt en veel landen auteursrechten en portretrechten hanteren, bieden deze regels weinig houvast in een tijdperk waarin AI beelden en stemmen razendsnel en overtuigend kan nabootsen. In theorie mag niemand zonder toestemming een deepfake van iemand maken. Portretrechten blijven zelfs tot tien jaar na iemands overlijden geldig, waarin nabestaanden zich nog steeds op die rechten kunnen beroepen. Maar zelfs dan blijft het ethisch discutabel om iemand digitaal tot leven te brengen, zelfs met toestemming. In de praktijk wordt het maken en verspreiden van deepfakes zelden vervolgd, mede doordat het steeds moeilijker wordt om echte en gemanipuleerde beelden van elkaar te onderscheiden.
Niet alleen technologie, maar ook menselijke alertheid
De uitdaging van verificatie kan deels via technologie worden aangepakt. Authenticatietechnologieën voegen bijvoorbeeld extra context toe aan beelden, zoals watermerken, tijdstempels, digitale handtekeningen, locatiegegevens en bewegingsinformatie.
Ook openbare registers waarin AI-algoritmes worden vermeld, vergroten de controle op echtheid. Hierin staat onder andere waarvoor een algoritme bedoeld is, wie het heeft ontwikkeld en hoe het beveiligd is. Dit zorgt voor transparantie en helpt deepfakes sneller te ontmaskeren. Deze authenticatiemiddelen en registers helpen bepalen of beelden echt zijn en kunnen ze zelfs bruikbaar maken als bewijs in rechtszaken.
Train je medewerkers om ongewone beelden te herkennen en verdachte situaties te melden Deze technologieën zijn alleen effectief als mensen weten hoe ze ermee moeten omgaan.
Train je medewerkers om ongewone beelden te herkennen en verdachte situaties te melden, zodat manipulatie sneller aan het licht komt.
Leer hen waar ze op moeten letten bij het bepalen of een beeld authentiek is. Let bijvoorbeeld op vage of vertraagde pixels, onnatuurlijke bewegingen van ogen, wenkbrauwen en mond, huid die te glad of vreemd gerimpeld is, inconsistente schaduwen of belichting, of haperingen in het beeld. Zulke kleine details kunnen verraden dat een video is gemanipuleerd of zelfs een deepfake is.
Vooruitgang vereist samenwerking
Iedereen draagt verantwoordelijkheid voor een betrouwbare digitale wereld: bedrijven moeten open zijn over hoe ze beelden opslaan, verwerken en beveiligen, en transparant communiceren over hun gebruik van AI en cameratechnologie. Onderzoekers moeten voortdurend op zoek gaan naar nieuwe methoden om de echtheid van beelden te verifiëren. Wetgevers moeten duidelijke en handhaafbare regels opstellen, zoals de AI Act, de Cyber Resilience Act en richtlijnen zoals NIS2 en CER. Consumenten moeten kritisch blijven over wat ze online zien en delen. Die kritische houding moet al op school beginnen, waar kinderen en studenten leren hoe ze (digitale) beelden kunnen beoordelen en interpreteren.
Technologische ontwikkelingen gaan vaak sneller dan regelgeving kan bijhouden. Daarom blijft een kritische houding van iedereen essentieel: Waar komt het beeld vandaan? Is de bron betrouwbaar? En vertrouw je het genoeg om het te delen? Twijfel je, meld het dan bij de bron zelf — bijvoorbeeld via een meldfunctie op sociale media of door contact op te nemen met de redactie van een publicatie. En als je nog steeds twijfelt, deel het dan zeker niet verder. Alleen door waakzaam te blijven en samen te werken kunnen we de digitale wereld veilig en betrouwbaar houden.