Overslaan en naar hoofdinhoud gaan

De onmisbare rol van technologie en menselijke alertheid bij beeldverificatie

4 minuten leestijd
geschreven door:
Image verification by women with glasses

Wist je dat het aantal deepfakes wereldwijd in slechts twee jaar zestien keer zo groot is geworden? Dankzij kunstmatige intelligentie (AI) is het makkelijker dan ooit om een stem na te bootsen of een gezicht te reconstrueren en zo een overtuigende nepvideo te verspreiden.

Dit kan leiden tot gevaarlijke situaties, zoals identiteitsfraude of manipulatie van verkiezingscampagnes, iets wat we al meerdere keren in andere landen hebben zien gebeuren. Technologie, gecombineerd met menselijke alertheid, wordt onmisbaar om de echtheid van beelden te verifiëren en misleiding te voorkomen.

De snelle toename van deepfakes stelt onze wetgeving op de proef. Hoewel de GDPR persoonsgegevens beschermt en veel landen auteursrechten en portretrechten hanteren, bieden deze regels weinig houvast in een tijdperk waarin AI beelden en stemmen razendsnel en overtuigend kan nabootsen. In theorie mag niemand zonder toestemming een deepfake van iemand maken. Portretrechten blijven zelfs tot tien jaar na iemands overlijden geldig, waarin nabestaanden zich nog steeds op die rechten kunnen beroepen. Maar zelfs dan blijft het ethisch discutabel om iemand digitaal tot leven te brengen, zelfs met toestemming. In de praktijk wordt het maken en verspreiden van deepfakes zelden vervolgd, mede doordat het steeds moeilijker wordt om echte en gemanipuleerde beelden van elkaar te onderscheiden.

Niet alleen technologie, maar ook menselijke alertheid 

De uitdaging van verificatie kan deels via technologie worden aangepakt. Authenticatietechnologieën voegen bijvoorbeeld extra context toe aan beelden, zoals watermerken, tijdstempels, digitale handtekeningen, locatiegegevens en bewegingsinformatie.

Ook openbare registers waarin AI-algoritmes worden vermeld, vergroten de controle op echtheid. Hierin staat onder andere waarvoor een algoritme bedoeld is, wie het heeft ontwikkeld en hoe het beveiligd is. Dit zorgt voor transparantie en helpt deepfakes sneller te ontmaskeren. Deze authenticatiemiddelen en registers helpen bepalen of beelden echt zijn en kunnen ze zelfs bruikbaar maken als bewijs in rechtszaken.

Train je medewerkers om ongewone beelden te herkennen en verdachte situaties te melden Deze technologieën zijn alleen effectief als mensen weten hoe ze ermee moeten omgaan. 

Train je medewerkers om ongewone beelden te herkennen en verdachte situaties te melden, zodat manipulatie sneller aan het licht komt. 

Leer hen waar ze op moeten letten bij het bepalen of een beeld authentiek is. Let bijvoorbeeld op vage of vertraagde pixels, onnatuurlijke bewegingen van ogen, wenkbrauwen en mond, huid die te glad of vreemd gerimpeld is, inconsistente schaduwen of belichting, of haperingen in het beeld. Zulke kleine details kunnen verraden dat een video is gemanipuleerd of zelfs een deepfake is.

Vooruitgang vereist samenwerking 

Iedereen draagt verantwoordelijkheid voor een betrouwbare digitale wereld: bedrijven moeten open zijn over hoe ze beelden opslaan, verwerken en beveiligen, en transparant communiceren over hun gebruik van AI en cameratechnologie. Onderzoekers moeten voortdurend op zoek gaan naar nieuwe methoden om de echtheid van beelden te verifiëren. Wetgevers moeten duidelijke en handhaafbare regels opstellen, zoals de AI Act, de Cyber Resilience Act en richtlijnen zoals NIS2 en CER. Consumenten moeten kritisch blijven over wat ze online zien en delen. Die kritische houding moet al op school beginnen, waar kinderen en studenten leren hoe ze (digitale) beelden kunnen beoordelen en interpreteren.

Technologische ontwikkelingen gaan vaak sneller dan regelgeving kan bijhouden. Daarom blijft een kritische houding van iedereen essentieel: Waar komt het beeld vandaan? Is de bron betrouwbaar? En vertrouw je het genoeg om het te delen? Twijfel je, meld het dan bij de bron zelf — bijvoorbeeld via een meldfunctie op sociale media of door contact op te nemen met de redactie van een publicatie. En als je nog steeds twijfelt, deel het dan zeker niet verder. Alleen door waakzaam te blijven en samen te werken kunnen we de digitale wereld veilig en betrouwbaar houden.

Erik Baeten

Erik Baeten, A&E Manager NL bij Axis Communications, heeft meer dan 25 jaar ervaring in beveiliging en crowd management. Hij ondersteunt consultants en systeemontwerpers met expertise op het gebied van beveiligingssystemen, cameratoepassingen, analyse en planning. Bij Axis informeert hij klanten over innovatieve beveiligingsoplossingen en zorgt hij ervoor dat ze up-to-date blijven met de nieuwste technologieën om slimmere, veiligere omgevingen te maken. Erik geeft ook inzicht in de Total Cost of Ownership (TCO)-benadering van Axis.

Erik Baeten