Passer au contenu principal

Le rôle indispensable de la technologie et de la vigilance humaine dans la vérification des images

Axis Image Verification

Saviez-vous que le nombre de deepfakes dans le monde a été multiplié par seize en seulement deux ans ? Grâce à l’intelligence artificielle (IA), il est plus facile que jamais d’imiter une voix ou de recréer un visage et de diffuser une vidéo truquée convaincante. Cela peut entraîner des situations dangereuses, comme la fraude à l’identité ou la manipulation de campagnes électorales, comme on l’a déjà observé à plusieurs reprises dans d’autres pays. La technologie, combinée à la vigilance humaine, devient indispensable pour vérifier l’authenticité des images et prévenir la tromperie.

La croissance rapide des deepfakes met notre législation à l’épreuve. Bien que le RGPD protège les données personnelles et que de nombreux pays appliquent des droits d’auteur et des droits à l’image, ces règles offrent peu de repères à une époque où l’IA peut reproduire des images et des voix rapidement et de manière convaincante. En théorie, personne n’est autorisé à créer des deepfakes d’une personne sans son consentement. Les droits à l’image restent même valables jusqu’à dix ans après le décès d’une personne, période durant laquelle les héritiers peuvent encore les invoquer. Mais même dans ce cas, il demeure éthiquement discutable de « ressusciter » quelqu’un numériquement, même avec son accord. En pratique, la création et la diffusion de deepfakes sont rarement poursuivies, en partie parce qu’il devient de plus en plus difficile de distinguer les images réelles des images manipulées.

Pas seulement la technologie, mais aussi la vigilance humaine

Le défi de la vérification peut être partiellement relevé grâce à la technologie. Les technologies d’authentification ajoutent par exemple un contexte supplémentaire aux images, comme des filigranes, des horodatages, des signatures numériques, des données de localisation ou des informations sur les mouvements.

Les registres publics dans lesquels les algorithmes d’IA sont répertoriés renforcent également le contrôle de l’authenticité. Ils indiquent notamment à quoi sert un algorithme, qui l’a développé et comment il est sécurisé. Cela crée de la transparence et aide à détecter plus rapidement les deepfakes. Ces outils d’authentification et registres permettent de déterminer si des images sont réelles et peuvent même les rendre utilisables comme preuves dans des procédures judiciaires.

Formez vos employés à reconnaître des images inhabituelles et à signaler les situations suspectes

Ces technologies ne sont efficaces que si les personnes savent les utiliser. Formez vos employés à reconnaître des images inhabituelles et à signaler les situations suspectes afin que les manipulations puissent être détectées plus rapidement. Apprenez-leur ce qu’il faut observer pour déterminer si une image est authentique. Par exemple : des pixels flous ou retardés, des mouvements anormaux des yeux, des sourcils ou de la bouche, une peau trop lisse ou étrangement ridée, des ombres ou un éclairage incohérents, ou encore des saccades dans la vidéo. Ces petits détails peuvent révéler qu’une vidéo a été manipulée ou qu’il s’agit même d’un deepfake.

Le progrès exige la collaboration

Nous partageons tous la responsabilité d’un monde numérique digne de confiance : les entreprises doivent être transparentes sur la manière dont elles stockent, traitent et protègent les images, et communiquer clairement sur leur utilisation de l’IA et des technologies de caméra. Les chercheurs doivent continuellement développer de nouvelles méthodes pour vérifier l’authenticité des images. Les législateurs doivent établir des règles claires et applicables, comme l’AI Act, le Cyber Resilience Act et des directives telles que NIS2 et CER. Les consommateurs doivent rester critiques face à ce qu’ils voient et partagent en ligne. Cet esprit critique doit commencer à l’école, où les enfants et les étudiants doivent apprendre à évaluer et interpréter les images (numériques).

Le développement technologique avance souvent plus vite que la réglementation ne peut suivre. C’est pourquoi une attitude critique de chacun reste essentielle : d’où provient l’image ? La source est-elle fiable ? Et lui faites-vous suffisamment confiance pour la partager ? En cas de doute, signalez-la directement à la source — par exemple via une fonction de signalement sur les réseaux sociaux ou en contactant la rédaction d’une publication. Et si vous n’êtes toujours pas sûr, ne la partagez surtout pas. Ce n’est qu’en restant vigilants et en travaillant ensemble que nous pourrons maintenir un monde numérique sûr et digne de confiance.

En savoir plus sur la cybersécurité et les fonctions d'authentification.

Erik Baeten

Erik Baeten, A&E Manager NL at Axis Communications, has over 25 years experience in Security and Crowd Management. He supports consultants and system designers with expertise in security systems, camera applications, analytics, and planning. At Axis, he educates clients on innovative security solutions, ensuring they are up-to-date with the latest technologies to create smarter, safer environments. Erik also provides keen insights into Axis' Total Cost of Ownership (TCO) approach.

Erik Baeten