Passer au contenu principal

IA et sécurité : au-delà de l’effet de mode

8 minutes de lecture
écrit par :
Mats Thulin parle du rapport entre IA et sécurité

Ces deux dernières années, l’intelligence artificielle (IA) est devenue un sujet de conversation omniprésent dans les entreprises et les foyers du monde entier. Même si nous travaillons avec l’IA depuis de nombreuses années, avec des technologies de deep learning (DL) capables d’améliorer considérablement l’analyse vidéo, peu de technologies sont désormais aussi médiatisées que l’IA, en grande partie grâce à l’avènement de l’IA générative.

Beaucoup estiment que le terme est utilisé à tort et à travers ; s’il est utile de récapituler les utilisations de l’IA dans le domaine de la sécurité aujourd’hui, il faut aussi reconnaître le potentiel de l’IA pour notre industrie, et relever les aspects que nous devons apprendre à connaître et à gérer. 

L’utilisation de l’IA dans la sécurité, aujourd’hui et demain 

L’intégration de l’IA dans les systèmes de sécurité révolutionne l’approche de la détection et de la réponse aux menaces. Les technologies de Deep Learning (DL), un sous-ensemble de l’IA, ont considérablement augmenté la précision des solutions d’analyse, ce qui a permis de créer des systèmes de sécurité plus fiables et plus efficaces.  

Certaines applications offrent désormais des performances fiables grâce à cette nouvelle technologie :  

  • Détection et suivi des mouvements d’objets avec une plus grande précision. 
  • Surveillance des franchissements de ligne dans les zones sensibles avec génération d’alertes 
  • Comptage des objets et des personnes dans le cadre de la gestion de l’occupation et des flux. 
  • Identification des comportements de déambulation susceptibles d’indiquer des menaces potentielles. 

La génération de métadonnées par les systèmes basés sur l’IA a bouleversé la pratique des analyses forensiques dans les systèmes de gestion vidéo (VMS). Ces métadonnées servent de base à la collecte de statistiques détaillées et d’informations sur les activités de scène, et permettent de développer une posture de sécurité plus proactive. Grâce aux capacités accrues des périphériques, ces métadonnées peuvent être générées directement par les caméras, ce qui réduit considérablement le coût total du système.  

La capacité de l’IA à détecter les anomalies en analysant les modèles et les écarts par rapport à la norme amène une nouvelle dimension au suivi de la sécurité. Cette fonction permet aux professionnels de la sécurité de traiter de manière préventive les menaces potentielles avant qu’elles ne s’aggravent. 

Elle ouvre un large éventail de cas d’usage supplémentaires, au-delà des applications traditionnelles en matière de sécurité. La capacité fondamentale à surveiller plus précisément les flux de personnes, de matériaux et de produits permet de créer des applications qui améliorent directement l’efficacité opérationnelle. Cet exemple de BMW l’illustre parfaitement : l'entreprise utilise les fonctionnalités IA des caméras de vidéosurveillance pour effectuer des contrôles qualité tout au long du processus de fabrication automobile.

BMW assembly line
Les caméras réseau d’Axis sont positionnées stratégiquement le long de la chaîne d’assemblage de BMW. Elles fournissent des données visuelles, en capturant des détails complexes tels que le logo BMW apposé sur le capot et les poignées de porte, en examinant chaque composant d’une nouvelle BMW.

L’introduction de l’IA générative dans le secteur de la sécurité 

L’IA générative représente une avancée significative dans les technologies d’IA, notamment grâce au recours aux grands modèles linguistiques (LLM). Ces technologies permettent de créer du texte et des images à partir de prompts en langage naturel. Plus important encore, les nouveaux modèles, avec leurs jeux de données d’entraînement extrêmement volumineux, sont non seulement capables d’interagir avec les utilisateurs via des interfaces en langage naturel, mais également de manipuler des concepts abstraits et de gérer des scénarios complexes.  

L’arrivée de l’IA générative dans le secteur de la sécurité se traduit par une utilisation dans des fonctionnalités spécifiques : 

  • Prise en charge de chatbots fournissant une assistance en temps réel aux utilisateurs en langage naturel.  
  • Assistants de configuration simplifiant la mise en œuvre de systèmes de sécurité complexes. 
  • Recherches textuelles améliorant l’efficacité de la récupération des données. 
  • Outils de conception avancés aidant à créer des solutions de sécurité robustes. 

Les nouveaux modèles multimodaux acceptent les entrées sous forme de texte, mais aussi de son, d’images et de vidéo et génèrent des résultats sous forme de texte et d’images. Cette approche promet d’ouvrir de nouvelles possibilités dans le secteur de la sécurité, où les modèles sont capables d’analyser ce qui se passe dans une scène à un niveau inédit. Les cas d’utilisation peuvent inclure :  

  • La mise en évidence d’événements significatifs nécessitant une attention immédiate de la part d’un opérateur. 
  • L’analyse de tendances et l’identification de formes courantes. 
  • L’assistance aux enquêteurs en fournissant des informations pertinentes et des suggestions d’actions. 
  • La création de résumés de vidéos et d’images pour les rapports.  

Il reste du chemin à parcourir pour améliorer la précision et la qualité des données

Malgré les avancées spectaculaires de l’IA générative, cette technologie montre encore ses limites lorsqu’il s’agit de comprendre les subtilités des scènes complexes et des comportements humains. Les modèles génèrent encore ce que l’on appelle des hallucinations, où le modèle produit des affirmations et des suggestions fausses.  

Les modèles sont en outre dépourvus de capacités de raisonnement et de déduction logique. Ces contraintes rendent très difficile l’utilisation des modèles au sein d’installations de sécurité critiques. Nous ne sommes tout simplement pas en mesure d’affirmer avec certitude qu’aucun événement ne sera manqué ou que les conclusions proposées ne seront pas mensongères. 

L’utilisation de ces modèles dans le contexte de la sécurité pose également la question de la gestion des biais dont ils font parfois preuve lorsque les données d’entraînement du modèle n’ont pas été soigneusement traitées en amont. 

Cela souligne l’importance de l’intervention humaine dans la prise de décision : il faut s’assurer que les considérations éthiques sont bien respectées et que la qualité des décisions n’est pas compromise. Pour cette raison, les premiers cas d’utilisation où les LLM seront déployés dans le secteur de la sécurité seront l’assistance à la recherche forensique et la génération de suggestions à destination des opérateurs. L’humain doit rester aux commandes de l’appareil. Face au rythme soutenu de l’innovation, nous devons trouver un équilibre entre l’adoption de nouvelles fonctionnalités et l’atténuation des risques liés aux nouvelles technologies. 

Le potentiel des caméras IA et de l’edge AI 

Inévitablement, toute nouvelle technologie s’accompagne de défis à surmonter. Même si nous en sommes encore à un stade relativement précoce, il est clair que l’IA offre des perspectives considérables dans le domaine de la sécurité. Elle développe les cas d’utilisation traditionnels de la sécurité et de la sûreté tout en libérant un énorme potentiel d’amélioration des performances métier dans tous les secteurs.  

Les caméras IA fournissant des fonctionnalités d’edge AI représentent le socle sur lequel ces opportunités sont amenées à croître. Elles permettent d’améliorer la précision des analyses, l’évolutivité des systèmes et de composer des solutions cloud fiables, évolutives et efficaces en matière de bande passante

Les métadonnées supplémentaires créées par l’analyse edge AI, qui décrivent en détail les données visuelles capturées par le capteur d’image, ajoutent des niveaux supplémentaires d’analyse et d’informations exploitables. Au fil du temps, l’agrégation et l’analyse des métadonnées permettront d’affiner les décisions qui transforment en profondeur le fonctionnement de l’entreprise. 

L’intégration du traitement aux caméras d’IA, combinée aux métadonnées avancées créées à la périphérie et aux traitements supplémentaires sur serveur ou dans le cloud, offre un modèle dit hydride évolutif et rentable pour mettre en œuvre des solutions d’analyse sophistiquées basées sur le DL.  

Autant de nouvelles opportunités de créer de la valeur au-delà des applications de sécurité traditionnelles. Associer les caméras à d’autres technologies telles que les capteurs IoT et le cloud computing ouvre de nouvelles possibilités d’analyse des données visuelles dans des secteurs comme l’urbanisme, les transports, la vente au détail et l’industrie.  

Les municipalités peuvent combiner et analyser les données visuelles et environnementales pour améliorer la vie de leurs concitoyens : qualité de l’air, réduction de la pollution sonore et meilleure planification des services et des infrastructures. Les entreprises, elles, peuvent exploiter les données issues des capteurs de vidéo surveillance et audio pour optimiser la maintenance prédictive des machines et des équipements. Elles dégagent ainsi des gains d’efficacité et améliorent la réalisation des services. Les détaillants utilisent les informations relatives aux flux de personnes pour améliorer le service client et l’agencement du magasin. Les possibilités sont infinies.

Innover, déployer et utiliser l’IA de manière responsable

Si l’IA sous toutes ses formes offre un potentiel immense, toute nouvelle technologie présente également le risque d’introduire de nouvelles menaces et de nouveaux dangers. Les éditeurs qui intègrent l’IA à leurs produits doivent assumer qu’il leur incombe de développer et de déployer l’IA (et les autres technologies) de manière responsable en vue d’atténuer ces risques.

La réglementation aura clairement un rôle à jouer. L’UE a récemment adopté le tout premier règlement juridique en matière d’IA avec l’AI Act, et d’autres textes sont en cours d’élaboration aux États-Unis et partout ailleurs dans le monde afin de définir la meilleure façon de réduire les risques potentiels de l’IA tout en encourageant l’innovation. Mais suivre ne suffit pas. Chaque entreprise technologique innovante doit promouvoir l’application responsable et éthique de l’IA dans ses propres activités et celles de ses clients.

IA et cybersécurité

La cybersécurité et la protection de la confidentialité, tant des données que des personnes, sont depuis longtemps une priorité du secteur de la sécurité, et l’IA remet cette exigence sur le devant de la scène. On sait déjà que les cybercriminels eux-mêmes cherchent à utiliser l’IA pour détecter les vulnérabilités et les nouveaux vecteurs d’attaque. Les organisations criminelles, bien financées et professionnalisées, possèdent un avantage supplémentaire dans la « course à l’armement IA » : elles peuvent innover sans se soucier de la réglementation ou de l’éthique.

Donner la priorité à la sécurité et à la confidentialité des données restera donc primordial. Tous les fournisseurs de technologies de sécurité, notamment ceux qui utilisent l’IA, doivent adopter une approche de la gouvernance des données fondée sur les droits de l’homme. Il convient ainsi de s’assurer que la collecte, le traitement et l’utilisation des données respectent les droits de l’homme, en favorisant un traitement équitable et juste, ainsi qu’un environnement numérique sûr. Ils doivent également mettre en œuvre des mesures de sécurité robustes pour se prémunir des accès non autorisés ou de toute utilisation abusive des systèmes. Ils doivent promouvoir l’équité des données en faisant tout pour assurer un traitement juste et impartial dans la représentation et l’accès aux données. 

L’utilisation de l’IA dans les caméras de surveillance et les appareils réseau pourrait créer de nouveaux cas d’utilisation qui soulèvent des préoccupations et posent des risques supplémentaires en matière de cybersécurité. Il est donc crucial que la cybersécurité reste une priorité absolue tout au long du cycle de développement et de mise en production des nouvelles solutions d’IA.

Libérer le potentiel de l’IA de manière responsable et éthique

Les opportunités que l’IA offre au secteur de la sécurité sont passionnantes. Si l’IA est capable d’augmenter l’intelligence humaine, un développement responsable de cette technologie est nécessaire pour profiter pleinement aux personnes et à la société. Cette démarche s’inscrit parfaitement dans la vision d’Axis : innover pour un monde plus intelligent et plus sûr. 

Le potentiel de l’IA pour améliorer nos compétences et nos facultés nous permettra de consacrer plus de temps à des tâches qui nécessitent notre expertise humaine, ce qui rendra les personnes plus indispensables que jamais. 

Nous devons tous nous engager à utiliser l’IA de manière éthique et socialement responsable. Ainsi, les initiatives en matière d’IA, qu’elles soient liées à des produits, des services ou des méthodes de travail, doivent être guidées par des principes d’équité, de transparence, de responsabilité et de respect de la vie privée et de la dignité humaine.

Mats Thulin

Mats Thulin est directeur des solutions d’IA et d’analyse chez Axis Communications, où il joue un rôle clé dans l’élaboration de l’agenda stratégique d’Axis en matière d’analyse vidéo et d’IA. Mats a rejoint Axis en 2010 et a occupé divers postes de direction. Fort d’une expérience diversifiée dans les grandes entreprises et les startups, Mats apporte une grande expertise en matière d’affaires et de technologie. Il est titulaire d’un master en génie électrique de l’Institut de technologie de Lund.

Mats Thulin
To top