Saltar al contenido principal

Más allá de la expectación en torno a la IA en materia de seguridad

8 minutos leídos
escrito por:
Mats Thulin habla sobre la IA en el ámbito de la seguridad

En los últimos dos años, el tema de la inteligencia artificial (IA) ha estado en boca tanto de empresas como de hogares de todo el mundo. Aunque llevamos muchos años trabajando con la IA, con tecnologías de aprendizaje profundo (DL, por sus siglas en inglés) que mejoran significativamente la analítica de vídeo, pocas tecnologías han tenido tanta repercusión mediática y de un modo tan rápido como la IA; esto se debe, en gran medida, a la aparición de la IA generativa.

Aunque muchos pueden pensar que el término se ha utilizado en exceso, es útil resumir el uso de la IA en el ámbito de la seguridad hoy en día, así como el auténtico potencial de esta tecnología en el sector y algunas de las áreas problemáticas de las que debemos ser conscientes y gestionar. 

El uso de la IA en el ámbito de la seguridad y en el futuro 

La integración de la IA en los sistemas de seguridad ha transformado el enfoque del sector hacia la detección de amenazas y la respuesta ante ellas. Las tecnologías de aprendizaje profundo (DL), un subconjunto de IA, han aumentado considerablemente la precisión de las soluciones analíticas, lo que ha dado lugar a sistemas de seguridad más fiables y eficientes.  

Ejemplos de aplicaciones que ahora ofrecen un rendimiento fiable gracias a la nueva tecnología son:  

  • La detección y el seguimiento del movimiento de los objetos con una mayor precisión. 
  • La supervisión y el aviso fiables si se cruzan líneas en zonas sensibles. 
  • El recuento de objetos y personas para gestionar la ocupación y el flujo. 
  • La identificación de personas que merodeen, pues ello puede indicar posibles amenazas. 

La generación de metadatos mediante sistemas basados en IA se ha convertido en un punto de inflexión para las búsquedas forenses en sistemas de gestión de vídeo (VMS). Estos metadatos sirven como base para recopilar estadísticas detalladas e información de las actividades de la escena, lo que facilita una postura de seguridad más proactiva. Con las mayores capacidades de los dispositivos periféricos, las cámaras pueden generar directamente estos metadatos, lo que reduce sustancialmente el coste total de un sistema.  

La capacidad de la IA para detectar anomalías mediante el análisis de patrones y desviaciones de la norma ha introducido una nueva dimensión en la supervisión de la seguridad. Esta capacidad permite a los profesionales de la seguridad abordar de forma preventiva las posibles amenazas antes de que se agraven. 

Asimismo, ha abierto un amplio espectro de casos de uso adicionales más allá de las aplicaciones tradicionales en seguridad y protección. La capacidad fundamental de supervisar con mayor precisión el flujo de personas, materiales y productos permite aplicaciones que mejorarán directamente la eficiencia operativa. Este ejemplo de BMW es una ilustración perfecta, pues se utilizan las capacidades de IA de las cámaras de videovigilancia para realizar inspecciones de calidad a lo largo del proceso de fabricación de automóviles.

BMW assembly line

La introducción de la IA generativa en el sector de la seguridad 

La IA generativa, especialmente a través del uso de modelos de lenguaje de gran tamaño (LLM, por sus siglas en inglés), representa un avance significativo en la tecnología de IA. Estas tecnologías permiten la creación de texto e imágenes a partir de indicaciones de lenguaje natural. Lo que es más importante, los enormes modelos más recientes con sus grandes datos de formación son capaces de interactuar con los usuarios a través de interfaces de lenguaje normal, pero también tienen capacidades para trabajar con conceptos abstractos y lidiar con escenarios complejos.  

La entrada inicial de la IA generativa en el sector de la seguridad se verá por su uso en funcionalidades como: 

  • La compatibilidad con chatbots que proporcionan asistencia en tiempo real a los usuarios mediante lenguaje natural.  
  • Los asistentes de configuración que simplifican la configuración de sistemas de seguridad complejos. 
  • Las búsquedas basadas en texto que mejoran la eficiencia de la recuperación de datos. 
  • Las herramientas de diseño avanzadas que ayudan a crear soluciones de seguridad sólidas. 

Los modelos más recientes, denominados modelos multimodales, pueden tomar texto, así como sonido, imágenes y vídeo como entrada y generar resultados en forma de texto e imágenes. Esto promete crear nuevas posibilidades en el sector de la seguridad, donde los modelos son capaces de analizar a un nuevo nivel lo que sucede en una escena. Su uso podría incluir:  

  • Destacar eventos significativos que requieren la atención inmediata de un operador. 
  • Analizar tendencias y encontrar patrones comunes. 
  • Ayudar a los operadores en las investigaciones proporcionando información relevante y sugerencias de acción. 
  • Realizar resúmenes de vídeo e imágenes para informes  

Aún queda trabajo por hacer para mejorar la precisión y la calidad de los datos

A pesar de los espectaculares avances, la IA generativa sigue teniendo limitaciones para comprender los matices de las escenas complejas y el comportamiento humano. Los modelos siguen siendo propensos a lo que se conoce como alucinaciones, en las que el modelo hace afirmaciones y sugerencias que no son precisas.  

Otra limitación es que los modelos carecen de razonamiento y deducción lógica. Estas limitaciones dificultan enormemente el uso de los modelos en instalaciones críticas para la seguridad. Simplemente no podemos confiar en que no se pasen por alto eventos ni se saquen conclusiones erróneas. 

Otro aspecto del uso de los modelos en el contexto de la seguridad es que debemos gestionar el riesgo de comportamiento sesgado que pueden mostrar los modelos, a menos que los datos de entrenamiento del modelo se gestionen minuciosamente. 

Esto subraya la importancia de mantener la participación humana en el proceso de toma de decisiones, garantizando que se respeten las consideraciones éticas y que la calidad de las decisiones no se vea comprometida. Por este motivo, los primeros casos de uso en los que veremos la aplicación de LLM en el sector de la seguridad serán a la hora de proporcionar asistencia en búsquedas forenses y hacer sugerencias a los operadores. Todavía tendremos que mantener la participación humana. Con el rápido ritmo de la innovación, necesitamos encontrar un equilibrio entre la adopción de nuevas capacidades y la mitigación de los riesgos de las nuevas tecnologías. 

El potencial de las cámaras con IA y la IA en el extremo 

Cualquier nueva tecnología presenta desafíos que superar. Y aunque aún nos encontramos en una fase relativamente temprana, está claro que la IA en el sector de la seguridad ofrece oportunidades significativas para mejorar los casos de uso tradicionales de seguridad y protección, a la vez que desbloquea un enorme potencial para mejorar el rendimiento empresarial en todos los sectores.  

Las cámaras con IA que ofrecen IA avanzada proporcionan la base para muchas de estas oportunidades, mejorando la precisión de las analíticas, permitiendo la escalabilidad de los sistemas y formando la base para soluciones en la nube fiables, escalables y eficientes en cuanto al ancho de banda

Los metadatos adicionales creados por la analítica de IA avanzada, que describen en detalle los datos visuales captados por el sensor de imágenes, agregan capas adicionales de análisis potencial e información procesable. Con el tiempo, la agregación y el análisis de metadatos servirán de base para tomar decisiones que transformarán todos los aspectos de las operaciones de una organización. 

La combinación del procesamiento dentro de las cámaras con IA, los metadatos avanzados creados en el extremo y el procesamiento adicional en el servidor o la nube, comúnmente conocidas como soluciones híbridas, crea un modelo escalable y rentable para soluciones analíticas basadas en DL más avanzadas.  

Esto crea nuevas oportunidades para ofrecer valor más allá de las aplicaciones de seguridad tradicionales. La combinación de cámaras con otras tecnologías, como los sensores IoT y la computación en la nube, permite analizar datos visuales de nuevos modos en diferentes áreas, como ciudades, transporte, comercio minorista e industria.  

Las autoridades urbanas combinan y analizan datos visuales y medioambientales para mejorar la vida de los ciudadanos a través de mejoras en la calidad del aire, la reducción de la contaminación acústica y una mejor planificación de los servicios e infraestructuras. Las empresas utilizan datos de sensores de videovigilancia y audio para el mantenimiento predictivo de maquinaria y equipos, lo que crea eficiencias y mejora la prestación de servicios. Los minoristas utilizan la información de los visitantes de las tiendas para mejorar el servicio al cliente y el diseño de la tienda. Las posibilidades son infinitas.

Innovación, implementación y uso de la IA de forma responsable

Aunque la IA en todas sus formas presenta oportunidades significativas, cualquier nueva tecnología también tiene el potencial de introducir nuevas amenazas y nuevos riesgos. Todos los proveedores de tecnología que utilizan IA en sus productos deben reconocer su responsabilidad de desarrollar e implementar la IA y otras tecnologías de forma responsable para mitigar estos riesgos.

La regulación desempeñará claramente su papel. La UE ha adoptado recientemente el primer marco legal en torno a la IA, la Ley de IA, y en los EE. UU y en otros países del mundo se debate sobre otras legislaciones para reducir mejor los riesgos potenciales de la IA al tiempo que se fomenta la innovación. Pero esto no es suficiente. Todas las empresas tecnológicas innovadoras deben impulsar la aplicación responsable y ética de la IA dentro de sus propios negocios y de los de sus clientes.

IA y ciberseguridad

La ciberseguridad y la protección tanto de los datos como de la privacidad de las personas han sido durante mucho tiempo un enfoque para el sector de la seguridad, y la IA hace que este requisito sea aún más importante. Esto se debe, en gran medida, a que los propios ciberdelincuentes utilizarán la IA para buscar vulnerabilidades y nuevos vectores de ataque. Estas organizaciones criminales, que cuentan con una amplia financiación y especialización, tienen otra ventaja en la «carrera por las armas de IA»: pueden innovar sin tener en cuenta las normativas ni la ética.

Priorizar la seguridad y la privacidad de los datos seguirá siendo primordial. Todos los proveedores de tecnología de seguridad, pero especialmente aquellos que utilizan IA, deben adoptar un enfoque basado en los derechos humanos para la gobernanza de los datos, garantizando que la recopilación, el tratamiento y el uso de los datos se alineen con los principios de los derechos humanos, fomentando un entorno digital seguro y justo. También exigen la implementación de medidas de seguridad sólidas para proteger contra el acceso no autorizado o el uso indebido y promover la equidad de los datos esforzándose por lograr una representación y un acceso justos e imparciales a los datos. 

También existe la preocupación de que el uso de IA en cámaras de vigilancia y dispositivos de red cree nuevos casos de uso que planteen riesgos y preocupaciones adicionales en torno a la ciberseguridad. Por lo tanto, es crucial que la ciberseguridad siga siendo una prioridad máxima a lo largo de las fases de desarrollo e implementación de las nuevas soluciones de IA.

Aprovechar el potencial de la IA de forma responsable y ética

Las oportunidades que ofrece la IA al sector de la seguridad son emocionantes. La IA puede aumentar la inteligencia humana y su desarrollo responsable puede beneficiar a las personas y a la sociedad. Esto se corresponde con la visión de Axis de innovar para un mundo más seguro e inteligente. 

El potencial de la IA para aumentar nuestras propias habilidades y capacidades nos permitirá dedicar más tiempo valioso a tareas que requieren nuestra experiencia humana, haciendo que las personas sean más valiosas que nunca. 

Todos debemos comprometernos a utilizar la tecnología de IA de forma ética y socialmente responsable. Esto significa que las iniciativas de IA, ya estén relacionadas con productos y servicios o formas de trabajar, deben guiarse por principios de equidad, transparencia, responsabilidad y respeto a la privacidad y la dignidad humana.

Mats Thulin

Mats Thulin es director de AI &amp; Analytics Solutions en Axis Communications, donde desempeña un papel clave en el desarrollo de la agenda estratégica de Axis en el ámbito de la analítica de vídeo y la IA. Mats se incorporó a Axis en 2010 y ha ocupado varios puestos directivos. Con una trayectoria diversa tanto en grandes empresas como en <i>startups</i>, Mats aporta una gran cantidad de conocimientos empresariales y tecnológicos. Cuenta con un Máster en Ingeniería Eléctrica del Instituto de Tecnología de Lund.

Mats Thulin