
Nos últimos anos, o tema da inteligência artificial (IA) tem feito parte das conversas em empresas e residências de todo o mundo. Embora trabalhemos com IA há muitos anos, com tecnologias de aprendizagem profunda (DL) que melhoram significativamente a análise de vídeo, poucas tecnologias assumiram um papel de relevância tão rapidamente como a IA, em grande parte devido ao advento da IA generativa.
Embora muitos possam sentir que o termo tem sido utilizado de forma excessiva, convém recapitular a utilização atual da IA na segurança, mas também o verdadeiro potencial da IA no setor e algumas das áreas problemáticas a que precisamos de estar atentos e gerir.
A utilização atual da IA na segurança e não só hoje
A integração da IA nos sistemas de segurança transformou a abordagem da indústria à deteção e à resposta a ameaças. As tecnologias de aprendizagem profunda (DL), um subgrupo da IA, aumentaram significativamente a precisão das soluções de análise, resultando em sistemas de segurança mais fiáveis e eficientes.
Alguns exemplos de aplicações que têm agora um desempenho fiável devido à nova tecnologia são:
- Detetar e rastrear o movimento de objetos com maior precisão.
- Monitorizar com fiabilidade e alertar sobre transposições de linhas em áreas sensíveis.
- Contar objetos e pessoas para gerir a ocupação e o fluxo.
- Identificar comportamentos de permanências prolongadas que possam indicar potenciais ameaças.
A geração de metadados por sistemas baseados em IA tornou-se num elemento diferenciador para as pesquisas forenses em Sistemas de Gestão de Vídeo (VMS). Estes metadados servem de base para a recolha de estatísticas detalhadas e perspetivas das atividades da cena, facilitando uma postura de segurança mais pró-ativa. Com as maiores capacidades dos dispositivos periféricos, estes metadados podem ser gerados diretamente pelas câmaras, reduzindo substancialmente o custo total de um sistema.
A capacidade da IA de detetar anomalias através da análise de padrões e desvios da norma introduziu uma nova dimensão à monitorização da segurança. Esta capacidade permite que os profissionais de segurança abordem preventivamente potenciais ameaças antes que as mesmas se agravem.
Estas capacidades abriram um amplo espetro de casos práticos de utilização adicionais além das aplicações tradicionais em segurança. A capacidade fundamental de monitorizar com maior precisão o fluxo de pessoas, materiais e produtos possibilita aplicações que irão melhorar diretamente a eficiência operacional. Este exemplo da BMW é uma ilustração perfeita, em que está a utilizar as capacidades de IA das câmaras de videovigilância para realizar inspeções de qualidade ao longo do processo de fabrico automóvel.

A introdução da IA generativa no setor da segurança
A IA generativa, em particular através da utilização de Modelos de Linguagem Grande (LLM), representa um avanço significativo na tecnologia de IA. Estas tecnologias permitem a criação de texto e imagens a partir de mensagens de linguagem natural. Mais importante ainda, os enormes modelos mais recentes, com os seus grandes dados de formação, são capazes de interagir com os utilizadores através de interfaces de linguagem normais, mas também têm a capacidade de trabalhar com conceitos abstratos e lidar com cenários complexos.
A entrada inicial da IA generativa no setor da segurança será observada pela sua utilização em funcionalidades como:
- Chatbots de suporte que fornecem assistência em tempo real aos utilizadores com recurso a uma linguagem natural.
- Assistentes de configuração que simplificam a preparação de sistemas de segurança complexos.
- Pesquisas baseadas em texto que melhoram a eficiência da recuperação de dados.
- Ferramentas de design avançadas que ajudam na criação de soluções de segurança robustas.
Os modelos mais recentes, os chamados modelos multimodais, são capazes de assumir texto, bem como som, imagens e vídeo como entrada e gerar resultados sob a forma de texto e imagens. Isto promete criar novas possibilidades no setor da segurança, onde os modelos são capazes de analisar o que está a acontecer numa cena a um novo nível. A utilização pode incluir:
- Destacar eventos significativos que requerem a atenção imediata por parte de um operador.
- Analisar tendências e encontrar padrões comuns.
- Apoiar os operadores nas investigações, através do fornecimento de informações relevantes e de sugestões de ação.
- Resumir vídeoa e imagens para relatórios
Trabalho a ser efetuado para melhorar a precisão e a qualidade dos dados
Apesar dos avanços dramáticos, a IA generativa continua a apresentar algumas limitações na form como compreende as subtilezas em cenas complexas e no comportamento humano. Os modelos ainda são propensos ao que se designa de alucinações, em que o modelo surge com afirmações e sugestões que não são precisas.
Uma outra limitação é o facto de os modelos carecerem de raciocínio e dedução lógica. Estas limitações tornam muito difícil a utilização dos modelos em instalações críticas para a segurança. Simplesmente não podemos ter a certeza que os eventos não sejam perdidos ou que sejam tiradas conclusões erradas.
Outro aspeto da utilização dos modelos no contexto da segurança é que precisamos de gerir o risco de comportamento tendencioso que os modelos podem mostrar, a menos que os dados de formação do modelo sejam minuciosamente geridos.
Isto reforça a importância de manter o envolvimento humano no processo de tomada de decisões, garantindo que as considerações éticas são respeitadas e que a qualidade das decisões não é comprometida. Por este motivo, os primeiros casos práticos de utilização em que veremos LLM implementados no setor da segurança serão na prestação de assistência na pesquisa forense e na apresentação de sugestões aos operadores. Continuaremos a precisar de manter o fator humano no processo. Com o ritmo acelerado da inovação, precisamos de encontrar um equilíbrio entre a adoção de novas capacidades e a mitigação dos riscos das novas tecnologias.
O potencial das câmaras de IA e da IA de periferia
No entanto, qualquer nova tecnologia traz consigo desafios a superar. E embora ainda nos encontremos numa fase relativamente inicial, é evidente que a IA no setor da segurança oferece oportunidades significativas para melhorar os casos práticos de utilização tradicionais de segurança e proteção, ao mesmo tempo que desbloqueia um enorme potencial para melhorar o desempenho empresarial em todos os setores.
As câmaras de IA que fornecem IA de periferia fornecem a base para muitas destas oportunidades, melhorando a precisão das análises, permitindo a escalabilidade dos sistemas e formando a base para soluções de nuvem fiáveis, escaláveis e eficientes em termos de largura de banda.
Os metadados adicionais criados pela análise de IA avançada, que descrevem em detalhe os dados visuais capturados pelo sensor de imagem, adicionam mais camadas de análise potencial e de informações úteis. Ao longo do tempo, a agregação e a análise de metadados irá informar decisões que transformarão todos os aspetos das operações de uma organização.
A combinação de processamento dentro das câmaras de IA, de metadados avançados criados na periferia e do processamento adicional no servidor ou na nuvem, normalmente referidos como soluções híbridas, cria um modelo escalável e rentável para soluções de análise mais avançadas baseadas em DL.
Isto cria novas oportunidades para oferecer um valor além das aplicações tradicionais de segurança e proteção. A combinação de câmaras com outras tecnologias, como sensores IoT e computação em nuvem, permite analisar dados visuais de novas formas em diferentes áreas, como cidades, transportes, setor retalhista e industrial.
As autoridades municipais estão a combinar e a analisar dados visuais e ambientais para melhorar a vida dos cidadãos através de melhorias na qualidade do ar, da redução da poluição sonora e do melhor planeamento dos serviços e das infraestruturas. As empresas estão a utilizar dados de videovigilância e sensores de áudio para a manutenção preditiva de máquinas e equipamentos, criando eficiências e melhorando a prestação de serviços. Os retalhistas estão a utilizar as informações sobre os visitantes da loja para melhorar o serviço ao cliente e a disposição da loja. As possibilidades são infinitas.
Inovar, implementar e utilizar a IA de forma responsável
Embora a IA, em todas as suas formas, apresente oportunidades significativas, qualquer nova tecnologia também tem o potencial de introduzir novas ameaças e riscos. Todos os fornecedores de tecnologia que utilizam IA nos seus produtos devem reconhecer a sua responsabilidade no desenvolvimento e implementação da IA e outras tecnologias de forma responsável para mitigar estes riscos.
A regulamentação irá desempenhar claramente a sua função. A UE adotou recentemente o primeiro quadro legal de sempre em torno da IA, a AI Act, e há outras legislações a ser discutidas nos EUA e em muitas outras partes do mundo sobre como reduzir melhor os potenciais riscos da IA, ao mesmo tempo que incentivam a inovação. Mas isto não é suficiente. Todas as empresas tecnológicas inovadoras precisam de impulsionar a aplicação responsável e ética da IA nos seus próprios negócios e nos dos seus clientes.
IA e cibersegurança
A cibersegurança e a proteção dos dados e da privacidade das pessoas têm sido, há muito tempo, alvo de atenção para o setor da segurança, e a IA coloca este requisito ainda mais em foco. Em grande parte, isto deve-se ao facto de os próprios cibercriminosos utilizarem a IA na procura de vulnerabilidades e de novos vetores de ataque. Estas organizações criminosas, bem financiadas e altamente profissionais como são, têm outra vantagem na "corrida de armas da IA": podem inovar sem ter em consideração os regulamentos ou a ética.
Priorizar a segurança e a privacidade dos dados continuará a ser primordial. Todos os fornecedores de tecnologia de segurança, mas em particular aqueles que utilizam IA, devem adotar uma abordagem baseada nos direitos humanos à governação de dados, garantindo que a recolha, o tratamento e a utilização dos dados estão em linha com os princípios dos direitos humanos, promovendo um ambiente digital justo e seguro. Também exigem a implementação de medidas de segurança robustas para proteger contra o acesso não autorizado ou a utilização indevida e promover a equidade dos dados, esforçando-se por uma representação e um acesso justos e imparciais aos dados.
Também existe a preocupação de que a utilização de IA em câmaras de vigilância e dispositivos de rede venha a criar novos casos práticos de utilização que suscitem riscos e preocupações adicionais em torno da cibersegurança. Por isso, é crucial que a cibersegurança permaneça uma prioridade máxima ao longo das fases de desenvolvimento e de implementação de novas soluções de IA.
Desbloquear o potencial da IA, de forma responsável e ética
As oportunidades que a IA oferece ao setor da segurança são empolgantes. A IA pode aumentar a inteligência humana e o desenvolvimento responsável da IA pode beneficiar as pessoas e a sociedade. Isto está bem alinhado com a visão da Axis, de inovar para um mundo mais inteligente e seguro.
O potencial da IA para aumentar as nossas próprias competências e capacidades permitir-nos-á dedicar mais tempo valioso a tarefas que requerem a nossa experiência humana, tornando as pessoas mais valiosas do que nunca.
Todos devemos comprometer-nos a utilizar a tecnologia de IA de uma forma ética e socialmente responsável. Isto significa que as iniciativas de IA, quer estejam relacionadas com produtos e serviços ou formas de trabalhar, devem ser orientadas por princípios de equidade, transparência, responsabilização e respeito pela privacidade e dignidade humana.