W ciągu ostatnich kilku lat temat sztucznej inteligencji (AI) stał się nieodłącznym elementem rozmów w firmach i domach na całym świecie. Chociaż pracujemy z AI od wielu lat, a technologie głębokiego uczenia (DL) znacznie zwiększają analizę wideo, niewiele technologii zyskało tak dużą popularność jak sztuczna inteligencja, głównie dzięki pojawieniu się generatywnej AI.
Chociaż wielu może uważać, że termin ten jest nadużywany, warto przypomnieć sobie wykorzystanie AI w dzisiejszych czasach w dziedzinie bezpieczeństwa, a także prawdziwy potencjał AI w tym sektorze i niektóre obszary problemów, których musimy być świadomi i którymi musimy zarządzać.
Wykorzystanie AI w dzisiejszych czasach w dziedzinie bezpieczeństwa i nie tylko
Integracja AI z systemami bezpieczeństwa zmieniła podejście branży do wykrywania i reagowania na zagrożenia. Technologie głębokiego uczenia, podzbiór AI, znacznie zwiększyły dokładność rozwiązań analitycznych, co prowadzi do bardziej niezawodnych i wydajnych systemów bezpieczeństwa.
Przykłady aplikacji, które teraz mają niezawodną wydajność dzięki nowej technologii:
• Wykrywanie i śledzenie ruchu obiektów z większą precyzją.
• Niezawodne monitorowanie i ostrzeganie o przekroczeniach linii w newralgicznych obszarach.
• Liczenie obiektów i osób w celu zarządzania obłożeniem i przepływem.
• Identyfikowanie podejrzanych zachowań, które mogą wskazywać na potencjalne zagrożenia.
Generowanie metadanych przez systemy oparte na sztucznej inteligencji stało się przełomem w przypadku wyszukiwań kryminalistycznych w systemach zarządzania wideo (VMS). Te metadane stanowią podstawę do zbierania szczegółowych statystyk i spostrzeżeń z działań na scenie, ułatwiając bardziej proaktywną postawę bezpieczeństwa. Dzięki zwiększonym możliwościom urządzeń brzegowych te metadane mogą być generowane bezpośrednio przez kamery, co znacznie obniża całkowity koszt systemu.
Możliwość wykrywania anomalii przez sztuczną inteligencję poprzez analizę wzorców i odchyleń od normy wprowadziła nowy wymiar do monitorowania bezpieczeństwa. Ta możliwość pozwala specjalistom ds. bezpieczeństwa zapobiegawczo reagować na potencjalne zagrożenia, zanim się nasilą.
Możliwości te otworzyły szerokie spektrum dodatkowych przypadków użycia wykraczających poza tradycyjne zastosowania w zakresie bezpieczeństwa i ochrony. Podstawowa zdolność do dokładniejszego monitorowania przepływu osób, materiałów i produktów umożliwia aplikacje, które bezpośrednio poprawią wydajność operacyjną. Przykład z BMW jest doskonałą ilustracją, wykorzystania możliwości sztucznej inteligencji kamer do monitoringu wideo w procesie przeprowadzania kontroli jakości w produkcji samochodów.
Wprowadzenie generatywnej sztucznej inteligencji do sektora bezpieczeństwa
Generatywna sztuczna inteligencja, w szczególności poprzez wykorzystanie dużych modeli językowych (LLM), stanowi znaczący postęp w technologii sztucznej inteligencji. Technologie te umożliwiają tworzenie tekstu i obrazów z komunikatów w języku naturalnym. Co ważniejsze, nowe, ogromne modele z dużymi danymi treningowymi są w stanie komunikować się z użytkownikami za pośrednictwem normalnych interfejsów językowych, ale mają również zdolność do pracy z abstrakcyjnymi koncepcjami i radzenia sobie ze złożonymi scenariuszami.
Początkowe wejście generatywnej sztucznej inteligencji do sektora bezpieczeństwa będzie widoczne w jej wykorzystaniu w takich funkcjonalnościach jak:
• Obsługa chatbotów, które zapewniają użytkownikom pomoc w czasie rzeczywistym przy użyciu języka naturalnego.
• Kreatory, które upraszczają konfigurację złożonych systemów bezpieczeństwa.
• Wyszukiwanie oparte na tekście, które zwiększa wydajność pobierania danych.
• Zaawansowane narzędzia projektowe, które pomagają w tworzeniu solidnych rozwiązań bezpieczeństwa.
Nowsze modele, tak zwane modele multimodalne, są w stanie przyjmować tekst, a także dźwięk, obrazy i wideo jako dane wejściowe, a także generować wyniki w postaci tekstu i obrazów. Otworzy to nowe możliwości w sektorze bezpieczeństwa, w którym modele będą w stanie analizować to, co dzieje się na scenie na nowym poziomie. Zastosowanie może obejmować:
• Podświetlanie istotnych zdarzeń, które wymagają natychmiastowej uwagi operatora.
• Analizowanie trendów i znajdowanie wspólnych wzorców.
• Pomaganie operatorom w dochodzeniach poprzez dostarczanie odpowiednich informacji i sugestii dotyczących działań.
• Podsumowanie wideo i obrazów na potrzeby raportów
Prace, które należy wykonać, aby poprawić dokładność i jakość danych
Pomimo ogromnych postępów, generatywna sztuczna inteligencja napotyka ograniczenia w rozumieniu niuansów złożonych scen i zachowań człowieka. Modele nadal są podatne na to, co nazywa się halucynacjami, w których model przedstawia stwierdzenia i sugestie, które nie są dokładne.
Innym ograniczeniem jest to, że modelom brakuje rozumowania i logicznego wnioskowania. Ograniczenia te sprawiają, że korzystanie z modeli w instalacjach o znaczeniu krytycznym dla bezpieczeństwa jest bardzo trudne. Po prostu nie możemy polegać na tym, że zdarzenia nie zostaną pominięte lub że zostaną wyciągnięte błędne wnioski.
Innym aspektem korzystania z modeli w kontekście bezpieczeństwa jest to, że musimy zarządzać ryzykiem stronniczego zachowania, które modele mogą wykazywać, chyba że dane szkoleniowe modelu są dokładnie zarządzane.
Podkreśla to znaczenie utrzymania ludzkiego zaangażowania w proces podejmowania decyzji, zapewniając, że względy etyczne są przestrzegane, a jakość decyzji nie jest zagrożona. Z tego powodu pierwszymi przypadkami użycia, w których zobaczymy LLM wdrożone w sektorze bezpieczeństwa, będzie udzielanie pomocy w wyszukiwaniu kryminalistycznym i składanie sugestii operatorom. Nadal obecność i zaangażowanie człowieka będzie konieczne. Przy szybkim tempie innowacji musimy znaleźć równowagę między przyjęciem nowych możliwości a łagodzeniem ryzyka wynikającego z ich zastosowania.
Potencjał kamer AI i AI technologii brzegowej
Każda nowa technologia niesie ze sobą wyzwania do pokonania. I chociaż wciąż jesteśmy na stosunkowo wczesnym etapie, jasne jest, że AI w sektorze bezpieczeństwa stwarza znaczące możliwości ulepszenia tradycyjnych przypadków użycia zabezpieczeń i ochrony, a także uwalnia ogromny potencjał poprawy wyników biznesowych we wszystkich branżach.
Kamery AI dostarczające AI brzegową stanowią podstawę dla wielu z tych możliwości, zwiększając dokładność analiz, umożliwiając elastyczną rozbudowę systemów i tworząc podstawę niezawodnych i wydajnych pod względem przepustowości rozwiązań w chmurze.
Dodatkowe metadane tworzone przez analitykę AI brzegowej, szczegółowo opisujące dane wizualne przechwytywane przez czujnik obrazu, dodają kolejne warstwy potencjalnej analizy i praktycznych spostrzeżeń. Z czasem agregacja i analiza metadanych będą informować o decyzjach, które przekształcą każdy aspekt działalności organizacji.
Połączenie przetwarzania w kamerach AI, zaawansowanych metadanych tworzonych na brzegu i dodatkowego przetwarzania na serwerze lub w chmurze, powszechnie określane jako rozwiązania hybrydowe, tworzy elastyczny i ekonomiczny model dla bardziej zaawansowanych rozwiązań analitycznych opartych na DL.
Stwarza to nowe możliwości dostarczania wartości wykraczającej poza tradycyjne zastosowania w zakresie bezpieczeństwa i ochrony. Łączenie kamer z innymi technologiami, takimi jak czujniki IoT i przetwarzanie w chmurze, umożliwia analizowanie danych wizualnych w nowy sposób w różnych obszarach, takich jak miasta, transport, handel detaliczny i sektory przemysłowe.
Władze miejskie łączą i analizują dane wizualne i środowiskowe, aby poprawić jakość życia obywateli poprzez poprawę jakości powietrza, redukcję zanieczyszczenia hałasem i lepsze planowanie usług i infrastruktury. Przedsiębiorstwa wykorzystują dane z monitoringu wideo i czujników audio do predykcyjnej konserwacji maszyn i urządzeń, zwiększając wydajność i poprawiając świadczenie usług. Sprzedawcy detaliczni wykorzystują informacje o odwiedzających sklepy, aby poprawić obsługę klienta i układ sklepu. Możliwości są nieograniczone.
Innowacje, wdrażanie i odpowiedzialne używanie AI
Chociaż AI we wszystkich swoich formach stwarza znaczące możliwości, każda nowa technologia niesie ze sobą również potencjał wprowadzania nowych zagrożeń i ryzyk. Każdy dostawca technologii wykorzystujący AI w swoich produktach musi uznać swoją odpowiedzialność za rozwijanie i wdrażanie AI i innych technologii w sposób odpowiedzialny, aby złagodzić te ryzyka.
Regulacje wyraźnie odegrają swoją rolę. UE niedawno przyjęła pierwsze w historii ramy prawne dotyczące AI, AI Act, a w USA i wielu innych częściach świata trwają dyskusje na temat innych przepisów dotyczących tego, jak najlepiej zmniejszyć potencjalne ryzyko związane z AI, jednocześnie zachęcając do innowacji. Ale samo przestrzeganie nie wystarczy. Każda innowacyjna firma technologiczna musi promować odpowiedzialne i etyczne stosowanie AI w swoich własnych firmach i firmach swoich klientów.
AI i cyberbezpieczeństwo
Cyberbezpieczeństwo i ochrona danych oraz prywatności ludzi od dawna stanowią przedmiot zainteresowania sektora bezpieczeństwa, a AI jeszcze bardziej zwiększa ten wymóg. W dużej mierze wynika to z faktu, że sami cyberprzestępcy będą wykorzystywać AI w poszukiwaniu luk i nowych wektorów ataków. Te organizacje przestępcze, dobrze finansowane i wysoce profesjonalne, mają kolejną przewagę w „wyścigu zbrojeń AI”: mogą wprowadzać innowacje bez względu na przepisy lub etykę.
Priorytetowe traktowanie bezpieczeństwa danych i prywatności będzie nadal najważniejsze. Wszyscy dostawcy technologii bezpieczeństwa, ale szczególnie ci wykorzystujący AI, muszą przyjąć podejście oparte na prawach człowieka do zarządzania danymi, zapewniając, że gromadzenie, przetwarzanie i wykorzystywanie danych jest zgodne z zasadami praw człowieka, wspierając uczciwe, sprawiedliwe i bezpieczne środowisko cyfrowe. Wymagają również wdrożenia solidnych środków bezpieczeństwa w celu ochrony przed nieautoryzowanym dostępem lub niewłaściwym wykorzystaniem oraz promowania równości danych poprzez dążenie do uczciwej i bezstronnej reprezentacji i dostępu do danych.
Istnieje również obawa, że wykorzystanie AI w kamerach monitorujących i urządzeniach sieciowych stworzy nowe przypadki użycia, które podniosą dodatkowe ryzyko i obawy dotyczące cyberbezpieczeństwa. Dlatego też kluczowe jest, aby cyberbezpieczeństwo pozostało najwyższym priorytetem zarówno w fazie rozwoju, jak i wdrażania nowych rozwiązań AI.
Odblokowanie potencjału AI, w sposób odpowiedzialny i etyczny
Możliwości, jakie AI oferuje sektorowi bezpieczeństwa, są ekscytujące. AI może zwiększyć ludzką inteligencję, a odpowiedzialny rozwój AI może przynieść korzyści ludziom i społeczeństwu. Jest to zgodne z wizją Axis, aby wprowadzać innowacje na rzecz inteligentniejszego, bezpieczniejszego świata.
Potencjał AI do zwiększania naszych umiejętności i możliwości pozwoli nam poświęcać więcej cennego czasu na zadania, które wymagają naszej ludzkiej wiedzy specjalistycznej, czyniąc ludzi bardziej wartościowymi niż kiedykolwiek.
Musimy wszyscy zobowiązać się do korzystania z technologii AI w sposób etyczny i społecznie odpowiedzialny. Oznacza to, że inicjatywy AI, niezależnie od tego, czy dotyczą produktów i usług, czy sposobów pracy, powinny być kierowane zasadami uczciwości, przejrzystości, odpowiedzialności oraz poszanowania prywatności i godności człowieka.