28.10.2024 Prawo w mediach
Trendy cyberbezpieczeństwa. Analiza DXC Technology
Katarzyna Kuczyńska
Październik to Globalny Miesiąc Cyberbezpieczeństwa. To doskonała okazja dla wszystkich organizacji, by zweryfikować swoje plany w zakresie ochrony przed cyberzagrożeniami, sprawdzić, co udało się już zrobić i przygotować na następne lata.

By ożywić dyskusję na ten temat, eksperci DXC Technology wskazują na pięć trendów, które mogą wpłynąć na nasze podejście do kwestii bezpieczeństwa cyfrowego - teraz i w przyszłości.
Sztuczna inteligencja – kluczowym elementem w walce z cyberprzestępczością
Sztuczna inteligencja zyskuje na znaczeniu, również w obszarze bezpieczeństwa. Kluczowe są tu głównie zdolność do przetwarzania ogromnych ilości danych, identyfikowania wzorców i wczesnego wykrywania prób ataku. Ta technologia sprawdza się przy wykrywaniu złośliwej aktywności w systemie lub sieci oraz identyfikacji anomalii lub podejrzanych zachowań. Dodatkowo sztuczna inteligencja automatyzuje wiele ręcznych i pracochłonnych zadań związanych z ochroną systemów, uwalniając tym samym czas i zasoby zespołów ds. cyberbezpieczeństwa.
Jest jednak druga strona medalu: w czasie, gdy eksperci ds. cyberbezpieczeństwa pracują nad wykorzystaniem AI do powstrzymywania przestępców, ci często wykorzystują tę samą technologię do zwiększania szybkości, skali i intensywności swoich ataków.
Weźmy jako przykład ataki phishingowe. Na przestrzeni lat ewoluowały one od prostych, wprowadzających w błąd e-maili do wiadomości znacznie bardziej zaawansowanych, trudniejszych do wykrycia i przez to bardziej niebezpiecznych. Według raportu Computer Emergency Response Team (CERT), w samym 2023 r. zarejestrowano ponad 95 tys. takich przypadków.
Atakujący z sukcesem stosują także metody deepfake – komunikaty tworzone przez sztuczną inteligencję, które przyjmują formę wielce przekonujących fałszywych obrazów, dźwięków, czy filmów – a to wszystko w celu popełnienia oszustwa lub nakłonienia odbiorców do działań korzystnych dla przestępców.
Jak zauważa Kamil Wiśniewski, EMEA CyberDefence Advisory Manager w DXC Technology, adaptacyjne możliwości AI są szczególnie skuteczne w atakach socjotechnicznych, które mają na celu manipulowanie ludźmi, by wydobyć od nich poufne informacje lub skłonić do działań naruszających bezpieczeństwo.
– Sztuczna inteligencja to broń obosieczna. Z jednej strony, dzięki możliwości szybkiej analizy danych i personalizacji działań na niespotykaną wcześniej skalę, cyberprzestępcy mogą wydawać się bardziej wiarygodni, a ich ataki skuteczniejsze i trudniejsze do wykrycia – dodaje Wiśniewski. – Z drugiej, to również potężne narzędzie w rękach ekspertów od cyberbezpieczeństwa.
Jesteśmy otoczeni cyberprzestrzenią
Nadeszły takie czasy, kiedy jesteśmy bardziej niż kiedykolwiek związani z naszymi telefonami, aplikacjami, profilami społecznościowymi czy komunikatorami. To wygoda, ale również większe ryzyko związane z bezpieczeństwem w sieci.
Używamy naszych smartfonów i znajdujących się w nich aplikacji do niemal wszystkiego: od aktualizacji naszego statusu w czasie rzeczywistym i przesyłania wiadomości w mediach społecznościowych, przez publikowanie ofert pracy na LinkedIn, aż po gry komputerowe. Ogromnie zwiększyło to potencjał ataków. Dziś zaledwie jedno kliknięcie w pozornie nieszkodliwy link w może otworzyć drzwi przestępcy i narazić na szwank dane osobowe użytkownika, czy wrażliwe dane organizacji. Podobnie nieostrożne dzielenie się w mediach społecznościowych osobistymi informacjami o wydarzeniach z życia lub pracy może narazić na niebezpieczeństwo zarówno pracownika, jak i pracodawcę.
Jak podaje Barometr Bezpieczeństwa KPMG, w 2023 roku liczba polskich firm, które zarejestrowały przynajmniej jeden incydent związany z cyberbezpieczeństwem, wzrosła o 8 punktów procentowych do 66 proc.
Wzrost liczby incydentów związanych z cyberbezpieczeństwem wiąże się takżę z masowym przejściem na pracę zdalną, ponieważ przestępcy starają się wykorzystać zwiększoną cyfrową powierzchnię ataku. Dotychczasowe systemy bezpieczeństwa wdrożone w biurach nie dają już odpowiedniej ochrony pracowników, a w domowym środowisku pracy, brakuje wielu warstw zabezpieczeń.
Od lat znane jest także zjawisko Shadow IT, pod którym kryją się urządzenia, aplikacje i systemy zainstalowane w naszym środowisku pracy bez zezwolenia i kontroli. Takie działania prowadzą do powstania luk w zabezpieczeniach i wzrostu ryzyka naruszenia danych.

Kamil Wiśniewski z DXC zauważa, że obecnie mamy do czynienia z nowym zjawiskiem, które można określić jako Shadow AI, przez co należy rozumieć wykorzystanie systemów i narzędzi AI bez formalnego zatwierdzenia lub nadzoru. Jest to wciąż rosnący problem, który ma poważne konsekwencje w zakresie poufności naszych danych i zmusza organizacje do wdrożenia odpowiednich zabezpieczeń pozwalających na ciągłe wykrywanie i kontrolowanie prób potencjalnych cyberataków.
– W DXC jesteśmy zwolennikami strategii „Zero-Trust”, czyli modelu wymagającego autoryzacji użytkowników na każdym poziomie dostępu do sieci i danych. To podejście może zapobiec naruszeniu wrażliwych zasobów w miejscu pracy, nawet jeśli pojedyncze urządzenie zostanie przejęte przez atakujących – dodaje Kamil Wiśniewski. – Należy jednak pamiętać, że Zero-Trust nie jest samodzielnym rozwiązaniem, ale raczej elementem strategii i sposobem myślenia, który musi zostać wsparty przez konkretne rozwiązania techniczne.
Ataki mogą być wymierzone w infrastrukturę krytyczną i nasze domy
Kiedy gaśnie światło lub odcięty zostaje dopływ gazu, większość ludzi raczej nie pomyśli, że jest to wynik naruszenia zasad cyberbezpieczeństwa. Jednak OT (Operational Technology czyli sieci i urządzenia IT w środowisku przemysłowym) są rosnącym obszarem cyberataków, gdzie celem stają się systemy sterowania i automatyzacji w fabrykach oraz elementy infrastruktury krytycznej (jak na przykład elektrownie, wodociągi, oczyszczalnie ścieków czy tamy).
– W obliczu akcji, których celem jest wyrządzenie szkód społeczeństwu, musimy być przygotowani do odpowiedniego reagowania na takie incydenty i jak najskuteczniejszego usuwania ich skutków przy jednoczesnym minimalizowaniu strat j – zauważa Wiśniewski. – W obliczu nieustających napięć geopolitycznych ataki na OT będą się wręcz nasilać. Wywiera to ogromną presję na organizacje, skłaniając je do wdrażania coraz bardziej zaawansowanych systemów ochrony cybernetyczne.
Wydarzenia globalne zwiększają poziom zagrożenia
W momencie kryzysu wzrost liczby cyberataków jest zjawiskiem typowym. Przestępcy wykorzystują sytuację kryzysową, w czasie której zwiększa się podatność osób, systemów i zasobów dla uzyskania korzyści finansowych czy politycznych. W rezultacie wrażliwe dane korporacyjne – takie, jak informacje dostępowe, informacje o klientach, czy kod źródłowy mogą trafić w ręce przestępców lub terrorystów sponsorowanych przez wrogie państwa.
Jednym z trendów o rosnącym znaczeniu stają się ataki na łańcuchy dostaw, co może skutkować naruszeniem danych na ogromną skalę. Zdaniem Kamila Wiśniewskiego, takie ataki już dziś mają, a w przyszłości mogą mieć jeszcze poważniejsze konsekwencje dla infrastruktury krytycznej i sektora przemysłowego na całym świecie.

– Wykorzystywane w gospodarce łańcuchy dostaw opierają się na modelu współodpowiedzialności, dlatego naruszenie ich ciągłości ma zawsze głęboki wpływ na całokształt wykorzystywanych przez nas technologii – mówi Wiśniewski. – Kluczowe znaczenie dla bezpieczeństwa ma zatem zwracanie szczególnej uwagi na ryzyko prowadzenia biznesu z niesprawdzonymi podmiotami gospodarczymi. Dobrą praktyką jest aktywne zarządzanie ryzykiem pochodzącym od tzw. trzecich stron, w tym klientów, dostawców czy partnerów biznesowych.
Sztuczna inteligencja jako wzmacniacz potencjału
Aby skutecznie stawić czoła eskalacji cyberzagrożeń, organizacje potrzebują ludzi z odpowiednimi umiejętnościami. Tymczasem w skali globalnej pogłębia się niedobór ekspertów od cyberbezpieczeństwa, przez co w wielu organizacjach wzrasta podatność na rosnące zagrożenia. Brak wykwalifikowanych specjalistów wynika w dużej mierze z szybkiego tempa rozwoju branży security i ciągłego nasilania się ataków w sieci. Niemal z dnia na dzień firmy zdały sobie sprawę, że potrzebują specjalisty lub nawet całego zespołu ds. bezpieczeństwa cyfrowego.
Według wspomnianego wcześniej Barometru Bezpieczeństwa KPMG, połowa ankietowanych firm wskazała, że największy problem w osiągnięciu odpowiedniego poziomu zabezpieczeń stanowią właśnie trudności związane z rekrutacją i utrzymaniem wykwalifikowanych pracowników.
Jednym ze sposobów poradzenia sobie z problemem jest przyciąganie ludzi młodych i rozwijanie ich kwalifikacji przez szkolenia w miejscu pracy. Tacy kandydaci mogą początkowo nie posiadać wymaganych specjalistycznych umiejętności, ale kluczowy jest ich potencjał analityczny, czy umiejętności rozwiązywania problemów.
Ponadto swoistym wzmacniaczem potencjału dla mniejszych zespołów ds. bezpieczeństwa może stać się sztuczna inteligencja i uczenie maszynowe, dzięki którym organizacje mają większe szanse w walce z najnowszymi odmianami złośliwego oprogramowania.
PRZERWA NA REKLAMĘ
Najnowsze w dziale Prawo w mediach:
Pozwy SLAPP w Europie. Jak ucisza się dziennikarzy i aktywistów
Krzysztof Fiedorek
W Europie rośnie liczba strategicznych pozwów, które mają na celu zastraszenie dziennikarzy, aktywistów i organizacji społeczeństwa obywatelskiego. Jak wynika z raportu CASE SLAPPs Report 2024, w latach 2010–2023 zidentyfikowano aż 1049 takich przypadków. Najwięcej - w Polsce.
Dlaczego ludzie szerzą dezinformację? Wyniki badań DigiPatch
Ewelina Krajczyńska-Wujec
Osoby silnie motywowane potrzebą władzy częściej udostępniają posty w mediach społecznościowych, w tym dezinformację. Sama władza, podobnie jak potrzeba zdobycia prestiżu i uznania, nie wiąże się z częstotliwością rozpowszechniania fałszywych informacji - wynika z badań z udziałem prof. Małgorzaty Kossowskiej z Uniwersytetu Jagiellońskiego.
Twórczość AI i prawa autorskie. Dylematy i wyzwania Artificial Creativity
Newseria
Algorytmy potrafią tworzyć muzykę dopasowaną do preferencji i nastroju, malować obrazy, a nawet pisać poezję czy scenariusze filmowe. To rodzi szereg wyzwań dotyczących praw autorskich. Są także wątpliwości dotyczące ochrony dzieł, z których AI się uczy. Narzucanie prawnych zakazów i obostrzeń może jednak nie przynieść efektów.
Podobne artykuły:
Nowe regulacje dla branży influencer marketingu
Robert Nogacki
Pierwsze zarzuty UOKiK dla trzech influencerów i ich reklamodawcy, postawione 25 lipca, oraz wcześniejsze decyzje UOKiK o ukaraniu czołowych polskich twórców SM za brak współpracy to pokłosie starań urzędu o uregulowanie branży influencer marketingu w Polsce.
Największe grzechy polskich mediów według Rady Etyki Mediów
Money.pl
Manipulacja faktami i podkręcanie informacji, amatorska lustracja, odmowa publikacji sprostowań, a także załatwianie prywatnych porachunków właścicieli.
Autoryzacja - filtr rzeczywistości
Monika Bednarczyk
Autoryzacja informacji to swoisty relikt, ale także jedno z ostatnich ograniczeń ogromnej i kapryśnej władzy mediów. Władzy nieraz nadużywanej, brutalnej, łamiącej jakże często zasady prawa i etyki. [Źródło: Merkuriusz Uniwersytecki].
Paparazzi mogą nękać gwiazdy
Money.pl
Sąd Najwyższy uchylił wyrok w procesie cywilnym, który Edyta Górniak wygrała z Super Expressem w dwóch instancjach.