10.09.2018 Rynek medialny
Kampanie dezinformacyjne to element cyberwojny
BARD

- Zidentyfikowanie sprawców jest w praktyce niemożliwe. Wykorzystują darknet, anonimowe sieci czy zainfekowane komputery - podkreśla w rozmowie z agencją informacyjną Newseria Biznes Andrzej Nowodworski, architekt bezpieczeństwa, współwłaściciel Immunity Systems. - Elementy cyberwojny już mamy, ponieważ czy to za pomocą kampanii dezinformacyjnych, czy za pomocą portali społecznościowych pewnego rodzaju akcje są prowadzone. Najbardziej aktywnymi państwami w tym zakresie są Rosja, USA, Chiny, Izrael, ale też Korea.
Niedawno największe media społecznościowe usunęły setki fałszywych kont mające dezinformować użytkowników za pomocą fake newsów. Facebook znalazł 652 takie konta o zasięgu miliona osób, Twitter usunął ich 284. Wszystkie miały tematykę antyizraelską bądź antysaudyjską, stał za nimi głównie Iran i Rosja. Z kolei Microsoft ogłosił, że kilka stron podszywa się pod strony m.in. amerykańskiego Senatu.
- Mamy dwa cele cyberwojny. Pierwszym, podstawowym, jest pozyskanie dostępów do kluczowych zasobów danego państwa i zabezpieczenie sobie tych dostępów na wypadek eskalacji konfliktu. Drugim jest wojna informacyjna czy dezinformacyjna, gdzie próbujemy sterować opinią publiczną w taki sposób, jaki jest nam potrzebny czy dla nas wygodny - mówi Andrzej Nowodworski. - W kontekście ostatnich wyborów w USA i głośnej sprawy, czy Rosjanie mieli wpływ na wyniki wyborów czy nie, nigdy nie będziemy mieli stuprocentowych dowodów, ponieważ zebranie takich dowodów jest niezwykle trudne, a hakerzy dysponują różnymi technikami ukrywania źródła swojej działalności.
Rosja jest oskarżana o próbę wpływania na wyniki wyborów prezydenckich w USA w 2016 roku – poprzez prowadzenie akcji dezinformacyjnych w mediach społecznościowych. Choć prowadzone konta i fanpage nie zachęcały do głosowania na konkretnych kandydatów, umiejętnie podsycały nieporozumienia między konserwatystami i liberałami.
- Doskonałym przykładem jest Cambridge Analytica, firma, która zajmowała się profilowaniem użytkowników Facebooka, wykorzystując dostępne mechanizmy. Opracowany przez nich algorytm tak dobrze profilował, że dobierał specjalnie przygotowaną pod daną grupę reklamę wyborczą - tłumaczy ekspert Immunity Systems. - Było to możliwe poprzez wykorzystanie zaawansowanych metod tzw. machine learning czy sztucznej inteligencji, które na podstawie lajków postów z Facebooka są w stanie określić człowieka lepiej, niż on sam siebie zna.
Cyberwojna to nie tylko dezinformacja, lecz także ataki hakerów na osoby prywatne, firmy czy systemy państwa. Hakerzy stale udoskonalają metody ataków: wysyłają zainfekowane informacje, podszywają się pod użytkownika sieci, wyłudzając w ten sposób dane lub pieniądze. Tworzą imitację stron internetowych, blokują sieci i obciążają serwery. W ten sposób mogą całkowicie sparaliżować państwo. Przykładem może być atak malware Stuxnet z 2010 roku, który zainfekował maszyny w ośrodku odpowiedzialnym za irańskie testy nuklearne. W efekcie cały irański proces badań nad technologią rozbijania atomu znacznie spowolnił. Pod koniec czerwca 2017 roku z kolei hakerzy włamali się do komputerów w elektrowniach atomowych w Stanach Zjednoczonych.
Cyberwojna w Polsce
- Nawet w Polsce w zeszłym roku mieliśmy głośną sprawę ransomware: wirusy Petya i NotPetya. Najbardziej medialnym przykładem była firma Inter Cars, która straciła na kilka dni możliwość sprzedaży części samochodowych. Kampania była wycelowana w Ukrainę, a ponieważ Inter Cars ma swoje oddziały na Ukrainie, to dotknęło także i ich - wskazuje Andrzej Nowodworski. - Analiza tego ransomware wykazała, że intencją było zniszczenie tych danych, zablokowanie firmom i instytucjom dostępu do nich.
W 2017 roku setki tysięcy komputerów na całym świecie zostały zarażone oprogramowaniem WannaCry. Jeszcze groźniejszy okazał się wirus Petya, który blokował komputer, żądając okupu za przywrócenie dostępu. Choć atak pierwotnie był wymierzony w ukraińskie firmy, uderzył w wiele przedsiębiorstw na całym świecie i przyniósł olbrzymie straty finansowe. Maersk, największy na świecie operator morskiego transportu kontenerowego, poinformował, że atak kosztował go ok. 300 mln dol.
- Znajdowanie sprawców cyberataków jest niezwykle skomplikowane, ponieważ atakujący przeważnie dysponują infrastrukturą, która zaciera ślady. Mamy np. sieć Tor, która daje poczucie anonimowości, mamy botnety i poszczególne komputery z tych botnetów są wynajmowane, by były źródłem ataku - ocenia Andrzej Nowodworski. - Jest szereg mechanizmów, które ukrywają atakującego. Z drugiej strony dysponujemy coraz większą mocą obliczeniową i jesteśmy w stanie analizować coraz więcej danych w krótkim czasie, więc pewne dowody poszlakowe możemy uzyskać.
Rozpoznać fake news. Technologie do tworzenia fałszywych informacji
Do fałszowania informacji coraz częściej wykorzystywana jest sztuczna inteligencja. Istnieje już oprogramowanie, dzięki któremu można manipulować wystąpieniami publicznymi polityków. Boty coraz częściej są wykorzystywane także w Polsce, a hejt i trolling to jedne z największych zagrożeń dla internetu.
- Czasami trudno rozpoznać, czy komentarz pochodzi z fejkowego konta, czy z konta użytkownika, który jest bardzo mocno przeświadczony o słusznej prawdzie tylko jednej strony - mówi agencji informacyjnej Newseria Innowacje Sebastian Bykowski, wiceprezes zarządu i dyrektor generalny PRESS-SERVICE Monitoring Mediów. - Narzędzia służące do śledzenia historii, obserwacji i analizy profili mogą nam dostarczyć wiele informacji, które są w stanie w dużym stopniu przybliżyć nas do oceny, czy to jest konto fejkowe, czy to jest konto rzeczywiste jakiegoś oponenta danej dyskusji.
Trudniej, jeśli do dezinformacji i generowania masowego zalewu nieprawdziwymi informacjami wykorzystywane są boty i sztuczna inteligencja. Po internecie krąży nagranie przemówienia Baracka Obamy, który wypowiada dokładnie te same słowa, będąc w różnym wieku - materiał zmontowano za pomocą specjalistycznego oprogramowania. To oznacza, że można już sfałszować publiczne wystąpienie każdego polityka.
Przykładem wykorzystania zasady działania fałszywych informacji na szeroką skalę jest afera Facebooka z początku 2018 roku. Firmie Cambidge Analytica udało się pozyskać dane przeszło 50 mln użytkowników Facebooka, które wykorzystała do stworzenia spersonalizowanych reklam zachęcających do podejmowania konkretnych decyzji wyborczych. Dzięki temu prawdopodobnie udało się wpłynąć na wyniki głosowania dotyczącego brexitu oraz ostatnich wyborów prezydenckich w USA.
Fake news w Polsce i w Europie
Trzy czwarte Polaków przyznaje, że z fake newsami, czyli informacjami nieprawdziwymi lub zniekształcającymi rzeczywistość, spotyka się raz w tygodniu lub częściej. Tylko 14% ankietowanych uważa, że ten problem nie dotyczy ich w ogóle - wynika z opublikowanych przez Kantar Public wyników badania Eurobarometr.
Na pytanie "Czy obecność wiadomości i informacji, które zniekształcają rzeczywistość lub które nawet są nieprawdziwe, stanowi problem w Pana(i) kraju?" twierdząco odpowiedziało aż 84 procent ankietowanych w Polsce.
- 49% - zdecydowanie tak
- 35% - raczej tak
- 9% - raczej nie
- 3% - zdecydowanie nie
- 4% - nie wiem/nie mam zdania
Pod tym względem plasujemy się w połowie unijnej skali, uzyskując wyniki porównywalne z europejską średnią (44% - zdecydowanie tak, 41 - raczej tak).
PRZERWA NA REKLAMĘ
Najnowsze w dziale Rynek medialny:
Cyberprzemoc i hejt pod pozorem żartu. Raport RAYUELA o młodzieży
Krzysztof Fiedorek
Badanie przeprowadzone w pięciu krajach ujawnia brutalną prawdę: przemoc w sieci nie rozkłada się równo. To cyfrowa mapa uprzedzeń, która rani najmocniej tych, którzy najbardziej odstają. "To tylko żart". Tak często zaczyna się przemoc, którą młodzi przeżywają w milczeniu.
Zaufanie do mediów społecznościowych. Youtube wygrywa z TikTokiem i X
Krzysztof Fiedorek
Czy Polacy naprawdę ufają mediom społecznościowym? Nowe badanie pokazuje ogromne różnice oceny najważniejszych kanałów. Zaufanie trafia tam, gdzie jest autentyczność, a nie algorytm. Rośnie rola ludzi, spada znaczenie marek.
Sztuczna inteligencja w redakcjach. Trzy realia ery AI w mediach
Krzysztof Fiedorek
Według raportu Europejskiej Unii Nadawców, wiele redakcji już korzysta z AI, ale nadal nie ufa jej w pełni. Odbiorcy nie chcą "robotycznych" wiadomości, a same technologie - choć szybkie - bywają kosztowne, zawodne i zaskakująco… ludzkie w błędach.
Podobne artykuły:
Kobiety w PR. Raport Związku Firm Public Relations
ZFPR
Zarządy z przewagą kobiet stanowią w Polsce 12%. Jest to wartość dwukrotnie większa w porównaniu do wyników, jakie opublikowano w raporcie „Global Women in PR – Annual Index 2020”. Większość badanych uważa, że udział kobiet w zarządach zwiększa kreatywność firmy oraz pomaga zwiększyć jej produktywność.
Mowa nienawiści i ekstremizm. Luki w politykach platform social media
NB
Naukowcy z Wielkiej Brytanii wykazali, że użytkownicy mediów społecznościowych nawet przez połowę czasu tam spędzanego mogą mieć styczność z przekazami z mową nienawiści i treściami ekstremistycznymi. To daje średnio około 70 minut dziennie.
Polska prasa w liczbach. Audyt PBC za pierwszy kwartał 2022
Sylwia Markowska
Wydawcy dopasowują strategie działania do posiadanych marek oraz oczekiwań różnorodnych grup odbiorców. Niektórzy decydują się na pozostanie wyłącznie przy wersjach drukowanych, inni przechodzą na wersje cyfrowe czy online, jest także spora grupa wydawców, którzy łączą obie ścieżki rozwoju.
Dziennikarstwo mobilne. Jak nowe technologie zmieniły pracę mediów
Łukasz Malczewski, Agnieszka Kujawa
Ponad 42 proc. dziennikarzy zdarza się pracować z domu. Tyle samo przeprowadziło wywiad przez komunikator, a jeden na sześciu napisał tekst jadąc komunikacją miejską. Badanie "Mobile Journalism" pokazuje jak zmienił się sposób pracy dziennikarzy.