10.09.2018 Rynek medialny
Kampanie dezinformacyjne to element cyberwojny
BARD
Propaganda oparta na dezinformacji prowadzona na portalach społecznościowych może sterować opinią publiczną i kreować wydarzenia. To staje się coraz częściej wykorzystywanym orężem w cyberwojnie. Jej celem może być uzyskanie dostępu do kluczowych danych i zablokowanie działalności firmy czy całego państwa.

- Zidentyfikowanie sprawców jest w praktyce niemożliwe. Wykorzystują darknet, anonimowe sieci czy zainfekowane komputery - podkreśla w rozmowie z agencją informacyjną Newseria Biznes Andrzej Nowodworski, architekt bezpieczeństwa, współwłaściciel Immunity Systems. - Elementy cyberwojny już mamy, ponieważ czy to za pomocą kampanii dezinformacyjnych, czy za pomocą portali społecznościowych pewnego rodzaju akcje są prowadzone. Najbardziej aktywnymi państwami w tym zakresie są Rosja, USA, Chiny, Izrael, ale też Korea.
Niedawno największe media społecznościowe usunęły setki fałszywych kont mające dezinformować użytkowników za pomocą fake newsów. Facebook znalazł 652 takie konta o zasięgu miliona osób, Twitter usunął ich 284. Wszystkie miały tematykę antyizraelską bądź antysaudyjską, stał za nimi głównie Iran i Rosja. Z kolei Microsoft ogłosił, że kilka stron podszywa się pod strony m.in. amerykańskiego Senatu.
Bilion dolarów na reklamę. Padł rekord wszech czasów [PL NAPISY] 👇
- Mamy dwa cele cyberwojny. Pierwszym, podstawowym, jest pozyskanie dostępów do kluczowych zasobów danego państwa i zabezpieczenie sobie tych dostępów na wypadek eskalacji konfliktu. Drugim jest wojna informacyjna czy dezinformacyjna, gdzie próbujemy sterować opinią publiczną w taki sposób, jaki jest nam potrzebny czy dla nas wygodny - mówi Andrzej Nowodworski. - W kontekście ostatnich wyborów w USA i głośnej sprawy, czy Rosjanie mieli wpływ na wyniki wyborów czy nie, nigdy nie będziemy mieli stuprocentowych dowodów, ponieważ zebranie takich dowodów jest niezwykle trudne, a hakerzy dysponują różnymi technikami ukrywania źródła swojej działalności.
Rosja jest oskarżana o próbę wpływania na wyniki wyborów prezydenckich w USA w 2016 roku – poprzez prowadzenie akcji dezinformacyjnych w mediach społecznościowych. Choć prowadzone konta i fanpage nie zachęcały do głosowania na konkretnych kandydatów, umiejętnie podsycały nieporozumienia między konserwatystami i liberałami.
- Doskonałym przykładem jest Cambridge Analytica, firma, która zajmowała się profilowaniem użytkowników Facebooka, wykorzystując dostępne mechanizmy. Opracowany przez nich algorytm tak dobrze profilował, że dobierał specjalnie przygotowaną pod daną grupę reklamę wyborczą - tłumaczy ekspert Immunity Systems. - Było to możliwe poprzez wykorzystanie zaawansowanych metod tzw. machine learning czy sztucznej inteligencji, które na podstawie lajków postów z Facebooka są w stanie określić człowieka lepiej, niż on sam siebie zna.
Cyberwojna to nie tylko dezinformacja, lecz także ataki hakerów na osoby prywatne, firmy czy systemy państwa. Hakerzy stale udoskonalają metody ataków: wysyłają zainfekowane informacje, podszywają się pod użytkownika sieci, wyłudzając w ten sposób dane lub pieniądze. Tworzą imitację stron internetowych, blokują sieci i obciążają serwery. W ten sposób mogą całkowicie sparaliżować państwo. Przykładem może być atak malware Stuxnet z 2010 roku, który zainfekował maszyny w ośrodku odpowiedzialnym za irańskie testy nuklearne. W efekcie cały irański proces badań nad technologią rozbijania atomu znacznie spowolnił. Pod koniec czerwca 2017 roku z kolei hakerzy włamali się do komputerów w elektrowniach atomowych w Stanach Zjednoczonych.
Cyberwojna w Polsce
- Nawet w Polsce w zeszłym roku mieliśmy głośną sprawę ransomware: wirusy Petya i NotPetya. Najbardziej medialnym przykładem była firma Inter Cars, która straciła na kilka dni możliwość sprzedaży części samochodowych. Kampania była wycelowana w Ukrainę, a ponieważ Inter Cars ma swoje oddziały na Ukrainie, to dotknęło także i ich - wskazuje Andrzej Nowodworski. - Analiza tego ransomware wykazała, że intencją było zniszczenie tych danych, zablokowanie firmom i instytucjom dostępu do nich.
W 2017 roku setki tysięcy komputerów na całym świecie zostały zarażone oprogramowaniem WannaCry. Jeszcze groźniejszy okazał się wirus Petya, który blokował komputer, żądając okupu za przywrócenie dostępu. Choć atak pierwotnie był wymierzony w ukraińskie firmy, uderzył w wiele przedsiębiorstw na całym świecie i przyniósł olbrzymie straty finansowe. Maersk, największy na świecie operator morskiego transportu kontenerowego, poinformował, że atak kosztował go ok. 300 mln dol.
- Znajdowanie sprawców cyberataków jest niezwykle skomplikowane, ponieważ atakujący przeważnie dysponują infrastrukturą, która zaciera ślady. Mamy np. sieć Tor, która daje poczucie anonimowości, mamy botnety i poszczególne komputery z tych botnetów są wynajmowane, by były źródłem ataku - ocenia Andrzej Nowodworski. - Jest szereg mechanizmów, które ukrywają atakującego. Z drugiej strony dysponujemy coraz większą mocą obliczeniową i jesteśmy w stanie analizować coraz więcej danych w krótkim czasie, więc pewne dowody poszlakowe możemy uzyskać.
Rozpoznać fake news. Technologie do tworzenia fałszywych informacji
Do fałszowania informacji coraz częściej wykorzystywana jest sztuczna inteligencja. Istnieje już oprogramowanie, dzięki któremu można manipulować wystąpieniami publicznymi polityków. Boty coraz częściej są wykorzystywane także w Polsce, a hejt i trolling to jedne z największych zagrożeń dla internetu.
- Czasami trudno rozpoznać, czy komentarz pochodzi z fejkowego konta, czy z konta użytkownika, który jest bardzo mocno przeświadczony o słusznej prawdzie tylko jednej strony - mówi agencji informacyjnej Newseria Innowacje Sebastian Bykowski, wiceprezes zarządu i dyrektor generalny PRESS-SERVICE Monitoring Mediów. - Narzędzia służące do śledzenia historii, obserwacji i analizy profili mogą nam dostarczyć wiele informacji, które są w stanie w dużym stopniu przybliżyć nas do oceny, czy to jest konto fejkowe, czy to jest konto rzeczywiste jakiegoś oponenta danej dyskusji.
Trudniej, jeśli do dezinformacji i generowania masowego zalewu nieprawdziwymi informacjami wykorzystywane są boty i sztuczna inteligencja. Po internecie krąży nagranie przemówienia Baracka Obamy, który wypowiada dokładnie te same słowa, będąc w różnym wieku - materiał zmontowano za pomocą specjalistycznego oprogramowania. To oznacza, że można już sfałszować publiczne wystąpienie każdego polityka.
Przykładem wykorzystania zasady działania fałszywych informacji na szeroką skalę jest afera Facebooka z początku 2018 roku. Firmie Cambidge Analytica udało się pozyskać dane przeszło 50 mln użytkowników Facebooka, które wykorzystała do stworzenia spersonalizowanych reklam zachęcających do podejmowania konkretnych decyzji wyborczych. Dzięki temu prawdopodobnie udało się wpłynąć na wyniki głosowania dotyczącego brexitu oraz ostatnich wyborów prezydenckich w USA.
Fake news w Polsce i w Europie
Trzy czwarte Polaków przyznaje, że z fake newsami, czyli informacjami nieprawdziwymi lub zniekształcającymi rzeczywistość, spotyka się raz w tygodniu lub częściej. Tylko 14% ankietowanych uważa, że ten problem nie dotyczy ich w ogóle - wynika z opublikowanych przez Kantar Public wyników badania Eurobarometr.
Na pytanie "Czy obecność wiadomości i informacji, które zniekształcają rzeczywistość lub które nawet są nieprawdziwe, stanowi problem w Pana(i) kraju?" twierdząco odpowiedziało aż 84 procent ankietowanych w Polsce.
- 49% - zdecydowanie tak
- 35% - raczej tak
- 9% - raczej nie
- 3% - zdecydowanie nie
- 4% - nie wiem/nie mam zdania
Pod tym względem plasujemy się w połowie unijnej skali, uzyskując wyniki porównywalne z europejską średnią (44% - zdecydowanie tak, 41 - raczej tak).
PRZERWA NA REKLAMĘ
Najnowsze w dziale Rynek medialny:
Social media w 2025. Różnice pokoleniowe widać jak na dłoni
KFi
Coraz więcej osób deklaruje, że zmniejsza czas spędzany w social mediach. I choć nie oznacza to masowego odpływu, trend jest wyraźny. Z najnowszego raportu GWI wynika, że już 31% użytkowników deklaruje ograniczanie czasu w mediach społecznościowych. Między wierszami widać też frustrację.
Czy robot może być dobrym szefem? Naukowcy z SWPS to sprawdzili
SWPS
Czy robot może skutecznie zarządzać zespołem? Badacze z Uniwersytetu SWPS sprawdzili, co się dzieje, gdy to robot zostaje szefem. Badania pokazują, że choć maszyny potrafią wzbudzać posłuszeństwo, nie dorównują ludziom pod względem autorytetu i efektywności. Skutki są intrygujące.
Równość i różnorodność w mediach. Raport Europejskiej Unii Nadawców
KFi
Europejskie media publiczne coraz częściej stawiają na różnorodność, równość i włączenie (DEI) jako fundament swojej działalności. Nadawcy publiczni w Europie wdrażają strategie na rzecz różnorodności – zarówno w treściach, jak i w swoich zespołach. Wnioski z raportu są jednoznaczne: choć widać postęp, wiele wyzwań nadal pozostaje.
Podobne artykuły:
Fake news i dezinformacja w Polsce. Skala, skutki i pytanie o przyszłość
Bartłomiej Dwornik
Gdzie leżą źródła dezinformacji i jak duża jest skala tej fali? Dlaczego jesteśmy podatni na nieprawdziwe informacje i jaką rolę w tej układance pełnią tradycyjne media? Spróbujmy rzucić nieco światła na te kwestie. I zmierzyć się z pytaniem czy bitwę z zalewem dezinformacji można jeszcze wygrać?
Największe kryzysy wizerunkowe. Raport Alert Media Communications
Dagmara Gac
Największy kryzys wizerunkowy 2021 roku w polskim świecie publicznym dotyczył Trybunału Konstytucyjnego pod przewodnictwem Julii Przyłębskiej, zaś w sferze świata biznesu i marek osobistych na pierwszym miejscu znalazła się Barbara Kurdej-Szatan za wulgarny wpis na temat funkcjonariuszy Straży Granicznej.
Co charakteryzuje dobry film?
Arkadiusz Murenia
Jak znaleźć interesującą pozycję filmową? Jakie elementy powinien zawierać dobry film? Czym kierować się przy wyborze filmu? Teoretycznie wydaje się, że jest to wręcz banalne pytanie. Czy aby na pewno?
Radio w 2011 roku. Ponad 24 miliony słuchaczy dziennie
Krzysztof Głowiński
Trzeci rok z rzędu zasięg dzienny radia ogółem utrzymywał się na poziomie ponad 80 proc. Oznacza to, że w 2011 roku średnio każdego dnia radio włączało 24,3 mln słuchaczy.