Udostępnij
Rosyjska armia zajmująca się dezinformacją w sieci mocno korzysta ze sztucznej inteligencji i technologii deepfake. Jeszcze nigdy tej metody nie używano na taką skalę do szerzenia nieprawdziwych informacji.
– Powinniśmy mieć lepsze narzędzia do reagowania na rosyjską dezinformację – powiedział Alexander de Croo, premier Belgii przed rozpoczęciem unijnego szczytu.
Wcześniej publicznie poinformował, że służby jego kraju prowadzą dochodzenie, w którym chcą zbadać rosyjską ingerencję w wybory europejskie. Belgijskie służby oceniają, że członkom europarlamentu miały być oferowane pieniądze za osłabianie unijnego wsparcia dla Ukrainy.
– Mamy poważny zarzut, że Rosja odegrała aktywną rolę, by wpłynąć na naszą demokrację. Musimy jasno pokazać, że takie próby nie są akceptowalne i że musimy zrobić wszystko, by bronić demokrację – ostrzega teraz de Croo, a wszystkie te słowa padają w kontekście wyborów do Parlamentu Europejskiego, które są zaplanowane na początek czerwca.
Nie tylko trolle
Jeszcze zanim Rosja otwarcie zaatakowała Ukrainę w lutym 2022 roku, miała gotowy cały system do rozpowszechniania dezinformacji i fake newsów. Już w 2013 r. powstała sieć portali (jeden z nich działa też w Polsce), które codziennie zasilane są dziesiątkami prorosyjskich, a antyukraińskich informacji.
Głównym narzędziem działań rosyjskich są jednak portale społecznościowe. To tam umieszczane są wpisy przygotowywane przez armię trolli i boty. Rosja do swoich działań używa też sztucznej inteligencji i to na skalę do tej pory niewidzianą. Chodzi także o technologię deepfake – tworzenie przez SI nieprawdziwych obrazów.
Adam Majchrzak z Uniwersytetu Gdańskiego zauważa: – Technologia związana z SI może być użytecznym narzędziem, ale w kontraście – gdy mowa o nieetycznym wymiarze użycia – może działać jak broń masowego rażenia.
I tłumaczy, że deepfake daje np. możliwość podmienienia twarzy na filmie lub zdjęciu. Lub w ogóle może stworzyć nowy obraz.
W pierwszym roku wojny w Ukrainie nie było jeszcze wielu przykładów użycia przez Rosjan deepfake. Mogło to wynikać np. z tego, że technologia była dopiero testowana. Albo przez to, że istnieją systemy, które wyłapują i weryfikuję fałszywe obrazy.
Jednak i tak Rosjanie sięgali po takie metody. – W marcu 2022 roku w mediach społecznościowych pojawiło się nagranie z wizerunkiem ukraińskiego prezydenta Wołodymyra Zełeńskiego, w którym przekonywano, że ukraińskie wojsko zawiodło i podjęto oficjalną decyzję o kapitulacji. Gdyby uwierzyć w taką wersję, to decyzja odbyłaby się wbrew wcześniejszym deklaracjom polityka o kontynuacji walk z najeźdźcą i wsparciu obywateli w walce na terenie kraju – opisuje Majchrzak i zauważa, że nagranie było dość statyczne. Głowa prezydenta była większa niż powinna być w rzeczywistości, a sam film nie wydawał się profesjonalny. – Zdarzenie było na swój sposób przełomowe, ponieważ to najprawdopodobniej jeden z pierwszych przypadków wykorzystywania deepfake’ów w ramach dezinformacji wojennej na świecie – uważa autor artykułu.
Także w 2022 roku dzięki deepfake spreparowano rozmowę premiera Denysa Szmyhala, który miał się połączyć z Halukiem Bayraktarem, szefem tureckiej firmy produkującej drony wojskowe. W tym przypadku Turek miał mieć przekonanie, że rozmawia z prawdziwym politykiem. Rozmowę na szczęście przechwycił ukraiński wywiad.
Nie ma takiego człowieka
Tak powstał np. Władimir Bondarenko. Miał być blogerem z Kijowa uwiarygodniającym rosyjską narrację o wojnie. Tak samo sztuczny okazała się nauczycielka gry na gitarze z Charkowa.
Trudno obecnie ustalić jak bardzo Rosjanie wykorzystują SI. Wygląda jednak na to, że w znacznie większym stopniu niż z jakimkolwiek innym konflikcie. I nawet jeżeli są to nieudane próby, to mają swój cel.
– Nie można zapominać, że z dezinformacją wiąże się proces ciągłego uczenia się – jeden przekaz może być nieskuteczny, jednak stanowi lekcję na przyszłość, dzięki której działania dezinformacyjne mogą być optymalizowane .Wykorzystanie obrazów generowanych przy użyciu SI w pierwszym roku rosyjskiej inwazji to najpewniej zapowiedź kolejnych operacji związanych z użyciem technologii deepfake w dezinformacji – ocenia Majchrzak.
Tekst powstał w ramach projektu „Siła Prawdy”. Celem projektu jest walka z dezinformacją i fake newsami na styku polsko-ukraińskim. Projekt współfinansowany ze środków Polsko-Amerykańskiej Fundacji Wolności w ramach programu Wspieramy Ukrainę, realizowanego przez Fundację Edukacja dla Demokracji.

Na zdjęciu: Prawdziwe i fałszywe nagranie z prezydentem Ukrainy. W tym fałszywym ogłasza, że jego kraj poddaje się w wojnie z Rosją (Fot. Screen Inside Edition YT)
Dodaj komentarz