MKTG SR - pasek na kartach artykułów

Sztuczna inteligencja. Kradnie, tanio porabia i dotkliwie uderza

Maciej Czerniak
Maciej Czerniak
123rf
O tym, jak trudno odróżnić prawdę od fałszu, przekonali się ostatnio, m.in. chirurg prof. Arkadiusz Jawień z Bydgoszczy, biskup Kazimierz Nycz i uczennica bydgoskiego LO. Wszystkim im skradziono wizerunek. Witamy w nowym świecie, w którym to AI rozdaje karty.

Uczennica bydgoskiego liceum może miesiącami, jeśli nie latami będzie dochodziła do siebie po tym, co ją spotkało. Dwaj uczniowie „rozebrali” ją za pomocą aplikacji w smartfonie. Przepis na taką krzywdę jest bardzo prosty. Wystarczy zainstalować w telefonie program do robienia „nudesów”, wczytać w nim zdjęcie, na którym widać twarz przyszłej ofiary i… to wszystko. W ten sposób skompromitowano nastolatkę z LO w Bydgoszczy. Dziesiątki jej znajomych oraz osób kompletnie obcych zobaczyło ją w pozie typowej dla aktorki filmu pornograficznego. Trauma na lata gotowa.

Sprawę bada bydgoska policja. Wstępnie przyjęto, że dwaj uczniowie mogą odpowiedzieć za wytwarzanie i publikowanie treści pornograficznych z udziałem osoby nieletniej.

Lekarz, biskup i „medycyna”

Pod koniec ubiegłego tygodnia, również w Bydgoszczy do policji trafiło inne doniesienie. Tym razem osobą poszkodowaną jest prof. Arkadiusz Jawień, uznany specjalista, kierownik Kliniki Chirurgii Naczyniowej i Angiologii w Szpitalu Uniwersyteckim nr 1 im. Antoniego Jurasza w Bydgoszczy.

Zaczęło się od telefonu od kolegi po fachu. Przyjaciel zadzwonił zapytać, czy lek, który w internetowym nagraniu promuje lekarz, jest skuteczny. Prof. Jawień był zszokowany.

- Nikomu nie udzielałem takiego wywiadu! - medyk zapewnia stanowczo w rozmowie z Grażyną Rakowicz dla Gazety Pomorskiej. - Nie znam też wymienianego w nim suplementu diety, nigdy go nie widziałem, nie badałem i tym bardziej, nigdy go nie zalecałem swoim pacjentom. Poza tym nie ma leku, który oczyszcza naczynia krwionośne. To nie jest hydraulika – zaznacza Jawień.

Chodzi materiał, na którym widać postać bydgoskiego chirurga. Jest też wstęp do rozmowy: - Arkadiusz Jawień rzadko udziela wywiadów, ponieważ stara się poświęcić więcej czasu swoim klientom. Jednak reporter naszego kanału miał szczęście - znany specjalista zgodził się odpowiedzieć na kilka pytań osobom, którzy nie mają możliwości zapisania się do kliniki.

Cudowny lek, który „promuje” chirurg, ma oczyszczać naczynia krwionośne. - Nie wykluczam, że może całą rozmowę wygenerowała sztuczna inteligencja a ktoś ulokował w niej moją osobę – mówi lekarz.

Dwa tygodnie temu zapanowało poruszenie w Archidiecezji Warszawskiej, po tym, kiedy w internecie pokazał się film z udziałem tamtejszego metropolity. - Nazywam się Kazimierz Nycz i od dwudziestu lat mam problemy z kolanami – słychać głos niemal identyczny z tym należącym do biskupa, a na nagraniu widać postać duchownego. To znów „fake” (z ang. fałszywka) i znów chodzi o reklamę rzekomo cudownego suplementu. Kuria od razu zdementowała prawdziwość tego przekazu.

Brudna walka polityczna

To tylko przykłady z ostatnich tygodni. Wykorzystywanie algorytmów sztucznej inteligencji od dawna znajduje też zastosowanie w walce politycznej.

W kampanii przed wyborami samorządowymi 2024 mieszkańcy Bydgoszczy przecierali oczy ze zdumienia, kiedy oglądali w sieci film z konferencji Łukasza Schreibera, posła, byłego ministra w kancelarii premiera. Szokujące było to, co „obiecywał”, jeśli tylko zostanie prezydentem Bydgoszczy.

- Proszę państwa, co proponujemy? Cykliczne kobiece gale walk MMA w Bydgoszczy. Dzisiaj bydgoszczanie, by zobaczyć dobry sport, muszą jeździć do Łodzi, gdzie mój ojciec jest marszałkiem - słychać na wideo, które krążyło w mediach społecznościowych. - 9 marca, aby zobaczyć moją małżonkę w akcji przeciwko Gosi Magical, będą musieli jechać do sąsiedniego województwa. Jak wygram wybory oraz nasza drużyna Bydgoskiej Prawicy (oryg. red.), takie walki będą się odbywać na Starym Rynku.

Zachowanie polityka na filmie było naturalne, a głos zupełnie przypominał ten należący do posła. Schreiber nie chciał komentować tej sprawy.

To był pierwszy raz w kampanii wyborczej w Bydgoszczy, ale nie pierwszy w Polsce, kiedy sięgnięto po narzędzia wykorzystujące sztuczną inteligencję w kreowaniu deep fake’ów. W ubiegłym roku kilka razy już bywały orężem w politycznej walce, np. kiedy wykorzystano głos Mateusza Morawieckiego do wykreowania nagrania, na którym rzekomo czyta ujawnione wiadomości ujawniające partyjną kuchnię PiS. Z drugiej strony podrobiono również głos Donalda Tuska, który miał zapraszać swoich wyborców do pracy przy zbiorach szparagów w Niemczech.

- To, czy deep fake będzie narzędziem wykorzystywanym nie tylko przez polityków, ale i dezinformatorów na szeroką skalę, jest zależne głównie od technologii ich wytwarzania i kosztów z tym związanych - mówi dr Katarzyna Bąkowicz, medioznawczyni z Uniwersytetu SWPS. - Póki co, tworzenie deep fake'ów jest jeszcze stosunkowo skomplikowane, to znaczy potrzeba do tego specjalistycznego oprogramowania, czasu i mocy obliczeniowej komputera. Chociaż proste deep fake, ale też łatwiejsze do rozpoznania, są znacznie tańsze. Jeżeli ta technologia się upowszechni, to jest szansa, że będzie częściej stosowana.

Zagrożeniem „tanie” AI

Badaczka wspomina też o zjawisku "cheap fake", które można przetłumaczyć jako "tania manipulacja". Jak zaznacza, to właśnie tańsza wersja dezinformacji wizualnej, dostępna z poziomu darmowych aplikacji dostępnych w telefonie.

- I to jest gigantyczne zagrożenie, dlatego, że tego może używać każdy, kto ma smartfona - mówi dr Bąkowicz. - W zasadzie jedyną rzeczą, która stoi na straży używania takich technologii, jest etyka. Powstaje pytanie, czy politycy tę etykę będą mieli, czy nie.

Warto też podkreślić, że stosunkowo łatwo jest zweryfikować takiego deep fake'a i on stosunkowo szybko wychodzi na jaw. Możemy takiego polityka od razu zapytać, sprawdzić, czy powiedział coś, czy nie. Czas między publikacją a reakcją jest bardzo krótki. Są też jednak osoby, do których ta informacja "sprostowująca" nigdy nie dotrze. I to są osoby, które w tego deep fake'a uwierzą.

Medioznawczyni nie sądzi jednak, by używanie tego typu manipulacji stało się nagminnie używane w kampanii wyborczej. To jednak nie znaczy, że powinno się tego zjawiska lekceważyć.

- Jednym z typów fake newsa, w opinii amerykańskiej badaczki Claire Wardle, jest satyra. I okazuje się, że treści satyryczne, kiedy trafią do odbiorcy, który nie ma zdolności szerszego zrozumienia, wychwycenia żartu, są uznawane za prawdę. Gdybyśmy myśleli w takich kategoriach, to powinniśmy zabronić kabaretu. Między dezinformacją świadomą i mającą sprawić krzywdę, a zwykłym żartem jest bardzo cienka granica.

Zdaniem dr Bąkowicz, dla polityków tym, czego nie chcą, na co nie mogą sobie pozwolić, jest utrata zaufania. - Kiedy zaczęliby się posługiwać takimi narzędziami, zaryzykowaliby bardzo wiele. Myślę, że to jest też coś, co ich przed tym powstrzymuje – dodaje.

Człowiek „ex machina”?

W ubiegłym roku Deutsche Telekom przeprowadził głośną kampanię ostrzegającą przed publikowaniem zdjęć i filmów z udziałem dzieci w internecie. W materiale wideo promującym kampanię widać salę kinową wypełnioną widzami. Na ekranie pojawia się młoda kobieta, która zwraca się do swojej matki siedzącej na widowni. Mówi: „Zaskakujące, co AI może zrobić z moim wizerunkiem. Wystarczy tylko kilka zdjęć i parę filmików. Każdy może zrobić z tym, co zechce”.

Wizerunek dorosłej kobiety został wygenerowany na podstawie fotografii kilkuletniego dziecka. Zdjęcia zostały następnie „postarzone” dzięki wykorzystaniu algorytmów tzw. głębokiego uczenia.

Kiedy pojawił się dostęp do aplikacji typu Chat GPT, a Elon Musk, amerykański wizjoner, szef Tesli, Space X i Neuralink zapowiadał wykorzystanie sztucznej inteligencji w zespoleniu komputera i ludzkiego mózgu, rozmawialiśmy o AI z ekspertami.

- Jestem w stanie wyobrazić sobie, że już za kilka lat mogłabym zaproponować panu rozmowę z deep fake’m na ekranie komputera, który byłby dobrze ustawiony, jeśli chodzi o zarządzanie dialogiem, a jednocześnie fizycznie prezentowałby się prawie jak człowiek – mówiła prof. Aleksandra Przegalińska-Skierkowska, filozofka, badaczka rozwoju nowych technologii i zrównoważonej, humanoidalnej sztucznej inteligencji, prorektor Akademii Leona Koźmińskiego ds. współpracy z zagranicą.

- Taki system, który potrafi oszukać, można stworzyć już za kilka lat. System, który wywoła emocje takie, jakie odczuwamy, kiedy rozmawiamy z ludźmi – dodaje prof. Przegalińska-Skierkowska.

Lawina cyberprzestępstw

Z roku na rok policja odnotowuje coraz więcej przestępstw związanych z rzeczywistością cyfrową. Do ścigania zwalczania zjawiska powołano już w 2021 roku Centralne Biuro Zwalczania Cyberprzestępczości.

Z danych tej jednostki wynika, że tylko w 2023 roku, wykryto ponad 3000 różnych oszustw w cyberprzestrzeni. Wśród nich dużą grupę stanowią właśnie sprawy dotyczące kradzieży i wykorzystywania wizerunku. Takie przestępstwo jest ścigane na wniosek pokrzywdzonego i zagrożone karą do 8 lat więzienia.

od 7 lat
Wideo

Wyniki pierwszej tury wyborów we Francji

Dołącz do nas na Facebooku!

Publikujemy najciekawsze artykuły, wydarzenia i konkursy. Jesteśmy tam gdzie nasi czytelnicy!

Polub nas na Facebooku!

Dołącz do nas na X!

Codziennie informujemy o ciekawostkach i aktualnych wydarzeniach.

Obserwuj nas na X!

Kontakt z redakcją

Byłeś świadkiem ważnego zdarzenia? Widziałeś coś interesującego? Zrobiłeś ciekawe zdjęcie lub wideo?

Napisz do nas!

Polecane oferty

Materiały promocyjne partnera
Wróć na expressbydgoski.pl Express Bydgoski