Oszustwa „na wypadek” to jedna z najbardziej podstępnych form tego przestępstwa. Wykorzystywane są w nim silne emocje i chęć pomocy najbliższym. Dlatego oszuści tak często podszywają się pod członka rodziny. Niedługo mogą zyskać ku temu narzędzia.
W materiale dźwiękowym poniżej cytujemy utwór Freddiego Mercury’ego śpiewającego „Let It Go” – przynajmniej tak, jak wyobraża to sobie sztuczna inteligencja. To samo może zrobić z naszym głosem, choć wciąż brakuje nieco do ideału.
CZYTAJ: Sztuczna inteligencja pomoże w leczeniu. Nowoczesny tomograf w bialskim szpitalu
– Sztuczna inteligencja jest w stanie uczyć się pewnych wzorców w każdej dziedzinie – mówi kierownik Katedry Metod Ilościowych w Zarządzaniu Politechniki Lubelskiej dr Bartosz Przysucha. – Tak samo jeżeli chodzi o nagrania głosowe, jest w stanie podszywać się czy odtwarzać głosy, brzmienie, ton i wszystkie składowe ludzkiego głosu tak, żeby być jak najbardziej podobna do człowieka. Te narzędzia nie są jeszcze aż tak doskonałe, że nie dałoby się tego odróżnić. Co prawda to wszystko idzie w coraz bardziej zaawansowanym kierunku, więc już niedługo nie będzie można tego gołym okiem odróżniać. Ale dalej na poziomie składowym jest do wyekstrahowania, czy jest to nagranie sztucznie wytworzone przez AI, czy też nagranie oryginalne.
CZYTAJ: Sztuczna inteligencja sprawnie wykrywa raka piersi
„Schody” zaczynają się, gdy taki telefon od kogoś podającego się za naszego syna czy wnuczka odebralibyśmy znienacka. Tu, jak zawsze, dochodzą emocje. Klasyczna „legenda” o spowodowaniu wypadku, do tego okraszona dźwiękami w tle, i może się okazać, że mamy problem…
– To nie jest do odróżnienia przez osobę, która się tego nie spodziewa – mówi dr Bartosz Przysucha. – W momencie, kiedy ktoś dzwoni przez telefon i dodane są różne efekty zaburzenia tła czy szumu, wtedy nie koncentrujemy się na tym, w jaki sposób brzmi czyjś głos, tylko rozmawiamy z nim w kontekście całej rozmowy. Jest to ciężkie do wyłapania, jeżeli się tego nie spodziewamy.
Dotychczas w Polsce nie było jeszcze ani jednego przypadku wykorzystania w ten sposób głosu naszych bliskich. Warto jednak zabezpieczyć się przed taką możliwością już teraz i ustalić choćby hasło bezpieczeństwa. Sztuczna inteligencja rozwija się bowiem tak szybko, że w udawaniu nas będzie coraz lepsza…
– Te modele są coraz bardziej zaawansowane – stwierdza dr Bartosz Przysucha. – Tworzy się coraz więcej przestrzeni obliczeniowej, coraz większe są te modele. To jest nieuniknione, natomiast edukując się, sprawdzając pewne informacje, szukając potwierdzenia, da się przed takimi oszustwami bronić.
CZYTAJ: Jak AI pomaga w odkrywaniu przeszłości? Dzień Historyka na UMCS [ZDJĘCIA]
Gdy odbieramy telefon z prośbą o pożyczkę czy przekazanie pieniędzy, które są szybko potrzebne, aby uniknąć konsekwencji – nawet jeżeli słyszymy głos członka rodziny – warto pamiętać o zachowaniu chłodnej głowy. Możemy albo ustalić hasło, które w kryzysowych sytuacjach pozwoli szybko zweryfikować tożsamość rozmówcy, albo zwyczajnie rozłączyć się i samemu zadzwonić do tej osoby z pytaniem, czy rzeczywiście potrzebna mu pomoc.
EwKa/ opr. DySzcz
Fot. pexels.com