Rozwój sztucznej inteligencji otwiera przed światem ogromne możliwości, ale równocześnie stwarza wiele zagrożeń. Jednym z niepokojących zjawisk, które zaczynają przybierać na sile, jest wykorzystanie narzędzi AI, takich jak ChatGPT oraz zaawansowane systemy generowania obrazów, do tworzenia fałszywych dokumentów tożsamości takich jak dowody osobiste i paszporty. Tworzenie fałszywych dokumentów nie jest nowym problemem, jednak wykorzystanie sztucznej inteligencji w tym procesie zmieniło skalę i jakość tego procederu. Dzięki narzędziom AI możliwe stało się szybkie i realistyczne generowanie danych osobowych, zdjęć paszportowych, a nawet całych skanów dokumentów, które trudno odróżnić od prawdziwych. Algorytmy uczą się na bazie ogromnych zbiorów danych, co pozwala im tworzyć w pełni spójne i profesjonalnie wyglądające fałszywe dokumenty. Jednym z zagrożeń jest generowanie kompletnych profili osobowych, obejmujących nie tylko podstawowe dane takie jak imię i nazwisko, ale również adres zamieszkania, numery identyfikacyjne, daty ważności dokumentów oraz zdjęcia dostosowane do wymogów formalnych różnych państw. Dzięki narzędziom AI możliwe jest tworzenie wizerunków twarzy, które nie istnieją w rzeczywistości, a jednak są w pełni realistyczne i nie budzą podejrzeń na pierwszy rzut oka.
Czytaj więcej Fałszywe dowody i paszporty tworzone za pomocą AI- nowe wyzwania dla bezpieczeństwa

W kolejnych artykułach pod wspólną nazwą RODOwskaz znajdziecie Państwo najważniejsze informacje wyjaśniające zapisy ROZPORZĄDZENIA PARLAMENTU EUROPEJSKIEGO I RADY (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych).
Deepfake hacking to technika, która wykorzystuje sztuczną inteligencję do tworzenia zmanipulowanych obrazów, dźwięków lub filmów, które wyglądają i brzmią jak prawdziwe. Przestępcy wykorzystują tę technologię do podważania reputacji osób publicznych, oszustw finansowych, a także do przeprowadzania ataków na organizacje. Z pomocą deepfake’ów mogą fałszować rozmowy głosowe lub video, podszywając się pod szefów firm czy pracowników administracji.

