Każdy z nas spotkał się już nie tylko z samym pojęciem „Sztuczna Inteligencja”, ale także miał okazję, nawet nieświadomie (np. w trakcie w rozmowy z „elektronicznym konsultantem” na stronie usługodawcy, czy w trakcie zamawiania taksówki lub wizyty u lekarza) korzystać z możliwości jakie wnosi AI. Pisaliśmy już o tym w jaki sposób tego typu systemy wykorzystywane są w cyberbezpieczeństwie – https://cui.wroclaw.pl/2023/11/14/rola-sztucznej-inteligencji-w-cyberbezpieczenstwie/
W dyskusji na temat rozwoju AI nie brakuje jednak głosów mocno sceptycznych. Wątpliwości dotyczą bowiem wykorzystania sztucznej inteligencji do niecnych celów i to nie tylko poprzez deep fake, ale także generowanie bardzo dobrze wyglądających kampanii phishingowych! Co więcej, niekontrolowane i niecenzurowane odpowiedniki ChataGPT umożliwiają napisanie szkodliwego kodu, co łatwo wykorzystać mogą różnego typu „nietechniczni” przestępcy.
Często podnoszonym argumentem przeciwko AI jest też postępująca automatyzacja licznych zawodów, w której do tej pory kluczową rolę odgrywała ludzka kreatywność. Przed utratą możliwości zarobku na swoich talentach drżą różnej maści graficy, copywriterzy lub redaktorzy.
Wielu specjalistów w dziedzinie sztucznej inteligencji twierdzi, że jej rozwoju nie można już zatrzymać, dlatego też mając na uwadze argumentację zarówno zwolenników jak i przeciwników AI Unia Europejska wprowadziła AI Act – czyli pierwsze na świecie prawo, które ma na celu opisanie zagadnień, z którymi przyjdzie nam się mierzyć, a także ma uregulować rozwijanie i stosowanie AI. To unijne rozporządzenie wymaga od członków wspólnoty dostosowania systemów prawnych tak, by skutecznie móc realizować nowe reguły w praktyce.
AI Act przede wszystkim definiuje i wskazuje ryzyka wynikające z wykorzystania SI. Ryzyka te podzielone zostały na następujące kategorie:
- niedopuszczalne
- wysokie
- ograniczone
- minimalne.
Unie Europejska daje możliwość wykorzystywania systemów o „wysokim” ryzyku, jednak będą one pod stałym nadzorem i podlegać będą licznym ograniczeniom – zarówno po stronie Użytkowników, jak i po stronie Dostawców. Co istotne – twórcy systemów mogą być zarówno Użytkownikami, jak i dostawcami.
Co jeszcze wnosi AI Act? Jednym z jego najistotniejszych założeń jest surowy zakaz wykorzystania SI w tzw. „punktacji społecznej”, bieżącej identyfikacji biometrycznej, a także manipulacjach (programowaniu podprogowym itp.). Pisałem wyżej o wykorzystaniu systemów o „wysokim ryzyku” – AI Act wskazuje tu np. na systemy, które można wykorzystać sądownictwie, czy diagnostyce medycznej. Duże wątpliwości budzą też mocno zaawansowane systemy militarne.
Rozwój zawsze wiąże się z pewnym ryzykiem, dlatego sądzę, że AI Act pełni niezwykle istotną funkcję przy opisaniu ryzyk, z którymi mierzymy się teraz, a także będziemy się mierzyć wraz ze wzrostem znaczenia technologii sztucznej inteligencji. Korzystając z coraz powszechniejszych narzędzi musimy być pewni kto i za co odpowiada, a także świadomie minimalizować możliwość wystąpienia zagrożeń.
Czy próby regulacji tak mocno zaawansowanych technologicznie systemów się udadzą? Czas pokaże, jednak pamiętajmy, by jak zawsze – nie wpaść w tarapaty podchodząc do wątpliwej wartości treści w Internecie ze zbyt dużą dozą zaufania, świadomie wykorzystywać udostępnione nam narzędzia i zachowywać zdrowy rozsądek.
ŹRÓDŁA:
https://www.europarl.europa.eu/topics/pl/article/20230601STO93804/akt-ws-sztucznej-inteligencji-pierwsze-przepisy-regulujace-ai