Każdy z nas spotkał się już nie tylko z samym pojęciem „Sztuczna Inteligencja”, ale także miał okazję, nawet nieświadomie (np. w trakcie w rozmowy z „elektronicznym konsultantem” na stronie usługodawcy, czy w trakcie zamawiania taksówki lub wizyty u lekarza) korzystać z możliwości jakie wnosi AI. Pisaliśmy już o tym w jaki sposób tego typu systemy wykorzystywane są w cyberbezpieczeństwie – https://cui.wroclaw.pl/2023/11/14/rola-sztucznej-inteligencji-w-cyberbezpieczenstwie/

W dyskusji na temat rozwoju AI nie brakuje jednak głosów mocno sceptycznych. Wątpliwości dotyczą bowiem wykorzystania sztucznej inteligencji do niecnych celów i to nie tylko poprzez deep fake, ale także generowanie bardzo dobrze wyglądających kampanii phishingowych! Co więcej, niekontrolowane i niecenzurowane odpowiedniki ChataGPT umożliwiają napisanie szkodliwego kodu, co łatwo wykorzystać mogą różnego typu „nietechniczni” przestępcy.

Często podnoszonym argumentem przeciwko AI jest też postępująca automatyzacja licznych zawodów, w której do tej pory kluczową rolę odgrywała ludzka kreatywność. Przed utratą możliwości zarobku na swoich talentach drżą różnej maści graficy, copywriterzy lub redaktorzy.

Wielu specjalistów w dziedzinie sztucznej inteligencji twierdzi, że jej rozwoju nie można już zatrzymać, dlatego też mając na uwadze argumentację zarówno zwolenników jak i przeciwników AI Unia Europejska wprowadziła AI Act – czyli pierwsze na świecie prawo, które ma na celu opisanie zagadnień, z którymi przyjdzie nam się mierzyć, a także ma uregulować rozwijanie i stosowanie AI. To unijne rozporządzenie wymaga od członków wspólnoty dostosowania systemów prawnych tak, by skutecznie móc realizować nowe reguły w praktyce.

AI Act przede wszystkim definiuje i wskazuje ryzyka wynikające z wykorzystania SI. Ryzyka te podzielone zostały na następujące kategorie:

  • niedopuszczalne
  • wysokie
  • ograniczone
  • minimalne.

Unie Europejska daje możliwość wykorzystywania systemów o „wysokim” ryzyku, jednak będą one pod stałym nadzorem i podlegać będą licznym ograniczeniom – zarówno po stronie Użytkowników, jak i po stronie Dostawców. Co istotne – twórcy systemów mogą być zarówno Użytkownikami, jak i dostawcami.

Co jeszcze wnosi AI Act? Jednym z jego najistotniejszych założeń jest surowy zakaz wykorzystania SI w tzw. „punktacji społecznej”, bieżącej identyfikacji biometrycznej, a także manipulacjach (programowaniu podprogowym itp.). Pisałem wyżej o wykorzystaniu systemów o „wysokim ryzyku” – AI Act wskazuje tu np. na systemy, które można wykorzystać sądownictwie, czy diagnostyce medycznej. Duże wątpliwości budzą też mocno zaawansowane systemy militarne.

Rozwój zawsze wiąże się z pewnym ryzykiem, dlatego sądzę, że AI Act pełni niezwykle istotną funkcję przy opisaniu ryzyk, z którymi mierzymy się teraz, a także będziemy się mierzyć wraz ze wzrostem znaczenia technologii sztucznej inteligencji. Korzystając z coraz powszechniejszych narzędzi musimy być pewni kto i za co odpowiada, a także świadomie minimalizować możliwość wystąpienia zagrożeń.

Czy próby regulacji tak mocno zaawansowanych technologicznie systemów się udadzą? Czas pokaże, jednak pamiętajmy, by jak zawsze – nie wpaść w tarapaty podchodząc do wątpliwej wartości treści w Internecie ze zbyt dużą dozą zaufania, świadomie wykorzystywać udostępnione nam narzędzia i zachowywać zdrowy rozsądek.

ŹRÓDŁA:
https://www.europarl.europa.eu/topics/pl/article/20230601STO93804/akt-ws-sztucznej-inteligencji-pierwsze-przepisy-regulujace-ai

 

ul. Namysłowska 8, IV piętro

(Centrum Biznesu Grafit)

50-304 Wrocław

NIP: 8971793846

REGON: 022287361

Wróć na górę