Dynamiczny rozwój technologii sztucznej inteligencji (AI) oraz jej rosnący wpływ na życie społeczne, gospodarcze i polityczne sprawił, że Unia Europejska podjęła próbę stworzenia pierwszych w świecie kompleksowych ram prawnych regulujących tę dziedzinę. Efektem jest rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmiany rozporządzeń (WE) nr 300/2008, (UE) nr 167/2013, (UE) nr 168/2013, (UE) 2018/858, (UE) 2018/1139 i (UE) 2019/2144 oraz dyrektyw 2014/90/UE, (UE) 2016/797 i (UE) 2020/1828 (akt w sprawie sztucznej inteligencji), dalej: AI Act. Cele AI Act można ująć jako próbę zrównoważenia innowacji z odpowiedzialnością oraz pogodzenie ochrony praw podstawowych z promowaniem konkurencyjności rynku europejskiego. AI Act stawia więc granice tam, gdzie w ocenie europejskiego prawodawcy technologia może zagrażać człowiekowi. Unia Europejska chce być światowym liderem w zakresie standardów etycznych, promujących sztuczną inteligencję godną zaufania. Warto przy tym zauważyć, że Unia Europejska, USA i Chiny przyjmują obecnie radykalnie odmienne modele rozwojowe i regulacyjne dotyczące AI.
Europejska wizja opiera się na twardym podejściu regulacyjnym, które bazując na wartościach, przede wszystkim ujętych w Karcie Praw Podstawowych UE, uznaje prymat ochrony jednostki i interesu publicznego, wymusza klasyfikowanie systemów AI, stawia przed nimi wiele wymogów, w tym odnoszących się do dokładności, solidności
i cyberbezpieczeństwa, a także zakazuje szeregu praktyk związanych np. z social scoringiem czy manipulacją. Stany Zjednoczone choć coraz bardziej świadome zagrożeń jakie mogą wiązać się z AI, nadal hołdują zasadzie minimalnej regulacji i maksymalnej innowacji, zaś Chiny intensywnie wspierając na poziomie państwowym rozwój AI, widzą w niej narzędzie do realizacji narodowego interesu i doskonalenia mechanizmów kontroli społecznej. Współistnienie tych tak różnych modeli rodzi pytanie o możliwość globalnej harmonizacji norm AI i przyszłość międzynarodowego porządku cyfrowego – czy wygra prawo, rynek, czy siła?
Wychodząc z opisanych wyżej założeń, AI Act zakazuje określonych praktyk w zakresie sztucznej inteligencji wymieniając w art. 5 te, które uznane są w Unii Europejskiej za nieakceptowalne ze względu na naruszenie praw podstawowych i wysokie ryzyko dla społeczeństwa. Dotyczy to np.:
- technik podprogowych, manipulacyjnych lub wprowadzających w błąd (przykładem mogłyby być oparte na AI systemy reklamowe wykorzystujące nieświadome bodźce wizualne lub dźwiękowe, które byłyby w stanie wpływać na decyzje konsumentów bez ich wiedzy, prowadząc do niekorzystnych decyzji zakupowych),
- systemów oceny społecznej (social scoring), przyznających obywatelom punkty za „dobre zachowanie” (np. przestrzeganie przepisów) i ograniczające dostęp do usług publicznych osobom z „niskim wynikiem”,
- dokonywania oceny ryzyka popełnienia przestępstwa wyłącznie na podstawie profilowania, czyli systemów, które przewidywałyby skłonność do popełnienia przestępstwa na podstawie cech demograficznych lub społecznych, bez konkretnych dowodów,
- wnioskowania o emocjach w miejscu pracy i instytucjach edukacyjnych, czyli przykładowo zakazane są systemy monitorujące emocje pracowników call center za pomocą analizy głosu lub mimiki w celu oceny ich wydajności.
Jednocześnie względem systemów AI wysokiego ryzyka, opisanych w art. 6 i załączniku III do AI Act, a więc takich, które ze względu na swój potencjalny wpływ na prawa podstawowe, zdrowie, bezpieczeństwo lub wolności obywatelskie, podlegają najbardziej rygorystycznym wymogom regulacyjnym, AI Act wprowadza wiele obowiązków. Fundamentalne znaczenie ma tu art. 15 AI Act, zgodnie z którym systemy AI wysokiego ryzyka projektuje się i rozwija w taki sposób, aby osiągały odpowiedni poziom dokładności, solidności i cyberbezpieczeństwa oraz by działały konsekwentnie pod tymi względami w całym cyklu życia. Muszą być więc one:
- solidne, a zatem odporne na błędy, usterki lub niespójności, a dzięki środkom technicznym i organizacyjnym, takim jak redundancja czy przejście systemu w stan bezpieczny (tzw. „fail-safe”), muszą być w stanie funkcjonować poprawnie mimo zakłóceń i awarii,
- dokładne, czyli algorytm powinien zachowywać wysoki poziom dokładności wyników, adekwatny do jego przeznaczenia i kontekstu użycia,
- odporne na cyberzagrożenia, poprzez implementację środków służących zapobieganiu atakom mającym na celu manipulowanie zbiorem danych treningowych (zatruwanie danych) lub elementami stosowanymi przy trenowaniu, które zostały poddane pretrenowaniu (zatruwanie modelu), wprowadzaniu danych wejściowych, które mają na celu spowodowanie błędu w modelu AI (przykłady kontradyktoryjne lub omijanie modelu), atakom na poufność lub wadom modelu, a także środków w zakresie wykrywania tych zagrożeń, reagowania na nie, ich rozwiązywania i ich kontrolowania.
W praktyce, oznacza to konieczność podejmowania przez producentów i dostawców systemów AI szeregu działań, w tym np. testowania przedwdrożeniowego, wprowadzenia mechanizmów audytu, monitoringu oraz bezpiecznego zarządzania danymi treningowymi i testowymi, a także prowadzenia kompleksowej dokumentacji technicznej
Ocena kosztu implementacji wymogów regulacyjnych, a także możliwość poprawnego intepretowania norm o charakterze generalnym, którymi posługuje się AI Act, będą decydowały o tym, czy zachowana będzie równowaga między innowacyjnością
a regulacją i czy zbyt rygorystyczne wymogi nie ograniczą finalnie konkurencyjności europejskiego sektora AI.
Jak prognozuje Jerry Kaplan, amerykański przedsiębiorca, informatyk, ekspert ds. AI
i futurolog w swojej książce „Generatywna AI”, jesteśmy obecnie na skraju nowego renesansu, ogromnej zmiany kulturowej ukierunkowanej na maszyny, która sprawi, że „w przyszłości, gdy będziemy szukać najbardziej fachowych, obiektywnych i zaufanych porad, będziemy zwracać się do maszyn, a nie do ludzi”. W jego ocenie rewolucję AI przeżyją przede wszystkim system opieki zdrowotnej, system prawny, edukacja, inżynieria oprogramowania i zawody kreatywne. Zgodnie ze swoją misją, Fundacja SET Security-Energy-Technology wspierać będzie innowacje, zgodnie z wymogami bezpieczeństwa, animując debatę i współpracę międzysektorową, jak też zapewniając fachową ekspertyzę.