Kontakt z nami +48 780 151 246

AI a prawo międzynarodowe

Czy algorytm może naruszyć prawa człowieka?

W dobie dynamicznego rozwoju technologii cyfrowych sztuczna inteligencja (AI) staje się jednym z kluczowych narzędzi kształtujących współczesne społeczeństwa. Choć jej potencjał w zakresie innowacji, efektywności i rozwoju gospodarczego jest niezaprzeczalny, coraz częściej pojawiają się obawy dotyczące jej wpływu na prawa człowieka, demokrację i praworządność. Algorytmy AI, wykorzystywane do analizy danych, podejmowania decyzji czy monitorowania zachowań, mogą – w zależności od kontekstu ich użycia – prowadzić do systemowych naruszeń podstawowych wolności jednostki.

Sztuczna inteligencja może być stosowana jako narzędzie represji, szczególnie w państwach autorytarnych, gdzie służy do inwigilacji, manipulacji informacją oraz tłumienia sprzeciwu społecznego. Co więcej, nawet w państwach demokratycznych brak odpowiednich regulacji i mechanizmów kontroli może prowadzić do niezamierzonych skutków, takich jak chociażby naruszenie prywatności czy ograniczenie wolności słowa.

Międzynarodowe organizacje, z Radą Europy i Unią Europejską na czele, już od kilku lat opracowują ramy prawne mające na celu uregulowanie tej – wciąż nowej i pełnej niewiadomych – technologii. Regulacje przyjmowane na poziomie organizacji międzynarodowych mają charakter ramowy, czyli wyznaczają ogólne zasady, cele i mechanizmy ochrony praw człowieka, demokracji i praworządności. Jednak to państwa członkowskie, w tym Polska, ponoszą odpowiedzialność za ich wdrożenie poprzez konkretne ustawy, które będą realnie kontrolować, nadzorować i ograniczać wykorzystanie AI w praktyce.

W tym kontekście rola krajowego ustawodawcy staje się kluczowa, wymaga bowiem nie tylko technicznej precyzji, ale także głębokiego zrozumienia społecznych i etycznych konsekwencji wdrażanych rozwiązań.

Sztuczna inteligencja rozwija się szybciej niż jakakolwiek wcześniejsza technologia. Ustawodawca musi więc nie tylko nadążać za tym tempem, ale także przewidywać jego skutki, co w praktyce okazuje się jednym z największych wyzwań współczesnego prawa.

Konwencja ramowa Rady Europy o sztucznej inteligencji, prawach człowieka, demokracji i praworządności została przyjęta w maju 2024 roku. Jest to pierwszy prawnie wiążący międzynarodowy instrument dotyczący sztucznej inteligencji, który ma na celu zapewnienie, że działania związane z AI są zgodne z prawami człowieka, demokracją i praworządnością. Rada Europy podkreśla w tym dokumencie znaczenie przejrzystości, odpowiedzialności i niedyskryminacji w zastosowaniach AI, zaznaczając, że systemy sztucznej inteligencji nie powinny być wykorzystywane jako narzędzia niedemokratycznej kontroli ani utrwalania nierówności.

Oprócz wspomnianej Konwencji, ważnym aktem prawa międzynarodowego jest Rozporządzenie o sztucznej inteligencji (AI Act) to dokument opracowany przez Parlament Europejski i Radę (UE), który wszedł w życie w sierpniu 2024 roku i jest wdrażany etapami do porządków prawnych państw członkowskich UE.

Jego celem jest zapewnienie bezpiecznego, etycznego i zgodnego z prawami człowieka wykorzystania sztucznej inteligencji, z jednoczesnym zagwarantowaniem ochrony praw podstawowych.

Sam akt w sprawie sztucznej inteligencji jest rozporządzeniem, więc nie wymaga transpozycji do krajowego porządku prawnego, natomiast na państwach członkowskich spoczywa obowiązek dostosowania wewnętrznych przepisów prawa tak, aby zapewnić odpowiednie stosowanie jego założeń.

Dotychczas weszły w życie pierwsze przepisy rozporządzenia, których celem jest zwiększenie bezpieczeństwa obywateli oraz podniesienie kompetencji pracowników w zakresie systemów sztucznej inteligencji, a także przepisy kluczowe dla nadzoru nad sztuczną inteligencją dotyczące m.in. określenia organu nadzoru rynku i organu notyfikującego oraz te dotyczące kar za naruszenia postanowień rozporządzenia.

Kolejny etap, w którym zaczną obowiązywać przepisy odnoszące się do systemów AI wysokiego ryzyka oraz związanych z nimi obowiązków planowany jest w sierpniu 2026 roku (a w przypadku niektórych systemów wysokiego ryzyka w sierpniu 2027 roku).

Czy Polska jest gotowa na międzynarodowe standardy regulacyjne?

To pytanie budzące szereg wątpliwości, w szczególności, że jak dotąd nie udało się na czas powołać organu monitorującego rynek wykorzystywania technologii AI, którym zgodnie z projektem ustawy o systemach sztucznej inteligencji ma być Komisja Rozwoju i Bezpieczeństwa Sztucznej Inteligencji (KRiBSI). Mimo zapowiedzi i konsultacji, KRiBSI nie została formalnie ustanowiona, a prace nad projektem ustawy wciąż trwają.

Z perspektywy prawa międzynarodowego oraz zobowiązań wynikających z członkostwa w Unii Europejskiej i Radzie Europy, Polska zobligowana jest do zapewnienia skutecznego wdrożenia i stosowania międzynarodowych regulacji, w tym rozporządzenia w sprawie sztucznej inteligencji (AI Act). Obowiązek ten obejmuje nie tylko formalne przyjęcie odpowiednich aktów prawnych, ale również utworzenie instytucji zdolnych do ich efektywnego egzekwowania.

Czy Polska nadąży za cyfrową rewolucją?

Na razie wygląda na to, że bardziej ją goni niż współtworzy. W świecie, gdzie technologia wyprzedza prawo, a regulacje międzynarodowe stają się fundamentem cyfrowego ładu, Polska musi zdecydowanie przyspieszyć. Nie chodzi tylko o uniknięcie sankcji czy poprawę wizerunku – stawką jest nasza zdolność do ochrony praw człowieka w erze algorytmów i zapewnienia obywatelom bezpieczeństwa w dynamicznym, cyfrowym świecie.