Kontakt z nami +48 780 151 246

Odpowiedzialność za błędy sztucznej inteligencji. Kto ponosi za nie ryzyko?

Temat sztucznej inteligencji od kilkunastu miesięcy nie schodzi z czołówki, spokojnie można powiedzieć, że w dyskusjach biznesowych i zawodowych plasuje się w top 3. Niektórzy wolą nie dotykać tego tematu w ogóle, bo wizja „algorytmu decydującego za człowieka” ich przeraża. Nie zdają sobie jednak sprawy, że korzystając z nawigacji w samochodzie, wyszukiwarek internetowych czy rekomendacji w e-sklepach, już od dawna powierzają swoje wybory sztucznej inteligencji.

Ponieważ w sieci krąży mnóstwo opracowań teoretycznych i prawniczych analiz dotyczących odpowiedzialności za błędy sztucznej inteligencji, spróbujmy spojrzeć praktycznie. Trzeba jednak podkreślić, że samo korzystanie z AI nie jest nigdzie zakazane, ale to nie znaczy, że jest zupełnie pozbawione ryzyka.

Odpowiedzmy zatem na najczęstsze pytania.

Czy mogę używać AI do pisania tekstów albo raportów dla klientów?

Tak. Ważne jest jednak to, żeby rozumieć, że za efekt odpowiada człowiek. Jeśli AI stworzy raport z błędnymi danymi, nie „algorytm” poniesie konsekwencje, tylko ten, kto go podpisał. AI może być narzędziem, ale nie może zastąpić weryfikacji i zdrowego rozsądku.

Czy mogę sprzedawać ilustracje wygenerowane przez AI?

Tak. Narzędzia takie jak ChatGPT czy DALL·E pozwalają komercyjnie wykorzystywać wygenerowane treści. Trzeba jednak mieć świadomość, że jeśli AI „zainspiruje się” cudzym dziełem za bardzo, np. obrazem znanego artysty, to ewentualna odpowiedzialność za naruszenie praw autorskich spada na sprzedającego. Takie wygenerowane obrazy także nie zawsze będą podlegały ochronie prawa autorskiego, bo nie są efektem pracy człowieka. Sprzedać możesz, ale jeśli ktoś je skopiuje, trudno będzie Ci dochodzić swoich praw.

Co jeśli AI popełni błąd, np. w księgowości albo w marketingu?

Wtedy odpowiada firma, nie sztuczna inteligencja. Jeśli system źle zaksięguje fakturę, wygeneruje mylący raport albo opis produktu, który wprowadza klientów w błąd, wina leży po stronie człowieka, który tego narzędzia użył. Właśnie dlatego mówi się o potrzebie ludzkiego nadzoru, czyli tego, żeby ktoś sprawdził efekt pracy AI, zanim pójdzie on w świat.

Czy AI może popełnić plagiat? Kto wtedy odpowiada?

Narzędzia oparte na AI nie działają jak ten stereotypowy student, który „kopiuje z Wikipedii”, ale może stworzyć coś bardzo podobnego do istniejących utworów. Jeżeli taki efekt narusza cudze prawa, ewentualną odpowiedzialność ponosi użytkownik. To Ty publikujesz, więc to Ty odpowiadasz. Dlatego przy treściach generowanych przez AI warto być ostrożnym – jeśli coś wygląda znajomo, lepiej to zweryfikować.

Czy można udowodnić, że ktoś korzystał z AI?

Nie jest to takie proste. W Internecie znaleźć można wiele narzędzi, które mają wykrywać treści generowane przez AI, ale ich skuteczność jest mocno dyskusyjna. Żadne nie daje pewności. W praktyce liczy się efekt, jego jakość, spójność i wiarygodność. A jeśli coś wygląda na napisane przez maszynę, zawiera błędy i niedociągnięcia, to może być raczej problem z jakością pracy, niż z samym faktem użycia sztucznej inteligencji.

Czy AI można traktować jak autora?

Nie. Prawo wymaga, by za dziełem stał człowiek. AI można uznać za narzędzie, podobnie jak aparat czy program graficzny, ale nie za twórcę. Nawet jeśli efekt jest imponujący, autorstwo w sensie prawnym zawsze pozostaje po stronie człowieka.

Czy korzystanie z AI może naruszać RODO?

Tak, jeśli nie zachowasz ostrożności. Wrzucenie do narzędzia AI danych osobowych, czy to klientów czy pracowników lub kontrahentów, np. imion, adresów, może być potraktowane jako ich udostępnienie podmiotowi trzeciemu. Większość modeli opartych o AI, w tym ChatGPT, przetwarza dane w chmurze, często poza Europejskim Obszarem Gospodarczym. Dlatego dane osobowe powinny być z takich treści usuwane, zanim wykorzystamy je jako podstawę pracy w wybranym narzędziu.

Nie ma jeszcze przepisów, które wprost uregulowałyby odpowiedzialność za błędy sztucznej inteligencji. Dlatego też dopóki prawo nie nadąży za technologią, ryzyko i odpowiedzialność za skutki jej działania pozostają po stronie człowieka.