1 września, 2025
Sztuczna inteligencja potrafi działać na dwa sposoby. Może wspierać systemy obronne i chronić przed zagrożeniami, ale użyta przez hakerów staje się groźnym narzędziem. Dlatego istotne jest zrozumienie, jak ta technologia wpływa na bezpieczeństwo w cyberprzestrzeni, jak możemy się przed nią bronić i czy taką ochronę zapewnia nam obowiązujące prawo.
Poważnym zagrożeniem związanym ze sztuczną inteligencją jest możliwość daleko posuniętej automatyzacji ataków hakerskich. Cyberprzestępcy wykorzystują AI, aby przyspieszyć i usprawnić poszczególne etapy działań ofensywnych. Technologia ta może być używana do zbierania informacji o celu ataku, śledzenia jego aktywności w poszukiwaniu słabych punktów, wykrywania luk w systemach zabezpieczeń, a nawet do samodzielnego przeprowadzania ataku. Dzięki niej hakerzy mogą też analizować bazy danych pochodzące z wcześniejszych wycieków i wykorzystywać zdobyte w ten sposób informacje do własnych działań.
Sztuczna inteligencja może być również wykorzystywana w atakach ransomware oraz atakach phishingowych, z którymi muszą zmagać się firmy, niezależnie od swojej wielkości czy rodzaju działalności. Dzięki niej hakerzy są w stanie tworzyć przekonująco brzmiące treści wiadomości e-mail, używane w masowych kampaniach phishingowych i ransomware. AI umożliwia im także automatyzację procesów związanych z przenikaniem do systemów bezpieczeństwa ofiary.
Takie zastosowania sztucznej inteligencji mogą prowadzić do poważnych konsekwencji, jak skrócenie czasu potrzebnego na przygotowanie ataku, zwiększenie jego skali czy przyspieszenie realizacji jego poszczególnych etapów. W rękach cyberprzestępców stanowi więc poważne zagrożenie i trudne wyzwanie dla przedsiębiorców.
Nie oznacza to jednak, że firmy są całkowicie bezradne wobec tego typu działań. Odpowiednia wiedza w połączeniu z dobrze dobranymi narzędziami ochronnymi oferującymi szerokie możliwości w zakresie cyberbezpieczeństwa, mogą być dla przedsiębiorstw cennym wsparciem w walce z hakerami posługującymi się sztuczną inteligencją.
Dotychczasowe analizy dotyczące sztucznej inteligencji pokazują jednak wyraźnie, że rozwój tej technologii napotyka na bariery związane z brakiem odpowiednich ram prawnych i regulacyjnych. Na poziomie Unii Europejskiej nadal widoczny jest niedostatek kompleksowych przepisów, również takich, które zapewniałyby ochronę prawną przed zagrożeniami.
Przestępcy, wykorzystując coraz nowsze narzędzia, zaczęli sięgać po sztuczną inteligencję, aby działać w odmienny sposób. Na poziomie ustawodawstwa krajowego takie czyny nadal podlegają jednak odpowiedzialności karnej na podstawie przepisów ogólnych, np. jako oszustwo (art. 286 kodeksu karnego) czy kradzież tożsamości (art. 190a § 2 kodeksu karnego). Naturalnym rozwinięciem tych działań jest zastosowanie technologii deepfake (tworzenie fałszywych obrazów i głosu) w czasie rzeczywistym, co stanowi ogromne wyzwanie prawne i praktyczne. Być może doczekamy się w przyszłości wprowadzenia kwalifikowanych typów przestępstw, w których użycie AI byłoby okolicznością obciążającą.
Sztuczna inteligencja może być wykorzystywana nie tylko przez sprawców, ale również jako narzędzie do walki z nimi, a więc wzmacniające cyberbezpieczeństwo. Możliwości AI obejmują analizę ogromnych zbiorów danych, zarówno osobowych, jak i nieosobowych, tworzenie profili, a także szybkie wykrywanie cyberataków. Dzięki temu AI może wspierać organy ścigania w identyfikacji sprawców, ułatwiać ich deanonimizację i przyczyniać się do pociągnięcia ich do odpowiedzialności karnej. W praktyce oznacza to również usprawnienie dochodzeń – od łączenia spraw dotyczących tego samego przestępstwa, po analizę cyfrowych akt i wyszukiwanie powiązań między równolegle toczącymi się postępowaniami. Pytanie tylko, która strona chętniej i sprawniej będzie korzystała z tego narzędzia.