Czy Ustawa o ochronie sygnalistów ma znaczenie dla AI ACT?

Czy Ustawa o ochronie sygnalistów ma znaczenie dla AI ACT?

 

Ochrona sygnalistów w Polsce od 2024 roku

Od prawie roku na terenie Polski obowiązuje ustawa z dnia 24 czerwca 2024 r. o ochronie sygnalistów, która ma na celu zapewnienie ochrony osób zgłaszających nieprawidłowości w podmiotach publicznych oraz prywatnych. Zgłoszenia mogą dotyczyć m.in. naruszeń prawa UE, nadużyć finansowych, łamania zasad etyki, czy ujawniania nieprawidłowości w zakresie ochrony danych. Pracodawcy zostali zobowiązani do wdrożenia procedur wewnętrznych umożliwiających bezpieczne i poufne dokonywanie zgłoszeń w powyższych kwestiach.

Dynamiczny rozwój sztucznej inteligencji i nowe regulacje

Równolegle trwa intensywny rozwój sztucznej inteligencji (AI), który rodzi nowe wyzwania etyczne i regulacyjne, czyniąc tym samym sygnalistów ważnym podmiotem w zapewnianiu odpowiedzialności i przejrzystości w tej dynamicznej dziedzinie. Odpowiedzią na dynamiczny rozwój tej dziedziny jest przyjęcie rozporządzenia Parlamentu Europejskiego i Rady (UE) 2024/1689 z 13 czerwca 2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmiany rozporządzeń (WE) nr 300/2008 (UE) nr 167/2013, (UE) nr 168/2013, (UE) 2018/858, (UE) 2018/1139 i (UE) 2019/2144 oraz dyrektyw 2014/90/UE, (UE) 2016/797 i (UE) 2020/1828 (akt w sprawie sztucznej inteligencji) (dalej: AI ACT), ustanawiającego zharmonizowane zasady dotyczącej sztucznej inteligencji.

Czy AI jest przestrzenią wysokiego ryzyka?

Rozwój AI to obszar, w którym zagrożenia dla praw człowieka, prywatności i demokracji są szczególnie wyraźne. Systemy sztucznej inteligencji mogą prowadzić do:

a) Algorytmicznej dyskryminacji (np. w prowadzonych rekrutacjach, zasadach udzielania kredytów czy w działaniach organów ścigania),

b) Inwigilacji (monitoring obywateli za pomocą AI bez ich wiedzy),

c) Manipulacji informacją (generowanie dezinformacji, tzw. deepfake),

d) Nieetycznych decyzji biznesowych (np. trenowanie modeli na nielegalnych danych).

W takiej rzeczywistości sygnaliści z branży AI mogą odegrać kluczową rolę w ujawnianiu nadużyć, zanim wyrządzą one realne szkody.

AI Act i ustawa o sygnalistach — system naczyń połączonych

Unijny Akt o Sztucznej Inteligencji (AI Act), który stopniowo wchodzi w życie od lutego 2025 roku, klasyfikuje systemy AI pod względem ryzyka i nakłada na twórców określone obowiązki. Obowiązująca już ustawa o sygnalistach z 24 czerwca 2024 r. może stać się narzędziem do należytego przestrzegania wspomnianej regulacji. Istniejące obecnie narzędzia umożliwiające whistleblowerom dokonywanie zgłoszeń mogą stać się jednymi z podstawowych narzędzi etycznej kontroli nad technologią. Kluczem będzie jej skuteczne wdrożenie oraz budowa kultury organizacyjnej, która nie tylko umożliwi, ale wręcz zachęci do zgłaszania nieprawidłowości.

FAQ — najczęściej zadawane pytania

Czy ustawa o ochronie sygnalistów dotyczy branży AI?

Tak. Sygnaliści w branży AI mogą zgłaszać nieprawidłowości związane m.in. z naruszeniami prawa UE, ochroną danych osobowych, dyskryminacją algorytmiczną czy nieetycznym wykorzystaniem danych.

Czy AI Act nakłada obowiązki na pracodawców?

Tak. AI Act wprowadza obowiązki dla podmiotów tworzących, wdrażających i stosujących systemy AI, zwłaszcza w kategoriach wysokiego ryzyka, co pośrednio wiąże się też z koniecznością umożliwienia zgłaszania nieprawidłowości.

Kiedy AI Act zacznie obowiązywać?

AI Act zacznie obowiązywać stopniowo od lutego 2025 roku, a pełne wdrożenie planowane jest na lata 2025-2026.

Czy sygnaliści mogą być chronieni za zgłoszenia dotyczące AI?

Tak. Ustawa o ochronie sygnalistów zapewnia ochronę osobom zgłaszającym wszelkie naruszenia prawa, w tym także dotyczące nieprawidłowości w funkcjonowaniu systemów AI.