Czy Ustawa o ochronie sygnalistów ma znaczenie dla AI ACT?
Ochrona sygnalistów w Polsce od 2024 roku
Od prawie roku na terenie Polski obowiązuje ustawa z dnia 24 czerwca 2024 r. o ochronie sygnalistów, która ma na celu zapewnienie ochrony osób zgłaszających nieprawidłowości w podmiotach publicznych oraz prywatnych. Zgłoszenia mogą dotyczyć m.in. naruszeń prawa UE, nadużyć finansowych, łamania zasad etyki, czy ujawniania nieprawidłowości w zakresie ochrony danych. Pracodawcy zostali zobowiązani do wdrożenia procedur wewnętrznych umożliwiających bezpieczne i poufne dokonywanie zgłoszeń w powyższych kwestiach.
Dynamiczny rozwój sztucznej inteligencji i nowe regulacje
Równolegle trwa intensywny rozwój sztucznej inteligencji (AI), który rodzi nowe wyzwania etyczne i regulacyjne, czyniąc tym samym sygnalistów ważnym podmiotem w zapewnianiu odpowiedzialności i przejrzystości w tej dynamicznej dziedzinie. Odpowiedzią na dynamiczny rozwój tej dziedziny jest przyjęcie rozporządzenia Parlamentu Europejskiego i Rady (UE) 2024/1689 z 13 czerwca 2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmiany rozporządzeń (WE) nr 300/2008 (UE) nr 167/2013, (UE) nr 168/2013, (UE) 2018/858, (UE) 2018/1139 i (UE) 2019/2144 oraz dyrektyw 2014/90/UE, (UE) 2016/797 i (UE) 2020/1828 (akt w sprawie sztucznej inteligencji) (dalej: AI ACT), ustanawiającego zharmonizowane zasady dotyczącej sztucznej inteligencji.
Czy AI jest przestrzenią wysokiego ryzyka?
Rozwój AI to obszar, w którym zagrożenia dla praw człowieka, prywatności i demokracji są szczególnie wyraźne. Systemy sztucznej inteligencji mogą prowadzić do:
a) Algorytmicznej dyskryminacji (np. w prowadzonych rekrutacjach, zasadach udzielania kredytów czy w działaniach organów ścigania),
b) Inwigilacji (monitoring obywateli za pomocą AI bez ich wiedzy),
c) Manipulacji informacją (generowanie dezinformacji, tzw. deepfake),
d) Nieetycznych decyzji biznesowych (np. trenowanie modeli na nielegalnych danych).
W takiej rzeczywistości sygnaliści z branży AI mogą odegrać kluczową rolę w ujawnianiu nadużyć, zanim wyrządzą one realne szkody.
AI Act i ustawa o sygnalistach — system naczyń połączonych
Unijny Akt o Sztucznej Inteligencji (AI Act), który stopniowo wchodzi w życie od lutego 2025 roku, klasyfikuje systemy AI pod względem ryzyka i nakłada na twórców określone obowiązki. Obowiązująca już ustawa o sygnalistach z 24 czerwca 2024 r. może stać się narzędziem do należytego przestrzegania wspomnianej regulacji. Istniejące obecnie narzędzia umożliwiające whistleblowerom dokonywanie zgłoszeń mogą stać się jednymi z podstawowych narzędzi etycznej kontroli nad technologią. Kluczem będzie jej skuteczne wdrożenie oraz budowa kultury organizacyjnej, która nie tylko umożliwi, ale wręcz zachęci do zgłaszania nieprawidłowości.
FAQ — najczęściej zadawane pytania
Czy ustawa o ochronie sygnalistów dotyczy branży AI?
Tak. Sygnaliści w branży AI mogą zgłaszać nieprawidłowości związane m.in. z naruszeniami prawa UE, ochroną danych osobowych, dyskryminacją algorytmiczną czy nieetycznym wykorzystaniem danych.
Czy AI Act nakłada obowiązki na pracodawców?
Tak. AI Act wprowadza obowiązki dla podmiotów tworzących, wdrażających i stosujących systemy AI, zwłaszcza w kategoriach wysokiego ryzyka, co pośrednio wiąże się też z koniecznością umożliwienia zgłaszania nieprawidłowości.
Kiedy AI Act zacznie obowiązywać?
AI Act zacznie obowiązywać stopniowo od lutego 2025 roku, a pełne wdrożenie planowane jest na lata 2025-2026.
Czy sygnaliści mogą być chronieni za zgłoszenia dotyczące AI?
Tak. Ustawa o ochronie sygnalistów zapewnia ochronę osobom zgłaszającym wszelkie naruszenia prawa, w tym także dotyczące nieprawidłowości w funkcjonowaniu systemów AI.