Choć korzystanie z narzędzi sztucznej inteligencji (AI) staje się codziennością, nie wszyscy zdają sobie sprawę z tego, że ich stosowanie wiąże się z określonymi uwarunkowaniami prawnymi (w tym wymogami compliance). Brak odpowiednich procedur lub zabezpieczeń minimalizujących ryzyko niewłaściwego korzystania z tych narzędzi może stanowić zagrożenie dla interesów pracodawcy i w efekcie prowadzić do poważnych konsekwencji prawnych.
System AI (artificial intelligence, tj. sztuczna inteligencja) to system maszynowy zdolny do samodzielnego działania na różnych poziomach (na podstawie zbieranych i przetwarzanych informacji). To system, który po jego odpowiednim wdrożeniu może wykazywać zdolność do adaptacji i który, na potrzeby wyraźnych lub dorozumianych celów, wnioskuje w jaki sposób generować na podstawie otrzymanych danych wyniki, tj. m.in. predykcje, treści, zalecenia lub decyzje.
Akt o sztucznej inteligencji
Problematykę prawną dot. sztucznej inteligencji uregulowano m.in. w AI Act(1). Jest to pierwszy kompleksowy akt prawny Unii Europejskiej, który reguluje kwestie związane z projektowaniem, wdrażaniem i wykorzystywaniem sztucznej inteligencji. Stanowi on przełomową regulację, mającą na celu harmonizację prawa w całej Unii Europejskiej. AI Act jako rozporządzenie Unii Europejskiej, ma bezpośrednie zastosowanie we wszystkich państwach członkowskich i jest wiążące bez konieczności implementowania go do prawa krajowego za pomocą osobnych ustaw.
Terminy wejścia w życie AI Act
Przepisy AI Act są wprowadzane stopniowo, wiele z nich już obowiązuje. W szczególności od sierpnia 2025 roku obowiązują regulacje kluczowe dla nadzoru nad rynkiem sztucznej inteligencji, w tym m.in. dotyczące ustanowienia organów nadzoru i notyfikacji, zasad dotyczących modeli AI ogólnego przeznaczenia oraz systemu sankcji. Jednocześnie wejście w życie przepisów dotyczących systemów AI wysokiego ryzyka i powiązanych z nimi obowiązków (w tym obowiązków pracodawców korzystających z takich systemów) przypadnie na sierpień 2026 roku. Inne przepisy AI Act wejdą w życie później, stopniowo.
AI w zarządzaniu zasobami ludzkimi
AI Act wprowadza podejście oparte na analizie ryzyka, zgodnie z którym zakres i rygor obowiązujących przepisów zależy od poziomu ryzyka, jakie dany system sztucznej inteligencji może powodować. Rozporządzenie wyróżnia cztery kategorie systemów AI: zakazane systemy AI, systemy AI wysokiego ryzyka, systemy AI ograniczonego ryzyka oraz systemy AI minimalnego ryzyka.
Systemy AI wykorzystywane do zarządzania pracownikami i dostępem do samozatrudnienia są klasyfikowane jako systemy wysokiego ryzyka. Obejmuje to w szczególności narzędzia stosowane do rekrutacji i wyboru kandydatów (np. analizy CV i testów kompetencyjnych), podejmowania decyzji wpływających na warunki zatrudnienia (np. wysokość wynagrodzenia, awans lub zmiana stanowiska), monitorowania i oceny wydajności pracowników (np. analizy danych dotyczących efektywności, zachowań), przydzielania zadań lub planowania (np. na podstawie danych o produktywności, obecności lub cech osobowości).
Klasyfikacja ta wynika z faktu, że systemy te mogą w znacznym stopniu wpływać na przyszłe perspektywy zawodowe, źródła utrzymania pracowników i przysługujące im prawa pracownicze. Istnieje ryzyko, że systemy takie mogą utrwalać historyczne wzorce dyskryminacji, naruszać prawo do ochrony danych osobowych i prywatności. Dlatego też uznano za konieczne wprowadzenie szeregu zabezpieczeń, które mają zagwarantować przejrzystość działania systemu, umożliwić nadzór człowieka nad jego funkcjonowaniem oraz weryfikację decyzji podejmowanych w oparciu o algorytmy.
Obowiązki pracodawców stosujących systemy AI
Pracodawcy, stosujący systemy sztucznej inteligencji wysokiego ryzyka, w świetle AI Act stają się zobowiązani m.in. do:
- korzystania z systemów AI w sposób zgodny z instrukcjami obsługi tych systemów, aby poprzez nieprawidłowe używanie nie podjąć działań naruszających prawo;
- wprowadzania do systemów AI właściwych danych, aby uniknąć otrzymania z tych systemów błędnych lub niezgodnych z przepisami prawa pracy informacji;
- zapewnienia nadzoru człowieka nad funkcjonowaniem systemu AI, a w tym weryfikacji danych (informacji, rekomendacji, projektów dokumentów) wytwarzanych przez systemy AI wysokiego ryzyka (osoba sprawująca nadzór powinna posiadać niezbędne kompetencje, przeszkolenie i uprawnienia);
- udzielania informacji osobom, których dane mają być przetwarzane przez systemy AI, tj. w szczególności pracownikom, kandydatom, jak również przedstawicielom pracowników, którzy powinni być świadomi faktu stosowania narzędzi AI, celu ich wykorzystania oraz o przysługujących im praw;
- identyfikowania, rejestrowania i zgłaszania dostawcom wszelkich niewłaściwych, podejrzanych czy dziwnych zdarzeń, które miały miejsce podczas korzystania z systemów AI
Brak prawidłowej realizacji ww. obowiązków może skutkować surowymi sankcjami o charakterze finansowym. Przy czym niezależnie od sankcji finansowych przewidzianych w AI Act, pracodawca może ponosić odpowiedzialność także na podstawie przepisów krajowych, w tym za naruszenie dóbr osobistych pracowników, prawa do równego traktowania czy ochrony prywatności pracowników. Ważną kwestią, która wymaga uwagi ze strony pracodawców jest również zapewnienie zgodności stosowanych narzędzi AI z przepisami dotyczącymi ochrony danych osobowych.
Najwyższy czas na dostosowanie się do nowych obowiązków!
Choć przepisy dotyczące obowiązków pracodawców zaczną obowiązywać dopiero w sierpniu 2026 roku, już teraz warto przygotować się do nadchodzących zmian. Zwłaszcza dlatego, że obecnie wielu pracodawców podejmuje lub przygotowuje się do podjęcia decyzji o wyborze różnych narzędzi AI oraz o wdrożeniu ich stosowania w organizacji. Warto zrobić to w sposób świadomy oraz zgodny z przepisami prawa, które wkrótce wejdą w życie, po to, aby uniknąć konieczności ponoszenia dodatkowych kosztów i wysiłku organizacyjnego, a także ryzyka zmiany dopiero co wybranego narzędzia oraz ustalonych procedur.
(1) Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmiany rozporządzeń (WE) nr 300/2008, (UE) nr 167/2013, (UE) nr 168/2013, (UE) 2018/858, (UE) 2018/1139 i (UE) 2019/2144 oraz dyrektyw 2014/90/UE, (UE) 2016/797 i (UE) 2020/1828 (akt w sprawie sztucznej inteligencji).

Maciej Pęcherz
E-mail: m.pecherz@artelegal.pl
Tel: + 48 725 775 111
Partner, adwokat specjalizujący się zarówno w doradztwie prawnym jak i w procesie z zakresu prawa pracy, prawa cywilnego (w tym gospodarczego) i prawa karnego gospodarczego. Od kilkunastu lat świadczy usługi prawne na rzecz przedsiębiorców, w tym na rzecz średnich i dużych przedsiębiorców, koncentrując się na ich potrzebach i interesach.

Justyna Smolińska
E-mail: j.smolinska@artelegal.pl
Aplikantka radcowska przy wrocławskiej Okręgowej Izbie Radców Prawnych. Absolwentka Wydziału Prawa i Ekonomii Uniwersytetu Wrocławskiego. Wspiera radców prawnych i adwokatów we wszystkich sprawach prowadzonych w ramach kancelarii ARTE LEGAL, ze szczególnym uwzględnieniem prawa pracy, prawa cywilnego oraz postępowania cywilnego.









