Praca

AI Act a HR: nowe obowiązki pracodawców przy wykorzystaniu sztucznej inteligencji w rekrutacji

rekrutacja praca hr ai sztuczna inteligencja

Praca. Rekrutacja. Sztuczna inteligencja (AI)

Unijny AI Act zmienia zasady gry w obszarze wykorzystania sztucznej inteligencji w procesach HR. Narzędzia wspierające rekrutację, selekcję kandydatów czy ocenę pracowników zostały uznane za systemy wysokiego ryzyka. To oznacza konkretne obowiązki nie tylko dla dostawców technologii, ale również dla firm, które wdrażają je w swoich organizacjach.

W praktyce działy HR muszą przygotować się na większą odpowiedzialność, nowe procedury oraz konieczność stałego nadzoru nad działaniem algorytmów.

AI w rekrutacji zyskuje na popularności

Z danych serwisu eRecruiter wynika, że wykorzystanie narzędzi opartych na sztucznej inteligencji w rekrutacji wzrosło czterokrotnie od 2023 roku. Obecnie korzysta z nich 25 proc. spośród prawie 500 badanych firm.

Jednocześnie tylko 15 proc. organizacji posiada wewnętrzne wytyczne dotyczące etycznego wykorzystania AI w procesach rekrutacyjnych, a 62 proc. nie wdrożyło jeszcze systemowych działań regulujących ten obszar.

Badanie „HR Tech Changer 2025” przeprowadzone przez Polskie Forum HR na ponad 300 respondentach pokazuje, że technologie najczęściej wykorzystywane są do:

  • selekcji kandydatów,

  • prowadzenia rekrutacji,

  • oceny kompetencji,

    jasło baltic wood praca
  • zarządzania bazą kandydatów.

W wielu branżach – zwłaszcza w przemyśle czy logistyce – automatyzacja procesów kadrowych staje się standardem, szczególnie tam, gdzie potrzeby rekrutacyjne są dynamiczne i powtarzalne.

Czym jest AI Act i od kiedy obowiązuje?

AI Act (rozporządzenie UE 2024/1689) to pierwszy kompleksowy akt prawny w Unii Europejskiej regulujący wykorzystanie sztucznej inteligencji.

Rozporządzenie weszło formalnie w życie 1 sierpnia 2024 roku, jednak jego przepisy są wdrażane etapami:

  • od 2 lutego 2025 roku obowiązują zakazy wybranych praktyk oraz przepisy ogólne, w tym dotyczące kompetencji w zakresie AI,

  • od 2 sierpnia 2025 roku zaczynają obowiązywać regulacje dotyczące modeli ogólnego przeznaczenia i ram nadzoru,

  • od 2 sierpnia 2026 roku stosowane będą przepisy dotyczące systemów wysokiego ryzyka, w tym wykorzystywanych w HR,

  • pełne wdrożenie harmonogramu przewidziano na 2027 rok.

To właśnie systemy HR zostały wskazane w załączniku III jako obszar wysokiego ryzyka.

Systemy AI w HR jako systemy wysokiego ryzyka

AI Act klasyfikuje jako wysokiego ryzyka systemy wykorzystywane do:

  • rekrutacji i selekcji kandydatów,

  • tworzenia ogłoszeń o pracę,

  • analizowania i filtrowania aplikacji,

  • oceny kandydatów i pracowników.

Taka klasyfikacja oznacza dodatkowe obowiązki dla pracodawców korzystających z tych narzędzi. Odpowiedzialność nie kończy się na wyborze dostawcy technologii – firma wdrażająca system również musi spełnić określone wymogi.

Nowe obowiązki pracodawców korzystających z AI

Wdrożenie systemu AI w HR będzie wymagało m.in.:

1. Nadzoru człowieka

System nie może działać w pełni autonomicznie bez możliwości ingerencji człowieka. Decyzje kadrowe powinny podlegać kontroli i weryfikacji.

2. Monitorowania działania systemu

Organizacja musi kontrolować sposób funkcjonowania narzędzia, analizować jego skuteczność oraz identyfikować potencjalne nieprawidłowości.

3. Obowiązku informacyjnego

Pracodawca będzie zobowiązany poinformować osoby, których dotyczy działanie systemu – na przykład kandydatów – że w procesie wykorzystywane jest narzędzie oparte na sztucznej inteligencji.

4. Szkolenia personelu

Zespoły HR powinny zostać odpowiednio przeszkolone w zakresie odpowiedzialnego i świadomego korzystania z systemów AI.

Jakość danych i ryzyko dyskryminacji

Jednym z kluczowych filarów AI Act jest zarządzanie jakością danych oraz ograniczanie ryzyka stronniczości algorytmicznej.

Systemy wysokiego ryzyka muszą opierać się na:

  • reprezentatywnych zbiorach danych,

  • procedurach wykrywania biasu,

  • mechanizmach ograniczających ryzyko dyskryminacji.

W obszarze HR ryzyko to jest szczególnie wrażliwe. Algorytmy uczą się na danych historycznych. Jeśli w przeszłości na określonym stanowisku zatrudniano głównie osoby o określonych cechach, system może nieświadomie utrwalać ten schemat, eliminując kandydatów niespełniających „historycznego wzorca”.

Takie sytuacje mogą prowadzić do faworyzowania określonych grup oraz wykluczania innych – nawet bez intencji pracodawcy.

Największe wyzwania HR Tech według branży

Z badania „HR Tech Changer 2025” wynika, że:

  • 29 proc. respondentów wskazuje błędy algorytmiczne i stronniczość jako największe wyzwanie,

  • 19 proc. obawia się tzw. halucynacji AI, czyli generowania nieprawdziwych lub wprowadzających w błąd informacji przez systemy.

Oznacza to, że mimo rosnącej popularności AI w HR, branża dostrzega realne zagrożenia związane z jej stosowaniem.

AI w HR – wsparcie, nie zastępstwo człowieka

Sztuczna inteligencja w rekrutacji powinna być traktowana jako narzędzie wspierające, a nie zastępujące człowieka. Automatyzacja może znacząco usprawnić procesy, skrócić czas selekcji kandydatów i zwiększyć efektywność pracy działów HR.

Jednak odpowiedzialność za ostateczne decyzje kadrowe nadal spoczywa na pracodawcy.

AI Act wymusza na firmach bardziej świadome i uporządkowane podejście do wdrażania technologii. Organizacje, które już dziś zaczną budować wewnętrzne procedury, szkolić zespoły i monitorować działanie algorytmów, zyskają przewagę – nie tylko regulacyjną, ale również wizerunkową i organizacyjną.

źródło: Newseria

Dodaj komentarz

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

To Top