AI w HR – jak nie wpaść w pułapkę zakazanych praktyk?

HR, Trendy

Nowe unijne regulacje dotyczące sztucznej inteligencji, czyli AI Act, nie tylko wyznaczają kierunek odpowiedzialnego wdrażania narzędzi AI w organizacjach. Wprowadzają także wyraźną granicę, której nie należy przekraczać – katalog praktyk zakazanych. Ich stosowanie, nawet niezamierzone, może prowadzić do poważnych konsekwencji prawnych i finansowych. To szczególnie ważne w kontekście dynamicznego rozwoju AI w obszarze HR i rekrutacji.

Zakazane, czyli jakie?

AI Act, obowiązujące od lutego 2025 roku, zakazuje m.in. manipulowania decyzjami użytkowników w sposób podprogowy lub nieświadomy, wykorzystywania podatności grup społecznych znajdujących się w trudnej sytuacji, a także scoringu społecznego – czyli oceniania ludzi na podstawie ich cech osobistych czy zachowań. Na liście znajdują się również takie praktyki, jak profilowanie w celu przewidywania ryzyka popełnienia przestępstwa, rozpoznawanie emocji czy kategoryzacja biometryczna. Co istotne, jak podkreślają autorzy unijnych wytycznych, nie zawsze potrzebne jest udowodnienie szkody – wystarczy, że system AI generuje ryzyko pogorszenia sytuacji danej osoby, np. zdrowotnej, społecznej czy finansowej.

AI Act nie zostawia złudzeń: niektóre zastosowania AI są niezgodne z podstawowymi wartościami Unii Europejskiej, jak prawo do autonomii, prywatności czy równego traktowania. Z punktu widzenia HR zagrożeniem nie są tylko skrajne przypadki, jak analiza mimiki czy tonu głosu pracownika. Równie niebezpieczne mogą być mniej oczywiste działania – na przykład targetowanie ofert pracy wyłącznie do osób z grup o słabszej pozycji społecznej

 – mówi Katarzyna Trzaska, ekspertka eRecruiter.

 Praktyka nie czyni bezpiecznym

Eksperci podkreślają, że kluczowe jest precyzyjne zdefiniowanie, czym są cechy osobiste, dane wrażliwe czy klasyfikacje wpływające na procesy decyzyjne w rekrutacji. Jeśli algorytm zaczyna w nieuprawniony sposób wykorzystywać tego typu informacje, to nawet funkcje, które na pierwszy rzut oka wydają się neutralne – jak generowanie ogłoszeń, tagowanie CV czy rekomendacje kandydatów – mogą wiązać się z ryzykiem naruszenia zasad etycznych lub prawnych. Dlatego tak ważne jest, by projektując i wdrażając rozwiązania AI, świadomie kontrolować, jakie dane są uwzględniane w procesie analizy i podejmowania decyzji.

W eRecruiter myślenie o rozwoju funkcji AI nigdy nie zasłaniało nam aspektów prawnych związanych z użyciem sztucznej inteligencji. Nasze narzędzia AI – od preselekcji po generowanie pytań rekrutacyjnych – wspierają pracę rekrutera, ale go nie zastępują. System nie analizuje emocji, nie wykorzystuje danych biometrycznych ani nie klasyfikuje kandydatów na podstawie cech osobowości. To człowiek ma ostatnie słowo – i to jest fundamentalna różnica

– tłumaczy Konrad Szczygieł, Head of Marketplace w eRecruiter.

Informować to chronić – także siebie

AI Act wprowadza obowiązek informowania kandydatów o wykorzystaniu sztucznej inteligencji w procesach rekrutacyjnych. To wymóg prawny, ale też praktyczne narzędzie minimalizujące ryzyko nieporozumień i odpowiedzialności po stronie pracodawcy. Przejrzystość w komunikacji, wskazanie roli człowieka w podejmowaniu decyzji i jasne opisanie funkcji narzędzi AI może uchronić firmę przed zarzutami o nieetyczne lub niezgodne z prawem działania.

Transparentność to nie tylko wymóg przepisów. To realne zabezpieczenie firmy przed zarzutami o nieetyczne działania. Jeśli kandydat wie, na czym polega rola AI w procesie, a decyzje podejmuje człowiek – ograniczamy ryzyko nieporozumień i zwiększamy zaufanie. A to również przekłada się na wizerunek pracodawcy

– dodaje Katarzyna Trzaska.

AI z głową – czyli jak korzystać, by nie narazić się na sankcje

AI Act nie zakazuje stosowania sztucznej inteligencji w HR – przeciwnie, zakłada jej dalszy rozwój, ale na zasadach odpowiedzialności i zgodności z prawem. Przed wdrożeniem rozwiązania opartego na AI warto jednak zadać dostawcy kluczowe pytania: jakie decyzje podejmuje system, na jakich danych operuje i czy spełnia kryteria określone przez unijne przepisy.

Odpowiedzialność nie kończy się na dostawcy technologii. To użytkownik, czyli firma wdrażająca AI, musi znać granice i ocenić ryzyka. Świadome korzystanie z AI to już nie tylko dobra praktyka. To obowiązek

– podsumowuje Konrad Szczygieł.

 

Drukuj artykuł
Artykuł został przygotowany przez Ekspertów eRecruiter

eRecruiter

eRecruiter to najczęściej wykorzystywana w Polsce platforma do zarządzania rekrutacjami, z której każdego dnia korzystają tysiące użytkowników. Narzędzie wspiera ich już od publikacji ogłoszeń, przez pozyskiwanie i selekcję aplikacji, kontakt z kandydatami, współpracę z osobami zaangażowanymi w proces spoza działu HR (tzw. biznesem), po zatrudnienie idealnego kandydata. System dostępny jest z poziomu przeglądarki internetowej. Jego uzupełnieniem w codziennej pracy jest aplikacja mobilna, która pozwala być zawsze na bieżąco ze swoimi rekrutacjami. eRecruiter na pierwszym miejscu stawia bezpieczeństwo danych kandydatów. Są one zabezpieczone i przetwarzane na każdym etapie procesu rekrutacyjnego zgodnie z wymogami RODO. System pozwala m.in. sprawować kontrolę nad udzielanymi przez kandydatów zgodami, czy czuwać nad prawidłowym okresem przechowywania danych. Usługa oferowana jest w modelu SaaS (Software as a Service).

eRecruiter jest produktem eRecruitment Solutions sp. z o.o. Firma należy do Grupy Pracuj S.A., właściciela m.in. portalu rekrutacyjnego Pracuj.pl. Więcej informacji: www.erecruiter.pl.

 

Newsletter

Wykorzystujemy pliki cookies.