Nowe unijne regulacje dotyczące sztucznej inteligencji, czyli AI Act, nie tylko wyznaczają kierunek odpowiedzialnego wdrażania narzędzi AI w organizacjach. Wprowadzają także wyraźną granicę, której nie należy przekraczać – katalog praktyk zakazanych. Ich stosowanie, nawet niezamierzone, może prowadzić do poważnych konsekwencji prawnych i finansowych. To szczególnie ważne w kontekście dynamicznego rozwoju AI w obszarze HR i rekrutacji.
Zakazane, czyli jakie?
AI Act, obowiązujące od lutego 2025 roku, zakazuje m.in. manipulowania decyzjami użytkowników w sposób podprogowy lub nieświadomy, wykorzystywania podatności grup społecznych znajdujących się w trudnej sytuacji, a także scoringu społecznego – czyli oceniania ludzi na podstawie ich cech osobistych czy zachowań. Na liście znajdują się również takie praktyki, jak profilowanie w celu przewidywania ryzyka popełnienia przestępstwa, rozpoznawanie emocji czy kategoryzacja biometryczna. Co istotne, jak podkreślają autorzy unijnych wytycznych, nie zawsze potrzebne jest udowodnienie szkody – wystarczy, że system AI generuje ryzyko pogorszenia sytuacji danej osoby, np. zdrowotnej, społecznej czy finansowej.
AI Act nie zostawia złudzeń: niektóre zastosowania AI są niezgodne z podstawowymi wartościami Unii Europejskiej, jak prawo do autonomii, prywatności czy równego traktowania. Z punktu widzenia HR zagrożeniem nie są tylko skrajne przypadki, jak analiza mimiki czy tonu głosu pracownika. Równie niebezpieczne mogą być mniej oczywiste działania – na przykład targetowanie ofert pracy wyłącznie do osób z grup o słabszej pozycji społecznej
– mówi Katarzyna Trzaska, ekspertka eRecruiter.
Praktyka nie czyni bezpiecznym
Eksperci podkreślają, że kluczowe jest precyzyjne zdefiniowanie, czym są cechy osobiste, dane wrażliwe czy klasyfikacje wpływające na procesy decyzyjne w rekrutacji. Jeśli algorytm zaczyna w nieuprawniony sposób wykorzystywać tego typu informacje, to nawet funkcje, które na pierwszy rzut oka wydają się neutralne – jak generowanie ogłoszeń, tagowanie CV czy rekomendacje kandydatów – mogą wiązać się z ryzykiem naruszenia zasad etycznych lub prawnych. Dlatego tak ważne jest, by projektując i wdrażając rozwiązania AI, świadomie kontrolować, jakie dane są uwzględniane w procesie analizy i podejmowania decyzji.
W eRecruiter myślenie o rozwoju funkcji AI nigdy nie zasłaniało nam aspektów prawnych związanych z użyciem sztucznej inteligencji. Nasze narzędzia AI – od preselekcji po generowanie pytań rekrutacyjnych – wspierają pracę rekrutera, ale go nie zastępują. System nie analizuje emocji, nie wykorzystuje danych biometrycznych ani nie klasyfikuje kandydatów na podstawie cech osobowości. To człowiek ma ostatnie słowo – i to jest fundamentalna różnica
– tłumaczy Konrad Szczygieł, Head of Marketplace w eRecruiter.
Informować to chronić – także siebie
AI Act wprowadza obowiązek informowania kandydatów o wykorzystaniu sztucznej inteligencji w procesach rekrutacyjnych. To wymóg prawny, ale też praktyczne narzędzie minimalizujące ryzyko nieporozumień i odpowiedzialności po stronie pracodawcy. Przejrzystość w komunikacji, wskazanie roli człowieka w podejmowaniu decyzji i jasne opisanie funkcji narzędzi AI może uchronić firmę przed zarzutami o nieetyczne lub niezgodne z prawem działania.
Transparentność to nie tylko wymóg przepisów. To realne zabezpieczenie firmy przed zarzutami o nieetyczne działania. Jeśli kandydat wie, na czym polega rola AI w procesie, a decyzje podejmuje człowiek – ograniczamy ryzyko nieporozumień i zwiększamy zaufanie. A to również przekłada się na wizerunek pracodawcy
– dodaje Katarzyna Trzaska.
AI z głową – czyli jak korzystać, by nie narazić się na sankcje
AI Act nie zakazuje stosowania sztucznej inteligencji w HR – przeciwnie, zakłada jej dalszy rozwój, ale na zasadach odpowiedzialności i zgodności z prawem. Przed wdrożeniem rozwiązania opartego na AI warto jednak zadać dostawcy kluczowe pytania: jakie decyzje podejmuje system, na jakich danych operuje i czy spełnia kryteria określone przez unijne przepisy.
Odpowiedzialność nie kończy się na dostawcy technologii. To użytkownik, czyli firma wdrażająca AI, musi znać granice i ocenić ryzyka. Świadome korzystanie z AI to już nie tylko dobra praktyka. To obowiązek
– podsumowuje Konrad Szczygieł.