„Wszyscy muszą umieć AI”: skąd wzięło się nowe wymaganie rekrutacyjne
Otwórz dowolny portal z ogłoszeniami o pracę i policz, w ilu ofertach pojawia się „znajomość narzędzi AI” albo „doświadczenie z ChatGPT”. Rok temu te wymagania dotyczyły stanowisk technicznych. Dziś trafiają do ogłoszeń na project managerów, specjalistów HR i analityków finansowych.
Zjawisko ma prostą przyczynę: zarządy czują presję rynku. Konkurencja ogłasza kolejne wdrożenia, raporty analityków mówią o „momencie AI”, a LinkedIn zalewa fala postów o produktywności ze sztuczną inteligencją. Efekt FOMO jest realny i dotyczy nie tylko jednostek, lecz całych organizacji.
Problem w tym, że presja na wyniki wyprzedza inwestycje w ludzi. Według badania EY Polska 67% pracowników naciskało na wdrożenie AI w swojej organizacji. Jednocześnie 73% uznało, że firma nie zapewnia wystarczającej liczby szkoleń. Wielu zespołom przypada mniej niż 10 godzin szkoleniowych rocznie. To tak jakby dać komuś kluczyki do samochodu bez kursu prawa jazdy.
Wpisanie „AI skills” do wymagań rekrutacyjnych jest łatwe. Zbudowanie ścieżki, dzięki której ludzie mogą te kompetencje realnie zdobyć, wymaga wysiłku, budżetu i decyzji. I tu zaczyna się problem.
BYOAI, czyli co się dzieje, gdy firma nie daje narzędzi
Gdy organizacja nie dostarcza narzędzi, pracownicy nie czekają. Biorą sprawy w swoje ręce.
Microsoft Work Trend Index pokazuje skalę zjawiska: 78% użytkowników sztucznej inteligencji przynosi do pracy własne narzędzia. To osobiste konta ChatGPT, Claude, Perplexity, lokalne skrypty, pluginy do przeglądarek. Zjawisko ma już swoją nazwę: BYOAI (Bring Your Own AI).
Na pierwszy rzut oka to wygląda jak przedsiębiorczość. Rozumiem ten odruch, sam przez jakiś czas myślałem podobnie. Ale obraz jest bardziej skomplikowany. 52% użytkowników sztucznej inteligencji niechętnie przyznaje się do korzystania z tych narzędzi przy ważnych zadaniach. Połowa ludzi robi coś w ukryciu i to powinno być alarmujące, nie normalne. Dlaczego się kryją? Bo nie mają jasnych zasad. Nie wiedzą, czy to dozwolone. Nie wiedzą, jakie dane mogą wrzucić do zewnętrznego modelu. I nikt im tego nie wyjaśnił.
BYOAI to nie dowód na zaradność zespołu. To sygnał, że organizacja zostawiła lukę, a ludzie ją wypełniają na własne ryzyko. Firmowe dane trafiają do publicznych modeli bez kontroli, bez polityki bezpieczeństwa, bez audytu. Gdy coś pójdzie nie tak, odpowiedzialność i tak spadnie na firmę, nie na pracownika, który użył prywatnego ChatGPT do podsumowania wrażliwych notatek ze spotkania.
Pracownik czy firma: kto powinien płacić za kompetencje AI
Wyobraź sobie taką sytuację. Firma wdraża agentów sztucznej inteligencji do obsługi klienta. Obniża koszty o 40%, podnosi CSAT, skraca czas odpowiedzi. Korzyści finansowe zbiera organizacja. Ryzyko prawne ponosi organizacja. Ale kto zapłacił za to, żeby ludzie umieli z tymi systemami pracować, nadzorować je, reagować na błędy?
W wielu firmach odpowiedź brzmi: nikt formalnie. Pracownicy uczyli się sami, po godzinach, z YouTube’a i kursów opłacanych z własnej kieszeni.
To fundamentalna asymetria i, powiem wprost, hipokryzja organizacyjna. Firma korzysta z efektów transformacji, ale koszt wejścia przerzuca na jednostki. A potem dziwi się, że adopcja jest niska, że ludzie się boją, że wdrożenia nie dają oczekiwanych wyników.
Jest w tym jeszcze wymiar, który szczerze mnie drażni. Wymaganie kompetencji bez zapewnienia dostępu do szkoleń działa jak filtr klasowy. Premiuje tych, którzy mieli czas, pieniądze i motywację, żeby eksperymentować z narzędziami we własnym zakresie. Dyskryminuje tych, którzy pracowali na zmiany, nie mieli budżetu na kursy albo po prostu nie wiedzieli od czego zacząć.
Według raportu EY o nowych obowiązkach firm 65% pracowników nie wie, jak korzystać ze sztucznej inteligencji etycznie, a 77% obawia się ryzyka prawnego. To nie jest problem jednostek. To systemowa luka organizacyjna.
AI Act mówi wprost: obowiązki firmy jako użytkownika sztucznej inteligencji
Co mówi artykuł 4 AI Act
Artykuł 4 rozporządzenia AI Act (obowiązującego od 2 lutego 2025 roku) jest w tej kwestii jednoznaczny: podmioty tworzące i używające systemów sztucznej inteligencji mają podejmować działania zapewniające wystarczający poziom AI literacy u personelu. Dotyczy to też osób działających w imieniu firmy.
To nie jest rekomendacja. To obowiązek prawny. I co ważne, program kompetencyjny nie może być uniwersalny. Przepis mówi, że ma uwzględniać wiedzę techniczną, doświadczenie, wykształcenie i kontekst, w jakim systemy AI będą używane. Innymi słowy: inne szkolenie dla analityka, który buduje agenta, a inne dla menedżera, który zatwierdza jego wyniki.
Firma nie może zasłonić się argumentem, że „pracownik sam się nauczył”. Jeśli organizacja wdraża lub korzysta z systemów AI, odpowiedzialność za kompetencje spoczywa na niej.
Co to oznacza w praktyce
Komisja Europejska opublikowała dodatkowe FAQ do artykułu 4, precyzując oczekiwania. Szkolenia powinny obejmować nie tylko obsługę narzędzi, ale też etykę, bezpieczeństwo danych i zdolność rozpoznawania ograniczeń systemów opartych na sztucznej inteligencji.
To akurat zbieżne z tym, czego chcą sami pracownicy. W badaniu EY 65% deklarowało brak wiedzy o etycznym korzystaniu z AI, a 77% obawiało się ryzyka prawnego. Ludzie chcą wiedzieć, co wolno, czego nie i jak nie narobić szkód. Organizacja, która tego nie zapewnia, łamie nie tylko zasady dobrej praktyki, ale coraz częściej też prawo.
Co powinien zrobić lider, który widzi ten problem
Łatwo narzekać na FOMO i przerzucanie odpowiedzialności. Trudniej zaproponować konkretne działania. Z mojego doświadczenia wynika, że nie trzeba wielomilionowego budżetu, żeby zmienić dynamikę. Wystarczy pięć decyzji.
- Dostarczyć licencjonowane narzędzia. Każdy pracownik, od którego firma oczekuje pracy ze sztuczną inteligencją, powinien mieć dostęp do firmowego, bezpiecznego środowiska. Nie prywatnego konta, nie darmowej wersji z limitem. Microsoft ogłosił inwestycję w szkolenia w Polsce z planem objęcia miliona osób do końca 2025 roku. Jeśli gigant technologiczny widzi potrzebę masowego upskillingu, lokalna firma nie może udawać, że problemu nie ma.
- Wprowadzić minimalny program edukacyjny. Nie każdy musi być ekspertem od promptów. Ale każdy powinien wiedzieć: co technologia potrafi, czego nie potrafi, jakie dane można przetwarzać, a jakie nie. To nie musi być kurs za 20 tys. PLN. Wewnętrzne warsztaty, mentoring, wspólne sesje z narzędziami wystarczą na start.
- Rozliczać menedżerów z budowy kompetencji w zespole. Jeśli wdrożenie sztucznej inteligencji jest priorytetem strategicznym, powinno być w OKR-ach menedżerów. Nie tylko adopcja narzędzi (ile osób się zalogowało), ale realna umiejętność zespołu.
- Dać czas na naukę w godzinach pracy. Jeśli sztuczna inteligencja jest częścią stanowiska, nauka nie może być „prywatnym projektem” realizowanym po godzinach. Dwie godziny tygodniowo na eksperymenty to minimalna inwestycja, która zwraca się wielokrotnie.
- Szkolić z etyki i bezpieczeństwa danych. Pracownicy sami tego chcą. 65% nie wie, jak korzystać z technologii etycznie. Jasne zasady (co wolno wrzucać do modelu, czego nie, kiedy wynik wymaga weryfikacji) budują zaufanie i eliminują paraliż decyzyjny.
Koszt zaniechania jest wyższy niż koszt działania
Firmy, które dziś przerzucają koszt transformacji na pracowników, zapłacą za to podwójnie. Najpierw niską adopcją i chaosem BYOAI. Potem niezgodnością z wymogami AI Act, gdy regulatorzy zaczną sprawdzać, kto naprawdę zadbał o kompetencje zespołu.
Moim zdaniem to nie jest kwestia „czy”, tylko „kiedy” firma weźmie odpowiedzialność za upskilling. Im szybciej, tym mniejszy bałagan do sprzątania. Jeśli szukasz punktu startowego dla kadry zarządzającej, kurs Future Leaders prowadzi przez fundamenty sztucznej inteligencji, zarządzanie zmianą i budowanie strategii wdrożenia bez żargonu technicznego.


