FOMO na AI – czy firmy uchylają się od odpowiedzialności za kompetencje pracowników

Firmy coraz częściej wymagają od kandydatów kompetencji AI, ale same nie inwestują w szkolenia ani nie dostarczają narzędzi. W efekcie 78% użytkowników AI przynosi do pracy własne rozwiązania, a organizacje tracą kontrolę nad bezpieczeństwem i jakością. Artykuł 4 AI Act mówi wprost: to na firmie spoczywa obowiązek budowania AI literacy. Ten tekst pokazuje, skąd wzięło się to napięcie, dlaczego przerzucanie kosztów na pracowników jest krótkowzroczne i co mogą zrobić liderzy.

„Wszyscy muszą umieć AI”: skąd wzięło się nowe wymaganie rekrutacyjne

Otwórz dowolny portal z ogłoszeniami o pracę i policz, w ilu ofertach pojawia się „znajomość narzędzi AI” albo „doświadczenie z ChatGPT”. Rok temu te wymagania dotyczyły stanowisk technicznych. Dziś trafiają do ogłoszeń na project managerów, specjalistów HR i analityków finansowych.

Zjawisko ma prostą przyczynę: zarządy czują presję rynku. Konkurencja ogłasza kolejne wdrożenia, raporty analityków mówią o „momencie AI”, a LinkedIn zalewa fala postów o produktywności ze sztuczną inteligencją. Efekt FOMO jest realny i dotyczy nie tylko jednostek, lecz całych organizacji.

FOMO (Fear of Missing Out): Lęk przed przegapieniem okazji. W kontekście AI dotyczy zarządów, które wdrażają technologię pod presją rynku, zanim przemyślą strategię i zbudują kompetencje w zespole.

Problem w tym, że presja na wyniki wyprzedza inwestycje w ludzi. Według badania EY Polska 67% pracowników naciskało na wdrożenie AI w swojej organizacji. Jednocześnie 73% uznało, że firma nie zapewnia wystarczającej liczby szkoleń. Wielu zespołom przypada mniej niż 10 godzin szkoleniowych rocznie. To tak jakby dać komuś kluczyki do samochodu bez kursu prawa jazdy.

Wpisanie „AI skills” do wymagań rekrutacyjnych jest łatwe. Zbudowanie ścieżki, dzięki której ludzie mogą te kompetencje realnie zdobyć, wymaga wysiłku, budżetu i decyzji. I tu zaczyna się problem.

Szkolenie AI dla Liderów!

BYOAI, czyli co się dzieje, gdy firma nie daje narzędzi

Gdy organizacja nie dostarcza narzędzi, pracownicy nie czekają. Biorą sprawy w swoje ręce.

Microsoft Work Trend Index pokazuje skalę zjawiska: 78% użytkowników sztucznej inteligencji przynosi do pracy własne narzędzia. To osobiste konta ChatGPT, Claude, Perplexity, lokalne skrypty, pluginy do przeglądarek. Zjawisko ma już swoją nazwę: BYOAI (Bring Your Own AI).

BYOAI (Bring Your Own AI): Sytuacja, w której pracownicy korzystają w pracy z prywatnych narzędzi AI, bo firma nie dostarcza własnych. Firmowe dane trafiają wtedy do niekontrolowanych zewnętrznych modeli bez polityki bezpieczeństwa.

Na pierwszy rzut oka to wygląda jak przedsiębiorczość. Rozumiem ten odruch, sam przez jakiś czas myślałem podobnie. Ale obraz jest bardziej skomplikowany. 52% użytkowników sztucznej inteligencji niechętnie przyznaje się do korzystania z tych narzędzi przy ważnych zadaniach. Połowa ludzi robi coś w ukryciu i to powinno być alarmujące, nie normalne. Dlaczego się kryją? Bo nie mają jasnych zasad. Nie wiedzą, czy to dozwolone. Nie wiedzą, jakie dane mogą wrzucić do zewnętrznego modelu. I nikt im tego nie wyjaśnił.

BYOAI to nie dowód na zaradność zespołu. To sygnał, że organizacja zostawiła lukę, a ludzie ją wypełniają na własne ryzyko. Firmowe dane trafiają do publicznych modeli bez kontroli, bez polityki bezpieczeństwa, bez audytu. Gdy coś pójdzie nie tak, odpowiedzialność i tak spadnie na firmę, nie na pracownika, który użył prywatnego ChatGPT do podsumowania wrażliwych notatek ze spotkania.

Pracownik czy firma: kto powinien płacić za kompetencje AI

Wyobraź sobie taką sytuację. Firma wdraża agentów sztucznej inteligencji do obsługi klienta. Obniża koszty o 40%, podnosi CSAT, skraca czas odpowiedzi. Korzyści finansowe zbiera organizacja. Ryzyko prawne ponosi organizacja. Ale kto zapłacił za to, żeby ludzie umieli z tymi systemami pracować, nadzorować je, reagować na błędy?

W wielu firmach odpowiedź brzmi: nikt formalnie. Pracownicy uczyli się sami, po godzinach, z YouTube’a i kursów opłacanych z własnej kieszeni.

To fundamentalna asymetria i, powiem wprost, hipokryzja organizacyjna. Firma korzysta z efektów transformacji, ale koszt wejścia przerzuca na jednostki. A potem dziwi się, że adopcja jest niska, że ludzie się boją, że wdrożenia nie dają oczekiwanych wyników.

AI literacy: Zdolność rozumienia, jak działają systemy AI, jakie mają ograniczenia i jak odpowiedzialnie z nich korzystać. Artykuł 4 AI Act nakłada na firmy obowiązek zapewnienia odpowiedniego poziomu AI literacy u personelu.

Jest w tym jeszcze wymiar, który szczerze mnie drażni. Wymaganie kompetencji bez zapewnienia dostępu do szkoleń działa jak filtr klasowy. Premiuje tych, którzy mieli czas, pieniądze i motywację, żeby eksperymentować z narzędziami we własnym zakresie. Dyskryminuje tych, którzy pracowali na zmiany, nie mieli budżetu na kursy albo po prostu nie wiedzieli od czego zacząć.

Według raportu EY o nowych obowiązkach firm 65% pracowników nie wie, jak korzystać ze sztucznej inteligencji etycznie, a 77% obawia się ryzyka prawnego. To nie jest problem jednostek. To systemowa luka organizacyjna.

AI Act mówi wprost: obowiązki firmy jako użytkownika sztucznej inteligencji

Szkolenie AI dla Liderów!

Co mówi artykuł 4 AI Act

Artykuł 4 rozporządzenia AI Act (obowiązującego od 2 lutego 2025 roku) jest w tej kwestii jednoznaczny: podmioty tworzące i używające systemów sztucznej inteligencji mają podejmować działania zapewniające wystarczający poziom AI literacy u personelu. Dotyczy to też osób działających w imieniu firmy.

To nie jest rekomendacja. To obowiązek prawny. I co ważne, program kompetencyjny nie może być uniwersalny. Przepis mówi, że ma uwzględniać wiedzę techniczną, doświadczenie, wykształcenie i kontekst, w jakim systemy AI będą używane. Innymi słowy: inne szkolenie dla analityka, który buduje agenta, a inne dla menedżera, który zatwierdza jego wyniki.

Firma nie może zasłonić się argumentem, że „pracownik sam się nauczył”. Jeśli organizacja wdraża lub korzysta z systemów AI, odpowiedzialność za kompetencje spoczywa na niej.

Co to oznacza w praktyce

Komisja Europejska opublikowała dodatkowe FAQ do artykułu 4, precyzując oczekiwania. Szkolenia powinny obejmować nie tylko obsługę narzędzi, ale też etykę, bezpieczeństwo danych i zdolność rozpoznawania ograniczeń systemów opartych na sztucznej inteligencji.

To akurat zbieżne z tym, czego chcą sami pracownicy. W badaniu EY 65% deklarowało brak wiedzy o etycznym korzystaniu z AI, a 77% obawiało się ryzyka prawnego. Ludzie chcą wiedzieć, co wolno, czego nie i jak nie narobić szkód. Organizacja, która tego nie zapewnia, łamie nie tylko zasady dobrej praktyki, ale coraz częściej też prawo.

Co powinien zrobić lider, który widzi ten problem

Łatwo narzekać na FOMO i przerzucanie odpowiedzialności. Trudniej zaproponować konkretne działania. Z mojego doświadczenia wynika, że nie trzeba wielomilionowego budżetu, żeby zmienić dynamikę. Wystarczy pięć decyzji.

  1. Dostarczyć licencjonowane narzędzia. Każdy pracownik, od którego firma oczekuje pracy ze sztuczną inteligencją, powinien mieć dostęp do firmowego, bezpiecznego środowiska. Nie prywatnego konta, nie darmowej wersji z limitem. Microsoft ogłosił inwestycję w szkolenia w Polsce z planem objęcia miliona osób do końca 2025 roku. Jeśli gigant technologiczny widzi potrzebę masowego upskillingu, lokalna firma nie może udawać, że problemu nie ma.
  2. Wprowadzić minimalny program edukacyjny. Nie każdy musi być ekspertem od promptów. Ale każdy powinien wiedzieć: co technologia potrafi, czego nie potrafi, jakie dane można przetwarzać, a jakie nie. To nie musi być kurs za 20 tys. PLN. Wewnętrzne warsztaty, mentoring, wspólne sesje z narzędziami wystarczą na start.
  3. Rozliczać menedżerów z budowy kompetencji w zespole. Jeśli wdrożenie sztucznej inteligencji jest priorytetem strategicznym, powinno być w OKR-ach menedżerów. Nie tylko adopcja narzędzi (ile osób się zalogowało), ale realna umiejętność zespołu.
  4. Dać czas na naukę w godzinach pracy. Jeśli sztuczna inteligencja jest częścią stanowiska, nauka nie może być „prywatnym projektem” realizowanym po godzinach. Dwie godziny tygodniowo na eksperymenty to minimalna inwestycja, która zwraca się wielokrotnie.
  5. Szkolić z etyki i bezpieczeństwa danych. Pracownicy sami tego chcą. 65% nie wie, jak korzystać z technologii etycznie. Jasne zasady (co wolno wrzucać do modelu, czego nie, kiedy wynik wymaga weryfikacji) budują zaufanie i eliminują paraliż decyzyjny.

Koszt zaniechania jest wyższy niż koszt działania

Firmy, które dziś przerzucają koszt transformacji na pracowników, zapłacą za to podwójnie. Najpierw niską adopcją i chaosem BYOAI. Potem niezgodnością z wymogami AI Act, gdy regulatorzy zaczną sprawdzać, kto naprawdę zadbał o kompetencje zespołu.

Moim zdaniem to nie jest kwestia „czy”, tylko „kiedy” firma weźmie odpowiedzialność za upskilling. Im szybciej, tym mniejszy bałagan do sprzątania. Jeśli szukasz punktu startowego dla kadry zarządzającej, kurs Future Leaders prowadzi przez fundamenty sztucznej inteligencji, zarządzanie zmianą i budowanie strategii wdrożenia bez żargonu technicznego.

Najczęściej zadawane pytania (FAQ)

Czy pracodawca ma prawny obowiązek szkolenia pracowników z AI?

Tak. Artykuł 4 AI Act nakłada na podmioty wdrażające i korzystające z systemów AI obowiązek zapewnienia odpowiedniego poziomu AI literacy u personelu. Obowiązuje od 2 lutego 2025 roku. Program szkoleniowy powinien być dopasowany do roli, poziomu wiedzy i kontekstu użycia AI.

Co to jest BYOAI i dlaczego powinno niepokoić zarząd?

BYOAI (Bring Your Own AI) to zjawisko, w którym pracownicy przynoszą do pracy prywatne narzędzia AI, bo firma nie dostarcza własnych. Według Microsoft Work Trend Index robi tak 78% użytkowników AI. Problem: firmowe dane trafiają do niekontrolowanych zewnętrznych modeli, bez polityki bezpieczeństwa i audytu.

Ile godzin szkoleń AI rocznie potrzebuje przeciętny pracownik?

Nie ma jednej uniwersalnej odpowiedzi, bo zależy to od roli i poziomu zaawansowania. Wiadomo natomiast, że obecne mniej niż 10 godzin rocznie w wielu firmach jest niewystarczające. Komisja Europejska podkreśla, że szkolenia powinny być ciągłe i dostosowane do zmieniających się narzędzi i regulacji.

Jak zacząć program AI literacy w firmie przy ograniczonym budżecie?

Zacznij od trzech kroków: ustal jasną politykę AI (co wolno, czego nie), dostarcz jedno licencjonowane narzędzie dla całego zespołu i zorganizuj wewnętrzne warsztaty prowadzone przez najbardziej zaawansowanych pracowników. To kosztuje głównie czas, nie pieniądze, a eliminuje chaos BYOAI i buduje fundament pod dalszy rozwój.
Przewijanie do góry