Jeśli zarządzasz zespołem w firmie, w której nie ma formalnej polityki AI, masz problem. Tyle że prawdopodobnie o nim nie wiesz. Temat shadow AI dotyczy bezpośrednio kompetencji lidera w erze AI, bo to od decyzji menedżerów zależy, czy organizacja opanuje to zjawisko, czy pozwoli mu się rozrastać.
Czym jest shadow AI i dlaczego to poważniejsze niż shadow IT
Shadow IT polegało na tym, że ktoś zainstalował Dropboxa zamiast firmowego SharePointa. Irytujące, ale w gruncie rzeczy odwracalne. Shadow AI idzie dalej: pracownicy nie tylko używają zewnętrznych narzędzi, ale aktywnie przesyłają do nich dane firmowe. Kod źródłowy, CV kandydatów, notatki ze spotkań strategicznych, dane klientów. Raz wklejone do konsumenckiej wersji ChatGPT, trafić mogą do procesu treningowego modelu. Przycisku „cofnij” nie ma.
A liczby mówią same za siebie. 59% pracowników w USA używa nieautoryzowanych narzędzi AI w pracy. W Polsce jest gorzej: 69% pracowników korzysta z AI bez wiedzy IT, a 72% wklejało do chatbotów treści firmowe. Tymczasem tylko 23 do 28% organizacji posiada formalną politykę AI. Reszta operuje bez żadnych zabezpieczeń.
Ciekawe jest to, że 85% pracowników mających dostęp do firmowych, zatwierdzonych narzędzi AI i tak równolegle korzysta z nieautoryzowanych. Powód? Tylko co trzeci pracownik uważa, że firmowe AI spełnia jego potrzeby. To nie jest kwestia złej woli. To luka narzędziowa.
Co naprawdę ryzykujesz: Samsung, RODO i pieniądze
W marcu 2023 roku Samsung zezwolił inżynierom na korzystanie z ChatGPT. W ciągu 20 dni doszło do trzech incydentów: wklejenie kodu źródłowego chipów, przesłanie kodu do optymalizacji i wysłanie transkryptu poufnego spotkania strategicznego. Tajemnice handlowe trafiły na serwery OpenAI i nie dało się ich odzyskać. Samsung wiedział o ryzyku i mimo to się to wydarzyło, bo adopcja przez pracowników wyprzedziła governance.
Dane finansowe są równie wymowne. Raport IBM z 2025 roku pokazuje, że naruszenia bezpieczeństwa związane z shadow AI kosztują organizacje przeciętnie o 670 tys. USD (ok. 2,7 mln PLN) więcej niż standardowe incydenty, osiągając łącznie 4,63 mln USD (ok. 18,5 mln PLN) za pojedynczy przypadek. 97% naruszeń związanych z AI miało miejsce w organizacjach bez właściwych kontroli dostępu.
Jest jeszcze wymiar geopolityczny. W 2025 roku pracownicy Departamentu Obrony USA i NASA zostali przyłapani na korzystaniu z DeepSeek, chińskiego chatbota podejrzewanego o przekazywanie danych na serwery kontrolowane przez chiński rząd. USA, Australia i Korea Południowa szybko zakazały DeepSeek na urządzeniach rządowych. Shadow AI to nie tylko wyciek danych. To potencjalnie ryzyko wywiadu gospodarczego.
Dlaczego zakaz nie działa
Pierwsza reakcja wielu firm to próba zablokowania dostępu do ChatGPT i podobnych narzędzi. Rozumiem ten odruch, ale dane mówią jasno: to nie działa.
46% pracowników deklaruje, że kontynuowałoby używanie AI nawet po formalnym zakazie. Blokada na firmowej sieci? Pracownicy przechodzą na telefony i domowe Wi-Fi. Jak trafnie ujmuje to raport DNV: „Organizacje zabraniające generatywnego AI mogą nieumyślnie tworzyć znacznie bardziej niebezpieczny krajobraz bezpieczeństwa”.
Pracownicy nie działają ze złośliwości. Działają ze zwykłej chęci bycia skutecznym. 52% nie przeszło żadnego szkolenia z bezpiecznego używania AI. Nie wiedzą, co ryzykują. A gdy firma nie określiła zasad, ludzie działają w próżni organizacyjnej. Zamiast walczyć z produktywnością, trzeba ją nakierować na bezpieczne tory.
Cztery kroki od chaosu do kontroli
Z doświadczeń firm, które opanowały shadow AI, wyłania się powtarzalny wzorzec. Nie wymaga wielomiesięcznego projektu. Wymaga jednego menedżera, który weźmie temat na siebie, i miesiąca pracy.
Krok 1: dowiedz się, co się naprawdę dzieje
Przeprowadź anonimową ankietę wśród pracowników: jakich narzędzi AI używają i do czego. Przeanalizuj logi firewalla pod kątem ruchu do domen openai.com, claude.ai, gemini.google.com, deepseek.com. Widziałem firmę, która po takiej analizie znalazła 14 różnych narzędzi AI, o których IT nie miało pojęcia. Przejrzyj OAuth grants w Google Workspace lub Microsoft 365. Większość firm jest zaskoczona wynikami.
Krok 2: ogłoś twardą listę i strefę bezpieczną
Stwórz dwie listy. Pierwsza: dane, których nigdy nie wolno wklejać do zewnętrznych narzędzi AI (dane osobowe klientów, kod źródłowy, dane finansowe, hasła, treści umów). Druga: co można robić bez pytania (brainstorming bez danych firmowych, korekta własnych tekstów, badania nad publicznie dostępnymi tematami). Gdy granice są jasne, ludzie ich przestrzegają.
Krok 3: daj ludziom bezpieczne narzędzie i przeszkol ich
Wdróż przynajmniej jedno enterprise’owe narzędzie AI jako alternatywę dla konsumenckiego ChatGPT (np. Microsoft Copilot z firmowym SSO, wersja Team/Enterprise ChatGPT). Przeprowadź 30-minutowe szkolenie dla wszystkich: co wolno, czego nie, dlaczego i jakie są konsekwencje. IBM wykazał, że firmy inwestujące w szkolenia AI osiągają 36% wyższą premię przychodową.
Krok 4: monitoruj i aktualizuj co kwartał
Shadow AI governance to nie jednorazowy projekt. Powołaj osobę odpowiedzialną za temat AI w firmie. Powtarzaj audyt narzędzi co kwartał. Aktualizuj listę zatwierdzonych rozwiązań, bo AI ewoluuje szybciej niż jakikolwiek wcześniejszy trend technologiczny. Polityka AI sprzed roku jest w praktyce przestarzała.
Organizacje, które wdrożyły rozbudowane narzędzia AI i automatyzację bezpieczeństwa, oszczędzały średnio 1,9 mln USD (ok. 7,6 mln PLN) per naruszenie w porównaniu do tych bez takich systemów. Governance AI to nie koszt. To inwestycja, która się zwraca przy pierwszym unikniętym incydencie.
Shadow AI nie zniknie samo. Ale z jasną polityką, jednym bezpiecznym narzędziem i przeszkolonym zespołem można zamienić ryzyko w przewagę. Pierwszym krokiem jest ta ankieta wśród pracowników. Zrób ją w tym tygodniu.


