• O WordPressie
    • WordPress.org
    • Dokumentacja
    • Naucz się WordPressa
    • Pomoc
    • Uwagi
  • Zaloguj się
Marek Zając Marek Zając
  • contact@zajacmarek.com Zapraszam do kontaktu
  • Strona główna
  • O mnie
  • Kursy
  • Konsultacje
  • Kanał Youtube
  • 20 kwietnia 2026
  • Marek Zając
  • 0 Comments

74% wartości z AI dla 20% firm. Dwa raporty, jeden tydzień, jeden wspólny wniosek

W tym tygodniu wyszedł świeży raport PwC, a obok niego po branży znów krąży prognoza Gartnera z sierpnia 2025 — i w zasadzie mówią to samo, tylko z różnych stron. PwC: 74% wartości z AI trafia do 20% firm. Gartner: 40% projektów z agentami AI padnie do 2027 przez brak governance. Dołóżmy do tego Writera (54% C-suite mówi, że AI „rozrywa firmę od wewnątrz”) i Stanford AI Index (88% firm adoptuje AI w jakiejś formie) — i wychodzi obraz, który mnie zatrzymał na dłużej.

Adopcja jest prawie powszechna. Wartość jest bardzo nierówno rozłożona. Sporo projektów już ma wyrok, tylko jeszcze o tym nie wie.

Chcę ten wpis poświęcić temu, żeby zebrać w jednym miejscu, co z tych raportów wynika, obejrzeć liczby pod kątem „co to znaczy dla Twojej firmy” i potem przejść do praktyki — co konkretnie zrobić, żeby nie być w tych 80%.

Piszę to z perspektywy osoby, która nie jest prezesem, konsultantem ani analitykiem. Jestem programistą na etacie, który po godzinach codziennie pracuje z Claude Code i buduje mininarzędzia do własnych projektów. Na raporty patrzę z boku, a na własny przykład wdrożenia AI — od środka. Na styku tych dwóch widoków rodzi się ten wpis.

Liczby, które trzeba mieć w głowie

Zacznijmy od tego, co mówią same raporty.

PwC 2026 AI Performance Study — 1217 managerów C-level z 25 branż na całym świecie:

  • 74% ekonomicznej wartości z AI trafia do 20% firm.
  • Liderzy 2,8× częściej zwiększają autonomię AI w podejmowaniu decyzji bez human-in-the-loop.
  • Liderzy 1,8× częściej wdrażają AI w wielu zadaniach naraz (multi-task), a także 1,9× częściej mają agenty, które same się optymalizują.
  • Liderzy 1,7× częściej mają oficjalny Responsible AI framework i 1,5× częściej mają cross-functional AI governance board.
  • Najważniejszy czynnik wpływający na wynik finansowy z AI to, wg. PwC industry convergence — czyli to, że AI zaciera granice między branżami. Nie sama „efektywność”.

Gartner (prognoza z sierpnia 2025, horyzont 2026–2027):

  • Do 2027 roku 40% projektów z agentami AI zostanie zamkniętych — głównie z powodu braku governance.
  • Tylko 21% firm ma dojrzały model zarządzania autonomicznymi agentami AI.
  • Sam raport ma już swoje pół roku — to nie jest gorący news. Wracam do niego, bo świeże analizy z tego tygodnia zestawione razem z tymi z poprzednich tygodni pokazują, że obraz, który z tego wynika, jest mocniejszy niż każdy z tych raportów osobno.

Writer — Enterprise AI Adoption 2026 (uzupełnienie):

  • 79% organizacji ma problemy z wdrożeniem AI.
  • 54% C-suite mówi wprost, że adopcja AI „rozrywa firmę od wewnątrz”.
  • 46% wskazuje integrację z istniejącymi systemami jako główne wyzwanie.
  • 33% mówi, że jakość outputu jest główną barierą we wdrożeniu AI na produkcję.

Stanford AI Index (dla kontekstu): 88% organizacji adoptuje AI w jakiejś formie. Adopcja ≠ sukces.

Prawie wszyscy kupują, jedna piąta wyciąga z tego wartość, a 40% ambitniejszych projektów jest już skazanych na śmierć.

Dlaczego te liczby nie są sensacyjne

Zanim pójdziemy dalej — chcę ugasić pierwszą reakcję, którą część osób ma na takie nagłówki. „Pewnie firmy coś robią źle, ale na pewno nie my.” Albo druga: „To pewnie kwestia budżetu, wielkie korpo mają więcej kasy, małe firmy nie mają szans”.

Obie są nieprawdziwe i oba raporty mówią o tym wprost.

Po pierwsze — PwC porównał firmy między sobą pod kątem budżetu na AI. Różnica w wynikach nie leży w budżetach. Firmy z topowych 20% nie wydają drastycznie więcej niż reszta. Wydają inaczej — głównie na ludzi, procesy i zmianę sposobu pracy, nie tylko na licencje.

Po drugie — Gartner też nie mówi, że agenty AI są technicznie niedojrzałe. Mówi, że organizacje są organizacyjnie niedojrzałe. Narzędzia działają. Brak im ram, w których miałyby działać.

To jest dla mnie najmocniejszy fragment tych raportów. Bo to znaczy, że mała firma jest w tej samej sytuacji co korpo. Obie strony potrzebują przemyśleć swoje podejście, a nie tylko kupić narzędzie. Mała firma może to zrobić szybciej.

Moja perspektywa — developer, który ogarnia AI jednoosobowo

Muszę otwarcie powiedzieć: nie mam w tle zespołu 20 osób ani budżetu korporacji. Jestem programistą .NET/React na etacie. AI ogarniam w swoich projektach po godzinach — od lead magnetu dla kursantów, przez research do postów, po automatyzacje, które zbierają mi newsy w nocy. Wszystko w skali jednoosobowej.

I właśnie ta perspektywa — jednoosobowa — daje mi coś ciekawego. Bo każdą decyzję, którą raporty nazywają „governance”, u siebie podejmuję sam, na głos, do siebie.

  • Kiedy Claude ma sam otwierać pull requesty w moim repo?
  • Co trzyma mnie przed tym, żeby AI wrzuciła mi do kodu pakiet z backdoorem?
  • Jakie pliki nigdy nie powinny trafić do promptu?
  • Do których zadań nie używam AI, bo wolę pomyśleć sam?

Dla jednej osoby to jest 5 minut notatki w CLAUDE.md. Dla firmy z 200 osobami — to są kwartały pracy, polityki, szkolenia, monitoringu, review. Ale pytania są dokładnie takie same.

I właśnie dlatego ta liczba 21% (firm z dojrzałym governance) jest dla mnie tak czytelna. 79% firm nie odpowiedziało jeszcze na te pytania. I ludzie używają AI, ale bez odpowiedzi firma nie wie, co naprawdę robi.

Siedem pytań, które warto sobie zadać (i moje odpowiedzi)

Nie udaję, że ludzie stoją u mnie w kolejce z tymi pytaniami — to pytania, które ja sam sobie zadaję, czytając raporty i konfrontując je z tym, co widzę w praktyce z Claude Code. Jeśli tę samą listę przerobisz w swojej firmie, prawdopodobnie wyjdzie Ci kilka identycznych wniosków.

Pytanie 1. „Problem jest w budżecie?”

Nie. PwC sprawdził to wprost. Firmy z topowych 20% nie wydają drastycznie więcej niż pozostałe. Różnica leży w proporcjach wydatków: liderzy więcej inwestują w zmianę procesów i ludzi, mniej w same licencje. Przeciętna firma kupi więcej narzędzi niż przepracowuje ról i workflowów — i to jest właśnie ta pułapka.

Przykład: jedna firma wydaje 500 tys. zł rocznie na licencje AI, nic nie zmienia w procesach. Druga wydaje 200 tys. na licencje i 300 tys. na zmianę sposobu pracy, przeszkolenie ludzi, procesy i monitoring. Pierwsza jest „w 80%”. Druga jest w liderskich 20%.

Pytanie 2. „Problem jest w narzędziu? Kupiliśmy złe?”

Prawie nigdy. W każdym razie nie na początek. Sensowne narzędzia klasy enterprise (Claude, ChatGPT Enterprise, Gemini, Copilot) są bardzo podobne w kluczowych zastosowaniach biznesowych. Między nimi są różnice — ale to nie jest różnica między 74% a 26% wartości.

Moja intuicja (do przyjęcia albo odrzucenia): firmy, które przeskakują z narzędzia na narzędzie — „Copilot nam nie podszedł, teraz próbujemy Claude’a” — robią to zwykle dlatego, że same nie wiedzą, do czego to narzędzie miało im służyć. Zmiana narzędzia tego nie rozwiąże. Jeśli pierwsze narzędzie „nie zadziałało” — pierwsze pytanie brzmi: do czego miało zadziałać i jak miałoby wyglądać „zadziałało”.

Pytanie 3. „Problem jest w braku ekspertów AI na rynku?”

To jest wymówka. W każdej firmie jest co najmniej jedna lub dwie osoby, które w weekendy eksperymentują z AI dla własnej ciekawości. Nie ekspert AI — tylko ktoś, kto widzi narzędzie od środka i potrafi przełożyć to na biznes.

Problem nie polega na tym, że takich osób nie ma. Polega na tym, że firmy nie angażują ich do decyzji strategicznych, bo „nie są dyrektorami”. A potem kupują konsultacje za 50 tys. zł u kogoś, kto tego samego też nie używa na co dzień.

Moja rada (nie jestem neutralny, wiem): jeśli masz w firmie osobę, która sama z siebie mówi o AI w kontekście Twoich procesów — dajcie jej 2 godziny tygodniowo i pozwolenie na propozycje. Zwróci się szybciej niż jakakolwiek zewnętrzna konsultacja.

Pytanie 4. „Mała firma ma gorzej niż korpo?”

Mała firma ma inaczej. Gorzej w jednym — mniej zasobów na eksperymenty, które mogą nie wyjść. Lepiej w trzech — szybciej podejmuje decyzje, nie musi dogadywać 5 działów, może wdrożyć zmianę w procesie w tydzień.

Raporty tego nie rozbijają według wielkości firmy tak dokładnie, jakbym chciał. Ale logika jest jedna: te same zasady governance — kto decyduje, gdzie AI działa samodzielnie, jakie ma granice — potrzebują jednego dokumentu na 2 strony w małej firmie i pracy całego zespołu compliance w banku. Problem jest ten sam, skala inna.

Pytanie 5. „Co to w ogóle jest to 'governance’?”

W kontekście raportów PwC i Gartnera — nie chodzi o wielką biurokrację. Chodzi o odpowiedzi na konkretne pytania, spisane gdzieś na papierze:

  • Do jakich zadań AI jest dopuszczona w Twojej firmie?
  • Kto to ustala i kto może to zmienić?
  • Kiedy AI może działać samodzielnie, a kiedy musi być zaangażowany człowiek?
  • Co się dzieje, jak AI zrobi coś źle — kto jest odpowiedzialny, jak to zgłosić, jak to naprawić?
  • Jakie dane nigdy nie trafiają do promptów?
  • Kto pilnuje, że tak jest?
  • Jak często przeglądamy, czy te zasady nadal mają sens?

Jeśli Twoja firma ma jasne odpowiedzi na te 7 pytań — macie dojrzały governance, nawet jeśli nikt u Was nie używa tego słowa. Jeśli na większość z nich odpowiadasz „nie wiem” albo „chyba jakoś tak” — jesteście w 79%.

Pytanie 6. „Jak rozpoznać, że moja firma jest w tych 80%?”

Spróbuj zadać sobie pięć pytań. Odpowiedzi „nie”, „nie wiem” lub „chyba jakoś tak” są odpowiedziami diagnostycznymi:

  • Czy ktoś w firmie potrafi wskazać konkretne procesy, które realnie się zmieniły po wdrożeniu AI? (nie „używamy AI do maili” — tylko „skróciliśmy czas X o Y”)
  • Czy zarząd potrafi podać jakąkolwiek liczbę w odpowiedzi na pytanie o ROI z AI — nawet przybliżoną?
  • Czy jest koordynacja pomiędzy działami w kwestii AI — czy każdy kupuje swoje?
  • Czy istnieje spisana zasada, co wolno wrzucać do AI, a czego nie — konkretna, nie „no, na pewno nie dane wrażliwe”?
  • Czy jest jedna konkretna osoba z imienia i nazwiska odpowiedzialna za AI w firmie — i ta osoba się do tego przyznaje?

Jeśli na 3 z 5 odpowiadasz „nie” albo „nie wiem” — jesteście w 80%. To nie jest wyrok. To jest pozycja startowa.

Pytanie 7. „Od czego zacząć, żeby to zmienić?”

Poniżej — rozdział o tym.

Co robią firmy, które wyciągają wartość — wyjaśnienie trzech liczb z PwC

PwC podał trzy konkretne multipikatory, którymi liderzy AI różnią się od reszty. Chcę je rozebrać na części.

1. 2.8× częściej zwiększają autonomię AI w decyzjach

Co to realnie znaczy? Liderzy w badaniu PwC w ciągu ostatnich 12 miesięcy zwiększyli liczbę decyzji, które AI podejmuje samodzielnie — bez klikania „akceptuj” przez człowieka. Reszta tego nie zrobiła.

Dlaczego to tak ważne? Bo pozornie to jest sprzeczność z głównym wnioskiem Gartnera (40% padnie przez brak governance). Jak można równocześnie zwiększać autonomię AI i mieć dojrzały governance?

Odpowiedź: to dokładnie dlatego, że mają governance — mogą zwiększać autonomię. Firma bez governance nie ma jak dopuścić AI do samodzielnych decyzji, bo nikt nie wie, która decyzja jest „bezpieczna”, a która nie. Firma z governance ma tabelę, kartę decyzji, checklistę — i może świadomie poluzować tam, gdzie ryzyko jest niskie.

Jak przenieść to do Twojej firmy? Zrób listę 10 zadań, w których zespół używa (albo chciałby używać) AI. Dla każdego odpowiedz:

  • Kto jest beneficjentem — klient końcowy, dział wewnętrzny, ja?
  • Jaki jest koszt błędu — reputacja, prawny, finansowy, żaden?
  • Jak szybko wyłapiemy błąd — natychmiast, po dniu, po kwartale?
  • Czy człowiek kliknął „akceptuj” — jak ocenić, czy AI zrobiła dobrze?

Zadania o niskim koszcie błędu i szybkiej detekcji — kandydaci na autonomię. Reszta — human-in-the-loop.

2. 1.7× częściej mają Responsible AI framework

Co to jest? Spisany dokument (nawet jednostronicowy) z zasadami: kiedy i jak używamy AI, co wolno, a czego nie, jak reagujemy na błędy oraz kto jest właścicielem procesu. Dla małej firmy — jedna strona w Notionie. Dla korpo — polityki, szkolenia, audyty.

Dlaczego działa? Moja teoria: nie dlatego, że ktoś go czyta. Dlatego, że samo spisanie tego wymusza podjęcie decyzji, których firmy bez frameworku unikają. A każdy pracownik, który w razie wątpliwości ma gdzie zajrzeć, nie eskaluje, nie dzwoni po prezesa i nie blokuje pracy. Ten sam mechanizm działa u mnie z plikiem CLAUDE.md w projekcie — AI nie pyta o każdą błahostkę, bo w pliku ma już odpowiedź.

Minimalny framework Responsible AI dla firmy, która dopiero zaczyna:

  1. Do czego używamy AI (lista zadań/procesów).
  2. Czego nigdy nie wrzucamy do AI (lista danych/scenariuszy).
  3. Jak zgłaszamy problem/błąd AI.
  4. Kto jest właścicielem zasad (osoba z imienia i nazwiska).
  5. Data ostatniej aktualizacji + data kolejnego przeglądu.

To zmieści się na jednej stronie A4. I to jest 90% tego, co w raportach PwC nazywane jest „Responsible AI framework”.

3. 1.5× częściej mają cross-functional AI governance board

Dla małej firmy: jedna osoba + comiesięczny przegląd z szefostwem. Dla średniej: 3–4 osoby (IT, biznes, compliance, operacje) spotykające się co 2 tygodnie. Dla korpo: formalny board.

Pointa: wyjdź poza dział IT. AI wpływa na biznes, sprzedaż, marketing, prawo i operacje. Jeśli o AI w Twojej firmie decyduje tylko IT (albo tylko zarząd, bez IT) — to jest antywzorzec i raport PwC to potwierdza.

Co bym zrobił — siedem kroków

Gdybym miał podać 7 rzeczy, które firma w 80% powinna zrobić w pierwszej kolejności — to byłyby one. Nie jako metodologia z McKinseya, tylko jako wyciąg z tego, co sam u siebie robię w skali jednoosobowej, rozciągnięte na skalę firmy.

  1. Policz, ile już wydajecie. Wszystkie licencje AI w firmie, rozdzielone po działach. Prawie zawsze to więcej niż zarząd myśli — bo każdy dział kupuje sobie po swojemu. Sam ten audyt przynosi 1–2 proste wnioski.
  2. Zrób listę 10 procesów, w których AI faktycznie jest używane. Nie „do czego mogłaby być” — tylko gdzie realnie. Zapytaj ludzi, nie zgaduj. Część odpowiedzi Cię zaskoczy. Część pokaże, że narzędzie istnieje, ale nikt go nie używa.
  3. Z tej listy wybierz jeden proces, który ma największy potencjał wzrostu — nie oszczędności. To jest lekcja nr 1 z PwC. Firmy, które skupiają się na cięciu kosztów, przegrywają z firmami, które skupiają się na wzroście. Wzrost przychodów > oszczędności, bo skaluje się inaczej.
  4. Spisz minimalny Responsible AI framework — na jednej stronie. Pięć punktów z listy wyżej. Wystarczy. Nie wynajmuj konsultantów do tego. Zrób to wewnątrz z osobą, która rozumie firmę, a nie tylko AI.
  5. Ustaw jedną osobę jako właściciela. Nie komitet. Nie IT. Konkretna osoba z imienia. Może pracować pół etatu na innych tematach — ważne, że jest znana i dostępna.
  6. Zrób comiesięczny przegląd — 30 minut. Co działa, co nie działa, jaki jeden eksperyment uruchamiamy. Bez slajdów. Notatka w Notionie albo Google Docs.
  7. Po 3 miesiącach zmierz — ale tylko jeden wskaźnik. Wybierz go na początku. Nie „ROI z AI” (to jest mglista liczba). Konkret: czas do wysłania oferty, liczba obsłużonych ticketów przez 1 FTE, tempo onboardingu nowych pracowników. Jedna liczba, mierzona przed i po. Jeśli się ruszyła — wiecie, gdzie dodać. Jeśli nie — wiecie, gdzie zmienić podejście.

Jest to wersja minimum. Nie wymaga konsultingu, nie wymaga budżetu poza tym, który już masz, nie wymaga nowego stanowiska. Wymaga podjęcia siedmiu decyzji.

Co to znaczy dla Ciebie, jeśli jesteś tą osobą w firmie, która „ogarnia AI”

Oddzielna sekcja dla Was — bo wiem, że część osób czytających jest w dokładnie tej pozycji. Programista, analityk albo osoba z marketingu, która w wolnym czasie używa AI lepiej niż reszta firmy i po cichu zastanawia się, czy ktoś to w końcu zauważy.

Trzy praktyczne rady.

Po pierwsze — udokumentuj to, co już robisz. Nie po to, żeby się chwalić. Po to, żeby w rozmowie z szefostwem mieć konkret. „Od trzech miesięcy używam AI do przygotowania analiz rynkowych — zajmuje mi to 2 godziny zamiast 8, a jakość jest porównywalna. Oto przykład.” Taka konkretna liczba wygrywa z godzinami prezentacji.

Po drugie — znajdź proces, który się nie skaluje, i zacznij od niego. Nie wybieraj procesu, który już działa dobrze. Wybierz ten, który jest wąskim gardłem — gdzie firma traci klientów, zamyka okazje, nie może przyjąć kolejnych zleceń. Twoja automatyzacja ma tam największą widoczność.

Po trzecie — nie zgadzaj się na rolę „chłopca od AI”. W sensie: nie bierz na siebie odpowiedzialności za wszystkie pytania firmy na temat AI, jeśli nie jesteś w pozycji, żeby podejmować decyzje. Pomagaj, zadawaj dobre pytania, pokazuj przykłady. Ale governance musi mieć konkretnego właściciela formalnie — nie nieformalnie w Tobie. Inaczej wypalisz się w 6 miesięcy.

Ograniczenia tych raportów (bo zawsze jakieś są)

Żebym był uczciwy — te raporty też mają swoje wady. Trzy, które mnie zatrzymały.

  • Self-reporting. Wszystkie odpowiedzi to to, co managerowie sami o sobie mówią. „Czy macie Responsible AI framework?” „No, mamy.” To są dane kierunkowe, nie twarde fakty. Realny odsetek firm z działającym frameworkiem jest pewnie niższy niż 21%.
  • Definicja „wartości ekonomicznej” w PwC jest szeroka. Zawiera wzrost przychodów, redukcję kosztów i poprawę marż. Firmy mogą liczyć różne rzeczy. Różnica 74/20 jest prawdziwa, ale konkretne liczby per branża bywają miękkie.
  • Gartner prognozuje — nie mierzy. 40% do 2027 to projekcja. Może być 30%, może 50%. Kierunek jest niezależny od tej liczby — i on jest ważniejszy.

Ale główna obserwacja z obu raportów jest odporna na te zastrzeżenia: różnica między firmami z wartością a bez niej leży w organizacji, nie w narzędziu.

Jedna rzecz do zapamiętania

Jeśli miałbyś wyjść z tego wpisu z jednym pomysłem — niech to będzie ten:

Wdrożenie AI w firmie nie jest projektem IT. Jest to projekt zmiany organizacyjnej, w którym IT dostarcza narzędzie. Dokładnie ten sam błąd firmy popełniły 10 lat temu z „chmurą” i 20 lat temu z ERP-ami. Kto rozumiał, że kupno systemu to nie transformacja — wygrywał. Kto traktował to jako zakup — spędzał lata na „wdrożeniu, które nie wdrożyło”.

AI jest dokładnie w tym samym miejscu. Z tym, że cykl jest szybszy — nie masz 5 lat na popełnienie tego błędu. Masz kwartały.

A Ty?

Interesuje mnie Twoja perspektywa — szczególnie jeśli jesteś w firmie średniej albo małej, gdzie „dział AI” nie istnieje, a decyzje podejmuje zarząd z IT.

Trzy pytania, na które chętnie odpowiem w komentarzu pod tym wpisem, postem na LinkedInie albo w mailu:

  • Czy Twoja firma wydaje już na AI, ale nikt nie wie, co się z tego urodziło?
  • Masz spisany jakikolwiek dokument o tym, jak używacie AI — nawet na jedną stronę?
  • Kto u Was jest właścicielem tego tematu — z imienia i nazwiska?

Jeśli potrzebujesz porozmawiać o tym indywidualnie, na spokojnie, bez slajdów konsultingowych — robię konsultacje 1:1 — link na stronie.

Related Posts
  • Powrót do Prostoty: Lekcje z Boiling Frogs 2025 18 marca 2025
  • Vibe Coding: 5 Złotych Zasad dla Nieoprogramistów Tworzących Aplikacje z AI 18 marca 2025
  • Niecały projekt musi być elastyczny przy dużym ruchu 25 marca 2024

Leave a Comment Cancel Comment

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Copyright 2020 Bizix, All rights reserved.
  • POLITYKA PRYWATNOŚCI I PLIKÓW COOKIES