Gdzie kończy się narzędzie, a zaczyna AI?

klucz na tle procesora - AI jako narzędzie

Czy AI to tylko kolejne narzędzie, jak Excel, CRM czy PowerPoint, czy może już coś więcej – inteligentny asystent, który faktycznie wspiera ludzi w pracy? Teoretycznie firmy inwestują miliardy w AI, a raporty krzyczą o jej rewolucyjnym wpływie. A ja to wygląda w praktyce? Tylko 11% firm, które wdrożyły AI, faktycznie widzi jej codzienne zastosowanie na szeroką skalę (Menache, Pathuri, Simchi-Levi & Linton, 2025).

Dlaczego? Bo AI to nie Excel – nie wystarczy go po prostu kupić, zainstalować i powiedzieć „teraz będziemy bardziej efektywni”. Kluczowe pytanie brzmi: czy ludzie jej ufają?

Zaufanie do AI – klucz do sukcesu

Jak zauważyli Reichheld, Bandekar, Thompson i Teegarden (2025), ludzie ufają AI tylko wtedy, gdy spełnia cztery warunki:
1.    Jest przewidywalna (ang. reliability) – jeśli raz podpowiada super rozwiązanie, a innym razem wymyśla bzdury (tzw. halucynacje AI), to ludzie szybko przestają jej słuchać.
2.    Jest użyteczna (ang. capability) – AI powinna faktycznie pomagać w pracy, a nie generować kolejne działania sprawdzające. Jeśli menedżer, zamiast tracić czas na raporty, dostaje gotowe wnioski, to AI działa.
3.    Jest przejrzysta (ang. transparency) – ludzie nie ufają czarnej skrzynce. Jeśli AI mówi „zalecam X”, to musi też wyjaśnić „bo w danych widzę Y i Z”.
4.    Nie zastępuje ludzi, tylko ich wspiera (ang. humanity) – jeśli AI jest komunikowana jako „nowy pracownik, który zrobi to za was”, ludzie będą się bać. Jeśli jako „asystent, który pomoże szybciej i lepiej”, będą chcieli z niej korzystać.

Jaki jest zatem problem? Większość firm wrzuca AI do systemów, nie dbając o budowanie zaufania. Efekt? Pracownicy nie używają AI albo robią to na pół gwizdka.

Dlaczego ludzie boją się AI?

Jak pokazuje analiza De Freitasa (2025), jest pięć głównych powodów, dla których AI budzi opór:
•    brak przejrzystości – ludzie nie rozumieją, jak działa AI, więc jej nie ufają,
•    brak emocji – AI w HR, obsłudze klienta czy kreatywnej pracy? Ludzie wolą człowieka, bo czuje,
•    sztywność – AI działa według algorytmu, ale życie bywa nieprzewidywalne; jeśli system nie umie dostosować się do niestandardowej sytuacji, ludzie się frustrują,
•    za dużo autonomii – AI podejmująca decyzje sama, bez człowieka – brzmi groźnie.
•    ludzie wolą interakcję z ludźmi – bo AI to nadal „coś nowego i nieznanego”.

Czy to znaczy, że AI nie da się wdrożyć skutecznie? Wręcz przeciwnie. Ale trzeba to robić z głową.

Jak to zrobić dobrze? Przykład Deloitte

Firma Deloitte, międzynarodowa sieć spółek świadczących usługi doradcze i audytorskie, przeprowadziła bardzo ciekawe badanie – na 750 konsultantach sprawdzili, co sprawia, że ludzie nie ufają AI i jak to można zmienić (Reichheld, Bandekar, Thompson & Teegarden, 2025). Okazało się, że główne problemy to:
•    niewiedza, do czego AI może się przydać – ludzie nie wiedzieli, jak wykorzystać AI w swojej pracy,
•    niejasne źródła danych – nie ufali systemowi, bo nie rozumieli, skąd bierze informacje.

Jak Deloitte z tym sobie poradziło? Serią prostych działań:

•    Savvy User Profiles – case studies superużytkowników pokazujących, jak AI pomaga w ich pracy,
•    Ask the Gen AI Team – otwarte sesje Q&A, gdzie każdy mógł zapytać o AI i rozwiać swoje wątpliwości,
•    Prompt-A-Thons – interaktywne warsztaty, podczas których uczono, jak efektywnie zadawać pytania AI,
•    Community Forums – regularne spotkania wymiany wiedzy między użytkownikami AI.

Jakie przyniosło to efekty? Zaufanie do AI wzrosło o 16%, a liczba aktywnych użytkowników zwiększyła się o 14%. Wniosek? AI trzeba wdrażać mądrze, budując zaufanie i edukując ludzi.

AI – narzędzie czy partner?

Czy AI jest tylko narzędziem? Być może. Ale zwykłe narzędzia działają według instrukcji. AI uczy się, adaptuje, przewiduje przyszłość. Tylko żeby to działało, trzeba umieć z niej korzystać.
Firmy, które traktują AI jak magiczną skrzynkę z gotowymi rozwiązaniami, marnują jej potencjał. Te, które uczą ludzi, jak jej używać, wygrywają.

Bo w końcu, jak mawiają w IT – garbage in, garbage out (dosł po pol. śmieci na wejściu – śmieci na wyjściu, GIGO – angielski zwrot mówiący o tym, że nawet gdy program lub procedura przetwarzania były poprawne, wyniki przetwarzania błędnych danych będą błędne). AI nie jest magiczna. Jest tak dobra, jak dobrze jej używamy. Czy jesteśmy na to gotowi? To już zależy od nas.

Piotr Górski, koordynator programu CEMBA

 

Źródła:
Reichheld, A., Bandekar, A., Thompson, I., & Teegarden, L. (2025). If You Want Your Team to Use Gen AI, Focus on Trust. Harvard Business Review.
De Freitas, J. (2025). Why People Resist Embracing AI. Harvard Business Review.
Menache, I., Pathuri, J., Simchi-Levi, D., & Linton, T. (2025). How Generative AI Improves Supply Chain Management. Harvard Business Review.
Wilson, H. J., & Daugherty, P. R. (2025). The Secret to Successful AI-Driven Process Redesign. Harvard Business Review.