Czy ChatGPT potrafi przewidywać przyszłość? Połączenie metody planowania scenariuszowego z generatywną sztuczną inteligencją

Głowa w kolorowych chmurach z okularami AI

Obecny czas cechuje się bardzo dużą zmiennością otoczenia politycznego, ekonomicznego, społecznego, środowiskowego i prawnego oraz niezwykłym wręcz postępem technologicznym. Postęp ten widoczny jest w szczególności w obszarze automatyzacji oraz generatywnej sztucznej inteligencji, czego może każdy „dotknąć” dzięki firmie Open AI, która umożliwiła dostęp do dużych modeli językowych nie tylko poprzez API, ale także za pośrednictwem chata, obniżając barierę wejścia praktycznie do zera. 

W takich sytuacjach podejścia do prognozowania oparte na ekstrapolacji trendów zwykle zawodzą. To niepowodzenie ma swoje korzenie w fundamentalnych założeniach takich technik ekstrapolacji, które zakładają niezmienność determinant wpływających na przewidywane zjawisko, utrzymując tym samym istniejący stan rzeczy. Ze względu na intensywność zachodzących zmian w dłuższym horyzoncie czasowym te założenia przestają się sprawdzać. W konsekwencji przewidywania oparte na ekstrapolacji trendów historycznych okazują się skuteczne jedynie w sytuacjach, gdy przyszłe zdarzenia będą odzwierciedlać wcześniej obserwowane wzorce i zależności. Bardzo wyraźnie jest to widoczne w przypadku generatywnej sztucznej inteligencji, której „wybuch” popularności zainicjowany przez udostępnienie ChatGPT spowodował konieczność rewizji prognoz z lat 2017–2020 takich firm jak BCG czy McKinsey na temat rozwoju sztucznej inteligencji.

Do analizy zmian nieciągłych służą metody scenariuszowe. Ich wykorzystanie sięga lat 60 i 70. XX w., chociaż niektórzy dopatrują się zastosowania tych metod już w starożytnej Grecji. Za pionierów zastosowania metod scenariuszowych uważa się Stanford Research Institute, General Electric oraz Royal Dutch Shell.

Podstawą metody scenariuszowej jest założenie, że przyszłość nie jest jednorodnym i przewidywalnym ciągiem wydarzeń, lecz zbiorem różnorodnych możliwości. Dlatego opracowywanie scenariuszy koncentruje się nie na przewidywaniu jednego konkretnego rozwoju wydarzeń, ale na badaniu różnych alternatywnych przyszłości. Każdy scenariusz stanowi hipotetyczną konstrukcję, która ułatwia zrozumienie interakcji i wpływu różnych czynników na kształtowanie rzeczywistości. Bardzo często w ramach stosowania tej metody tworzone są dwa scenariusze, np. scenariusze skrajne (przedstawiające największe zagrożenia i największe szanse) lub scenariusze określane mianem najbardziej problemowych (ang. worst-case), które dotyczą najbardziej negatywnych lub stanowiących największe wyzwania dla przyszłego funkcjonowania organizacji.

Uzyskiwane scenariusze można podzielić na dwa rodzaje. Pierwsze z nich określa się mianem eksploracyjnych. Opisują ciąg zdarzeń w logicznej sekwencji, prowadząc od obecnej sytuacji do potencjalnej przyszłości, biorąc pod uwagę dominujące trendy. Drugie to scenariusze antycypacyjne, przedstawiające wizję przyszłości – uznawaną za pożądaną, wynikającą z hipotetycznych zmian, niezbędnych do osiągnięcia tych stanów.

Zastosowanie metody scenariuszowej pozwala organizacjom lepiej zrozumieć złożoność przyszłości, minimalizować niepewność, rozważać różne potencjalne ścieżki rozwoju i opracowywać strategie, które są odporne na zmiany w otoczeniu.

Autor zdecydował się na eksperyment sprawdzający, jak można połączyć generatywną sztuczną inteligencję z planowaniem scenariuszowym. Wykorzystał ChatGPT w wersji 4 firmy OpenAI (eksperymentował również z Bardem Google’a i Claude firmy Anthropic, ale na dziś najlepsze rezultaty dostarcza rozwiązanie OpenAI). Konstruując polecenia (prompty), zastosowane zostały poniższe dobre praktyki inżynierii promptów:

  1. Określona persona: prompt zawierał jasno zdefiniowaną personę (specjalista z zespołu planowania strategicznego używający metody planowania scenariuszowego), która pomogła modelowi LLM zrozumieć, w jakim tonie i stylu ma być sformułowana jego odpowiedź. 
  2. Jasność celu: prompt miał jasno określony oczekiwany rezultat końcowy – w tym przypadku miały to być dwa scenariusze problematyczne dotyczące wpływu generatywnej AI na polskie firmy w ciągu najbliższych czterech lat.
  3. Wprowadzenie kontekstu: finalny prompt został osadzony w kontekście merytorycznym – w tym przypadku metody planowania scenariuszowego. 
  4. Zasady etyczne: w stworzonym prompcie podkreślone zostały aspekty przestrzegania kwestii etycznych, takich jak niedyskryminacja ze względu na płeć, wyznanie czy rasę.

Ostatecznie powstał prompt, którego zastosowanie prowadziło do stworzenia dwóch najbardziej prawdopodobnych, ale problematycznych scenariuszy wpływu AI (w szczególności generatywnej AI) na polskie firmy w perspektywie najbliższych czterech lat. Bardzo często stosując podejście scenariuszowe, sięgamy dalej w przyszłość – wybiegając nawet kilkanaście lub więcej lat do przodu. Jednak w tym eksperymencie autor świadomie ograniczył horyzont czasowy do krótszego okresu. Warto zauważyć, że struktura opisu scenariusza (nazwa, sam scenariusz i problemy z nim powiązane) w całości zostały zaproponowane przez ChatGPT 4.

SCENARIUSZ 1: „ZAŁAMANIE ADAPTACYJNE”

Opis: W tym scenariuszu rozwój i implementacja AI w Polsce przebiega w sposób niezorganizowany i chaotyczny. Polskie firmy, zwłaszcza małe i średnie przedsiębiorstwa (MŚP), mają znaczące trudności w adaptacji do szybkich zmian technologicznych. Wdrażanie nowych technologii AI hamują brak odpowiednich umiejętności, wiedzy specjalistycznej oraz ograniczenia finansowe.
Główne problemy:

  • brak kwalifikacji – niedostatek wykwalifikowanych specjalistów AI w Polsce prowadzi do opóźnień w adaptacji nowych technologii,
  • rozwarstwienie rynku – przepaść między dużymi a małymi firmami pogłębiana jest przez nierównomierność w dostępie do zasobów i technologii na korzyść dużych korporacji,
  • kwestie etyczne i prawne – niejasno i w niedostatecznym stopniu uregulowane kwestie etyczne i prawne dotyczące AI stwarzają ryzyko nadużyć i błędów, podważając zaufanie społeczne,
  • zagrożenie dla rynku pracy – automatyzacja i AI powodują istotne zwolnienia, szczególnie wśród „białych kołnierzyków” wykonujących proste czynności związane z przetwarzaniem danych.

SCENARIUSZ 2: „CYFROWA DYWERGENCJA”

Opis: W tym scenariuszu szybki rozwój i asymilacja AI jedynie w niektórych sektorach gospodarki tworzą głębokie podziały. Branże, takie jak finanse, technologie i duże przedsiębiorstwa, szybko przyswajają AI, podczas gdy inne sektory, takie jak edukacja i małe przedsiębiorstwa, coraz bardziej zostają w tyle.
Główne problemy:

  • nierówny rozwój – rozbieżność w tempie adaptacji AI między branżami prowadzi do dysproporcji gospodarczych,
  • problemy z danymi – wzrost zależności od AI wiąże się z ryzykiem naruszeń bezpieczeństwa danych i prywatności,
  • spolaryzowany rynek pracy – następuje wzrost zapotrzebowania na wysoko wykwalifikowanych pracowników AI przy jednoczesnym spadku popytu na pracowników wykonujących rutynowe zadania związane z pracą biurową.

Pojawia się oczywiście pytanie, czy i który z tych scenariuszy może się zmaterializować. Dlatego w kolejnym kroku autor zlecił ChatGPT dokonanie oceny prawdopodobieństwa ich zajścia i uzasadnienia wyniku. Oto uzyskane odpowiedzi:

Scenariusz 1: „Załamanie adaptacyjne” – prawdopodobieństwo 50–60%.

  1. Stan rozwoju technologicznego: Polska rozwija się technologicznie, jednak wciąż istnieje luka w obszarze dostępności specjalistów AI oraz infrastruktury technologicznej w porównaniu do czołowych gospodarek.
  2. MŚP w Polsce: MŚP stanowią znaczną część polskiej gospodarki. Ich ograniczone zasoby finansowe i ludzkie mogą utrudniać szybką adaptację do AI.
  3. Edukacja: w Polsce istnieją i będą rozwijane inicjatywy edukacyjne wspierające rozwój kompetencji cyfrowych i AI, co może łagodzić ostrość niektórych wyzwań.

Scenariusz 2: „Cyfrowa dywergencja” – prawdopodobieństwo 60–70%.

  1. Różnice w adaptacji: wysokie prawdopodobieństwo wzrostu rozbieżności w tempie adaptacji AI między różnymi sektorami gospodarki, zwłaszcza pomiędzy dużymi firmami a MŚP.
  2. Dynamika rynku pracy: zmiany na rynku pracy, w tym wzrost zapotrzebowania na wysoko wykwalifikowanych pracowników AI, są już obserwowane globalnie, co może mieć swoje odzwierciedlenie również w Polsce.
  3. Bezpieczeństwo danych: zagrożenia związane z bezpieczeństwem danych i prywatnością są realne i mogą nasilić się wraz z rozwojem AI.

Oczywiście, należy mieć świadomość, że zastosowanie metody scenariuszowej potrafi kończyć się spektakularnymi wpadkami. Do najbardziej znanych należy scenariusz „The Limits to Growth” (Granice wzrostu), który został opublikowany w 1972 roku przez Klub Rzymski. Raport ten opierał się na modelu World3 i przewidywał, że jeśli światowy wzrost gospodarczy będzie dalej zachodził bez zmian, to doprowadzi to do wyczerpania zasobów naturalnych i katastrofy ekologicznej do końca XX wieku. Oczywiście się to nie spełniło, bo pojawiły się zupełnie nowe generacje technologii.

Dlatego z dużą ostrożnością należy podchodzić do wygenerowanych scenariuszy. Skrupulatnie przeprowadzony proces planowania scenariuszowego może nie uwzględniać (i zwykle nie uwzględnia) wszystkich nieprzewidzianych zdarzeń. W rezultacie scenariusze, w których już wkrótce pojawi się sztuczna superinteligencja, mogą się nie ziścić. Jednakże wartość planowania scenariuszowego nie leży wyłącznie w samych scenariuszach. Bardzo wartościowy jest sam proces kreacji i dyskusji nad uzyskanymi wynikami. Wartością tego procesu jest rozwijanie zdolności adaptacyjnych organizacji i przygotowanie ich na różne przyszłe zdarzenia. 
 


Andrzej Sobczak

Dr hab. Andrzej Sobczak, prof. SGH, kierownik Zakładu Zarządzania Informatyką, Instytut Informatyki i Gospodarki, Kolegium Analiz Ekonomicznych SGH. Specjalizuje się w zarządzaniu transformacją cyfrową. Obecnie swoje zainteresowania naukowe koncentruje wokół problematyki automatyzacji i robotyzacji procesów biznesowych. W roku 2021 nakładem Oficyny Wydawniczej SGH ukazała się jego monografia Strategiczne pozycjonowanie robotyzacji procesów biznesowych w przedsiębiorstwie, stanowiąca podsumowanie trzyletnich badań w tym obszarze.