AI może wymknąć się spod kontroli. Gdzie są luddyści, kiedy ich najbardziej potrzebujemy?
Nadludzka ogólna sztuczna inteligencja (AGI) może stanowić śmiertelne zagrożenie dla całej ludzkości. Najważniejszym zagrożeniem dla nas jest sama inteligencja, czyli umiejętność szybkiego rozwiązywania szerokiego spektrum różnorodnych problemów i efektywnej realizacji założonych celów.
W felietonie „Sztuczna inteligencja a Indeks ksiąg zakazanych” profesor Elżbieta Mączyńska-Ziemacka porównała współczesne głosy krytyki wobec niekontrolowanego rozwoju technologii sztucznej inteligencji (AI) do wprowadzonego w połowie XVI wieku przez Kościół katolicki Indeksu ksiąg zakazanych. Uważam, że porównanie to, choć ciekawe, jest nieco niefortunne. Indeks ksiąg zakazanych został utworzony przez Stolicę Apostolską z pozycji ochrony biblijnego dogmatu przed osiągnięciami naukowymi. Rozpowszechnienie informacji o błędach i niespójnościach w tymże dogmacie mogłoby bowiem podważyć pozycję Kościoła w świecie. Natomiast krytyka AI nie ma charakteru antynaukowego, a jedynie wyraża obawy przed realnymi zagrożeniami, jakie technologia ta może przynieść.
W tym punkcie warto zauważyć, że ze względu na obawy przed zagrożeniami, jak również zastrzeżenia o charakterze etycznym rozwój pewnych obszarów nauki bywa czasem celowo spowalniany. Od lat ma to miejsce na przykład w przypadku biotechnologii, gdzie funkcjonuje memorandum Asilomar z 1975 r., zabraniające badań wymagających rekombinacji DNA pochodzącego z różnych organizmów. Powszechne są też obawy dotyczące modyfikacji genetycznej DNA człowieka. Po tym, jak w 2018 r. chiński uczony He Jiankui przeprowadził pierwszy zabieg edycji ludzkiego genomu za pomocą technologii CRISPR/Cas9, został on skazany na trzy lata więzienia, a Światowa Organizacja Zdrowia (WHO) zakazała dalszych eksperymentów tego rodzaju. Ponadto uzasadnione obawy budzą badania nad wirusami, w szczególności badania typu gain-of-function, w których zmodyfikowane wirusy stają się bardziej zaraźliwe i/lub bardziej niebezpieczne dla człowieka. Istnieje bowiem historia udokumentowanych wycieków z laboratoriów, gdy badany wirus infekował badaczy, a czasem także inne osoby.
Sugestie zatrzymania lub spowolnienia dalszych prac nad zaawansowanymi modelami sztucznej inteligencji, takimi jak duże modele językowe (ang. large language models), pojawiają się ze względu na chyba najbardziej fundamentalną obawę, jaką można sformułować – mianowicie obawę, że prace te mogą doprowadzić do powstania przewyższającej możliwości człowieka ogólnej sztucznej inteligencji (ang. artificial general intelligence – AGI), która wymknie się badaczom i inżynierom spod kontroli i będzie stanowiła śmiertelne zagrożenie dla całej ludzkości. Przykładowo, w badaniu sondażowym przeprowadzonym wśród uczestników Global Catastrophic Risk Conference w Oxfordzie w 2008 r. prawdopodobieństwo, że ludzkość nie dotrwa do 2100 r., oszacowano na aż 19%, a za najważniejsze zagrożenia egzystencjalne uznano właśnie sztuczną inteligencję, a także broń nanotechnologiczną, a w dalszej kolejności sztucznie wywołaną pandemię oraz globalny konflikt nuklearny. Równocześnie czas nadejścia nadludzkiej AGI szacowany jest, w zależności od źródła, na 2032 r. (aktualna prognoza według społeczności serwisu metaculus.com) lub na 2047 r. (sondaż wśród ekspertów AI przeprowadzony w 2023 r. przez Katję Grace i współautorów). Są to więc terminy całkiem nieodległe.
Dlaczego jednak nadludzka AGI może stanowić śmiertelne zagrożenie dla całej ludzkości? Wydaje się, że najważniejszym zagrożeniem jest tu sama inteligencja, rozumiana jako umiejętność szybkiego rozwiązywania szerokiego spektrum różnorodnych problemów i efektywnej realizacji założonych celów. Na mocy sformułowanej przez Nicka Bostroma tezy o konwergencji celów pomocniczych, niemal każdy cel finalny prowadzi bowiem do wytworzenia czterech celów pomocniczych: (1) przetrwania, w tym zabezpieczenia celu finalnego, (2) akumulacji zasobów, (3) efektywności w wykorzystywaniu dostępnych zasobów, (4) kreatywności, czyli poszukiwania alternatywnych sposobów realizacji celu względem tych, które są już znane. Te cztery cele pomocnicze widoczne są choćby i dziś w działaniu GPT-4. Natomiast naprawdę groźne staną się w przypadku nadludzkiej AGI, która zrealizuje je skutecznie, czyli nie pozwoli się wyłączyć ani przeprogramować, a następnie wywoła z człowiekiem konflikt o zasoby, który to konflikt następnie wygra. Niższa i działająca o rzędy wielkości wolniej inteligencja ludzka nie będzie w stanie przewidzieć ani nadążyć za działaniami realizowanymi przez inteligencję wyższą. Równocześnie przewaga AGI nad człowiekiem będzie błyskawicznie rosła, kiedy ta włoży część zasobów w badania nad sztuczną inteligencją i wywoła w ten sposób tzw. eksplozję inteligencji poprzez kaskadę samoulepszeń.
Oczywiście, katastrofa egzystencjalna ludzkości nie jest jedynym scenariuszem, który może się zrealizować po nadejściu nadludzkiej AGI. W szczególności możliwe są też scenariusze biegunowo odmienne, w których wzrost gospodarczy przyspiesza o rząd wielkości. Dzięki wkładowi AGI w badania naukowe dokonują się kolejne przełomy technologiczne, dobrostan człowieka wzrasta do nigdy dotąd nienotowanych poziomów, a nasza cywilizacja podbija kosmos.
Wszystkie pozytywne scenariusze wymagają jednak rozwiązania problemu zgodności celów AI z długookresowym dobrostanem ludzkości (ang. AI alignment problem). Kiedy AGI przekroczy nasz poziom ogólnej inteligencji i utracimy nad nią kontrolę, ona sama musi chcieć być nam przyjazna. Problem zgodności celów AI jest jednak bardzo trudny, a w szczególności wydaje się niemożliwy do rozwiązania przez samo zwiększanie mocy obliczeniowych, które się na jego rozwiązanie przeznacza. Ponadto w tym przypadku nie zadziała metoda prób i błędów: wystarczy tylko jeden nieudany eksperyment, w którym AGI, która wydawała się początkowo być przyjazna, okazuje się jednak nieprzyjazna, wymyka się spod kontroli i wygrywa z nami konflikt o zasoby. Może ona wtedy wprowadzić nieodwracalne zmiany w otaczającym nas środowisku oraz utrwalić na zawsze zaprogramowane w niej cele, uniemożliwiając ich zmianę.
Problem zgodności celów AI dopiero całkiem niedawno zagościł w debatach na temat szans i zagrożeń związanych ze sztuczną inteligencją. Co ciekawe, bywa on częściej przywoływany przez postacie z branży AI, jak np. dyrektor OpenAI Sam Altman czy jeden z ojców uczenia maszynowego Geoffrey Hinton, niż przez krytyków spoza branży. Choć ten nierozwiązany problem stał się dziś kluczowy dla przyszłości ludzkości, nadal nie skupia on ani szczególnie dużych środków na badania, ani nie koncentruje powszechnych protestów. Można by spytać: gdzie są luddyści, kiedy ich najbardziej potrzebujemy?
W końcowej części swojego felietonu profesor Elżbieta Mączyńska-Ziemacka wyraziła opinię, że „na szczęście (…) postępu naukowego i prac nad odkryciami naukowymi nie da się zatrzymać”. Przy uwzględnieniu zagrożeń, jakie niesie niekontrolowany rozwój AI, teza ta nabiera jednak fatalistycznego brzmienia. A może jednak udałoby się chociaż spróbować spowolnić rozwój kompetencji AI na tyle, by zdążyć w międzyczasie rozwiązać AI alignment problem? Warto chyba chociaż podjąć próbę sprawienia, że nadludzka AGI będzie nam przyjazna?
PROF. DR HAB. JAKUB GROWIEC, kierownik Katedry Ekonomii Ilościowej, Kolegium Analiz Ekonomicznych SGH