W uznaniu wybitnej inteligencji naturalnej i sztucznej

na grafice 8 mężczyzn, laureatów nagrody nobla w dziedzinie fizyki, chemii i ekonomii

Nagroda Banku Szwecji im. Alfreda Nobla w dziedzinie ekonomii w 2024 r. m.in. dla Darona Acemoglu zaskoczeniem być nie może. Jego nazwisko pojawiało się na „giełdzie” kandydatur od lat. Zgoła inaczej jest w przypadku tegorocznych Nagród Nobla z fizyki, które otrzymali John Hopfield i Geoffrey Hinton, i z chemii m.in. dla Johna Jumpera i Demisa Hassabisa. Ci czterej badacze nie zajmują się bowiem fizyką czy chemią, lecz sztuczną inteligencją.

Produktywność naukowa Darona Acemoglu, ekonomisty z Massachusetts Institute of Technology (MIT), jest legendarna. Dość powiedzieć, że w ciągu 31 lat swojej dotychczasowej kariery opublikował on – według bazy Scopus na dzień 27 listopada 2024 r. – 290 prac, które otrzymały łącznie 61 818 cytowań. Wśród prac tych znajdują się niezliczone artykuły w czołowych czasopismach ekonomicznych, jak „American Economic Review” czy „Quarterly Journal of Economics”. Acemoglu jest węzłową postacią wielu nurtów literatury, takich jak teoria wzrostu gospodarczego, badania nad postępem technicznym i automatyzacją, ekonomia polityczna czy studia nad powiązaniami sieciowymi osób i firm. Najwięcej cytowań przysporzyły mu jednak badania nad rozwojem gospodarczym – źródłami i mechanizmami reprodukcji różnic w poziomie rozwoju pomiędzy krajami i regionami świata, ze szczególnym uwzględnieniem roli instytucji. Badania w tym nurcie prowadził Acemoglu wspólnie z Jamesem A. Robinsonem z Uniwersytetu w Chicago oraz Simonem Johnsonem z MIT. Z nimi podzielił też tegoroczną Nagrodę Banku Szwecji w dziedzinie ekonomii.

Centralna pozycja i przełomowy charakter prac Darona Acemoglu w tak wielu obszarach badań powoduje, że uhonorowanie go Nagrodą Nobla nie może być zaskoczeniem. Co więcej, ponieważ swoje najdonioślejsze dokonania opracował we współautorstwie, równoczesne uhonorowanie jego współautorów także wydaje się naturalne. Choć pewnie można by zastanawiać się, czy prace te zostałyby tak prestiżowo wyróżnione, gdyby nie ciężar gatunkowy pozostałego dorobku pierwszego autora, ale tego już się nigdy nie dowiemy.

Zupełnie inaczej wygląda natomiast sprawa Nagród Nobla z fizyki i chemii. Tu mieliśmy bowiem do czynienia z dużym zaskoczeniem za sprawą nagród przyznanych informatykom zajmującym się rozwijaniem technik uczenia maszynowego i algorytmów sztucznej inteligencji. John Hopfield i Geoffrey Hinton otrzymali nagrody z fizyki „za fundamentalne odkrycia i wynalazki umożliwiające uczenie maszynowe przy użyciu sztucznych sieci neuronowych”. Ich wkład, a zwłaszcza wkład Hintona, nazywanego czasem jednym z trzech „ojców chrzestnych sztucznej inteligencji (AI)”, jest oczywiście kluczowy i niepodważalny, ale jednak dość słabo powiązany z fizyką. 

Z kolei Nagrodą Nobla w dziedzinie chemii nagrodzony został, obok biochemika Davida Bakera, zespół Google DeepMind, w osobach Johna Jumpera i Demisa Hassabisa, odpowiedzialny za AlphaFold – model AI zdolny do trafnego przewidywania struktur białek na podstawie ich sekwencji aminokwasów. Tu związek nagrodzonych osób z dziedziną, w której przyznano nagrodę, jest bliższy niż w przypadku fizyki – dzięki AlphaFold faktycznie rozwiązano ważny problem z obszaru biochemii. Ponadto Jumper jest nie tylko informatykiem, ale ma także doktorat z chemii. Trzeba jednak powiedzieć, że nagrodzone osiągnięcie i w tym przypadku stanowi w pierwszej kolejności przełom w obszarze sztucznej inteligencji. 

Jak widać, sztuczna inteligencja wdziera się zatem już nie tylko do naszego życia codziennego (z rekomendacjami AI w wyszukiwarkach internetowych, mediach społecznościowych czy rozmaitych wirtualnych asystentach dobrze się już zżyliśmy), ale także w najbardziej zaawansowane obszary nauki. Kluczowy w biochemii problem predykcji, jak będą zwijać się poszczególne białka i jakie w związku z tym mogą pełnić funkcje fizjologiczne, studiowany był od lat 60. XX wieku z wykorzystaniem różnych pracochłonnych i kosztownych metod eksperymentalnych, takich jak np. krystalografia rentgenowska. Jednak to dopiero dzięki AlphaFold dokonał się w tym obszarze prawdziwy przełom. 

Co więcej, sztuczna inteligencja to nie tylko wyspecjalizowane algorytmy służące do rozwiązywania precyzyjnie zdefiniowanych problemów (jak AlphaFold) czy pokonywania całej ludzkości razem wziętej w grach o jednoznacznie ustalonych zasadach, jak np. szachy, Go (AlphaZero) czy Starcraft (AlphaStar). Dzięki dużym modelom językowym (jak GPT od OpenAI, Gemini od Google’a czy Claude od Anthropic) oraz innym zaawansowanym modelom generatywnym AI staje się dziś technologią powszechnego zastosowania, którą można wykorzystywać w celu automatyzacji szerokiego spektrum zadań i to takich, które dotąd byli w stanie wykonywać tylko wysoko wykwalifikowani specjaliści. Nie są to już tylko zadania rutynowe, ale także te wymagające kreatywności czy analitycznego myślenia. Dokumentują to Tyna Eloundou i współautorzy z OpenAI w artykule opublikowanym w czerwcu 2024 r. w „Science”1. W szczególności – jak z kolei przekonuje Anton Korinek w „Journal of Economic Literature”2 – wiele zadań, które realizujemy jako ekonomiści w toku naszej pracy naukowej, począwszy od pomysłu na badanie, przez obróbkę i analizę danych, a skończywszy na pisaniu, redakcji i recenzji tekstu, można dziś wykonywać szybciej i lepiej z pomocą generatywnej AI. Nowa fala automatyzacji pracy w oparciu o narzędzia generatywnej AI ma więc wyraźnie inny charakter niż fala poprzednia, obserwowana od lat 80. XX wieku i omawiana szczegółowo m.in. przez Darona Acemoglu3. Dziś automatyzowane są już nie tylko prace proste, rutynowe, powtarzalne i ładne do skodyfikowania, ale także zupełnie nierutynowe zadania umysłowe, z którymi mamy do czynienia w pracy naukowej, programistycznej czy dziennikarskiej i które były tradycyjnie uważane za wymagające wysokich kwalifikacji oraz wysoko wynagradzane.
 

Zmiana taka będzie miała daleko idące konsekwencje dla gospodarki, rynku pracy, a także dla ludzkości ogółem. Bezpośrednim efektem wdrażania rozwiązań AI jest wzrost produktywności, prowadzący do wzrostu gospodarczego. Z drugiej strony jednak, nieuniknione będą skutki uboczne, a w dłuższej perspektywie zupełnie nowe zagrożenia.

W krótkim okresie ta nieoczekiwana trajektoria zmian staje się źródłem zawirowań na rynku pracy oraz sprzyja wzrostowi nierówności społecznych. Generatywna AI nie będzie witana z sympatią przez osoby, których praca będzie zautomatyzowana. W tym kontekście wiralowo rozniosło się w internecie przypisywane niszowej pisarce Joannie Maciejewskiej stwierdzenie: „Chcę, by AI zajęła się moim praniem i zmywaniem, bym mogła poświęcić się sztuce i pisaniu, a nie by AI zajęła się moją sztuką i pisaniem, bym mogła poświęcić się praniu i zmywaniu”.

A jak będzie w długim okresie? Jak to zwykle bywa, zdania ekspertów są podzielone. W tym przypadku jednak zdania zarówno tegorocznych noblistów, jak i trzech „ojców chrzestnych AI”, są nie tyle podzielone, ile biegunowo odmienne. Zdaniem Acemoglu, wyrażonym w artykule The Simple Macroeconomics of AI4, nie ma się czym ekscytować, bo perspektywy rozwoju AI są ograniczone, a jej wpływ na gospodarkę będzie minimalny – przyniesie mniej niż 1% wzrostu całkowitej produktywności czynników w horyzoncie 10 lat. Natomiast zdaniem Hintona, wyrażonym w wywiadzie dla „New York Times” z maja 2023 r., w perspektywie krótszej niż 20 lat powstanie ogólna sztuczna inteligencja przewyższająca ludzką, która nie tylko zrewolucjonizuje gospodarkę i przejmie nad nią kontrolę, ale może wręcz – i to z prawdopodobieństwem szacowanym subiektywnie na około 50% – doprowadzić do całkowitej zagłady ludzkości. Podstawą dla sformułowania tej opinii była bezpośrednia, bliska obserwacja postępów AI dzięki pracy w Google (z której Hinton ostatecznie zrezygnował, by móc otwarcie mówić o zagrożeniach), a także wnioski z jego własnych prac nad komputerami analogowymi, inspirowanymi fizjologią mózgu. Otóż, dostrzegł on, że choć obliczenia analogowe mogą być źródłem znacznych oszczędności energii, to mają zasadniczą wadę – ze względu na niemożliwą do wystandaryzowania „organiczną” strukturę takich komputerów nie można bezstratnie kopiować kodu pomiędzy urządzeniami, a przez to proces uczenia maszynowego traci możliwość efektywnego skalowania. A to właśnie skalowanie stoi za dynamicznym rozwojem AI i umożliwia mu w perspektywie być może zaledwie kilkunastu lat uzyskanie systematycznej przewagi nad inteligencją człowieka.

Prace Hintona, które dały podstawy dla rozwoju AI, obejmują m.in. algorytm wstecznej propagacji błędów, będący fundamentem uczenia maszynowego, w szczególności w ramach modeli sztucznych sieci neuronowych. Został on opublikowany w 1986 r. w „Nature”5. Jest on też – obok dwóch pozostałych „ojców chrzestnych AI” Yoshuy Bengio i Yanna LeCuna – autorem koncepcji tzw. głębokiego uczenia (deep learning), sformułowanej w 2015 r.6 

Bengio podziela obawy Hintona związane z zagrożeniami AI. Podziela je także nagrodzony Noblem z chemii Hassabis, choć – jak można zgryźliwie zauważyć – nie przeszkadza mu to w kierowaniu pracami nad dynamicznym rozwojem kompetencji modelu AI Google Gemini. Argumenty te zupełnie nie przekonują natomiast LeCuna, będącego obecnie wiceprezesem oraz głównym naukowcem zajmującym się AI w Meta. Rozwijany przez Metę model Llama jest udostępniany w formacie open source, przy czym otwarty jest nie tylko jego kod, ale też parametry (wagi) sieci neuronowej ustalone w procesie uczenia. Oznacza to, że modele Mety mogą stać się zagrożeniem nie tylko w scenariuszu przejęcia kontroli przez sztuczną inteligencję, zdolną do samodzielnych działań, będącą niezależnym, optymalizującym agentem, ale także w scenariuszu wykorzystania AI przez złych ludzi, np. terrorystów, czy reżimy totalitarne.

Na koniec dwie refleksje. Po pierwsze, we wspomnianym powyżej, głośnym wywiadzie z maja 2023 r. Hinton podzielił się, że w pewnym stopniu żałuje dorobku swojego życia, gdyż jest świadom, jak poważne zagrożenia niesie za sobą technologia, którą pomógł stworzyć. Pocieszał się jedynie argumentem, że gdyby nie on, to pewnie kto inny i tak by to zrobił… I oto, zupełnie nieoczekiwanie, kilkanaście miesięcy później tenże dorobek życia zostaje nagrodzony Nagrodą Nobla! Uważam, że brzmi to jak scenariusz hollywoodzkiego filmu.

Po drugie, w 2024 r. po raz pierwszy nagrodzono Nagrodą Nobla badaczy rozwijających AI i szukających ich zastosowań. Gdyby nie Jumper czy Hassabis, nie byłoby AlphaFold i problem predykcji struktury białek nie zostałby rozwiązany. Ale z drugiej strony, gdyby nie to, czego algorytm AlphaFold po odpowiednim zaprogramowaniu sam się nauczył, ci sami autorzy nie rozwiązaliby z pewnością problemu predykcji struktury białek. I tu pojawia się pytanie: czy kiedyś będziemy świadkami pierwszej Nagrody Nobla nie za AI tylko dla AI? Czy komitet noblowski zdecyduje się kiedyś nagrodzić nie człowieka, a bezpośrednio maszynę? 

W pierwszej kolejności zastanówmy się jednak, jak uniknąć zagrożeń, o których mówi m.in. Geoffrey Hinton. Niezbędnym krokiem wydaje się zahamowanie wyścigu w stronę coraz bardziej kompetentnej ogólnej AI i skupienie się na tym, by była ona bezpieczna, a jej cele były zgodne z długofalowym dobrem ludzkości. Jak na razie, zdecydowanie nie są, a AI nie robi nam krzywdy nie dlatego, że nie chce, tylko dlatego, że jeszcze nie potrafi.    


Jakub Growiec

PROF. DR HAB. JAKUB GROWIEC, kierownik Katedry Ekonomii Ilościowej, Kolegium Analiz Ekonomicznych SGH
 

1 Eloundou, T. i inni (2024), GPTs are GPTs: Labor market impact potential of LLMs, “Science” 384,1306–1308.
2 Korinek, A. (2023), Generative AI for Economic Research: Use Cases and Implications for Economists, “Journal of Economic Literature” 61(4), pp. 1281–1317. Najnowsza aktualizacja Generative AI for Economic Research: LLMs Learn to Collaborate and Reason datowana na październik 2024 r.
3 Np. Acemoglu, A., D. Autor (2011), Skills, Tasks and Technologies: Implications for Employment and Earnings, “Handbook of Labor Economics”, tom 4, red. O. Ashenfelter i D. Card, Amsterdam:  Elsevier-North Holland, s. 1043–1171.
4 Acemoglu, A. (2024), The Simple Macroeconomics of AI, NBER Working Paper No. 32487.
5 Rumelhart, D.E., G.E. Hinton, R.J. Williams (1986), Learning representations by back-propagating errors, Nature 323, s. 533–536.
6 LeCun, Y., Y. Bengio, G. Hinton (2015), Deep learning, Nature 521, 436–444.