DEHUMANIZACJA – NOWA EPIDEMIA XXI W. Zagrożenia egzystencjalne. Ostrzeżenia noblisty Geoffreya E. Hintona

na grafice różowa rozpadająca się postać, która trzyma tablet

Tekst ten stanowi drugą część rozważań na temat sztucznej inteligencji (AI) rozpatrywanej w kontekście związanego z jej rozwojem narastaniem ryzyka dehumanizacji [pierwsza część: Dehumanizacja jako schorzenie społeczne, Gazeta SGH (381)].

O tym, że takie ryzyko istnieje, przekonują liczne badania i publikacje. Kwestie te były też sygnalizowane na łamach Gazety SGH, m.in. w eseistycznym cyklu (Gazeta SGH nr 374, 375, 378, 379), w którym charakteryzowane były dobrodziejstwa, ale też liczne ciemne strony AI i związane z tym wyzwania. Do takich ciemnych stron należy m.in. narastanie ryzyka dehumanizacji. 

Już po opublikowaniu rzeczonej pierwszej części tekstu na ten temat doszło do wydarzenia, które ma istotne znaczenie w analizach problematyki dehumanizacji. Wydarzeniem tym jest przyznanie w październiku 2024 r. Nagrody Nobla w dziedzinie fizyki Geoffreyowi E. Hintonowi (wspólnie z Johnem J. Hopfieldem) „za fundamentalne odkrycia i wynalazki umożliwiające uczenie maszynowe za pomocą sztucznych sieci neuronowych” [The Nobel Prize, 2024]. W kontekście analiz procesów dehumanizacji ważne, a zarazem zaskakujące może być jednak to, że uhonorowany noblowskimi laurami, urodzony 6 grudnia 1947 r. w Londynie Geoffrey Hinton, kanadyjsko-brytyjski informatyk, psycholog poznawczy, specjalizujący sią w pracach nad sztucznymi sieciami neuronowymi, jeden z pionierów AI, uznawany za jej intelektualnego ojca chrzestnego, jest naukowcem, który zarazem nie szczędzi krytyki obecnym procesom rozwoju tej technologii. 

Hinton ostrzega przed zagrożeniami dla ludzkości, jakie mogą być generowane w wyniku niekontrolowanego należycie rozwoju AI. Przestrzega, że AI może pogłębiać nierówności społeczne, co nigdy nie jest korzystne dla dobrostanu społecznego. Ocenia, że trzeba się nawet liczyć z koniecznością wypracowania systemu pomocowych świadczeń socjalnych dla tych osób, którym sztuczna inteligencja może zabierać miejsca pracy. 

Te krytyczne opinie Hintona były już przedstawiane (choć jedynie sygnalnie) na łamach Gazety SGH (378), jeszcze przed przyznaniem mu Nagrody Nobla. Noblowskie laury dla tego naukowca skłaniają do nieco szerszej prezentacji jego ostrzeżeń dotyczących AI, tym bardziej, że Hinton wskazuje na zagrożenia egzystencjalne, mające dehumanizacyjny wymiar. Prezentowane w niniejszym tekście hintonowskie ostrzeżenia wskazują zarazem na znaczenie kształtowania rozwiązań przeciwdziałających wynaturzeniu w rozwoju i zastosowaniach AI. Stanowi to równocześnie niezbędny warunek przeciwdziałania dehumanizacji. 
 

GEOFFREY HINTON – ZAAWANSOWANA AI MOŻE DOPROWADZIĆ DO ZAGŁADY LUDZKOŚCI

Taką oto przestrogę przekazał Hinton w wykładzie „Czy cyfrowa inteligencja zastąpi biologiczną inteligencję?”, wygłoszonym 19 lutego 2024 r. na Uniwersytecie Oksfordzkim [Romanes Lecture]. Hinton ocenił, że w ciągu najbliższych 20 lat ludzkości uda się opracować system sztucznej inteligencji, która potencjałem przewyższy ludzi. To tzw. silna, ogólna sztuczna inteligencja (ang. strong artificial general intelligence – AGI). „Zagrożenie, o które naprawdę się martwię, to długoterminowe zagrożenie egzystencjalne, czyli zagrożenie, że te rzeczy mogą unicestwić ludzkość” – wskazał. Ocenił przy tym, że AGI może pojawić się już w ciągu „5 do 20 lat”. Wcześniej Hilton szacował, że systemy AI mogą potrzebować nawet stu lat, aby stać się „superinteligentne”. Obecna rzeczywistość przekonuje jednak, że może to nastąpić znacznie wcześniej, niż się spodziewał. Przy tym według Hintona „jeśli cyfrowa superinteligencja kiedykolwiek chciałaby przejąć kontrolę, to jest mało prawdopodobne, że moglibyśmy ją powstrzymać”. Równie niepokojące ostrzeżenia formułowane są także w innych wystąpieniach Hintona.
 

KORYFEUSZ AI GEOFFREY HINTON: „POWINNIŚMY SIĘ BARDZO BAĆ”

Takie ostrzeżenie przed niekontrolowanym rozwojem AI sformułował Hinton na łamach niemieckiego tygodnika „Der Spigel” z 14 września 2024 r. (KI-Koryphäe Geoffrey Hinton: Wir sollten sehr ängstlich sein). Wskazywał tam na ryzyko utraty przez ludzkość kontroli nad sztuczną inteligencją, oceniając, że wiele osób już wkrótce nie będzie w stanie rozpoznawać, co z informacji generowanych przez AI jest prawdą. Tym samym, co symptomatyczne, Hinton przestrzega przed zagrożeniami wynikającymi z technologii, którą sam współtworzył [Beuth,2023]. 

Ostrzeżenia tego typu są coraz częstsze i płyną z wielu kręgów. Głównym podłożem obaw stało się opracowanie i uruchomienie przez OpenAI (założoną w grudniu 2015 r. i ukierunkowaną na AI organizację badawczą non-profit z siedzibą w San Francisco) robota językowego ChatGPT (Generative Pretrained Transformer), mogącego generować naturalnie brzmiący tekst. GPT jest jednym z najbardziej zaawansowanych modeli NLP (Natural Language Processing) umożliwiających tworzenie tekstów wysokiej jakości, w tym tekstów konwersacyjnych, naśladujących rozmowy ludzkie. Umożliwia to użytkownikom doskonalenie i kierowanie konwersacją w zadanym obszarze, zgodnie z wymaganym stopniem szczegółowości. 

ChatGPT stał się impulsem do przyspieszenia prac badawczych na ten temat także przez inne podmioty, takie jak Google czy Microsoft. Zarazem to wymuszane przez konkurencję intensyfikowanie badań nad AI stało się powodem obaw przed wypieraniem ludzkiej inteligencji przez AGI. Ta całkiem nowa forma AI może konkurować z poziomem inteligencji ludzkiej, może bowiem posiadać wszystkie cechy, właściwości przynależne umysłowi ludzkiemu.

Dlatego też, gdy firma OpenAI przedstawiła w 2023 r. kolejną wersję ChatGPT, ponad tysiąc prominentnych ekspertów i badaczy technologii opublikowało list otwarty, apel wzywający do czasowego moratorium dotyczącego prac nad rozwojem nowych tego typu systemów. Apel ten zyskał kilkadziesiąt tysięcy podpisów. Hinton nie należał jednak do jego sygnatariuszy. Poza działalnością akademicką od 2013 r. pracował bowiem w firmie Google i jako pracownik nie chciał publicznie jej krytykować. Świadomość zagrożeń, jakie niesie niekontrolowany rozwój AI, sprawiła jednak, że w maju 2023 r. zdecydował się na odejście z Google. Firma ta zmieniła bowiem politykę dotycząca rozwoju AI i pod presją konkurencji przyśpieszyła nad nią prace [Geoffrey Hinton, Wikipedia, 2024, Five 2023]. 

Hinton zdecydował się tym samym na publiczną krytykę niekontrolowanego rozwoju AI, przestrzegając, że może być ona wykorzystywana w złych, szkodzących ludzkości celach. W wielu wystąpieniach publicznych Hinton wskazywał na ryzyko wynikające z rozwoju AGI w sytuacji braku dostatecznie skutecznych instytucjonalnych, regulacyjnych, edukacyjnych i innych „bezpieczników” umożliwiających neutralizację negatywnych stron tej technologii. Wielokrotnie przestrzegał, że owe negatywne strony mogą ujawnić się wcześniej, niż można byłoby się tego spodziewać. 

Sygnalizowane prze Hintona obawy wiążą się też z nasilającym się trendem do przekształcania organizacji ukierunkowanych na rozwój AI z organizacji non-profit w korporacje nastawione przede wszystkim na generowanie zysków, bez względu na następstwa społeczne. Dotyczy to m.in. OpenAI, organizacji założonej jako non-profit, statutowo ukierunkowanej na bezpieczeństwo rozwoju, osiągającej z tego tytułu liczne korzyści podatkowe i inne. Hinton podkreślał, że „OpenAI zostało stworzone z dużym naciskiem na bezpieczeństwo. Jego głównym celem było rozwijanie sztucznej inteligencji ogólnej i zapewnienie jej bezpieczeństwa. (…) Z czasem okazało się, że Sam Altman był znacznie mniej zainteresowany bezpieczeństwem niż zyskami. I uważam, że to niefortunne” [Beaty, 2024].

Zdaniem Hintona pozostawienie rozwoju AI dużym koncernom technologicznym nie jest sposobem na zapewnienie, iż będzie ona rozwijana bezpiecznie. Bezpieczeństwa tego nie są też w stanie zapewnić mechanizmy wolnorynkowe. Stąd konieczność i znaczenie zabezpieczeń instytucjonalnych, regulacyjnych. 
 

NOBLISTA HINTON PONAWIA OSTRZEŻENIA

Ogłaszając nagrodę, Komitet Noblowski eksponował głównie pozytywne cechy i pozytywny potencjał AI, w tym potencjał wzrostu produktywności i inne dobrodziejstwa dla ludzkości. W przemówieniu na noblowskiej uroczystości Hinton ocenił, że jeśli korzyści, jakie przynosi rozwój AI, w tym wynikające ze zwiększonej produktywności, „będą mogły być dzielone równo, będzie to wspaniały postęp dla całej ludzkości” [Geoffrey Hinton – Banquet speech, 2025]. 

Równocześnie noblista podtrzymał swoje wcześniejsze obawy dotyczące niekontrolowanego rozwoju AI. Ocenił, że ogromny dynamizm rozwoju AI wiąże się z wieloma już dziś ujawniającymi się zagrożeniami. Potencjał AI wykorzystywany jest m.in. do tworzenia dzielących ludzi „komór echa”, oferując im szkodliwe, dezinformujące treści. W dodatku potencjał AI jest wykorzystywany przez autorytarne rządy do masowej inwigilacji i przez cyberprzestępców do ataków phishingowych. Zdaniem noblisty „w niedalekiej przyszłości AI może zostać wykorzystana do tworzenia strasznych nowych wirusów i przerażającej śmiercionośnej broni, która sama zdecyduje, kogo zabić lub okaleczyć. Wszystkie te krótkoterminowe zagrożenia wymagają pilnej i stanowczej uwagi ze strony rządów i organizacji międzynarodowych” [Geoffrey Hinton – Banquet speech, 2025].

Hinton wskazał przy tym na ryzyko wystąpienia w dłuższej perspektywie zagrożenia egzystencjalnego. Pojawi się ono, „gdy stworzymy cyfrowe istoty, które będą inteligentniejsze od nas. Nie mamy pojęcia, czy będziemy w stanie zachować kontrolę. Ale teraz mamy dowody na to, że jeśli zostaną stworzone przez firmy motywowane krótkoterminowymi zyskami, nasze bezpieczeństwo nie będzie najwyższym priorytetem. Pilnie potrzebujemy badań nad tym, jak zapobiec temu, aby te nowe istoty chciały przejąć kontrolę. Nie są one już bowiem science fiction” [Geoffrey Hinton – Banquet speech, 2025].

Zarazem Hinton w odpowiedzi na zadane mu w wywiadzie pytanie, co należy zrobić, aby rozwiać obawy, które wyraża, stwierdził: „Chciałbym mieć jakiś prosty przepis, że jeśli to zrobisz, wszystko będzie dobrze. Ale nie mam. W szczególności w odniesieniu do egzystencjalnego zagrożenia, że te rzeczy wymkną się spod kontroli i przejmą władzę. Myślę, że jesteśmy w pewnym sensie w punkcie zwrotnym w historii, w którym w ciągu najbliższych kilku lat musimy ustalić, czy istnieje sposób na poradzenie sobie z tym zagrożeniem. Myślę, że teraz jest bardzo ważne, aby ludzie pracowali nad kwestią, jak zachować kontrolę. Musimy włożyć w to wiele wysiłku badawczego. Myślę, że rządy mogą zmusić duże firmy do wydawania znacznie większej ilości środków na badania nad bezpieczeństwem. Tak, aby np. firmy, takie jak OpenAI nie mogły po prostu odłożyć badań nad bezpieczeństwem na dalszy plan” [Geoffrey Hinton – Interview, 2024].

Jednocześnie odpowiadając na pytanie o wpływ Nagrody Nobla na racjonalizację rozwoju AI, noblista ocenił, że nagroda ta może pomóc w rozumieniu zagrożeń i wymusi zmiany ukierunkowane na przeciwdziałanie nieprawidłowościom. Stwierdził wręcz: „Mam nadzieję, że to uczyni mnie bardziej wiarygodnym” [Geoffrey Hinton – Interview, 2024].
 

ZAKOŃCZENIE

Przedstawione tu ostrzeżenia przed zagrożeniami, jakie mogą wynikać z obarczonego krótkowzrocznością niekontrolowanego rozwoju AI, nie oznaczają wszak negowania jej pozytywnego potencjału i dobrodziejstw, jakie przynosi ludzkości. Naukowcy i inni eksperci specjalizujący się w tej dziedzinie są zgodni co do tego, że uczenie maszynowe oparte na sztucznych sieciach neuronowych obecnie rewolucjonizuje naukę, inżynierię, a nawet codzienne życie. Racjonalny rozwój AI może sprzyjać kształtowaniu społecznej harmonii i społecznego oraz ekologicznego dobrostanu. Może przynieść wiele niebywałych korzyści, m.in. w sferze opieki zdrowotnej i w każdej niemal dziedzinie życia społeczno-gospodarczego. 

Aby jednak mogło się to w pełni urzeczywistnić, konieczne są skuteczne regulacje na szczeblu rządowym, a także ponadnarodowym. Prace na ten temat obecnie trwają, co było sygnalizowane w ramach cyklu esejów na temat AI na łamach Gazety SGH. W obecnych warunkach fundamentalne znaczenia ma zatem to, jak poszczególne rządy, poszczególne systemy polityczne będą reagować na wyzwania związane z rozwojem sztucznej inteligencji, a także na przestrogi naukowców, w tym m.in. cytowanego tu Hintona, który przekonuje, że AI może stanowić duże zagrożenie dla ludzkości, jeśli w porę nie zostaną wprowadzone odpowiednie „bezpieczniki”. Naukowe dokonania Hintona dowodzą, że jest to zdecydowanie jeden z najlepszych ekspertów w sektorze AI, stąd też jego zdanie powinno być brane pod uwagę i traktowane z należytą uważnością w polityce i strategiach dotyczących rozwoju AI. Jest to istotne tym bardziej, że Hinton w noblowskim wywiadzie, w odpowiedzi na pytanie, jak opisałby siebie, czy powiedziałby, że jest informatykiem czy fizykiem próbującym zrozumieć biologię, odparł: „Powiedziałbym, że jestem kimś, kto tak naprawdę nie wie, w jakiej dziedzinie działa, ale chciałby zrozumieć, jak działa mózg. I w moich próbach zrozumienia, jak działa mózg, pomogłem stworzyć technologię, która działa zaskakująco dobrze” [Geoffrey Hinton – Interview, 2024]. 

Fundamentalne znacznie ma zatem takie wykorzystywanie tej dobrze działającej technologii, aby nie zniweczyć jej dobroczynnego potencjału. Dlatego też zmniejszanie generowanego przez AI ryzyka egzystencjalnego, ryzyka dehumanizacji, niszczenia ludzkości powinno być globalnym priorytetem, obok innych zagrożeń, takich jak pandemie czy wojna nuklearna. I tego domagają się naukowcy, znawcy AI [Five, 2023; Geoffrey Hinton, Wikipedia, 2024]. 

Jeśli Hinton stwierdza, że wręcz boi się o przyszłość technologii, którą wszak sam współtworzył, to stwierdzenie takie wymaga specjalnej refleksji, zwłaszcza w kontekście potrzeby kształtowania zasad wdrażania AI, zasad zorientowanych na dobro człowieka, przeciwdziałających dehumanizacji. Ma to znaczenie tym bardziej, że – jak zauważa Jan Kreft [cytowany w I części opracowania na temat dehumanizacji, Gazeta SGH (381)] i co warto przypominać – „nigdy jeszcze tak wielu nie używało tak powszechnie technologii, którą tak niewielu rozumie. Wcześniej rozwój technologii nie był tak bardzo zmitologizowany i oderwany od humanistycznej refleksji” [Jaki będzie, 2024]. 

Znajduje to pełne potwierdzenie w opiniach noblisty Hintona. Hintonowskie analizy wskazują zarazem, że niekontrolowany rozwój AI może prowadzić do erozji kapitału społecznego, ale o tym w kolejnej (odłożonej czasowo z powodu noblowskiego wydarzenia) części cyklu o dehumanizacji jako nowej epidemii XXI w.  


prof. Elżbieta Mączyńska

PROF. DR HAB. ELŻBIETA MĄCZYŃSKA-ZIEMACKA, SGH, honorowa prezes Polskiego Towarzystwa Ekonomicznego

Cytowane publikacje 
Beaty T. , Changing OpenAI’s nonprofit structure could have big consequences, 12 października 2024 r. Business https://apnews.com/article/openai-sam-altman-nonprofit-equity-investmen…;
Beuth P. Künstliche Intelligenz. KI-Pionier Geoffrey Hinton warnt vor seiner eigenen Schöpfung, Der Spiegel, 02.05.2023, https://www.spiegel.de/netzwelt/web/geoffrey-hinton-pionier-der-kuenstl…
Five ways AI might destroy the world: ‘Everyone on Earth could fall over dead in the same second’. The Guardian, Fri 7 Jul 2023, https://www.theguardian.com/technology/2023/jul/07/five-ways-ai-might-d…
Geoffrey Hinton – Banquet speech, NobelPrize.org. Nobel Prize Outreach AB 2025. Fri. 3 Jan 2025. https://www.nobelprize.org/prizes/physics/2024/hinton/speech/
Geoffrey Hinton – Interview, NobelPrize.org. Nobel Prize Outreach AB 2025. Fri. 3 Jan 2025. <https://www.nobelprize.org/prizes/physics/2024/hinton/interview/&gt;
Geoffrey Hinton, Wikipedia https://en.wikipedia.org/wiki/Geoffrey_Hinton. 2024
Jaki będzie świat w epoce AI?, wywiad Macieja Małka z prof. Janem Kreftem, 2024 „Eurogospodarka” nr 8 2024, https://eurogospodarka.eu/e-wydania/
KI-Koryphäe Geoffrey Hinton: Wir sollten sehr ängstlich sein, Der Spiegel, 14.09 2024, https://www.spiegel.de/netzwelt/web/ki-erfinder-geoffrey-hinton-ultimat…
Romanes Lecture: ‘Godfather of AI’ speaks about the risks of artificial intelligence, 2024 https://www.ox.ac.uk/news/2024-02-20-romanes-lecture-godfather-ai-speak…
The Nobel Prize in Physics 2024, NobelPrize.org. Nobel Prize Outreach AB 2025. Thu. 2 Jan 2025. https://www.nobelprize.org/prizes/physics/2024/summary/