Sztuczna inteligencja – kontrowersje i ostrzeżenia

Grafika z Elżbietą Mączyńską

To trzecia część rozważań o sztucznej inteligencji i cywilizacyjnym przełomie, przesileniu, jakim skutkuje.

W pierwszej części „Sztuczna inteligencja – potwór czy dobrodziejstwo” [Gazeta SGH nr 3 (374)] przedstawione zostały cechy potencjału sztucznej inteligencji (Artificial Intelligence – AI) i jej wpływ na przemiany społeczno-gospodarcze, jej jasne i ciemne strony. Druga część „Sztuczna inteligencja a Indeks ksiąg zakazanych” [Gazeta SGH nr 4 (375)] stanowi nawiązanie do owych ciemnych stron AI, będących podłożem rozmaitych obaw, na tyle silnych, że obecnie w międzynarodowych debatach na ten temat formułowane są nawet postulaty wstrzymania naukowych prac nad jej rozwojem (sic!). 

Zatem strach i obawy dotyczące AI wskazują, że historia lubi się powtarzać, choć wynikające z niej lekcje nie zawsze są starannie odrabiane. A jakie wątpliwości w sprawie sztucznej inteligencji mają czołowi eksperci? 

W ocenach potencjału AI szczególnie symptomatyczne jest to, że nawet niedawny wielki zwolennik sztucznej inteligencji Elon Musk, urodzony w Pretorii w RPA kanadyjsko-amerykański magnat, założyciel bądź współzałożyciel takich, bazujących na sztucznej inteligencji, firm technologicznych, jak PayPal, SpaceX, Tesla, a także współzałożyciel Open AI, jednej z wiodących firm zajmujących się AI, wezwał w 2023 r. do wstrzymania jej rozwoju. Uznaje bowiem AI za „miecz obosieczny” i podkreśla, że obecnie trudno przewidzieć, jakie mogą być następstwa jej stosowania. Musk ostrzega, że AI może zagrażać ludzkości. Wskazuje też na niebezpieczny dla człowieka wyścig w badaniach nad AI. Ostrzeżenia te dotyczą zwłaszcza takich narzędzi i programów, jak ChatGPT firmy OpenAI, chatbot Bing AI firmy Microsoft i Bard firmy Alphabet.

Po wypuszczeniu przez OpenAI w 2023 r. kolejnej wersji chatbota ChataGPT z inicjatywy Elona Mauka oraz Steve’a Wozniaka, współzałożyciela firmy Apple, opublikowany został i podpisany przez ponad tysiąc ekspertów i badaczy AI list otwarty z wezwaniem do wstrzymania co najmniej na pół roku badań nad takimi systemami sztucznej inteligencji, które będą w stanie konkurować z poziomem inteligencji ludzkiej. List ten zyskał już kilkadziesiąt tysięcy podpisów.
Publiczną krytykę szybkiego rozwoju narzędzi AI podjął też profesor Geoffrey Hinton, kanadyjsko-brytyjski informatyk, jeden z pionierów sztucznej inteligencji, uznawany za jej intelektualnego ojca chrzestnego. Choć Hinton nie był sygnatariuszem rzeczonego listu, to jednak niedawno zrezygnował ze współpracy z Google (a ścisłej z Alphabet), gdy firma ta pod presją konkurencji przyśpieszyła prace badawcze nad AI. Hinton przestrzega zarazem, że wyścig badawczy w tym obszarze staje się niebezpieczny, tym bardziej, że AI już dziś może być wykorzystywana jako narzędzie wytwarzania i szerzenia dezinformacji, obejmującej m.in. zdjęcia, nagrania, teksty itp. 

Z kolei na rzeczony list otwarty i zawarty w nim postulat moratorium badawczego sceptycznie zareagowało wielu naukowców i ekspertów AI, w tym m.in. Bill Gates. 

Niemniej na ogół nie ma sporu co do tego, że AI pilnie wymaga bardzo starannie przemyślanych regulacji nie tylko krajowych, lecz także, a może przede wszystkim, ponadnarodowych. Nie ma też sporu co do tego, że z rozwojem AI wiąże się realne ryzyko nieprawidłowego, szkodliwego, wynaturzonego jej wykorzystywania, zagrażającego ludzkości. 

Zatem nadzieja w regulacjach ukierunkowanych na optymalne wykorzystywanie AI. Optymalne to znaczy takie, które procentować będzie korzyściami wynikającymi z dobrodziejstw AI, ale zarazem stworzy bariery dla wynaturzeń w jej stosowaniu. Ale regulacje dotyczące AI to temat na kolejny felieton.  


PROF. DR HAB. ELŻBIETA MĄCZYŃSKA-ZIEMACKA, SGH, honorowa prezes Polskiego Towarzystwa Ekonomicznego