Rewolucja AI

na grafice kolorowe trójwymiarowe okręgi

Musimy edukować i oswajać. Nie ma innej drogi

Magdalena Święcicka: Od prawie roku ChatGPT czy ogólnie nowe możliwości sztucznej inteligencji są na ustach całego świata. Według dostępnych źródeł ChatGPT zyskał ponad milion użytkowników w ciągu zaledwie pięciu dni. Dla porównania Netflix osiągnął ten wynik w 41 miesięcy, Facebook w 10, a Instagram w ciągu 2,5 miesiąca. Zanim jednak spytam, czy stoimy na progu kolejnej rewolucji, a może jesteśmy już w jej trakcie, wyjaśnijmy, czym jest ChatGPT i jakie są jego zastosowania?
Andrzej Sobczak: ChatGPT jest narzędziem informatycznym, stworzonym przez amerykańską firmę OpenAI, które służy jako kanał dostępowy do dużego modelu językowego (Large Language Model). Dlaczego wspomniałem, że jest to firma amerykańska? To ma istotne znaczenie w kontekście przetwarzania danych osobowych. Dane te są przetwarzane w sposób zautomatyzowany na serwerach amerykańskich, co ma znaczenie w kontekście tajemnicy przedsiębiorstwa. Wszystko to, co wprowadzamy do ChatGPT zgodnie z umowami licencyjnymi, może być wykorzystywane do jego douczania w przyszłości.

Jakie są główne zalety użytkowania ChatGPT w porównaniu do tradycyjnych systemów interakcji człowiek–komputer?
Podstawową zaletą korzystania z ChatGPT jest obniżenie bariery wejścia prawie do zera. Wcześniejsze mechanizmy korzystania z rozwiązań bazujących na sztucznej inteligencji wymagały pewnej wiedzy, czy to technologicznej czy nawet programistycznej. Teraz możemy zobaczyć moc i uniwersalność rozwiązania praktycznie tak, jakbyśmy rozmawiali z cyfrowym „partnerem”, a nawet przyjacielem. Wielu użytkowników właśnie tak postrzega to rozwiązanie. Natomiast sedno wykorzystania ChatGPT polega na jego olbrzymiej uniwersalności, przygotowanej do pracy w bardzo różnych obszarach, od sztuki, przez rozrywkę, aż po naukę. W uproszczeniu ChatGPT jest jak ogromna gąbka, która wchłania wiedzę z internetu. Po przefiltrowaniu i przetworzeniu informacji jest w stanie generować odpowiedzi, które przypominają rozmowę z inteligentnym człowiekiem.

Dla wielu to wciąż apokaliptyczna wizja, bliska futurystycznym filmom z lat 80., a przecież dziś – nie za 10 czy 20 lat, przyszło się nam z nią zmierzyć. Sam Altman, właściciel OpenAI, twórca ChatGPT, niedawno zwrócił się do Kongresu USA z prośbą o namysł w kwestii wprowadzenia regulacji prawnych dotyczących sztucznej inteligencji. To brzmi dość niepokojąco.
W przypadku ChatGPT mamy do czynienia z modelami uczenia maszynowego, które mieszczą się w kategorii głębokiego uczenia, czyli zaawansowanych sieci neuronowych, które rzeczywiście uczą się w sposób nienadzorowany. Metoda ta różni się od wcześniejszych generacji, które wymagały intensywnej interakcji i dużego wkładu ludzkiego, szczególnie w przygotowanie danych. Nadzór człowieka jest oczywiście nadal konieczny, ale jego rola jest znacznie mniejsza niż w przypadku wcześniejszych generacji sztucznej inteligencji, które także ewoluują.

Mamy jeszcze nad tym kontrolę?
Sztuczna inteligencja, która sama uczy inną sztuczną inteligencję, wymaga dwóch rzeczy. Przede wszystkim dużej mocy obliczeniowej, która generuje koszty. Uczenie tak skomplikowanych modeli, które dają tak spektakularne efekty, to koszt rzędu dziesiątek milionów dolarów (chociaż w ostatnich latach uległ on istotnemu zmniejszeniu). Poza tym wymaga to również dużo czasu i dużej liczby danych, co prowadzi do pytania, skąd wziąć te dane i czy np. OpenAI miał do nich prawo. Już mamy do czynienia z pierwszymi pozwaniami ze strony twórców książek, którzy uważają, że OpenAI naruszyło ich prawa autorskie, wykorzystując treści ich książek do uczenia maszynowego. W związku z tym trudno jest przewidzieć, w którą stronę to wszystko się potoczy, ale na pewno będziemy potrzebować regulacji, bo rzeczywiście nie jesteśmy w stanie kontrolować tak dużych modeli.

Sam Altman wiosną tego roku odwiedził Polskę. Wziął udział w spotkaniu, podczas którego dominowały pytania z publiczności dotyczące obaw o rynek pracy. Czy te niepokoje są według Pana uzasadnione? Czy sztuczna inteligencja wkrótce zastąpi dziennikarzy, copywriterów, grafików, muzyków?
… I coraz częściej analityków danych. Wydaje mi się, że w perspektywie trzech do pięciu lat na pewno tak. Może teraz jeszcze przez rok, dwa lata będziemy w stanie sobie radzić. Organizacje, zwłaszcza duże, są mało elastyczne i nie zawsze otwarte na innowacje. Natomiast patrząc na efektywność kosztową i jakościową, którą te narzędzia zapewniają, można przewidzieć, że firmy będą podążać za korzyściami finansowymi. Ewidentnie widać, że można usprawnić, uprościć, zwiększyć i poprawić jakość działania przedsiębiorstw. Odpowiadając na pytanie o obawy, zdecydowanie możemy je mieć i to na kilku poziomach. Po pierwsze, na poziomie mikro, czyli pojedynczych osób. Nagle zmieni się sposób pracy pojedynczego dziennikarza czy nauczyciela akademickiego. Część osób skorzysta z tych narzędzi, część nie. Już wtedy będzie widać różnicę w efektywności. Nie mówiąc o studentach, którzy w naturalny sposób używają nowych technologii. Drugi poziom to poziom przedsiębiorstw. Część firm, które zainwestują i wprowadzą te rozwiązania, staną się bardziej efektywne i konkurencyjne niż te, które tego nie zrobią. Będzie to zresztą widać w praktyce w ciągu dwóch, trzech lat.

Jeszcze niedawno myśleliśmy o perspektywie 10–20 lat dla tych rozwiązań, a dziś mówi Pan o nawet dwóch, trzech latach. Szalone tempo. W dodatku zmiana dotknie tak wielu obszarów naszej codzienności.
To prawda, nastąpiło ogromne przyspieszenie. Wielu ludzi było i nadal jest nieprzygotowanych na tę rewolucję. Nawet pracownicy Microsoftu nie byli niczego świadomi, a teraz przechodzą dramatyczną transformację jako firma. Będą jednym z pierwszych globalnych graczy w dziedzinie AI, a wszystkie ich produkty mają mieć wbudowane mechanizmy AI. To zmieni zarówno pracę programistów, jak i normalnego biznesu, gdy będziemy mieli do dyspozycji inteligentnego asystenta cyfrowego, który znacznie usprawni nasze działania.

Będziemy świadkami wyścigu „cyfrowych zbrojeń” między firmami?
Absolutnie. Chodzi o efektywność i szybkość zarabiania pieniędzy. Wrócę na chwilę do poziomów, o których wspominałem wcześniej. Jest jeszcze trzeci poziom – całych gospodarek. Proszę zwrócić uwagę, że teraz duże modele językowe mogą być źródłem przewagi konkurencyjnej. Nie tylko korporacje, ale też rządy są żywo zainteresowane tymi rozwiązaniami.

Jak zatem znaleźć balans pomiędzy obawami a koniecznością dostosowania się do nowych okoliczności, bo taka z pewnością się już pojawia?
Wydaje mi się, że kluczem jest odpowiednia edukacja. Mniej obawiamy się tego, co rozumiemy i z czego potrafimy korzystać. Czy fakt, że nie będziemy korzystać z nowych technologii, spowoduje, że świat nie pójdzie w tę stronę? Absolutnie nie. Słyszałem kiedyś opinię, że efektywność jest głównym motorem postępu XXI wieku. Sądzę, że musimy patrzeć na to z tej perspektywy. Na pewno to zmieni sposób wykonywania wielu zawodów. Podpisuję się pod słowami, że AI nas nie zwolni. Zwolnią nas osoby, które potrafią umiejętnie wykorzystywać AI. Po prostu będą bardziej efektywne.

Skoro jesteśmy w uczelni i rozmawiamy o edukacji, jak sztuczna inteligencja może zmienić funkcjonowanie szkolnictwa?
Jak odpowiedział kiedyś pan rektor Piotr Wachowiak na jedno z tego typu pytań: „Prace analityczne trwają. Nie wiemy jeszcze jak, ale wiemy, że to się zmieni”. Jestem pewien, że studenci będą korzystać z dobrodziejstw sztucznej inteligencji i musimy być na to przygotowani. Na przykład Harvard już na to pozwolił, argumentując, że od rozwoju nie ma ucieczki. Słuchałem niedawno rozmów w klubach studenckich i otwarcie padają deklaracje: „Zrezygnuję z Facebooka, z Instagrama, z TikToka, ale nigdy nie zrezygnuję z ChatGPT”. To jest cytat. Musimy przede wszystkim zrozumieć ograniczenia AI. Jeżeli ktoś tego nie umie zweryfikować, to może dojść do niezręcznych, a nawet kłopotliwych sytuacji. Dlatego przed nami, edukatorami, stoi ogromne wyzwanie.

Według Pana powinno się zatem edukować, oswajać. A co z etyką?
Zdecydowanie potrzebny jest kodeks zachowań etycznych. Kto powinien o ten kodeks zachowań etycznych zadbać? Zapewne zależy to od poziomu, o którym rozmawiamy. Pewnie na poziomie centralnym przygotowuje się do tego Unia Europejska. W następnych krokach kwestia ta trafi na poziom państw, a potem być może na uczelnie, zwłaszcza te, które same decydują, czy wprowadzą narzędzia AI. Być może tutaj na poziomie uczelni wyższych zostanie powołana jakaś specjalna rada, która te wytyczne stworzy, lecz przy takiej prędkości uczenia się tych modeli konieczne jest podjęcie działań „na wczoraj”.

Odnoszę wrażenie, że u podstaw wszystkich lęków związanych ze sztuczną inteligencją leży jedno pytanie: czy AI zastąpi człowieka, stworzy własną cywilizację, w której nie będziemy jej do niczego potrzebni?
Głęboko wierzę, że nie. Inaczej: na pewno w stu procentach nie zastąpi człowieka.

To w końcu wiara i nadzieja czy pewność?
AI nie zastąpi człowieka w 100%. W ilu procentach zastąpi, tego nie wiem. Mam nadzieję, że zostawi nam jeszcze sporo miejsca.


Andrzej Sobczak

DR HAB. ANDRZEJ SOBCZAK, prof. SGH, kierownik Zakładu Zarządzania Informatyką, Instytut Informatyki i Gospodarki Cyfrowej, Kolegium Analiz Ekonomicznych SGH.