Sztuczna inteligencja – konieczność regulacji prawnych

Elzbieta Mączyńska

 

To czwarta i ostatnia już część eseju o sztucznej inteligencji. W pierwszej części Sztuczna inteligencja – potwór czy dobrodziejstwo [Gazeta SGH, nr 3 (374)] przedstawione zostały cechy potencjału sztucznej inteligencji (Artificial Intelligence – AI) i jej wpływ na przemiany społeczno-gospodarcze oraz jasne i ciemne strony. Druga część Sztuczna inteligencja a Indeks ksiąg zakazanych [Gazeta SGH, nr 4 (375)] stanowiła nawiązanie do owych ciemnych stron AI, będących podłożem rozmaitych obaw, na tyle silnych, że obecnie w międzynarodowych debatach na ten temat formułowane są nawet postulaty wstrzymania naukowych prac nad jej rozwojem (sic!). Z kolei w części trzeciej Sztuczna inteligencja – kontrowersje i ostrzeżenia [Gazeta SGH, nr 1 (378)] przedstawione zostały główne obawy naukowców, ale też praktyków rozwoju AI, dotyczące przede wszystkim mającego obecnie miejsce wyścigu badawczego w tym obszarze między czołowymi, światowymi potentatami technologicznymi. Wśród znawców AI nie brakuje krytycznych opinii, że taki wyścig i pozyskiwane w wyniku tego coraz bardziej zawansowane, żeby nie powiedzieć wszechmocne, systemy AI nie tylko nie będą służyć dobru ludzkości, lecz wręcz mogą wymknąć się spod kontroli, co może mieć dramatyczne następstwa. Nie brakuje przy tym rozmaitych kontrowersji na ten temat.

Generalnie zaś nie ma sporu co do tego, iż mimo dobrodziejstw zastosowań AI, z jej niekontrolowanym rozwojem może jednak wiązać się realne ryzyko nieprawidłowego, szkodliwego, wynaturzonego jej wykorzystywania, zagrażającego ludzkości. W analizach i debatach na ten temat nie wyklucza się nawet prawdopodobieństwa całkowitej zagłady ludzkości. Ostrzeżenia dotyczą przede wszystkim rozwoju AGI – General Artificial Intelligence (Strong Artificial Intelligence – ogólna/ silna sztuczna inteligencja).To system jeszcze co prawda niefunkcjonujący w praktyce, ale badania na ten temat bardzo się intensyfikują. To system dorównujący możliwościom ludzkiej inteligencji, a nawet przewyższający ją przede wszystkim pod względem mocy obliczeniowych. Można bowiem AI określić jako sztuczny mózg, który w przeciwieństwie do ludzkiego nie ma biologicznych ograniczeń jego rozwoju. Upraszczając, można określić AI jako specyficzny „mózg” stanowiący połączenie i odpowiednie skonfigurowanie potencjału materialno-fizycznego, biologicznego i cyfrowego, bazującego na algorytmach matematycznych.

KRYTYKA AI – LEKTURY I LUDDYSTYCZNE REKOMENDACJE

W poprzednich częściach niniejszego eseju sygnalizowałam kwestie dotyczące krytyki i obaw związanych z rozwojem AI. Dlatego też w tym miejscu ograniczam się do odesłania do licznych publikacji na ten temat zarówno tych wcześniejszych, jak np. głośna, dostępna także w polskim przekładzie książka z 2005 r. amerykańskiego futurologa Raya Kurzweila The Singularity Is Nearer (Osobliwość nadchodzi), jak też wielu najnowszych raportów i opracowań, w tym dostępnych w sieci. Do pominięcia w tym miejscu bardziej szczegółowych charakterystyk opinii na temat AI, w tym jej krytyki, skłoniły mnie nie tylko ramy felietonu, ale też tekst Jakuba Growca pod wielce wymownym tytułem AI może wymknąć się spod kontroli. Gdzie są luddyści, kiedy ich najbardziej potrzebujemy? [Gazeta SGH, nr 1 (378)]. Zachęcam zarazem do lektury wcześniejszych, bardzo informacyjnie bogatych publikacji tego autora, w tym na łamach „Obserwatora Finansowego”, gdzie m.in. wskazuje iż: „Większość badaczy sztucznej inteligencji prognozuje, że między 2040–2050 rokiem algorytmy osiągną poziom ogólnej inteligencji człowieka”. I z pewnością nie bez racji autor ten ocenia, że „ta perspektywa niebezpiecznie się zbliża, a za mało mówimy o tym w debacie publicznej”.

Lektury tych publikacji jednak nie przekonują (przynajmniej mnie) o konieczności wstrzymywania prac badawczych nad rozwojem AI. Mam tym samym wątpliwości co do zasadności apelu Jakuba Growca o luddystyczne działania. Wystarczy przypomnieć, że XVIII-wieczni luddyści przecież przegrali, chcąc poprzez niszczenie maszyn parowych i czółenek tkackich ocalić system manufakturowy. Gdyby to się udało, świat nie doświadczyłby, a z pewnością nie tak szybko, dobrodziejstw uprzemysłowienia i przekształcenia feudalizmu w kapitalizm. Ale też dobrodziejstw stopniowego skracania czasu pracy i uwalniania ludzi od prac szczególnie uciążliwych (sygnalizowałam te kwestie w poprzednich częściach tego felietonu).

Dziś AI to jednak wciąż jeszcze wielka niewiadoma. To swego rodzaju „osesek”, z którego nie wiadomo do końca co wyrośnie. Dlatego też mam wątpliwości, czy zasadny byłby rekomendowany przez Growca swego rodzaju neoluddyzm dotykający AI. Podtrzymuję tym samym opinię, że postępu nie da się zatrzymać trwale, a potwierdza to cała historia ludzkości. Zarazem podtrzymuję też tezę, że taką, na szczęście nieudaną, próbą był przed wiekami Indeks ksiąg zakazanych. Choć według prof. Growca nie jest to porównanie zasadne, bo wówczas nie były to działania o podłożu naukowym, lecz chodziło o ochronę biblijnego dogmatu przed osiągnieciami naukowymi, a tym samym ochronę pozycji Kościoła. W przeciwieństwie do tego – jak podkreśla Growiec – obecna krytyka rozwoju AI nie ma charakteru nienaukowego. Mimo to rodzi się jednak pytanie, czy rzeczona krytyka opiera się na dostatecznie silnych podstawach naukowych. Wątpliwości takie wynikają chociażby z faktu wciąż jeszcze raczej „oseskowej” fazy rozwoju AI i wielu, wielu niewiadomych co do tego, czy ów „osesek” rzeczywiście przekształci się we „wszechwładnego mocarza”. Rodzi się zarazem pytanie, czy poprzez ograniczenia rozwoju rzeczonego „oseska” nie zostanie wytracony dobroczynny potencjał nowych systemów AI. O ogromie takiego potencjału przekonuje już obecnie wiele zastosowań AI. Potwierdzają to takie przykłady, jak chociażby efektywne wspomaganie przez AI pracy medyków, czego dowodzi m.in. robot wykrywający szczególnie agresywnego raka skóry (czerniaka) szybciej i trafniej niż doświadczeni dermatolodzy. O dobroczynnym potencjale AI przekonuje też np. singapurski robot mogący zastąpić pracę członków rad nadzorczych czy chiński robot do wykrywania korupcji. Tego typu przykłady można mnożyć. Czy zatem postulowane przez niektórych ekspertów zatrzymanie badań nad rozwojem AI nie ograniczy generowania nowych tego typu dobrodziejstw? Czy nie wystarczałyby należycie silne sprawczo regulacje prawne, ukierunkowane na kontrolę wykorzystywania AI w celach zgodnych z celami dobrostanu ludzkości, zarazem zgodnych ze standardami dotyczącymi moralności i etyki? Tego typu regulacje już są stopniowo wdrażane na różnych szczeblach, w tym także na szczeblu akademickim. To są wciąż pytania otwarte, wymagające pilnych rozstrzygnięć przede wszystkim po to, żeby „nie wylewać dziecka z kąpielą”. Towarzyszące wykorzystywaniu AI możliwe wynaturzenia to wszak nie wina AI, lecz jej użytkowników.

SZTUCZNA INTELIGENCJA JAK NÓŹ

W kontekście historycznych doświadczeń (sygnalizowanych w poprzednich częściach felietonu), związanych z losami naukowych odkryć, wystosowany w XXI wieku apel o wstrzymywanie prac nad rozwojem sztucznej inteligencji może dziwić i budzić wątpliwości. Taki apel dowodzi zarazem, że historia jednak lubi się powtarzać. Równocześnie ta sama historia wskazuje, że niewłaściwe wykorzystywanie nowych odkryć, ich wykorzystywanie „przez złych aktorów” może prowadzić do katastrofalnych następstw. Dylematów z tym związanych doświadczyli dotkliwie m.in. tak znani naukowcy jak szwedzki przemysłowiec i wynalazca dynamitu Alfred Nobel (1833–1896) oraz amerykański fizyk Julius Robert Oppenheimer (1904–1967), wynalazca broni atomowej. Nie brakuje też już obecnie przykładów zagrożeń i nadużyć wynikających ze stosowania AI, m.in. w sferze biotechnologii czy w celach wojennych, dezinformacyjnych, politycznych, w tym wyborczych i innych.

Trudne moralne dylematy odkrywców [vide Gazeta SGH, nr 1 (378)] potwierdzają, że niemal każda technika i technologia ma swoje jasne i ciemne strony, potencjał pozytywny i negatywny. Tak było w przypadku m.in. dynamitu oraz atomu i tak też jest obecnie w przypadku sztucznej inteligencji. Jednak to tylko od ludzi zależy, jak ten potencjał jest czy będzie wykorzystywany. To tylko narzędzie. I jak każde narzędzie może być wykorzystywane prawidłowo lub nieprawidłowo. Narzędzie jak nóż, może służyć konstruktywnym przedsięwzięciom, może ratować życie, ale może też niszczyć, zabijać. W pełni dotyczy to też AI. To nowe, wciąż jeszcze wielce zagadkowe narzędzie, relatywnie nowa idea. Ale nienowe są ostrzeżenia przed nieprzemyślanym wdrażaniem wynalazków. Takie ułomności mogą nawet skutkować dehumanizacją i wynaturzeniami w systemie wartości, w tym także w sferze moralności, zaufania itp. Już w 1946 r. przestrzegał przed tym Albert Einstein, który w liście do Ottona Juliusburgera pisał: „Jestem przekonany, że przerażający upadek moralności, jakiego jesteśmy świadkami w dzisiejszych czasach, jest rezultatem mechanizacji i dehumanizacji naszego życia – zgubnych produktów ubocznych mentalności naukowo-technicznej. Nostra culpa!”.

Ale zarazem przecież zarówno historia, jak i obecne przemiany dowodzą słuszności opinii m.in. Roberta Kiyosaki, że „nie ma nic potężniejszego” od „idei, której czas nadszedł, ale też i nie ma nic bardziej szkodliwego od uporczywego trzymania się starych idei”. Barierą zaś rozwoju nowych idei jest m.in. ich nie w pełni właściwe pojmowanie czy wręcz niezrozumienie. Dotyczy to także AI.

AI – ANI SZTUCZNA, ANI INTELIGENCJA

Zarówno doświadczenia historyczne, jak i obecna rzeczywistość wskazują na pilną potrzebę działania na rzecz lepszego rozumienia istoty i potencjału sztucznej inteligencji. Na lukę pod tym względem wskazuje m.in. matematyk Andrzej Kisielewicz. W artykule pod wielce wymownym tytułem „Bajki o sztucznej inteligencji i prawdziwe zagrożenia” i w książce na ten temat obnaża m.in. nieporozumienia wynikające już z samej nazwy „sztuczna inteligencja”. Kisielewicz ocenia m.in., że większość informacji na temat GPT i możliwości sztucznej inteligencji, informacji popularyzowanych w mediach, „w bardzo małym stopniu opiera się na prawdzie”. I tak, wbrew medialnym doniesieniom „ChatGPT nie myśli, nie wnioskuje, niczego nie rozumie i nie jest żadną «sztuczną inteligencją», o ile termin ten rozumiemy zgodnie z ideami ojców dziedziny artificial intelligence jako «autonomiczny program myślący na podobieństwo człowieka»”.

Tak rozumiana sztuczna inteligencja jeszcze nie istnieje. Natomiast istniejące narzędzia tego typu to specjalistyczne systemy AI. Zdaniem Kisielewicza, do systemów takich znacznie bardziej przystaje nazwa „inteligencja obliczeniowa” (ang. computational intelligence). Kisielewicz przypomina, że: „Przez pewien czas była tendencja, żeby nazwę artificial intelligence zamienić właśnie na computational intelligence, ale zwyciężyły, jak widać, względy marketingowe, a razem z nimi ciągle trwające pomieszanie pojęć w głowach klientów, odbiorców i sponsorów”.

Nota bene już sama nazwa narzędzia, jakim jest GPT (ang. generative pre-trained transformer), czyli wstępnie przeszkolony transformator, wskazuje, że jest to narzędzie nieposiadające żadnej zdolności rozumienia czy chociażby odróżniania prawdy od fałszu.

Zdaniem Kisielewicza, postulaty, żeby zabronić badań nad sztuczną inteligencją oparte są na nieporozumieniach związanych z nazwą „sztuczna inteligencja”: „Jeśli już, to trzeba by postulować zaprzestanie dalszego rozwoju technologii informacyjnych w ogóle, bo trudno tu oddzielić nowoczesne produkty niosące zagrożenia od tych ewentualnie bezpiecznych (kto miałby dokonywać segregacji?)”.

Bez prawidłowego rozumienia pojęcia „sztuczna inteligencja” trudno będzie o trafne rozwiązania i regulacje dotyczące bezpiecznego funkcjonowania i wykorzystywania tego narzędzia w różnych dziedzinach życia społeczno-gospodarczego i polityki.

Jest to istotne tym bardziej, że nie ma sporu co do tego, iż konieczne są regulacje ukierunkowane na kontrolę rozwoju i optymalne wykorzystywanie dobrodziejstw AI oraz eliminowanie, a przynajmniej ograniczanie jej negatywnych stron. Chodzi o takie wykorzystywanie, które sprzyja poprawie jakości życia i bezpieczeństwa ludzkości, sprzyja uwalnianiu ludzi od prac rutynowych, a także innych żmudnych prac na rzecz pozyskiwania czasu na inne cele, w tym na rozwój intelektualny, duchowy i inne zainteresowania.

POTRZEBA REGULACJI

Sztuczna inteligencja i związane z nią przesilenie cywilizacyjne, czyli przekształcanie się cywilizacji industrialnej w nową, wciąż jeszcze niedodefiniowaną cywilizację, to swego rodzaju trzęsienie ziemi, burzące stare struktury i wzorce. Wypracowywanie nowych jest trudnym, złożonym procesem, wymagającym pokonania wielu barier, w tym wynikających ze zderzania się, nakładania się starych i nowych wzorców cywilizacyjnych. Przesilenie cywilizacyjne to swego rodzaju kapitalny remont połączony z burzeniem „ścian nośnych” dotychczasowego systemu czy systemów. Dotyczy to struktur instytucjonalnych, reguł globalizacji, funkcjonowania i roli państwa, zmian modeli edukacji, biznesu i pracy, a także modeli funkcjonowania gospodarstw domowych, życia ludzi itp. Tworzy to, zwłaszcza w początkowej fazie przemian, podatny grunt dla chaosu, głębokiego nieładu i rozmaitych błędów czy nawet groźnych wynaturzeń. Taki „remont kapitalny” przeważnie obnaża konstrukcyjne wady, przestarzałość i dysfunkcjonalność dotychczasowych rozwiązań. Stąd potrzeba nowych, w tym nie tylko krajowych, lecz także globalnych regulacji.

Obecnie wiele krajów i organizacji podejmuje prace z tym związane. Intensyfikowane są m.in. prace na ten temat na forum ONZ. Stąd też sekretarz generalny ONZ Antonio Guterres w czerwcu 2023 r. poparł wystosowany przez przedstawicieli wielu firm technologicznych, specjalizujących się w dziedzinie AI, wniosek o utworzenie międzynarodowego organu nadzorującego jej rozwój i wykorzystywanie. Wskazano przy tym, że pomocnym wzorcem mogłyby tu być rozwiązania i narzędzia stosowane w funkcjonowaniu Międzynarodowej Agencji Energii Atomowej (MAEA). To bowiem organizacja odpowiedzialna za rozwiązania służące bezpiecznemu, pokojowemu wykorzystywaniu energii jądrowej. Wiele zaś wskazuje, że obecnie potrzeba utworzenia podobnej organizacji, działającej na rzecz bezpieczeństwa w wykorzystywaniu sztucznej inteligencji oraz jej rozwoju na rzecz zwiększania dobrostanu ludzkości, staje się szczególnie pilna. Niemniej ważne jest też zgłębianie wiedzy i rozwój edukacji na ten temat.

KONKLUZJA

Sztucznej inteligencji nie powinniśmy się bać. Stanowi ona wciąż jeszcze nie do końca rozpoznany potencjał zarówno dobroczynny dla ludzkości, jak i negatywny. Dlatego też istotne jest przed wszystkim zgłębianie i upowszechnianie wiedzy na temat AI, jej jasnych i ciemnych stron. Fundamentalne znaczenie ma zwłaszcza mądre, etyczne jej wykorzystywanie. Jest to istotne tym bardziej, że wiedza i mądrość nie zawsze chodzą w parze, czego dowody widoczne są nader często, także w obszarze AI. W wielu publikacjach zwraca się uwagę, że AI to na razie swego rodzaju „osesek”, ale właśnie dlatego niezbędne są mądre, skuteczne regulacje prawne, sprawiające, że ów „osesek” będzie rozwijał się prawidłowo, zgodnie z oczekiwaniami i potrzebami ludzkości i że nie wyrośnie z niego jakieś groźne dla ludzkości monstrum. Prace nad takimi regulacjami trwają i na szczęście intensyfikują się w wielu krajach, w tym zarówno w USA, w Unii Europejskiej, jak i na forum ONZ. Szczegółowa analiza tych kwestii to odrębny, szczególnie obecnie, ważny temat.  

 


Elżbieta Mączyńska

PROF. DR HAB. ELŻBIETA MĄCZYŃSKA-ZIEMACKA, SGH, honorowa prezes Polskiego Towarzystwa Ekonomicznego