II Konferencja Prakseologiczna „Prakseologia, etyka, sztuczna inteligencja"
Jakie etyczne, społeczne i gospodarcze wyzwania generuje rozwój SI? Czy posługiwanie się pojęciem świadomości w odniesieniu do SI może mieć sens? Jeśli tak, to jak należałoby je wówczas rozumieć? Czy istnieje możliwość stworzenia sztucznego podmiotu moralnego? O etycznych systemach normatywnych oraz ich możliwym zastosowaniu we wspieraniu, a także regulacji warunków rozwoju i zastosowania SI rozmawiano na II Konferencji Prakseologicznej „Prakseologia, etyka, sztuczna inteligencja", organizowanej przez Katedrę Filozofii SGH.
W ciągu ostatnich kilku lat miał miejsce znaczący rozwój sztucznej inteligencji (AI) i gwałtowny wzrost jej zastosowania w życiu codziennym. W coraz większym stopniu wpływa ona na procesy podejmowania przez nas decyzji i na nasze działania, co rodzi pytania o granice naszej podmiotowości w zetknięciu z techniką.
Zagadnienie to podejmuje m.in. profesor Wojciech Gasparski w jednym ze swoich ostatnich artykułów pt. „AI przedsiębiorczość: sztuczna inteligencja jako wyzwanie dla prakseologii i etyki biznesu”, opublikowanym w piśmie „Prakseologia” (nr 161/2). Zauważa on, że w poszukiwaniu odpowiedzi na owe pytania pomóc powinny nie tylko rozwiązania z zakresu ergonomii, ale także etyka.
II Konferencja Prakseologiczna „Prakseologia, etyka, sztuczna inteligencja" była przestrzenią do dyskusji nad tą problematyką pomiędzy etykami, prakseologami oraz specjalistami zajmującymi się sztuczną inteligencją.
Poniżej wybrane abstrakty z referatów na konferencji:
dr hab. Maria Gołębiewska, prof. IFiS PAN
Antropologiczne i ontologiczne stanowiska transhumanizmu
Transhumanizm jest określany jako „filozoficzny ruch” lub szerzej jako „ruch intelektualny”, którego celem byłoby domniemane „ulepszenie” ludzkiego gatunku, w tym możliwości poznawczych i długości życia. Tak pojmowany transhumanizm bywa rozpatrywany w kontekście dotychczasowego humanizmu i wówczas pisze się o poprawie domniemanego naturalnego wyposażenia człowieka, również pojmowanego esencjalnie.
Poprawa polega w tym przypadku na ekspozycji i prymacie cech potrzebnych bądź „właściwych”, na przykład z moralnego punktu widzenia. Celem byłaby m.in. moralna poprawa ludzkości. Przede wszystkim jednak poprawa jednostek ludzkich dokonywałaby się dzięki ingerencjom nauki oraz wprowadzaniu zmian technologicznych jak np. biomedia. Dyskusje transhumanistów dotyczą także potencjalnych technologicznych zagrożeń i etycznych dylematów, które pojawiają się wraz z nowymi technologiami, wpływającymi na gatunkowe wyposażenie. (...)
dr Wiesław Banach (UAM)
Kulturowe i społeczne implikacje rozwoju AI
Referat jest próbą refleksji nad kulturowymi i społecznymi implikacjami rozwoju sztucznej inteligencji. Z jednej strony, oczywistymi są pozytywy wynikające z jej efektywnego wykorzystywania w kolejnych dziedzinach życia, z drugiej zaś, niepokoić mogą oznaki braku ogólniejszej refleksji nad cywilizacyjnymi skutkami wszechobecnej ekspansji AI.
Ten deficyt to efekt charakterystycznego dla inżynierów i innych przedstawicieli nauk ścisłych scjentyzmu oraz „myślenia tunelowego”, czyli postrzegania wszystkiego oddzielnie i tym samym ignorowania sygnałów o pojawiających się zagrożeniach. Czy zatem w tej sytuacji zasadnym będzie wciśnięcie hamulca i kto ewentualnie miałby być hamulcowym?
prof. dr hab. Wojciech Paprocki (SGH)
AI w sferze 'business to business' (B2B) – jak będą się zmieniać łańcuchy wartości?
Wzrastająca popularność generatywnych rozwiązań sztucznej inteligencji odbywa się w krajach członkowskich UE przy spełnieniu następującego warunku: podmioty gospodarcze deklarują, że przestrzegają reguł (np. RODO), a w swojej działalności wykorzystują tylko dane, na których użycie otrzymali jednoznaczne zezwolenie od zainteresowanych osób. Ta praktyka prowadzi do zablokowania europejskich podmiotów (oraz pozaeuropejskich podmiotów funkcjonujących na terenie UE) w ich rozwoju. Tych samych ograniczeń nie mają konkurenci funkcjonujący poza UE, przy czym – w zależności od miejsca prowadzenia działalności i tam obowiązujących regulacji – muszą uwzględniać lokalnie obowiązujące ograniczenia.
prof. dr hab. Jakub Growiec (SGH)
Zagrożenie egzystencjalne ze strony transformatywnej AI
Dynamiczny, wykładniczy rozwój kompetencji AI i tzw. prawo skalowania sugerują, że AI może wkrótce prześcignąć poziom ogólnej inteligencji człowieka. Następnie może wejść w kaskadę samoulepszeń i przejąć kontrolę nad kluczowymi procesami decyzyjnymi i zasobami. Scenariusze długofalowego współistnienia człowieka i AI, przy zachowaniu sprawczości człowieka, wymagają uprzedniego rozwiązania problemu zgodności celów AI (AI alignment). Zagadnieniu temu poświęca się nieracjonalnie mało uwagi i środków.
dr hab. Dariusz Turek, prof. SGH
SI jako podmiot moralny, to źle postawione pytanie
Większość dotychczasowych analiz i formułowanych argumentów w zakresie możliwości istnienia/funkcjonowania AI jako podmiotu moralnego/podmiotów moralnych zakładało indywidualistyczną, kontekstowo niewrażliwą i ahistoryczną perspektywę patrzenia na to zjawisko. Zgodnie z klasyczną wskazówką przedstawioną przez Moora (2006, 2009) a także Allena i Wallacha (2011) zakładano, że aby AI mogła zostać uznana za podmiot moralny to powinna cechować się autonomią, moralnym zrozumieniem i pewnym poziomem świadomości, w tym (przynajmniej) subiektywnym „ja”, intencjonalnością i moralnymi emocjami, takimi jak np. współczucie, zdolność do chwalenia i potępiania zachowań oraz sumienie. Perspektywa ta pomija jednak kluczowe cechy funkcjonowania podmiotów w świecie, jakimi są ich społeczny, kontekstowo zmienny i ewolucyjny charakter zachowań i decyzji. Dlatego też celem referatu jest zaprezentowanie argumentów na rzecz rezygnacji z pojęcia „podmiot moralny” i zastąpienie go innym bardziej odpowiednim terminem w stosunku do AI.
dr hab. Jacek Ziobrowski, prof. SGH
Etyka nie tylko dla sztucznej inteligencji
W referacie przedstawiono zarys różnych rodzajów koncepcji etycznych uwzględniający nie tylko koncepcje deontologiczne, konsekwencjalistyczne i etykę cnót. Wskazane zostaną główne różnice między koncepcjami różnych rodzajów oraz słabości i ograniczenia najbardziej znanych teorii.
Wiedza o koncepcjach niesprowadzalnych do któregoś ze wskazanych trzech standardowych rodzajów może być przydatna w rozważaniach z zakresu etyki szczegółowej dotyczących m.in. sztucznej inteligencji. Niektóre z takich koncepcji składają się na nurt antyteoretyczny w etyce, inne na etykę wartości, w szczególności warta uwagi wydaje się etyka odpowiedzialności.
dr hab. Robert Sroka (Akademia Leona Koźmińskiego, Abris Capital)
Fundamenty etyki człowieka wobec AI. Karta praw podstawowych jako źródło etycznego podejścia do AI w UE
W dyskusji o etyce sztucznej inteligencji ważna jest optyka. Warto pamiętać, że „etyka sztucznej inteligencji” oznacza „etykę człowieka wobec sztucznej inteligencji”. Na obecnym etapie rozwoju AI to bowiem wciąż człowiek określa warunki (w tym możliwość za kończenia działania) i zasady funkcjonowania algorytmów. Wciąż mamy sprawczość i narzędzia do tego, aby sztuczna inteligencja wspierała dobro, opierając się na etyce, a nie zwiększała ilość zła, przyczyniając się do wzrostu cierpienia fizycznego i psychicznego.
Wielu przeraża wizja przyszłości ze sztuczną inteligencją. Są i tacy, którzy obserwując szybkość, z jaką rozwijana jest AI, twierdzą, że jesteśmy w „momencie Oppenheimera”, który nawiązuje do doświadczeń twórcy bomby atomowej. Jest to moment, w którym zdajemy sobie sprawę, że nasze najlepsze intencje przyniosły tragiczne skutki. Moment, kiedy nasz produkt zostaje użyty w nieoczekiwany i niechciany sposób. Kiedy uświadamiamy sobie, że nawet jeśli nie jesteśmy rasistami, to nasze algorytmy się nimi stają, zaś oprogramowanie, które miało łączyć ludzi, doprowadza do ich plemiennej izolacji. Moment, w którym dostrzegamy, że społeczne i ekonomiczne mechanizmy kontroli i równowagi już nie działają.
Scenariuszy przyszłości jest wiele i nie wiemy, jak będzie ona wyglądała. Natomiast to, w jakim świecie i w oparciu o jakie wartości chcemy żyć, już zdefiniowaliśmy (przynajmniej w zachodnim kręgu kulturowym) i zapisaliśmy, m.in. w Karcie Praw Podstawowych Unii Europejskiej. I to właśnie zdefiniowane tam fundamenty są obecnie wdrażane do dokumentów szczegółowych wyznaczających etyczne ramy działania AI.
dr Magdalena Cicharska (SGH)
Od etyki dostępności do praktycznych rozwiązań: AI jako narzędzie inkluzji społecznej
Próba analizy etycznych i prakseologicznych aspektów wykorzystania sztucznej inteligencji w zapewnianiu dostępności edukacji dla osób głuchych. Wychodząc od filozoficznych koncepcji, przez analizę efektywności obecnych rozwiązań, prezentuje możliwości technologii AI w kontekście tłumaczenia języka migowego. Na przykładzie systemu migam.ai dr Cicharska demonstruje, jak innowacje technologiczne mogą realizować etyczne zobowiązania uczelni, jednocześnie zwiększając efektywność działania instytucji edukacyjnych.
dr Magdalena Marucha-Jaworska (SGH)
Problemy prawne wynikające z korzystania z narzędzi AI
Udostępnienie narzędzi sztucznej inteligencji szerokiej rzeszy odbiorców do powszechnego użytku powoduje wiele pytań związanych m.in. z odpowiedzialnością, zaufaniem, bezpieczeństwem i aktualnością obowiązujących przepisów prawnych, a nawet całego systemu prawnego. Szeroko rozumiana sztuczna inteligencja wymyka się z dotychczasowych ram prawnych, a tzw. AI Act jest regulacją o charakterze ogólnym. Prezentacja jest próbą wyjaśnienia powyżej wskazanych wątpliwości.
mgr Eryk Hałas (doktorant, UWr)
Ład prawno-gospodarczy w erze dynamicznego rozwoju AI w świetle libertariańskiej etyki własności prywatnej
Tematem niniejszego wystąpienia było libertariańskie spojrzenie na kwestię szans oraz zagrożeń, jakie w sferze gospodarczej i prawnej niesie za sobą rozwój sztucznej inteligencji. Etyka libertariańska (w której własność prywatna jest podstawą wolności i dobrowolnego porządku społecznego), z uwagi na nacisk na dobro jednostki ludzkiej jako podmiotu działającego w czasie i przestrzeni, może być systemem godzącym nieustający rozwój technologiczny z ludzką potrzebą bezpieczeństwa.
mgr inż. Michał Jasłowski (doktorant, Papieski Wydział Teologiczny we Wrocławiu)
Człowiek jako wolny i odpowiedzialny podmiot pracy w kontekście etycznych wyzwań rozwoju sztucznej inteligencji
Praca jako ważny element rozumnego i celowego działania człowieka podlega obecnie dynamicznym przemianom. Sztuczna inteligencja coraz częściej wymieniana jest jako element, który zrewolucjonizuje ludzką pracę. Niektórzy wskazują na ogromne wyzwania związane z masową utratą pracy, inni zaś na możliwość usprawnienia pracy człowieka i płynące z tego korzyści społeczne. Gdzie leży prawda i czy trzeba obawiać się coraz powszechniej wdrażanych systemów sztucznej inteligencji?
dr Bronisław Bombała (em., UWM)
Sekwencja DIKW a sztuczna inteligencja
Pytanie o sztuczną inteligencję wiąże się takimi pojęciami jak: dane, informacja, wiedza, rozumienie czy mądrość. W literaturze przedmiotu najczęściej definiuje się je i porządkuje, stosując sekwencję zgodną z akronimem DIKW, pochodzącym od pierwszych słów poszczególnych składowych: data (dane), information (informacja), knowledge (wiedza) i wisdom (mądrość). Kiedyś był to problemat epistemologii, logiki i ogólnej metodologii nauk. Obecnie w sposób szczególny zajmują się nimi takie dziedziny, jak zarządzanie wiedzą i teoria informacji. Sekwencja obejmująca dane, informację, wiedzę i mądrość jest często stosowana, ale wciąż nie dopracowano się jednoznacznych, zadowalających i powszechnie akceptowalnych definicji samych pojęć.
W analizach naukowych ostatni element sekwencji DIKW, czyli mądrość jest zazwyczaj pomijany; naukowcy nie potrafią tego pojęcia – ani zrozumieć, ani wyjaśnić. Karl Popper już w 1963 r. stwierdził, że absurdalne jest rozpoczynanie od czystych obserwacji (danych i informacji) bez oparcia się na jakiejś teorii i że dane mają niewielką wartość, jeśli nie są oparte na hipotezie (wiedzy). Sekwencja DIKW jest krytykowana, ale ten model jest stosowany także w analizach AI. Część naukowców stwierdza, że pojmowanie wiedzy jako zbioru informacji jest niewłaściwe, wiedza bowiem zawarta jest w użytkowniku, a nie w zbiorze informacji. Analiza różnych definicji danych, informacji i wiedzy prowadzi do wniosku, że dane i informacje są charakteryzowane jako zjawiska w domenie uniwersalnej, a wiedza jako zjawiska w domenie subiektywnej, a zatem istnieją w odrębnych światach. Bezzasadne jest zatem umieszczenie danych, informacji i wiedzy w jednej hierarchii.
dr Ewa Rosiak-Zięba (SGH)
O wybranych etycznych wątkach związanych ze szkoleniem sztucznej inteligencji
W mediach pojawiają się coraz częściej rozmaite, na ogół dość sensacyjne doniesienia dotyczące kłopotów, jakie mają powstawać w związku z tymi aspektami działania AI, które z ludzkiej perspektywy podlegają ocenie moralnej. Przedmiotem referatu były wybrane wyzwania dotyczące możliwości treningu SI z uwzględnieniem moralnych aspektów działań, które miałaby wykonywać.