Katedra Polityki Publicznej SGH rozpocznie w maju br. realizację projektu TransFormWork 2. Przygotowywane w jego ramach analizy dotyczą problematyki sztucznej inteligencji, w tym jej efektywnego regulowania w sferze wykonywania pracy i stosunków pracy.
Katedra uzyskała grant z Komisji Europejskiej w ramach międzynarodowego konsorcjum, do którego należą Bułgaria, Cypr, Irlandia, Włochy, Malta, Polska i Rumunia. Projekt Social partners together towards a better and effective regulation of Artificial Intelligence for a just transition to the work of the future potrwa 24 miesiące.
Do zespołu badawczego należy również dr Małgorzata Wrzosek z Zakładu Wspomagania i Analizy Decyzji w Instytucie Ekonometrii w Kolegium Analiz Ekonomicznych SGH. Zakład, kierowany przez prof. Bogumiła Kamińskiego, który jest także dyrektorem AI Lab Międzykolegialnego Centrum Sztucznej Inteligencji i Platform Cyfrowych, będzie pełnił rolę partnera merytorycznego.
CELE I DZIAŁANIA W PROJEKCIE
Badacze będą analizować skalę wpływu AI na sposób wykonywania pracy/rynek pracy, na stosunki pracy (m.in. dialog pracowników z pracodawcami). Zajmą się również analizą regulacji prawnych, które określają potencjał czy sposób zastosowania narzędzi AI. Przeanalizują możliwości wytworzenia efektywnej regulacji, czyli takiej, która zapewni, że zastosowania AI w praktyce gospodarczej nie zagrożą kluczowym wartościom. Za takie uznawane jest respektowanie ludzkiej godności w wykonywaniu pracy. Badacze skierują dużą uwagę na to, aby stosowanie AI nie wzmagało zagrożeń psychospołecznych (dehumanizacja pracy). Badania mają również na celu nakreślenie wizji pracy przyszłości, którą zwiastują różnorodne zastosowania AI, w tym nakreślenie sposobu bezpiecznego do niej przejścia.
Prace projektowe będą ogniskowały się również wokół zagadnienia korzyści ze stosowania AI, które mogą osiągnąć pracodawcy i pracobiorcy. Chodzi o korzyści w postaci:
- nowych szans na rynku pracy (nowe miejsca pracy),
- nowej organizacji pracy (wyższa efektywność),
- poprawy warunków pracy (wyższy poziom dobrostanu pracujących).
NOWA FALA DYGITALIZACJI
Prace projektowe opierają się na założeniu, że obecnie mamy do czynienia z nową falą dygitalizacji. Jej przejawem jest rosnące zastosowanie systemów AI w miejscu pracy. Poprzednie fazy przynosiły komputeryzację, automatyzację i robotykę.
Obecna faza charakteryzuje się właśnie ogromnym wpływem sztucznej inteligencji na stosunki pracy. Jeśli pozostałaby nieuregulowana, może stanowić znaczne zagrożenie dla niektórych grup pracowników (dehumanizacja procesu decyzyjnego w sferze np. rekrutacji pracowników, monitorowania pracy, analizowania zachowań, rozwiązania zatrudnienia).
Brak właściwych regulacji/działań publicznych wobec stosowania określonych algorytmów AI może potencjalnie prowadzić do podstępnych form dyskryminacji. Programiści mogą wdrukowywać swoje jawne i ukryte uprzedzenia do systemów AI.
DZIAŁANIA PAŃSTW WOBEC TECHNOLOGII SZTUCZNEJ INTELIGENCJI
Badania mają pokazać trendy w wybranych państwach w zakresie ich podejścia do AI, w tym mają pokazać, w jakim stopniu podejmują działania regulacyjne wobec stosowania AI, m.in. na ile ich regulacje skutecznie przeciwdziałają potencjalnym ryzykom np. dotyczącym zagrożeniom psychospołecznym w zakładach pracy, zagrożeniom dehumanizacji pracy.
Chodzi zatem o zbadanie krajowych ram prawnych, w tym zdiagnozowanie sposobów zarządzania sztuczną inteligencją, zarządzania algorytmami (ang. algorithmic management). Badania mają także ukazać środki, jakie państwa podjęły w ustawodawstwie i politykach publicznych, aby uregulować obszary potencjalnych ryzyk, w tym ryzyk psychospołecznych.
Badania obejmą analizy metod, jakie stosują państwa w przeciwdziałaniu odczłowieczaniu pracy, ale także w dostarczaniu pracownikom i przedsiębiorstwom umiejętności umożliwiających wykorzystywanie AI z sukcesem. Chodzi także o wskazanie przepisów, które wymagają zmiany w celu lepszego stanowienia prawa w zakresie AI.
RYZYKA ZWIĄZANE Z AI
Badania uwzględnią wspomnianą powyżej problematykę ryzyk. Mają one miejsce wraz z rosnącym tworzeniem algorytmów AI. W licznych sferach oddziałują na bezpieczeństwo pracy, tworzą zagrożenia dla integralności fizycznej człowieka, jego bezpieczeństwa psychicznego lub poznawczego. Widoczne stają się ryzyka dla zasady sprawiedliwości (wolność od uprzedzeń i dyskryminacji), zachowania prywatności itp.
Ryzyka występują również w procesach zarządzania zasobami ludzkimi. AI jest bowiem wykorzystywana w takich procesach, jak rekrutacja, ocena pracowników, awanse, rozwiązanie stosunku pracy, dostarczanie pracownikom informacji. Stąd pojawia się kwestia praw pracowników, w tym do żądania interwencji człowieka w sytuacji, gdy ma zapaść decyzja o pracowniku w oparciu o dane pochodzące z systemów AI. Innymi słowy chodzi tu o prawo do kwestionowania decyzji, które są podejmowane na bazie zastosowania AI.
Dalsze zagadnienia, które obejmuje projekt, to tworzenie nowych podejść do rynku pracy, wykorzystanie edukacji i szkoleń, kompetencje przyszłości (ang. reskilling), rozszerzenie roli partnerów społecznych w procesie sprawiedliwego przejścia do pracy przyszłości, dobre praktyki dotyczące roli partnerów społecznych i dialogu dla zarządzania i monitorowania wpływu AI.
PRZYSZŁA UNIJNA DYREKTYWA
Kolejnym celem projektu są analizy tego, w jakim stopniu można wykorzystać AI w systemie dialogu społecznego, np. jest to kwestia, czy negocjacje zbiorowe (układy zbiorowe pracy) mogą zostać usprawnione dzięki danym pochodzącym z zarządzania algorytmicznego.
Analizowane będą działania europejskich partnerów społecznych, m.in. na rzecz przyjęcia w przyszłości dyrektywy Parlamentu Europejskiego i Rady UE dotyczącej systemów algorytmicznych w miejscach pracy (ang. algorithmic systems at Work) (EU AI Act ). Działania partnerów mają zapewnić, że uregulowania unijne powinny sprawić, że pracujący zachowają odpowiednie warunki w wykonywaniu pracy.
Założeniem jest, że na bazie powyższej dyrektywy powstaną narodowe projekty regulacji/ustaw o sztucznej inteligencji UE. Chodzi o określenie warunków umożliwiających efektywne promowanie tych projektów. Powinny one sprostać zasadom, które europejscy partnerzy społeczni zawarli w dwustronnej ramowej umowie na temat dygitalizacji (European Social Partners Framework Agreement on Digitalisation). Umowa zakłada, że wszelkie ustawodawstwo narodowe powinno zawierać gwarancję zachowania zasady kontroli człowieka nad algorytmami i poszanowanie godności ludzkiej pracujących.
Ponadto projekt ma określić warunki wzmacniania potencjału partnerów społecznych, aby:
- mogli efektywnie reagować na wyzwania wynikające z dygitalizacji,
- podjęli zobowiązania, aby monitorować wpływ AI na stosunki pracy, na procesy interakcji między ludzką kontrolą AI i zarządzaniem algorytmicznymi danymi i procesami decyzyjnymi w przedsiębiorstwach,
- zobowiązali się, aby nie rezygnować z zachowania zasady ludzkiej godności w wykonywaniu pracy w sytuacji licznych i rosnących zastosowań AI,
- dążyli do wykorzystania dialogu społecznego i zbiorowych układów pracy na poziomie narodowym, aby poszukiwać szans na
- adekwatne wykorzystanie AI w sferze wykonywania pracy.
PRODUKTY PROJEKTU
Narodowe zespoły projektowe – na bazie badań – wytworzą raporty krajowe diagnozujące powyższą problematykę. Dostarczą również wkładu do europejskiego raportu porównawczego. Przeprowadzą seminaria tematyczne, okrągłe stoły. Przewidziana jest także końcowa konferencja międzynarodowa.
DR HAB. ANDRZEJ ZYBAŁA, prof. SGH, kierownik Katedry Polityki Publicznej, Kolegium Ekonomiczno-Społeczne SGH