Badania i analizy Zespołu SGH na temat AI w projekcie unijnym TransFormWork2
Zespół SGH w projekcie unijnym TransFormWork2 wkrótce zakończy zaplanowane działania, które rozpoczął w kwietniu 2024 r. Zespół przeprowadził badania dotyczące sztucznej inteligencji (AI), wytworzył wszystkie planowane publikacje analityczne, zorganizował także dwa seminaria dla partnerów społecznych na temat problematyki sztucznej inteligencji dla ok. 100 osób.
Głównym produktem pracy zespołu jest raport analityczny wyjaśniający wpływ AI na rynek pracy i dialog społeczny (pracodawców i przedstawicieli związków zawodowych) w pięciu krajowych sektorach (edukacja, przemysł, zdrowie, media, finanse). Ponadto zespół przygotował wkład o Polsce do porównawczego raportu europejskiego , który przedstawia główne tendencje w powyższym zakresie. Z udziałem zespołu SGH powstała także publikacja pt. „Wytyczne dotyczące monitorowania sztucznej inteligencji i zarządzania nią na poziomie przedsiębiorstw”.
Zespołem kierował prof. Andrzej Zybała, kierownik Katedry Polityki Publicznej SGH, a w jego skład wchodzili: dr Anna Janowska, dr Małgorzata Wrzosek oraz mgr Martyna Smółka. Projekt był finansowany ze środków Komisji Europejskiej, a wkład własny do projektu sfinansowało Ministerstwo Nauki i Szkolnictwa Wyższego. Całe konsorcjum projektowe realizujące badania składa się z przedstawicieli siedmiu narodowych zespołów badawczych (Bułgaria, Cypr, Irlandia, Malta, Polska, Rumunia, Włochy).
Raport krajowy opiera się na danych pozyskanych z badania materiałów zastanych wytworzonych m.in. przez rząd, instytucje publiczne, partnerów społecznych (organizacje pracodawców i związki zawodowe). Istotna była tu także analiza opracowań ośrodków analitycznych, analiza danych ilościowych dotyczących m.in. wpływu AI na miejsca pracy. Istotnym źródłem danych były badania jakościowe przeprowadzone w formie wywiadów pogłębionych z pracownikami i menedżerami z pięciu wskazanych powyżej sektorów.
Raport zawiera analizę wybranych zjawisk, m.in. zasięgu stosowania systemów AI w polskiej gospodarce, skalę potencjalnego wpływu AI na miejsca pracy, w tym na wybrane zawody. Zawiera podsumowanie różnych badań obrazujących skalę i charakter obaw Polaków wobec AI. Zawiera informacje o działaniach programowych, które realizowały centrale związkowe i organizacje pracodawców wobec zjawiska wprowadzania systemów AI w miejscach pracy, a także działaniach podejmowanych przez zakładowe związki zawodowe i pracodawców w pieciu wymienionych powyżej sektorach. Wskazały one na skalę zastosowania systemów AI, na obawy o miejsca pracy, na sposób reagowania na zastosowanie lub możliwość zastosowania AI w miejscach pracy, relacje między pracodawcami a przedstawicielami pracowników w związku z wprowadzaniem AI,np. kwestia zawierania umów zbiorowych, konsultacje w miejscach pracy w sytuacji wprowadzania AI.
Raport zawiera elementy analizy rozporządzenia Parlamentu Europejskiego i Rady Europejskiej w sprawie sztucznej inteligencji (AI Act), a także próby jego wprowadzenia w Polsce, do czego zobowiązany jest rząd. Przedstawiono udział organizacji związkowych i pracodawców w konsultacjach społecznych nad projektem ustawy o systemach sztucznej inteligencji, która to ustawa ma być właśnie formą wdrożenia rozporządzenia w Polsce.
W raporcie istotnym punktem odniesienia jest treść tzw. Porozumienia Ramowego Europejskich Partnerów Społecznych w sprawie cyfryzacji z 2020 r. Zawartły go m.in. BusinessEurope, organizacja europejskich pracodawców oraz Europejska Konfederacja Związków Zawodowych. Zawiera ono założenie, że państwa UE, wdrażając wszelkie ustawodawstwo narodowe dotyczące AI, powinny gwarantować pracującym zachowanie zasady „kontroli człowieka nad algorytmami” i zasadę poszanowania godności ludzkiej osób pracujących.
Powyższe porozumienie zawiera m.in. pojęcie „Godna zaufania AI”. W takim wypadku wdrażany w miejscu pracy system AI powinien posiadać trzy poniższe elementy:
• „system powinien być legalny, sprawiedliwy, przejrzysty, bezpieczny i pewny, zgodny ze wszystkimi obowiązującymi przepisami ustawowymi i wykonawczymi, a także z prawami podstawowymi i zasadami niedyskryminacji,
• powinien on przestrzegać uzgodnionych norm etycznych, zapewniając zgodność z prawami podstawowymi/człowieka UE, równości i innych zasad etycznych oraz,
• powinien być solidny i trwały zarówno z technicznego, jak i społecznego punktu widzenia, ponieważ nawet przy dobrych intencjach systemy AI mogą powodować niezamierzone szkody”.
Ponadto porozumienie partnerów społecznych wskazuje, że wdrażanie systemów AI powinno być poprzedzone oceną ryzyka, aby móc zapobiegać szkodom fizycznym oraz psychicznym, wystąpienia tzw. efektu potwierdzenia lub zmęczenia poznawczego. Wdrażanie „powinno być zgodne z zasadami sprawiedliwości, tzn. zapewniać pracownikom i grupom wolność od niesprawiedliwych uprzedzeń i dyskryminacji; musi być przejrzyste i zrozumiałe”.
Porozumienie wskazuje, że systemy AI muszą „podlegać skutecznemu nadzorowi. Stopień, w jakim taka przejrzystość jest potrzebna, zależy od kontekstu, wagi i konsekwencji”.
prof. dr hab. Andrzej Zybała, kierownik Katedry Polityki Publicznej, Kolegium Ekonomiczno-Społeczne SGH
Więcej na ten temat w zimowym wydaniu Gazety SGH, które ukaże się w lutym 2026 r.
Szczegóły na stronie transformwork.sgh.waw.pl.