Sztuczna inteligencja, etyka a ESG. Pierwsza w języku polskim synteza prezentująca najważniejsze kwestie dotyczące etyki AI [KOMENTARZ, WIDEO]

„Etyka sztucznej inteligencji. Wprowadzenie” autorstwa Macieja Chojnowskiego, dyrektora programowego Centrum Etyki Technologii (CET), jest pierwszą w języku polskim syntezą dotyczącą etyki sztucznej inteligencji (AI). W opracowaniu pojawia się wątek dotyczący etyki AI w kontekście zrównoważonego rozwoju i ESG. Do czego można dołączyć też kwestię broni autonomicznej.

CET jest powołanym przez Instytut Humanites think & do tank orędującym za innowacjami przyjaznymi człowiekowi i światu.

– „Etyka sztucznej inteligencji. Wprowadzenie” odpowiada na zapotrzebowanie na zwięzłą i przystępną syntezę dotyczącą tej tematyki na polskim rynku. Publikacja omawia najważniejsze kwestie dotyczące etyki sztucznej inteligencji, jej genezy i historii, a także związków z prawem i cyberbezpieczeństwem. Ukazuje także zadania, które stoją przed etyką AI, oraz metody ich realizacji w praktyce – napisał Maciej Chojnowski.

Rozwój technologii zwykle wyprzedza regulacje prawne i kodeksy etyczne. Działania CET w Polsce od kilku lat w pionierski sposób poruszają, propagują i porządkują tematykę dotyczącą etyki nowych technologii, stawiając w centrum człowieka i pokazując wyraźne powiązania między zrównoważonym rozwojem, regulacjami ESG a etyką AI – mówiła Zofia Dzik, prezes Instytutu Humanites i przewodnicząca Rady Programowej Centrum Etyki Technologii.

„Etyka sztucznej inteligencji. Wprowadzenie”, jest zarazem publikacją inaugurującą serię wydawniczą CET – Center for Ethics of Technology at Humanites Institute, w której będą się ukazywać opracowania poświęcone różnym aspektom etyki technologii oraz jej relacjom z innymi obszarami, m.in. SDG i ESG.

W publikacji czytamy m.in.: „Etyka AI jest wreszcie coraz częściej łączona z ONZ-owskimi celami zrównoważonego rozwoju i z inwestowaniem ESG (Environmental, Social, and corporate Governance – odpowiedzialność środowiskowa i społeczna oraz ład korporacyjny). Ponieważ kwestie społecznej i środowiskowej odpowiedzialności przy tworzeniu i stosowaniu systemów AI są wpisane w unijne wytyczne, należy się spodziewać, że niebawem powstaną konkretne wskaźniki umożliwiające ustandaryzowaną ocenę w tym obszarze”.

Cyfrową wersję publikacji można pobrać TUTAJ.

Honorowy patronat nad publikacją objęło GovTech Polska. Partnerami CET przy jej wydaniu są Związek Pracodawców Polska Miedź, Grupa Robocza ds. Sztucznej Inteligencji przy Kancelarii Prezesa Rady Ministrów oraz Polska Izba Gospodarcza Zaawansowanych Technologii. Patronatu medialnego udzieliło „Forum Akademickie”.

[KOMENTARZ]

Niedługo po publikacji opracowania autorstwa dyrektora Macieja Chojnowskiego w Onet.pl ukazał się wywiad z prof. Aleksandrą Przegalińską, Prorektorem Akademii im. Leona Koźmińskiego. Podtytuł wywiadu, zrealizowanego przez Małgorzatę Mierżyńską: „Na co nie możemy pozwolić sztucznej inteligencji, szczególnie w obliczu wojny i wyścigu zbrojeń”. W wywiadzie prof. Przegalińska mówiła m.in., że bardzo realnym zagrożeniem jest broń autonomiczna. Jak zauważyła, ta dziedzina rozwoju SI „zalicza skokowe przyrosty”.

Przykładem są półatonomiczne drony. Jak zaznaczyła, jest jedną z sygnatariuszek aktu na rzecz nierozwijania broni autonomicznej. I chociaż podpisały się pod nim setki naukowców, to ma obawy, że ich głos nie będzie wysłuchany a branża zbrojeniowa „idzie w tą stronę”.

W przekonaniu wybitnej ekspertki w dziedzinie AI, jest to „etycznie straszne”. Jej zdaniem, za mało się o tej kwestii mówi, zbyt mało informuje społeczeństwo.

W kontekście tego wywiadu widać, jak bardzo potrzebna jest publikacja która powinna rozpocząć debatę o etycznych aspektach wykorzystywania AI. Również w kontekście SDG, taksonomii, ESG. Nie chodzi tylko o wielkie koncerny zbrojeniowe pracujące nad bronią autonomiczną w różnych częściach świata, lecz także o całą masę firm z nimi współpracujących.

Czy kooperację z koncernem który nie ujawnia w jakim kierunku rozwija broń półautonomiczną czy autonomiczną da się pogodzić z ESG? Na to pytanie powinni odpowiedzieć unijni decydenci UE, jak też ONZ.

Bo ostrzeżeń przed zbrojeniowym zastosowaniem AI jest oczywiście cała masa. „»Roboty mogą wywołać wojnę przez przypadek«”, ostrzega była pracownica Google’a” – napisał we wstępie Michał Rolecki na portalu sztucznainteligencja.org.pl, w artykule „Autonomiczna broń wisi w powietrzu”.

Na koniec przykłady broni z wykorzystaniem AI:

Tureckie drony KARGU, algorytm uczenia maszynowego pozwala tym maszynom lokalizować, śledzić i identyfikować różne cele – w tym ludzi (technologia rozpoznawania twarzy).

 

Izraelski bezzałogowy pojazd bojowy M-RCV ROBUST uzbrojony w autonomiczną wieżyczkę kalibru 30 mm.