Globalny raport KPMG „Privacy in the new world of AI” analizuje wpływ powszechnego stosowania sztucznej inteligencji na prywatność.
Według „KPMG global tech report 2023” liderzy technologiczni uważają sztuczną inteligencję i uczenie maszynowe za najważniejszą technologię do osiągnięcia swoich celów biznesowych w najbliższym czasie. Jednak podobnie jak w przypadku każdej nowej technologii, diagnozowane są również ryzyka. Niepokój respondentów widać zarówno we wspomnianym wyżej globalnym badaniu, jak i w przeprowadzonym kilka miesięcy temu przez KPMG w Australii „Trust in artificial intelligence”.
Powszechne i nieuregulowane wykorzystanie sztucznej inteligencji budzi też pytania o jej wpływ na prawa człowieka i prywatność. Algorytmy są nieprzewidywalne, złożone i trudne do wyjaśnienia. Biorąc pod uwagę ich zastrzeżony charakter brakuje im przejrzystości, a wyniki generowane przez AI powstają w oparciu o przetwarzanie na dużą skalę danych z Internetu, zwiększając ryzyko wycieku poufnych informacji i naruszenia prawnie chronionych danych osobowych. Aby firmy mogły maksymalnie wykorzystywać potencjał sztucznej inteligencji, potrzebują być na bieżąco z informacjami na temat wpływu AI na prywatność i bezpieczeństwo danych.
Nadzieja w planach regulacyjnych
Unia Europejska podejmuje pierwszą na świecie próbę ustanowienia przepisów, które mogą okazać się najbardziej surowymi regulacjami dotyczącymi ochrony prywatności użytkowników AI. Rada, Parlament i Komisja Europejska zaproponowały ustawę o sztucznej inteligencji (EU AI Act). Dokument opiera się na przepisach dotyczących prywatności zawartych w ogólnym rozporządzeniu o ochronie danych osobowych (RODO), które obejmują zasady dotyczące otwartości, uczciwości, algorytmicznego podejmowania decyzji i godności ludzkiej. Już w 2019 roku Organizacja Współpracy Gospodarczej i Rozwoju (OECD) opierając się na tych zasadach stworzyła podstawy zarządzania godną zaufania sztuczną inteligencją, które stanowią, że systemy AI powinny być niezawodne i bezpieczne przez cały cykl życia. EU AI Act dodatkowo wzmacnia te zasady nakazując, aby sztuczna inteligencja spełniała wspomniane warunki pod względem prawnym, etycznym i technicznym, przy jednoczesnym poszanowaniu wartości demokratycznych, praw człowieka i praworządności. Wiele z zasad OECD dotyczących sztucznej inteligencji można przyporządkować do zasad zabezpieczania prywatności w kontekście ochrony danych osobowych i rozszerzyć na zasady privacy by design, czyli uwzględnienie ochrony danych osobowych już w fazie projektowania. Przyjęcie tego podejścia może wzmocnić poczucie pewności klientów, organów regulacyjnych i innych zainteresowanych stron o wiarygodności sztucznej inteligencji oraz zminimalizować wszelkie negatywne skutki wynikające z jej funkcjonowania.
Źródło: KPMG