Jesteśmy obecnie w trakcie największego w historii wybuchu informacyjnego, który powstał na skutek wykorzystywania różnego rodzaju danych przez sztuczną inteligencje. W eseju Autor omawia kwestie związane z relacjami, jakie zachodzą pomiędzy sztuczną inteligencją a prawem do zachowania prywatności. W tekście zostało omówione pojęcie sztucznej inteligencji, najczęstsze problemy wynikające z jej zastosowania w stosunku do ochrony prawa do prywatności, a także przedstawiono propozycje, które mogą poprawić niniejszą relację, aby zapobiec w przyszłości pojawienie się wątpliwości związanych z wykorzystywaniem danych przez sztuczną inteligencję
Słowo wstępne
Niniejsza praca ma na celu ukazanie wpływu sztucznej inteligencji (dalej: AI) wykorzystywanej w wielu przedsiębiorstwach na ochronę prywatności danych. Nie ulega wątpliwości, że wykorzystanie AI zmienia sektor biznesowy, choć prawdopodobnie wielu z przedsiębiorców nadal nie zdaje sobie sprawy, jak często wchodzą z nią w interakcje. Na chwilę obecną wielu badaczy nie do końca jest przekonanych, co oznacza AI dla przyszłości biznesu, jednak niewątpliwie oczekuje się, że przeniesie ona technologię cyfrową do trójwymiarowego środowiska fizycznego otaczającego jednostkę. Szybki postęp w dziedzinie AI ma głębokie implikacje dla gospodarki, jak i całego społeczeństwa, dlatego już teraz mówi się, że ludzie weszli w erę „big data”. Niemniej jednak zauważyć można istotne obawy dotyczące ochrony prywatności w stosowaniu AI.
Co to jest AI?
Obecnie żyjemy w świecie, który przechodzi „wielki wybuch informacyjny”, gdyż każdego dnia generowane są oszałamiające liczby danych. Jak wskazywał w 2018 r. B. Marr, każdego dnia tworzonych jest 2,5 trylionów danych, jednak to tempo przyśpiesza wraz z rozwojem kompetencji cyfrowych[1]. Pojęcie sztucznej inteligencji nie jest pojęciem nowym. Warto podkreślić, że sama koncepcja imitowania przez maszynę zachowań ludzkich sięga wielu wieków wstecz, np. XVI wieczna legenda o Golemie[2], która wskazuje, że człowiek marzył już wtedy o możliwości przypisania cech ludzkich urządzeniom. Strona rządowa próbuje definiować AI jako płaszczyznę, w której wykorzystywane są sieci neuronowe, robotyka, a także modele zachowań inteligentnych oraz programów komputerowych symulujących te zachowania[3]. Zatem mówiąc o AI będziemy mieć na myśli procesy wykorzystujące dane i algorytmy do osiągania przez systemy komputerowe nowych możliwości. Pozwala maszynom wykorzystywać doświadczenie i tworzyć nowe dane, tak jakby były ludźmi. Warto również wskazać, że jej ważnymi aspektami będą uczenie się, rozumowanie i autokorekta, dlatego do jej pracy wymagane są dane[4]. Sztuczna inteligencja wykorzystywana jest w wielu sektorach. W przypadku przedsiębiorstw rozumiana będzie pod postacią czynności mających na celu wzrost automatyzacji oraz podejmowania prawidłowych decyzji.
Kwestie prywatności w AI
Nie ulega wątpliwości, że przed legislatorami stoi ogromne wyzwanie dotyczące uchwalenia przepisów mających na celu ochronę prywatności osób przed negatywnymi skutkami wykorzystywania danych osobowych przez AI. Przykładowo rok 2023 dla czterech stanów w Stanach Zjednoczonych będzie ogromną rewolucją, gdyż przedsiębiorstwa prowadzące działalność w Kalifornii, Wirginii, Kolorado oraz Connecticut będą musiały zacząć przestrzegać nowych przepisów dotyczących ochrony prywatności konsumentów regulujących przetwarzanie danych przez AI[5]. Pomimo tego, że AI staje się coraz bardziej popularna, firmy, które wykorzystują jej możliwości w opinii publicznej, oceniane są niekorzystnie. Badania przeprowadzone w 2020 r. przez Europejską Organizację Konsumentów wykazały, że w opinii Europejczyków AI doprowadzi do większych nadużyć w zakresie przetwarzania danych osobowych (45-60%)[6].
Najczęstsze wątpliwości pojawiają się w przypadku stronniczości algorytmów i podejmowania przez nie często bezprawnych lub dyskryminujących decyzji. Bezspornie jednym z najważniejszych problemów etycznych związanych z AI jest jej zdolność do dyskryminacji łączącej się z utrwaleniem uprzedzeń i pogłębieniem występujących już nierówności. Oczywiście mówiąc o dyskryminacji, wydawać się może, że nie należy wiązać tego przedmiotu z prywatnością, ponieważ dotyczy problemów społecznych występujących bez gromadzenia i wykorzystywania danych osobowych. Jednak nie sposób pominąć, że dyskryminacja będzie dotyczyła cech ludzkich m.in. koloru skóry, tożsamości seksualnej czy też pochodzenia narodowego, które bezspornie podlegają ochronie jako dane osobowe. Zatem istotne będzie wskazanie podstawy prawnej i celów przetwarzania danych osobowych, gdyż systemy AI mogą przekształcić zanonimizowane informacje w dane osobowe, w tym również te o szczególnej kategorii[7]. Koniecznym elementem będzie również zastosowanie prawa do wyjaśnienia. Oznaczać to będzie, że w przypadku podejmowania zautomatyzowanych decyzji należy informować osoby, które to dotyczy, o fakcie zautomatyzowanego podejmowania decyzji oraz o tym, w jaki sposób zachodzi niniejszy proces.
Wszelkie obawy związane z ochroną danych powinny być rozpatrywane z uwzględnieniem Rozporządzenia Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (dalej: RODO)[8]. Pomimo tego, że RODO wywarło ogromny wpływ na tworzenie regulowanego rynku danych, to nie możemy jednoznacznie stwierdzić, że RODO i sztuczna inteligencja stoją w opozycji. AI nie jest wyraźnie wymieniona w RODO, jednak wiele jego regulacji będzie dotyczyło stosowania AI. Co ciekawe, RODO w niektórych przypadkach komplikuje przetwarzanie danych osobowych w kontekście AI, jednak zawarte w nim regulacje są w stanie przyczynić się do zwiększenia zaufania, które jest bezwzględnie potrzebne do zaakceptowania AI przez jednostki i rządy.
Przyszłość AI a prywatność
Zrozumiałe jest, że temat sztucznej inteligencji i prywatności jest bardzo złożony. Z dotychczasowych rozwiązań technologicznych wynika, że konsumenci – poza coraz bardziej inteligentną AI – potrzebują przepisów, które będą regulowały kluczowe zasady prywatności w przyszłości. Muszą one wzmacniać ochronę sytuacji prawnej jednostki oraz umożliwiać podejmowanie świadomych decyzji.
Aby zapewnić pełne poszanowanie prywatności i ochrony danych w AI należy ustanowić standardy, które zostaną dostosowane i ujednolicone regulacjami innych krajów tak, aby niezależnie od miejsca zamieszkania zapewnić konsumentom silną ochronę prawną. Konsumenci powinni otrzymać pełną kontrolę nad swoimi danymi poprzez możliwość uzyskania informacji, jakie podmioty wykorzystują ich dane, a także żądania poprawy, usunięcia lub przeniesienia danych. Ustanawiając mechanizmy ochrony prywatności firmy będą mogły ograniczyć stronniczość algorytmów, a także podejmowania przez systemy bezprawnych lub dyskryminujących decyzji. Wpłynie to nie tylko na zwiększenie zaufania w stosunku do podmiotów przetwarzających dane w ramach AI, ale także zwiększy możliwości podejmowania trafniejszych decyzji.
Istotne będzie również, aby w przyszłości administratorzy danych oraz osoby, których dane osobowe są przetwarzane, otrzymywali wytyczne dotyczące sposobu wykorzystywania danych osobowych tak, aby zapobiec w przyszłości wątpliwościom związanym z prawem do prywatności. Zastosowanie niniejszych rozwiązań pozwoli firmom zaoszczędzić czas oraz pieniądze optymalizując rutynowe procesy i zadania, a tym samym zwiększy to produktywność i efektywność operacyjną.
Podsumowanie
Obecnie świat znajduje się w okresie największego wybuchu informacyjnego, gdyż bez wątpienia procesy AI będą wymagały przetwarzania dużej ilości danych. Mimo to ich wpływ na prywatność musi być traktowana ze szczególną ostrożnością. RODO i AI już na zawsze pozostaną partnerami, niemniej jednak, aby umocnić niniejszą relację, powinna pojawić się w Europie i na świecie większa ilość regulacji dotycząca stosunku AI do prywatności. Trudno jednak powiedzieć, jak AI zostanie wykorzystana w przyszłości, jednak już teraz możemy stwierdzić, że zadania, w których realizacji zostanie wykorzystana AI będą łatwiejsze do wykonania i przyniesie to dla społeczeństwa wiele ułatwień.
Patryk Pieniążek – uczestnik IV edycji Szkoły Liderów Administracji pod kontrolą
[1] B. Marr, How Much Data Do We Create Every Day? The Mind-Blowing Stats Everyone Should Read, „Forbes” May 21, 2018.
[2] Legenda o Golemie przestawia sytuację, w której praski rabin za pomocą glinianego Golema i glinianych tabliczek sterował maszyną tak, aby zastępowała ona człowieka w codziennych obowiązkach.
[3] Serwis Rzeczypospolitej Polskiej, Czym jest sztuczna inteligencja< https://www.gov.pl/web/ai/czym-jest-sztuczna-inteligencja2 >[dostęp:04.03.2023 r.].
[4] M. Hermansyah, A. Najib, A. Farida, R. Sacipto, B. Rintyarna, Artificial Intelligence and Ethics: Buildingan Artificial Intelligence System that Ensures Privacy and Social Justice, <https://www.researchgate.net/publication/365804365_Artificial_Intelligence_in_Established_of_Industry_40> [dostęp: 26.02.2023 r.].
[5] P. Karalis, ANALYSIS: As AI Meets Privacy, States’ Answers Raise Questions,< https://news.bloomberglaw.com/bloomberg-law-analysis/analysis-as-ai-meets-privacy-states-answers-raise-questions> [dostęp: 28.02.2023 r.].
[6] The European Consumer Organisation, Artificial Intelligence: what consumerssay: Findings and policy recommendations of a multi-country survey on AI, <https://www.beuc.eu/reports/artificial-intelligence-what-consumers-say-findings-and-policy-recommendations-multi> [dostęp: 01.03.2023 r.].
[7] K. Tripathi, U. Mubarak, Protecting Privacy in the Era of Artificial Intelligence, <https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3560047> [dostęp: 01.03.2023 r.].
[8] Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych) (Dz. U. UE. L. z 2016 r. Nr 119, str. 1 z późn. zm.).
0 Koment.