Biuletyn Informacji Publicznej RPO

Algorytmy, Prawa Człowieka i Demokracja - sesja 29 III KPO

Data
,
Sala
sala dydaktyczna nr 1
  • Jeśli facet pamięta zarówno o Waszych urodzinach, rocznicy poznania, rocznicy ślubu  itp – to nie jest Waszym facetem - to Mark Zuckerberg
  • W społeczeństwach demokratycznych trzeba poważnie rozmawiać o wpływie algorytmów na poszanowanie podstawowych wolności, takich jak wolność słowa i stowarzyszania się. Nowe technologie na nowo definiują relacje państwo-obywatel.
  • W jaki sposób rządy demokratyczne mogą projektować algorytmy zapewniające przejrzystość, ochronę praw człowieka i promowanie demokracji?
  • Czy nie powinny wprowadzić procesu oceny wpływu algorytmu (na podobieństwo oceny wpływu regulacji prawnej)? W ten sposób mogłyby lepiej definiować demokratyczne cele algorytmów, mierzyć ich skuteczność i dostarczać dowodów na odmowę wdrożenia danych algorytmów -  gdy ryzyko jest większe niż korzyści.

Historia najnowsza – jak dotarliśmy do dyskusji o wykorzystywaniu algorytmów

Temat nowych technologii przedarł się do dyskursu publicznego na początku obecnego stulecia i choć w Polsce wciąż nie do końca udało się go oswoić, minęło już niemal 20 lat, a sama dyskusja przenosi się coraz to nowsze pola. Początkowo bardziej interesowaliśmy się funkcjonowaniem prawa autorskiego w sieci, granicami wolności w internecie, próbą przetworzenia i zastosowania prawa analogowego do przestrzeni cyfrowej. Następnie debata potoczyła się w kierunku sztucznej inteligencji, zastępowania działalności człowieka przez maszyny.

Niejako odkryliśmy algorytmy, przekonując się, że to nie my a one decydują, jakie treści do nas docierają. Zaczęliśmy identyfikować pojęcie bańki informacyjnej. Zorientowaliśmy się, że w rzeczywistości przekazy, które do nas docierają są dostosowywane do płci, gustów, wieku, zawodów, a także tego, co ostatnio oglądaliśmy w sieci.

Stanowią też zwykły przedmiot handlu. Do dziś zastanawiamy się czy internet i nowe technologie nie stwarzają jedynie ułudy wolności? Mimo, że teoretycznie wszystko można, zacierają się granice, każdy jest równy, można łączyć młodych ze starszymi, biednych z bogatymi, Europejczyków z Amerykanami, to czy aby na pewno podejmujemy w sieci świadome decyzje, czy internet naprawdę wygląda tak samo dla każdego z nas? Wiemy przecież, że profilowanie odbiorców treści cyfrowych ma na celu wywieranie na nas wpływu – choćby podejmowanie określonych decyzji konsumenckich – i do tego należy przywyknąć.

Nowe technologie zmieniają nasze życie, a my coraz częściej się z tym godzimy, ułatwiając sobie życie w sferze komunikacji, rozrywki, usługi publicznych czy transportowych. Sztuczna inteligencja wkracza powoli do zakładów pracy, zastępuje pracowników, automatyzuje różne procesy. Jednak nie pozostaje to bez wpływu na prawa człowieka. Poświęcamy naszą prywatność na rzecz bezpieczeństwa i wygody.

Niechlubne przypadki wykorzystywania algorytmów

Szerokim echem w debacie publicznej odbiła się sprawa Edwarda Snowdena, byłego pracownika Centralnej Agencji Wywiadowczej (Central Intelligence Agency, CIA) oraz Agencji Bezpieczeństwa Narodowego (National Security Agency, NSA), który przekazał mediom dokumenty na temat programu wywiadowczego PRISM, którego celem było umożliwienie amerykańskim służbom specjalnym dostępu do danych znajdujących się na serwerach dostawców usług internetowych. Dzięki PRISM służby miału dostęp m.in. do nagrań audio i wideo, zdjęć, rozmów, poczty elektronicznej. USA broniło się twierdząc, że program nie może być użyty do umyślnego monitorowania obywateli USA lub innych osób mieszkających na terenie Stanów Zjednoczonych, a samo działanie PRISM koncentruje się na obywatelach państw trzecich, chroniąc USA przed największymi zagrożeniami, np. terroryzmem.

Nie mniej znany przypadek niewłaściwego wykorzystania algorytmów przez państwa dotyczył firmy doradczej Cambridge Analytica. Były jej szaf ujawnił że firma niezgodnie z prawem pozyskiwała dane i wykorzystywała je w celach komercyjnych, a także w kampanii wyborczej w 2016 roku, aby pomóc republikańskiemu kandydatowi Donaldowi Trumpowi. Niecałe 300 tys. osób zostało poproszonych za opłatą o wypełnienie testu, który pobierał m.in. zawartość kont na Facebooku, w tym polubione strony i zainteresowania, a następnie poddawał głębokiej analizie, tworząc modele wykorzystywane do bodowania skutecznych przekazów politycznych. Formalnie dane mogły być wykorzystywane jedynie przy badaniach akademickich, a nie komercyjnych zleceniach dotyczących operacji psychologicznych na elektoracie.

Debata ekspertów

Widząc, jak głęboko technologie wkroczyły w codzienne czynności każdego obywatela, a także mierząc się z ich wykorzytywaniem przez instytucje państwowe zdecydowaliśmy się kolejny już raz podjęć temat nowych technologii i algorytmów na III Kongresie Praw Obywatelskich. Do debaty zaprosiliśmy: Patricka Penninckx, który od 2013 roku kieruje Departamentem Społeczeństwa Informacyjnego Rady Europy, Krzysztofa Izdebskiego – dyrektora programowego Fundacji ePaństwo, Katarzynę Szymielewicz z Panoptykonu oraz Natalię Mileszyk - specjalistkę ds. polityk publicznych, prawniczka związaną z Centrum Cyfrowym.

Oswajanie nowoczesności

Trzeba mieć jednak świadomość, że dostęp do informacji stanowi też rodzaj władzy, a profilowanie algorytmów przypomina tworzenie podziałów. Dlatego stając się społeczeństwem coraz bardziej świadomym działania algorytmów, dziś wkraczamy w etap oswajania ich.

Użytkownicy/obywatele powinni mieć prawo do tego, by algorytmy, którym podlegają cechowała przejrzystość i by ich tworzenie nie było decyzją polityczną. Nie jesteśmy w stanie uciec od zautomatyzowanych sposobów filtrowania i porządkowania informacji – jest jej po prostu zbyt wiele. Trzeba zatem przekazać część tych uprawnień profesjonalnym podmiotom zewnętrznym. Otwartym pytaniem jest jednak to, jakim regułom algorytmy te powinny być podporządkowane oraz jak zapewnić przejrzystość ich funkcjonowania.

Poziom zaangażowania człowieka w podejmowanie decyzji jest z perspektywy społecznej istotniejszym czynnikiem niż poziom wykorzystania technologii maszynowego uczenia się. Zachowanie czynnika ludzkiego jest bowiem kluczowe do zapewnienia ochrony praw obywateli. Zapewnia bowiem przejrzystość i  odpowiedzialność za proces, których nie potrafimy dziś zapewnić w przypadku systemów w pełni zautomatyzowanych. Na podstawie art. 22 Rozporządzenia o  Ochronie Danych Osobowych (RODO) obywatel może zażądać, by w istotnych kwestiach – generujących skutki prawne – decyzja w oparciu o przetwarzanie danych osobowych nie była podejmowana w pełni automatycznie, by człowiek był obecny w pętli decyzyjnej.

Stosując pojęcie ADM (Automated Decision-Making), czyli zautomatyzowanego podejmowania decyzji przenosimy nacisk debaty z poziomu samej technologii i zastosowanych rozwiązań na kwestie społeczne. Patrzymy na system społeczno-technologiczny, w którym działają różne technologie – zarówno te oparte na uczeniu maszynowym, jak i prostsze algorytmy. W dyskusjach o systemach ADM punkt ciężkości przenosi się z analizy strony technicznej (modelu podejmującego decyzję w oparciu o dane) na szerszy proces obejmujący także procesy tworzenia i programowania systemów ADM oraz nadzoru nad ich działaniem.

Patrick Penninckx rozpoczął od wyjaśnienie raz jeszcze, dlaczego algorytmy są ważne dla ludzi. Wskazał wiele przykładów używania algorytmów, z którymi stykami się każdego dnia, zapominając już nawet o tym, że właśnie dzielimy się z firmami swoja prywatnością. - Dane osobiste są wykorzystywane przez liczne firmy zarabiające na wiedzy o nas, dane wyciekają , dlatego to co publikujemy przestaje być tylko nasze. To nie tylko informacje o naszej płci, wieku, adresie czy pochodzeniu, ale także o tym jakie mamy zdrowie, jakie emocje wywołują w nas określone przekazy.

Przywołał także przykład popularnego Netflixa, który dając możliwość korzystania ze swoich treści na wielu urządzeniach przenośnych, w tym telefonach z aplikacjami mierzącymi np. tętno, bada „przy okazji” nasze emocje związane z określonym materiałem. Dzięki temu jest lepiej w stanie dopasować kolejny materiał, który powinniśmy wg niego obejrzeć, a także jaką reklamę nam wyświetlić.

Katarzyna Szymielewicz zwróciła natomiast uwagę na to, że coraz chętniej zrzucamy problemy społeczne na braki technologiczne, zawodność właśnie algorytmów., błędnie definiując technologię jako źródło całego zła. Wyraziła także wątpliwość co do słów Patricka Penninckx’a dotyczących pewnej dobrowolności i mniej lub bardziej świadomej zgody użytkowników na używanie informacji o nich. - To nie my dajemy dane – to narracja firm – my wchodzimy zwabieni poczuciem wygody, a to, co dzieje się dalej, dzieje się za pomocą sztucznej inteligencji i  jest poza naszą zgodą , jesteśmy niejako biomasą eksploatowaną przez reklamodawców.

W dyskusji często powtarzano, że działanie algorytmów to działanie systemu, który próbuje nas wtłoczyć we wzorzec, a ten nie zawsze jest poprawny. Działa to dokładnie tak samo jak generalizacja/ stereotypy. Ochroniarz na lotniku też musi podjąć decyzję kogo sprawdzić i prędzej podejdzie do młodego mężczyzny w sportowym  stroju niż do staruszki poruszającej się o lasce.

Krzysztof Izdebski z Fundacji ePaństwo rozpoczął wypowiedź do przywołania przykładu węgierskiego urzędu ochrony konkurencji, który jako jeden z pierwszych nałożył na Facebooka karę za to, że oszukuje swoich klientów twierdząc, że dają coś za darmo i nie uprzedzając jednocześnie, że płacą za to swoimi danymi.

Podkreśli także, że najważniejsze w dyskusji o znaczeniu algorytmów dla praw człowieka jest zadanie sobie pytania, po co my to wdrażamy. Oczywiście są plusy, które ułatwiają pracę także na poziomie państwa, w zamówieniach publicznych, wykrywaniu przestępczości. Urzędnicy niestety nie są przygotowywani do tego, jak to funkcjonuje, co powoduje, że czasem naprawiając jedno psują 10 innych rzeczy.

Izdebski podał także liczne przykłady – delikatnie mówiąc - nie do końca udanego zastosowania algorytmów przez instytucje państwowe. Przywołał program STIR, wykrywający karuzele vatowskie, system przydzielania miejsc w żłobkach, który w jednym z miast  mocno zawiódł przydzielając miejsca w jednej grupie dzieciom w różnym wieku, bądź nie przydzielając ich w ogóle.. - Mimo wpływu takich algorytmów na prawa człowieka, nie opracowano całościowej polityki gwarantującej bezpieczeństwo ich wdrażania, a wiedza na temat ich funkcjonowania pozostaje, w znacznej mierze, niejawna.

Natalia Mileszyk podkreśliła, że ważne jest by o działaniu algorytmów nie mówić, jak o czarnej skrzynce. Potrzebujemy całego systemu aby perspektywa jednostki była brana pod uwagę. Polityka zarządzania sztuczną inteligencją w Polsce to narracja startupowa . Zapominamy ze rozwój ma służyć człowiekowi , a wartości musimy chronić.  - Niewielu z nas jest rozumie, na czym polega działalność sztucznej inteligencji czy algorytmów , to wciąż dyskurs wyłączający. A tymczasem technologia weszła tak głęboko w nasze życie, że każdy z nas potrzebuje wejść w tą dyskusję, bo każdy z nas ma tam swoje miejsce.

Wszyscy paneliści zgodnie podsumowali , że procesu rozwoju technologii i wykorzystywania algorytmów nie da się zatrzymać, ale trzeba zapewnić bezpieczeństw tego obszaru. Jest to jednak niezwykle trudne.

Mileszyk skonkludowała, że być może potrzebujemy rozszerzenia pojęcia ochrony praw obywatelskich z płaszczyzny państwo -obywatel i rozszerzyć ja o korporacje, które tak bardzo zaczęły wkraczać w życie każdego obywatela. Krzysztof Izdebski natomiast zaproponował, by wzmocnić instytucje publiczne, w tym organy równościowe – takie jak Biuro RPO - by lepiej budowały kompetencje swoich pracowników, którzy będą wykorzystywali technologie na rzecz obywateli.

Moderuje
Autor informacji: Agnieszka Jędrzejczyk
Data publikacji:
Osoba udostępniająca: Agnieszka Jędrzejczyk
Data:
Operator: Agnieszka Jędrzejczyk