W drugim odcinku serwisu „Człowiek 2040” – „Organizuję się” – na tapet zostaną wzięte kwestie społeczno-polityczne, w tym to, jak mogą przebiegać wybory, jak będziemy budować swoje sąsiedztwa i jak może wyglądać system sądownictwa. Aby stworzyć rzetelny obraz tych aspektów życia w 2040 r., analitycy Polityki Insight wzięli pod lupę m.in. trendy takie jak wzrost roli demokracji deliberatywnej, rozwój baniek informacyjnych i zjawisko infocation (czyli trudności z przebodźcowaniem informacjami, w tym wyłapaniem tych ważnych), czy zwiększone znaczenie sztucznej inteligencji w wielu aspektach życia społeczno-politycznego. O tym, czy przedstawiona wizja organizowania się w 2040 r. ma szansę się ziścić, Andrzej Bobiński, dyrektor zarządzający Polityki Insight porozmawia w pierwszym podcaście z prof. Aleksandrą Przegalińską, filozofką i badaczką rozwoju nowych technologii.
RZESZÓW REZYGNUJE ZE SZTUCZNEJ INTELIGENCJI W SĄDACH
Decyzję w referendum podjęli Rzeszowianie i należy ją uznać za wygraną obrońców praw człowieka, którzy nagłośnili nieprawidłowości systemu sądzącego TemidAI.
Rzeszów słynie z najbardziej zdigitalizowanego i otwartego samorządu w Polsce. Każdy obywatel posiada aplikację, dzięki której współuczestniczy w tworzeniu budżetu, konsultuje lokalne akty prawne, oddaje głos na kandydatów do zarządów spółek publicznych oraz śledzi poczynania miejskich polityków. Wszystkie dane agregowane w mieście są otwarte, co ułatwia wprowadzanie nowych rozwiązań technologicznych. Perłą w koronie rzeszowskiego otwartego samorządu był algorytmu TemidAI, który niemal natychmiast po wprowadzeniu danych, z wysoką skutecznością rozstrzygał sprawy o wykroczenia oraz wybrane przestępstwa popełniane w internecie (ze względu na „cyfrowy” charakter materiału dowodowego).
Program TemidAI orzekał bez udziału sędziego-człowieka w oparciu o normy ilościowe (quantity-based norms) z uwzględnieniem trzech elementów: (1) wgranych do systemu dowodów (materiały video, e-dokumenty, nagrania rozmów ze świadkami); (2) analizy historycznych wyroków (w aktualizowanej na bieżąco bazie zgromadzono wszystkie wyroki od 2030 r.) oraz (3) analizy cyfrowego śladu stron oraz świadków występujących w sprawie. Znacząco przyspieszyło to rozstrzygnięcia w najprostszych sprawach i zmniejszyło praktycznie do zera koszty obsługi sądowej. Rzeszów chwalił się też skutecznością systemu mierzoną najniższym w Polsce odsetkiem zmiany rozstrzygnięć w sądach II instancji, gdzie wciąż decydują sędziowie zawodowi.
Skuteczność TemidAI kwestionowali prawnicy i przedstawiciele organizacji pozarządowych, wskazując na odwrócony proces przyczynowo-skutkowy. Helsińska Fundacja Praw Człowieka (HFPC) udowodniła, że ludzcy sędziowie decydowali o utrzymaniu wyroków podjętych przez algorytm w I instancji bez dokładnej analizy stanu faktycznego i zgromadzonego materiału dowodowego. Zdaniem HFPC sędziowie nadmiernie ufali algorytmowi, a z drugiej strony bali się postawić na szali swoją reputację kwestionując „obiektywne” rozstrzygnięcie zaawansowanej technologii.
Tymczasem TemidAI zamiast skupiać się na indywidualnych aspektach sprawy, podejmował decyzje w oparciu o proste analogie, często „naciągając” stan faktyczny do rozstrzygnięć z przeszłości. Nieproporcjonalnie wysokie prawdopodobieństwo miały osoby, które dopuściły się zatargów z prawem w przeszłości. Ponadto TemidAI szybko wytworzył proste korelacje pomiędzy m.in. poziomem zamożności, miejscem urodzenia i zamieszkania czy ocenami osiąganymi w szkole, a prawdopodobieństwem popełnienia wykroczenia. Im więcej rozstrzygnięć podjętych przez algorytm znajdowało się w bazie wyroków, tym bardziej uwypuklały się przedstawione powyżej nieprawidłowości. W ten sposób wytworzył się system opisany przez HFPC jako „samospełniająca się cyfrowa przepowiednia”. Prawnicy fundacji przeanalizowali ponad 8 tys. spraw i wykazali, że w prawie 6 proc. z nich nie było dostatecznych dowodów, żeby wydać wyrok.
• Decyzja Rzeszowian to ważny krok w powstrzymaniu procesu automatyzacji sądownictwa – system TemidAI miał być już wkrótce wdrożony w całym kraju. Głos Rzeszowian da nową energię przeciwnikom zmian, którzy jak powiedział prezes HFPC „mają namacalne dowody, że sprawiedliwość bez czynnika ludzkiego może być prosta, szybka i tania, ale nie jest sprawiedliwa”. Zdaniem Ministerstwa Sprawiedliwości rezygnacja z nowego rozwiązania, nad którym resort pracował przez ostatnie 5 lat, spowolni technologiczną rewolucję w sądownictwie, ale jej nie zatrzyma.
KONTROWERSJE WOKÓŁ DEBATY PREZYDENCKIEJ W USA.
Podcast „The Daily” potwierdził nieoficjalne doniesienia, że FBI zamierza wszcząć śledztwo w sprawie wadliwego „algorytmu prawdy”, który mógł nie zadziałać podczas ostatniej debaty Jindal – Obama.
Wszystko wskazuje na to, że protesty sztabu Malii Obamy zostaną uwzględnione i FBI rozpocznie śledztwo, żeby sprawdzić, czy nie doszło do nieprawidłowości przy użyciu systemu Real Time Fact-Checking. Według informacji, które ujawniło „The Daily” właścicielami jednej z sześciu firm tworzących „algorytmy prawdy” są obywatele Chin.
Doniesienia wywołały oburzenie wśród Republikanów, którzy twierdzą, że „Demokraci nie potrafią przegrywać”. A fakt, że system wykrył jedynie 14 proc. nieprawdziwych twierdzeń (średnia w poprzednich debatach przekraczała 40 proc.) świadczy o tym, że Bobby Jindal „mówi jak jest”. CDO (dyrektor cyfrowy, chief digital oficer) sztabu Jindala podkreślał, że obie ekipy miały tyle samo czasu i możliwości sprawdzenia algorytmów, które ustalają, czy twierdzenia wypowiadane przez kandydatów są zgodne z faktami i wiedzą naukową.
Debata była niezwykle intensywna, Obama przegrała tematy Chin, klimatu, migracji klimatycznych oraz e-wojny z Rosją. Wygrała blok technologiczny i praw mniejszości. W dużej mierze jej porażka wynikała z wysokiego współczynnika fałszu (stosunek twierdzeń nieprawdziwych do prawdziwych), który był ponad trzykrotnie wyższy niż u jej rywala. Wielu komentatorów było zszokowanych tym wynikiem, bo Obama słynęła ze świetnego przygotowania i umiejętności formułowania przekazu. Co więcej, tuż po wygranej debacie Jindal wykorzystał przewagę i rozpoczął kampanię w mediach społecznościowych, która idealnie współgrała z hasłem jego kampanii „Telling it like it is” (Mówię, jak jest).
Nadal nie wiadomo, kto zostanie 64. prezydentem Stanów Zjednoczonych, ale według ekspertów „Debategate” zaważy na wyniku wyborów. Dziś wydaje się, że Jindal miałby wielką szansę na zwycięstwo, szczególnie dzięki odbiciu „niebieskich stanów” (popierających Demokratów) - Wisconsin, Georgi, Florydy czy Karoliny Północnej, a może nawet Teksasu, który od wyborów w 2032 r. głosuje konsekwentnie za Demokratami. Jeżeli błyskawiczne śledztwo FBI nie wykaże nieprawidłowości, Republikanie zdobędą przewagę i zmiażdżą Obamę jako kandydatkę która nie mówi prawdy i ucieka się do brudnych sztuczek, żeby to ukryć. A jeżeli Demokraci udowodnią, że doszło do nieprawidłowości, a Chiny aktywnie wsparły Jindala, kampania Obamy odzyska wigor, co najprawdopodobniej pozwoli prezydentce wywalczyć drugą kadencję.
DIALOGI WSPÓLNOTOWE POMOGĄ DOBRAĆ WŁAŚCIWYCH SĄSIADÓW
Spółka My Second Life zatrudnia kanadyjską firmę DeliberateW, która ma opracować przejrzysty algorytm wyboru. Punktem wyjścia będą deliberacje poszczególnych wspólnot.
My Second Life (MSL), lider na rynku luksusowych mieszkań dla seniorów (co-livingów), wprowadza nowy system oceny (credit score) przyszłych mieszkańców. To ucieczka przed zarzutami, że dotychczasowy system oparty na śladzie cyfrowym (digital trace) w dużej mierze oceniał dochodowość (dla firmy) kandydatów na współmieszkańców, a nie doceniał społecznych walorów przekładających się na spójność grupy i dobrą atmosferę.
Dotychczasowy system miał brać pod uwagę nawyki i zachowania kandydatów na mieszkańców. Jeden algorytm był stosowany do wszystkich enklaw niezależnie od charakteru i preferencji zamieszkujących je wspólnot. Składał się ze śladu cyfrowego tworzonego na podstawie odczytów IoT (internet of things) w poprzednich miejscach zamieszkania. Miał też uwzględniać „obywatelski credit score” (opracowany na podstawie interakcji towarzyskich). Jednak komponent ten wraz z oceną usposobienia mieszkańca był niedoszacowany, a algorytm przede wszystkim mierzył „opłacalność” zachowań i nawyków przyszłego mieszkańca dla najemcy. Prowadziło to do konfliktów między starszymi a nowymi członkami wspólnoty, którzy często wyznawali inny system wartości, a w konsekwencji zachowywali się w sposób nieakceptowany przez wspólnoty.
W zeszłym roku MSL przyznał, że algorytm był „nieoptymalny” i rozpoczął poszukiwania innych mechanizmów automatycznej selekcji. W tym tygodniu zatrudnił firmę DeliberateWe do prowadzenia dialogów z mieszkańcami poszczególnych wspólnot, dzięki którym sami zainteresowani pośrednio wskażą wytyczne, które staną się podstawą dla algorytmów oceniających dla poszczególnych enklaw.
Wcześniej firma prowadziła program pilotażowy, w ramach którego mieszańcy głosowali nad wytycznymi, ale to rozwiązanie się nie sprawdziło. Mieszkańcy praktycznie wszystkich testowanych enklaw głosowali przede wszystkim na cechy i zachowania sugerujące dużą towarzyskość. W przypadku większości wspólnot rekrutacje przeprowadzane na podstawie tych wytycznych kończyły się niedopasowaniem nowych mieszkańców do prakseologii wspólnot i spadkiem współczynnika zadowolenia z sąsiedztwa. Tak narodził się pomysł, żeby każda wspólnota sama tworzyła swój algorytm i żeby był on wyłoniony przez ekspertów prowadzących tzw. dialogi wspólnotowe, a nie w ramach prostego głosowania.
Punkt zwrotny
O cyfrowym organizowaniu się Polek i Polaków będziemy mogli mówić wtedy gdy zaczną oni odwiedzać media społecznościowe przez co najmniej 95 proc. dni w miesiącu oraz poszukiwać informacji w internecie przez co najmniej 75 proc. dni. Postęp technologiczny i dostępność szybkiego internetu sprawi, że częściej będziemy spotykać się online – zakładać grupy dyskusyjne, debatować, brać udział w wyborach, a nawet protestować przez internet.
Internet stanie się również pierwszym źródłem informacji dla większości Polaków. Rozpowszechnią się portale weryfikujące informacje – będą do tego wykorzystywać algorytmy sztucznej inteligencji, wspierając tym samym rozwój cyfrowego społeczeństwa obywatelskiego.
***
Przypominamy, że nasz serwis jest intelektualnym ćwiczeniem i opisane w nim sytuacje nie muszą się wydarzyć. Choć opieramy się na wiedzy i przewidywaniach poważnych instytucji, wykorzystujemy naukowe raporty i nasze analityczne doświadczenie, to nie wiemy, jak świat będzie wyglądał za 20 lat. Serwis nie ma charakteru informacyjnego i nie podejmujcie żadnych decyzji na podstawie historii w nim opisanych.