Nigdy nie powinno się niczego opowiadać, dostarczać informacji czy przywoływać historii, ani powodować, by ludzie snuli wspomnienia na temat istot, które nigdy nie istniały, nie postawiły stopy na ziemi ani nie przemierzyły świata, a jeśli nawet przezeń przemknęły, teraz są już prawie bezpieczne w niepewnej i na poły ślepej niepamięci. Kiedy opowiadasz, to jakbyś dawał prezent, nawet jeżeli opowieść zawiera truciznę, też jest więzią i wyrazem zaufania, a ten kto zaufał, rzadko nie doświadcza wcześniej czy później zawodu, rzadko więź nie gmatwa się i nie zapętla tak bardzo, że trzeba użyć noża lub brzytwy, żeby ją przeciąć.
Javier Marías, Twoja twarz jutro1
1. J. Marías, Twoja twarz jutro, tłum. E. Zaleska, Wydawnictwo Sonia Draga, Katowice 2016, s. 11.
Wojna w Ukrainie rzuciła nowe światło na relacje pomiędzy technologią, infrastrukturą i geopolityką. Podejmowane przez władze Rosji próby, które zmierzają do odcięcia jej obywateli od światowej sieci, pokazują, że aktualna forma internetu nie jest niezależna od uwarunkowań lokalnych, zarówno politycznych, jak i geograficznych. Eksperymenty z tworzeniem narodowego internetu – wbrew powszechnej intuicji – sprawiają, że granice wytworzone w świecie cyfrowym stają się zależne od geograficznych granic państwowych, a terytoria cyfrowe splatają się z materialnymi. Sieć nie jest jednolita i gładka, jak zazwyczaj o niej myślimy, ale ma swoje „mury”, wklęsłości, zagęszczenia i geometrię2
Język, jakim opisujemy najnowsze technologie, podkreśla ich lekkość, zwinność, ulotność, niematerialność. Mówimy o chmurze i wyobrażamy sobie rozproszone w powietrzu, swobodnie unoszące się cząsteczki danych, które nie mają ciężaru ani fizycznej masy i są niepochwytne. Tymczasem internet, chmura czy to, co pozwala nam doświadczać technologii jako „lekkich”, „zwinnych” i „mobilnych”, w istocie opiera się na bardzo konkretnym szkielecie materialnej infrastruktury. Począwszy od małych routerów domowych, przez kable łączące je z większymi strukturami sieci zarządzanymi przez dostawców usług internetowych (Internet service providers, ISP), takimi jak farmy serwerowe i centra przetwarzania danych, przez punkty wymiany ruchu internetowego (Internet exchange points, IXP), gdzie łączą się ze sobą sygnały różnych dostawców, aż po kręgosłup sieci, czyli duże struktury kabli i światłowodów położone na dnie oceanów i mórz oraz przecinające całe kontynenty, przesyłane są ciągi zer i jedynek kodujące wszystkie informacje z naszego świata.
1. Dane nie znajdują się w chmurze, tylko na dnie oceanów33. „People think that data is in the cloud, but it’s not. It’s in the ocean.”, „The New York Times”, https://www.nytimes.com/interactive/2019/03/10/technology/internet-cables-oceans.html [dostęp: 20.04.2022].
Około 95% globalnego internetu płynie aktualnie po dnie mórz i oceanów. Blisko 400 podwodnych kabli światłowodowych łączy różne miejsca na świecie, pozwalając na szybszy transfer informacji pomiędzy niektórymi z nich, a inne (np. Kubę) odłączając od globalnej wymiany wiedzy, usług i produktów cyfrowych. Niektóre z kabli mają kilkadziesiąt kilometrów, inne, przebiegające przez Pacyfik, kilkanaście tysięcy. Muszą wytrzymać silne prądy morskie, osunięcia się skał podwodnych oraz pracę wielkich trawlerów rybackich. Ich instalacja wymaga ciężkiej fizycznej pracy robotników w fabrykach i na statkach.
Analiza mapy węzłów i połączeń tworzonych w ramach tej sieci pozwala na nowo przyjrzeć się planetarnym strukturom władzy i wykluczeń, inaczej opisać relacje pomiędzy centrami i peryferiami, a także zrozumieć istniejące konflikty i współzależności geopolityczne. Gęsta sieć kabli łączy Stany Zjednoczone i Europę, pozwalając na intensywną i szybką wymianę informacji, przede wszystkim pomiędzy centrami finansowymi. Z kolei Afryka ma bardzo niewiele połączeń z Ameryką Południową. Jakie konsekwencje może mieć ograniczona wymiana pomiędzy krajami globalnego Południa przy równoczesnej intensywnej współpracy Północy i Zachodu? Na ile sieć kabli tworzy nowe ośrodki władzy, na ile odtwarza dawne zależności kolonialne, a na ile blokuje określone formy możliwych alternatywnych sojuszy? Odpowiedzi na te wszystkie pytania będą mieć fundamentalne znaczenie dla przyszłości planetarnych stosunków władzy.
Tymczasem bardzo trudno analizować coś, co umyka naszemu spojrzeniu, co w podwójnym stopniu funkcjonuje jako zakryte. Przede wszystkim przez język, który tworzy nasze wyobrażenie o świecie sieci jako chmurze, ale też przez niepozorny charakter symptomów i manifestacji tej infrastruktury. Z jednej strony jej koncentracja i zagęszczenie pojawiają się w miejscach zupełnie zwyczajnych, codziennych: na pięknym polu z niewielką rzeczką nieopodal Płocka czy na uczęszczanej przez turystów plaży w Mielnie. Ktoś, kto nie zna „tajemnego” kodu infrastrukturalnego podziemia, nie zorientuje się nawet, że gdzieś w pobliżu płynie internet i że chmura znajduje się raczej na dnie morza i pod ziemią niż w powietrznych przestworzach. Z drugiej strony natomiast infrastruktura sieci jest szczelnie zamknięta, chroniona przez kamery CCTV, podwójne bramy w centrach danych, śluzy, ochronę o militarnym charakterze i bunkry z czasów zimnej wojny. Ta gra między widzialnością i niewidzialnością internetu jest ściśle powiązana z relacjami władzy: tym, kto posiada i tworzy połączenia; dlaczego chce, by były widoczne lub niewidoczne; w jaki sposób je maskuje, oznacza i taguje; na jakich zasadach je tworzy. Jednak żeby dane mogły wejść w obieg, muszą istnieć miejsca, gdzie rozpoczynają podróż. To centra danych (data centers), czyli gigantyczne serwerownie, w których zgromadzony został cały internet.2. Na pustkowiach centrów przetwarzania danych
Podobnie jak kable i miejsca ich łączenia, centra danych umieszczone są w konkretnych lokalizacjach geograficznych i to właśnie lokalny kontekst – w wymiarze środowiskowym, politycznym, krajobrazowym, klimatycznym, ekonomicznym, społecznym czy geologicznym – splata się w nieoczywisty sposób z ich funkcjonalnością i charakterem zasobów, które się w nich znajdują. Niektóre centra danych, jak Kolos4
Internet ma swoją materialność, temperaturę i skład chemiczny. Skrzynki z serwerami, plątaniny kabli, systemy przeciwpożarowe, agregaty prądotwórcze, baterie, systemy chłodzenia – wszystkie te elementy infrastruktury internetu posiadają specyficzne faktury, zapach, giętkość, temperaturę, właściwości zarówno fizyczne, jak i zmysłowe. Ale internet ma też swój ciężar. Podczas wizyty w jednym z centrów danych w Gdańsku, oprowadzający nas po serwerowni współwłaściciel firmy zwrócił uwagę na wytrzymałość stropów jako ważny czynnik brany pod uwagę przy projektowaniu centrów danych lub poszukiwaniu dla nich istniejących budynków. W tym konkretnym przypadku strop musiał wytrzymać udźwig trzydziestu pięciu ton. Całkiem sporo jak na chmurę.
Centra danych – przez swoje systemy bezpieczeństwa, materialność, wygląd, lokalizację, architekturę i przypisane do nich narracje – wytwarzają wartość tego, co się w nich znajduje, czyli nadwyżki danych.
Centra danych zazwyczaj przedstawiane są jako miejsca położone na odludziu, dzikie i opuszczone7
Człowiek w przestrzeni centrum danych kojarzony jest ze źródłem błędu, a zatem stanowi zagrożenie dla niczym niezakłóconego działania systemu. Co więcej, na poziomie fantazmatycznym jego obecność blokowałaby urzeczywistnienie przyszłości jako w pełni zautomatyzowanej utopii. Przestrzeń nienaruszona i niezanieczyszczona ludzką obecnością ściśle współgra też z ideologią wiedzy tworzonej przez firmy zajmujące się analityką danych. Dane mają być obiektywne i niezależne od wpływu ludzkiej niedoskonałej natury, błędów, uprzedzeń, mają mówić same za siebie jako wynik idealnych procedur obliczeniowych, bezbłędnej kalkulacji. Estetyka znikania i nieobecności zasila wyobrażenia o wiedzy nienaruszonej przez ludzkie uprzedzenia i błędy, archaiczną niezborność i nieprzewidywalność człowieka.
To napięcie – pomiędzy fantazją na temat idealnej logiki komputacyjnej, w której każdy aspekt życia i świata zamieniony zostaje w dane, w model matematyczny, a wizją człowieka jako bytu nieokreślonego, nieredukowalnego do informacji, niedającego się pochwycić w logikę maszynową – wyznacza kluczowe wyzwanie, przed którym stoimy jako ludzie i które określi charakter naszej przyszłości. Czy człowieka można zredukować do ciągu zer i jedynek, zamienić w poddający się obliczeniom model statystyczny? Czy w związku z tym można, na podobieństwo praw naturalnych, przewidzieć jego działania, zachowania, myśli, nastroje i pragnienia?
Ten aspekt „naturalnego” charakteru danych podkreślany jest przez język, jakim o nich mówimy. Dane są pozyskiwane, zbierane i wydobywane, jak surowce lub zasoby naturalne, a nie wytwarzane przez systemy społeczno-technologiczne. Często mówieniu o nich towarzyszy bukoliczna terminologia: strumienie mediów, obliczeniowe chmury, jeziora danych. Ta związana z naturą wyobraźnia językowa tworzy ekologię mediów, w której dane stają się częścią praw rządzących wszechświatem – niezależnych od człowieka i istniejących obiektywnie.
Tymczasem to właśnie ludzkie uprzedzenia stanowią podstawę działania z pozoru tylko odczłowieczonych i automatycznych algorytmów9
3. Algorytmy i infrastruktura jako nowy wzór ukrytej władzy
Centra danych – jako część kompleksu przemysłowego – uzasadniają i stymulują wytwarzanie coraz większej ilości danych, ich nadwyżki, równocześnie nadając im wartość. W ten sposób powstaje istotna część nowego systemu kapitalizmu inwigilacji. Narracja o nasyceniu danymi, o ich wielości koniecznej do tworzenia nowej wiedzy i bardziej inteligentnego sposobu zarządzania różnymi obszarami świata, stanowi podstawowe uzasadnienie budowy nowych centrów danych. Równocześnie to właśnie w rezultacie powstawania tych obiektów występują okoliczności, w których „aż żal” nie wytwarzać nowych danych, nie produkować ich nadwyżki i nie gromadzić ich w tych miejscach, które oczekują na ich przyjęcie i przyciągają je do siebie (uwodzą).
Mél Hogan zwraca uwagę, że podobnie działał przemysłowy kompleks więzienny w Stanach Zjednoczonych10
Podobnie kompleks ponad 8 tysięcy centrów danych na świecie, połączonych światłowodową siecią kabli, tworzy materialne uzasadnienie produkcji coraz większej ilości danych. Są one z kolei wykorzystywane przez algorytmy sztucznej inteligencji do coraz sprawniejszej automatyzacji różnych obszarów życia i gospodarki. Systemy internetu rzeczy (Internet of things) poprzez komunikujące się ze sobą sieci czujników, które osadzone są w różnych materialnych obiektach i za ich pośrednictwem zbierają wszelkie możliwe dane, przesyłają do centrów danych i odbierają z nich „gęste” strumienie informacji.
To właśnie algorytmy stanowią – obok infrastruktury – drugą warstwę nowego szkieletu władzy w kapitalizmie inwigilacji. Potrzebują tych ogromnych zbiorów danych, ich nadwyżki, żeby uczyć się rozpoznawania nowych wzorców, doskonalić umiejętność „przewidywania” przyszłości i przekształcać same siebie w coraz doskonalsze systemy reguł i funkcji. Równocześnie założenia, na których się opierają, kryteria, na podstawie których dokonują klasyfikacji, i zasady, zgodnie z którymi działają, zazwyczaj są niejawne i ukryte. Nie wynika to tylko z braku kompetencji użytkowników, którzy nie znają języka programowania, ale też z prawa patentowego i tajemnicy handlowej. Ci, którzy tworzą algorytmy i nimi dysponują, często chcą, aby ich sposób działania był ukryty. Dzięki temu w większym stopniu mogą wpływać na wybory, zachowania i potrzeby użytkowników.
Algorytmy, podobnie jak infrastruktura, poddane są grze widzialności i niewidzialności. Te, które odpowiadają za uczenie maszynowe, coraz lepiej rozpoznają nasze skłonności, zachowania, potrzeby, pragnienia i nawyki. Potrafią odkryć rozmaite wzorce w różnych zbiorach danych – od nauk ścisłych i medycyny, przez ekonomię i procesy społeczno-polityczne, aż po techniki nadzoru, kontroli i inwigilacji. Nie tylko „zauważają” prawidłowości czy korelacje, lecz także tworzą hipotezy dotyczące ich rozwoju w przyszłości, ekstrapolując rozpoznane wzorce. Wiele naszych wyborów indywidualnych i zbiorowych – to, z kim rozmawiamy, jakie treści do nas docierają, gdzie podróżujemy, z kim budujemy relacje i w jaki sposób kochamy, czego słuchamy, jak projektujemy nasze wnętrza i komunikaty wizualne, którędy jeździmy do pracy, jak przewidujemy pogodę i katastrofy naturalne, wyniki wyborów i zagrożenia terrorystyczne – często jest rezultatem działania algorytmów.
4. Algorytmiczne uprzedzenia i normalizacja
Niestety świadomość, że tak się dzieje, nie sprawia, że wiemy, według jakich kryteriów, zasad i założeń działają algorytmy, jaka jest ich architektura, jakie ciągi komend i instrukcji składają się na ich strukturę, jakie procedury czy działania są przez nie wywoływane. Nie wiemy też, na jakich bazach danych były trenowane. Algorytmy bowiem uczą się rozpoznawania wzorców na przygotowanych specjalnie dla nich zbiorach, by potem mogły dokonywać klasyfikacji i generalizacji już poza tymi zestawami.
Tymczasem zbiory danych nie tylko mogą odtwarzać uprzedzenia, stereotypy i założenia, którymi kierują się różne grupy społeczne, reprodukując rozmaite historyczne ideologie. Mogą też być dobierane w taki sposób, by wspierać interes tych, którzy posiadają środki produkcji pozwalające na rozwój systemów sztucznej inteligencji. Zarówno same algorytmy, jak i bazy danych funkcjonują w sieci relacji władzy, nie są neutralne ani obiektywne.
Pierwszym etapem, na który wpływ ma człowiek, jest wybór bazy danych wykorzystywanej do trenowania danego algorytmu. Ta selekcja jest już oparta na założeniach na temat tego, co jest ważne, na co należy zwrócić uwagę, w jakim obszarze rzeczywistości algorytm ma poszukiwać cech i wzorów, a co może zostać zignorowane. Następnie ludzie dokonują „etykietowania” obiektów składających się na konkretną bazę i ich wstępnej kategoryzacji. Decydują, czy dany obiekt spełnia założone kryterium, i na tej podstawie go oznaczają, przypisując mu określoną kategorię. Na tych dwóch wstępnych etapach najczęściej dochodzi do reprodukcji stereotypów związanych z tym, co jest normą, a co anomalią, oraz uprzedzeń rasowych, genderowych czy etnicznych. Stare i konserwatywne taksonomie zostają wpisane w świat sztucznej inteligencji poprzez sposób organizacji „wkładu”, czyli zestawów danych, na których będą trenowane algorytmy uczenia maszynowego11
Tak przygotowane zestawy danych ze stworzoną przez ludzi taksonomią stają się polem treningowym algorytmów. Na tym etapie dochodzi zazwyczaj do wzmocnienia stereotypów i uprzedzeń zakodowanych w bazie i jej taksonomii. Algorytmy uczenia maszynowego dokonują przekształcenia danych w wielowymiarowy model statystyczny, który ma charakter przestrzeni wektorowej. Obiekty umieszczone zostają w kilkuwymiarowym układzie współrzędnych, w którym przypisane są im określone wartości liczbowe warunkujące ich lokalizację. Na przykład słowa czy wyrażenia języka naturalnego zaczynają funkcjonować jako zawieszone w różnych odległościach od siebie i w różnych relacjach związanych z częstotliwością występowania określonych korelacji czy związków między nimi. Słowo „lekarz” może występować częściej obok słowa „mężczyzna” niż „kobieta”, dlatego w przestrzeni wektorowej „lekarz” i „mężczyzna” znajdą się bliżej siebie. Jeśli z takiego modelu statystycznego w przyszłości będzie korzystać sztuczna inteligencja, której celem jest rekrutacja na stanowisko lekarza w szpitalu, prawdopodobnie częściej będzie wybierała kandydatów mężczyzn, ponieważ dostrzeże korelację pomiędzy tymi dwiema kategoriami.
Algorytmiczne tworzenie modelu statystycznego w wyniku treningu oznacza także likwidowanie wszelkich anomalii i spłaszczanie rzeczywistości do średniej. Jeśli pojawiają się wyniki, które odbiegają od jakiegoś wzorca czy trendu, zostają zignorowane i wchłonięte przez średnią. W ten sposób dochodzi do wzmocnienia normalizacji i stereotypów. Nietypowe wzory, prawdziwie innowacyjne pomysły czy nieszablonowe idee – wszystko to zostaje zignorowane przez algorytm uczenia maszynowego. Jeśli w bazie znajdują się elementy niepasujące do statystycznej normy, są one odrzucane. W ten sposób wielowymiarowość rzeczywistości zostaje zredukowana, a wszystko to, co nietypowe, odmienne, barwne, nieoczywiste, niestandardowe, odbiegające od normy, jest neutralizowane. Jak widać, algorytmy sztucznej inteligencji, choć wydają się technologią nadzwyczaj nowoczesną, w istocie często mają charakter niezwykle konserwatywny. Nie tylko reprodukują zastany porządek, status quo świata, ale także go wzmacniają.
Kolejnym wymiarem uproszczenia rzeczywistości jest koncentracja algorytmu uczenia maszynowego jedynie na wybranym zestawie cech. Oznacza to ograniczenie „rozdzielczości” świata do tego zestawu. Przez to sztuczna inteligencja może mylić obrazy obiektów w oczywisty sposób różnych i tak postrzeganych przez ludzkie oko – np. żółwia i karabinu – jeśli układ wybranych cech przypomina wzorzec, który algorytm nauczył się rozpoznawać jako charakterystyczny dla danej kategorii. Na przykład obraz żółwia algorytmy sztucznej inteligencji Google’a widziały jako karabin12
Ta wiedza dotycząca działania algorytmu zazwyczaj jest nam niedostępna. Została zamknięta w czarnej skrzynce. Często nie znamy kodu źródłowego, baz danych, na których były trenowane algorytmy, ani innych danych wejściowych. Algorytmy są niewidzialnym szkieletem naszego świata, trochę jak niewidzialny labirynt czy niewidzialne sznurki poruszające naszym ciałem, naszymi afektami i procesami poznawczymi. Celem Biennale Warszawa 2022 „Seeing Stones and Spaces Beyond the Valley” jest wdarcie się do wnętrza czarnych skrzynek, wydobycie algorytmów z przestrzeni niewidzialności i pokazanie, w jaki sposób kształtują nas, materialność naszego świata i procesy społeczne, których jesteśmy częścią.
Vladan Joler i Matteo Pasquinelli zauważają, że narracje na temat tajemniczości algorytmów sztucznej inteligencji, niemożliwych do zrozumienia operacji odbywających się w sieciach neuronowych i retoryki nieprzeniknionych czarnych skrzynek to rodzaj mitologii stworzonej wokół sztucznej inteligencji po to, żeby przedstawiać ją jako niemożliwą do poznania i niepodlegającą politycznej kontroli13
Twórcza, sprawcza i polityczna praca nad projektowaniem przyszłości jest o tyle ważna, że algorytmy sztucznej inteligencji – stworzone w celu wydobywania (ekstrakcji) i klasyfikacji naszych najbardziej intymnych danych – tworzą modele statystyczne przyszłości wyłącznie w formie ekstrapolacji przeszłych wzorców. Konsekwencją tego jest brak możliwości odkrycia przez nie czegoś naprawdę nowego, idei nigdy wcześniej niepomyślanej i nieutrwalonej. Uczenie maszynowe nie jest w stanie wyjść poza odtwarzanie przeszłości. W najlepszym wypadku są to wariacje na temat wzorców z przeszłości, ich rekonfigurowanie, mieszanie i przetwarzanie. Algorytmy uczenia maszynowego tworzą przyszłość w postaci mitologicznego obrazu – powtarzanego i odtwarzanego – przez co stają się maszyną mitologiczną. W związku z tym często odtwarzają istniejące klasyfikacje, dychotomie, uprzedzenia i stereotypy genderowe, klasowe, rasowe i seksualne. Jeśli algorytmy uczyły się klasyfikacji na podstawie zestawów danych opartych na charakterystycznych dla kultury Zachodu przekonaniach i systemie wartości, to będą je reprodukowały, podejmując z pozoru tylko obiektywne i neutralne, automatyczne decyzje. Microsoft w 2016 roku stworzył bota, który miał się uczyć z twitterowych wpisów użytkowników. W ciągu dwudziestu czterech godzin stał się on zautomatyzowanym rasistowsko-seksistowskim dyskursem nienawiści, odtwarzając jedynie wzorce rozpoznane w komunikacji „ludzkich” agentów14
Algorytmy uczenia maszynowego są ściśle powiązane z przemysłowym kompleksem centrów danych, który uzasadnia wytwarzanie nadwyżki, jak pisze o tym Mél Hogan16
Sztuczna inteligencja może być jednak wykorzystana również do profilowania rasowego i wprost wspierać autorytarne reżimy w systemowej opresji i przemocy. Pierwszym ujawnionym przykładem algorytmicznego profilowania rasowego był system chińskiej firmy CloudWalk18
Ten jawnie rasistowski system inwigilacji państwowej mógłby zostać połączony z analizą zbieranych przez Chiny danych genetycznych o grupach „wrażliwych”. DNA wydaje się kolejnym obszarem, w który powoli wwierca się świder wydobycia danych i ich algorytmicznej analizy. Już nie tylko uczucia, choroby, problemy psychiczne, nałogi, intymne relacje, życie seksualne, neurozy i skłonności mogą stanowić źródło danych wykorzystywanych do tworzenia naszych profili. Mogą one zostać powiązane z wnikliwą analizą indywidualnych sekwencji DNA przez sztuczną inteligencję i tworzeniem najbardziej nieprawdopodobnych korelacji łączących nasze geny i zachowania. Nietrudno wyobrazić sobie konsekwencje tak daleko idącej inwigilacji i utowarowienia naszych unikalnych kodów życia. Na giełdach danych firmy lub partie polityczne mogłyby kupić paczki danych w ramach kategorii łączących charakterystyki behawioralne z określonymi sekwencjami kodu genetycznego.
Podobnie problematyczną praktyką jest testowanie nowych systemów sztucznej inteligencji w obszarze migracji, procedur uchodźczych i bezpośrednio na granicach. Osoby uchodźcze, osoby bezpaństwowe, osoby w ruchu, osoby pozbawione dokumentów – często uciekające przed wojną i prześladowaniami lub z miejsc o ekosystemach zniszczonych na skutek zmian klimatycznych – są w szczególny sposób podatne na eksploatację. Nie chodzi tu tylko o handel ludźmi czy różne formy wyzysku pracowniczego, ale też o sytuację, w której osoby te pozbawione są praw chroniących obywateli m.in. przed naruszeniami prywatności związanymi z wydobyciem, przechowywaniem i przetwarzaniem danych.
Co więcej, ze względu na liminalny status osób uchodźczych i łatwość zdefiniowania ich jako „wyjętych spod prawa” służby państwowe ramię w ramię z prywatnym biznesem technologicznym wykorzystują tę sytuację do testowania problematycznych technologii inwigilacji, automatycznych systemów podejmowania decyzji i wydobycia danych. Nie tylko sprawdzają ślad cyfrowy osób uchodźczych na podstawie danych z ich telefonów, ale też jak Palantir – firma zajmująca się zaawansowaną analityką danych – profilują te osoby, integrując dane z wielu źródeł. Wykorzystywane to było m.in. w trakcie prezydentury Donalda Trumpa do przeprowadzania deportacji i rozdzielania rodzin migranckich przez amerykańską agencję Immigration and Customs Enforcement19
Na granicach testowane są też automatyczne wykrywacze kłamstw, które na podstawie wyrazu twarzy i brzmienia głosu w czasie odpowiedzi na coraz bardziej skomplikowane pytania starają się przeprowadzić analizę prawdomówności i wytypować podejrzane osoby. Czy jednak algorytm, wytrenowany na zestawach danych zakorzenionych w określonym kontekście, uwzględni różnice kulturowe w ekspresji? Czy będzie w stanie odróżnić niespójności w odpowiedziach wywołane uszkodzeniami procesów poznawczych na skutek traumy wojennej od tych, które są wynikiem oszustwa? Jeśli osoba uchodźcza chciałaby się odwołać od algorytmicznie podjętej decyzji, to kto byłby odpowiedzialny? Osoba projektująca system, programista, urzędnik imigracyjny, a może sam algorytm20
5. Kapitalizm inwigilacji i cyberwojna
Jak pisze Svitlana Matviyenko, to właśnie użytkownicy stają się swoistym mięsem armatnim podczas cyberwojny. Często funkcjonują jako doskonałe, automatyczne przekaźniki transmisji informacji. Uprzedmiotowieni, traktowani jak zasób i produkt zarazem, jak źródło danych i matematycznie wyprofilowana behawioralna broń, wyzyskiwani są za sprawą własnego człowieczeństwa: lęków, niepokojów, pragnień, słabości, wrażliwości, podatności, nałogów, wiedzy, nawyków, zachowań, przekonań. Wszystkie te najbardziej ludzkie, emocjonalne, afektywne i poznawcze właściwości zamieniane są na układy danych21
Tak funkcjonują cyfrowe monopole big data oraz rozmaite agencje państwowe, które splatają się ze sobą w powiązaniach kapitałowych i w relacjach władzy. Ten nowy paradygmat Shoshana Zuboff nazwała kapitalizmem inwigilacji. Wśród wielu jego określeń znalazły się m.in. takie: „nowy porządek ekonomiczny, który uznaje ludzkie doświadczenie za darmowy surowiec do ukrytych handlowych praktyk wydobycia, prognozowania i sprzedaży” czy „pasożytnicza logika ekonomiczna, w której wytwarzanie towarów i usług jest podporządkowane nowej globalnej architekturze modyfikacji behawioralnych”22
Jeśli algorytm wie o tobie więcej, niż ty sam wiesz o sobie, utwierdzać cię może w przekonaniach i nawykach korzystnych dla tej grupy albo firmy, która go stworzyła i czerpie z niego zyski: finansowe, propagandowe lub militarne. Ten sam sposób działania, polegający na zamianie w dane ludzkich zachowań i właściwości, a także całego kontekstu środowiskowego, społecznego, relacyjnego i materialnego, służyć może zarówno rynkowej kapitalizacji, jak i władzy państwowej. Może też być zasobem i narzędziem wykorzystywanym w cyberwojnie. Jak twierdzi Matviyenko, „cyberwojna jest wojną kapitalistyczną”23
Polaryzacja i antagonizmy sprawiają, że użytkownicy produkują jeszcze więcej nowych danych. To właśnie one mobilizują ukryte w nas intymne fabryki afektywno-behawioralne do wytwarzania nowych danych – w odpowiedzi na prowokacje, w aktach oburzenia, w potrzebie wsparcia „swoich”, w głębokim pragnieniu zamanifestowania niezgody. Facebookowe potyczki, starcia, burze i wojny w istocie służą do tego, żeby zbudować fałszywy antagonizm opierający się na algorytmicznie sprowokowanym konflikcie. Faktycznie skrywa on inny podział na tych, którzy czerpią zyski z danych wytworzonych w „ideologicznych agonach”, i tych, których „lęki i pragnienia poddane są instrumentalizacji przez wojnę, użytkowników platform”25
Co więcej, każda kolejna forma oporu, każdy kolejny protest, każda kolejna strategia czy taktyka niezgody analizowane i rozpoznawane są przez algorytmy sztucznej inteligencji, które uczą się ich wzorów, dynamik i technik, by w przyszłości szybciej je dostrzegać i na nie reagować, osłabiając ich skuteczność i potencjał. Zauważmy, że tak właśnie działa autorytarna władza. Kontekst cyberwojny, widziany również w perspektywie wojny w Ukrainie, ujawnia splątanie dwóch autorytarnych technik: z jednej strony uciszania użytkowników, zabierania im głosu i narzędzi komunikacji w zgodzie z duchem totalitarnym; z drugiej neoliberalnej metody uwodzenia wolnością i inspirowania do tego, aby mówić w sposób „wolny”, by przechwytywać myśli i uczucia tak wytworzone w zarzucone na nie siatki kwantyfikacji i zamiany tej „wolnej ekspresji” w utowarowiony zestaw danych. Obie taktyki – uciszania w jednym miejscu, a inspirowania do mówienia (krzyczenia, agonu, sporu, gniewu…) w innym – mają kluczowe znaczenie w dialektyce wojny w Ukrainie.
6. Ruch technologii niezaangażowanych i centrum danych w ogrodzie
Algorytmy uczenia maszynowego opierają się na uchwyceniu korelacji pomiędzy zjawiskami, nie potrafią jednak zrozumieć przyczynowości. Jednym z podstawowych błędów takiej perspektywy jest przekształcanie korelacji w przyczynowość. Jeśli np. osoby, które regularnie podróżują, częściej wchodzą w nowe związki, nie oznacza to, że istnieje związek przyczynowo-skutkowy pomiędzy podróżowaniem a trwałością relacji miłosnych czy gotowością do inicjowania nowych. Wydobywając rozmaite dane, uczenie maszynowe może ustanowić w zasadzie dowolny, arbitralny rodzaj korelacji, a następnie przedstawić go jako związek przyczynowo-skutkowy26
Równie ryzykowne jest zawierzenie naszej przyszłości sztucznej inteligencji, która tylko odtwarza przeszłe wzorce, nie może wykryć tego, co nowe, niweluje innowacje, a dodatkowo opiera swoje wizje przyszłości na korelacji zjawisk z przeszłości. W takiej sytuacji niezwykle ważne staje się odwołanie do kreatywności i sprawczości ludzkiej. To człowiek może wyjaśnić relacje przyczynowo-skutkowe między zjawiskami i stworzyć plan, w którym, przechodząc od punktu do punktu, będziemy zmierzać do realizacji przyszłości, jakiej naprawdę chcemy. To ludzka wyobraźnia może wytworzyć obrazy czy wizje wcześniej niewyobrażone, a ludzka myśl – idee wcześniej niepomyślane. Kiedy używamy w tytule naszej wystawy wyrażenia „poza doliną”, zależy nam na wyjściu poza wyobrażeniowe ramy stworzone przez firmy, dyskurs i praktyki Doliny Krzemowej, ale też na tym, by bezustannie pracować z poszerzaniem granic własnej wyobraźni, rozciąganiem jej, twórczym kwestionowaniem oczywistości – nie tylko w celu odsłaniania niesprawiedliwości i relacji władzy, ale też po to, by tworzyć pole dla potencjalności, twórczych praktyk i idei. By wychodzić poza dolinę naszej wyobraźni, sprawdzać i testować to, co wydaje się nieprawdopodobne, nieosiągalne, alternatywne, niezgodne z istniejącym paradygmatem, a co pozwala myśleć o lepszym świecie, poza mrokiem, poza apokaliptyczno-katastroficzną doliną.
Takie praktyki, prototypy, idee, spekulacje i wyobrażenia znajdziecie na naszej wystawie i w naszym programie publicznym. Chciałbym wskazać dwie alternatywy, które odpowiadają na wyzwania związane z kompleksem przemysłowym centrów danych oraz tym, co Nick Couldry i Ulises Ali Mejias nazywają kolonializmem danych.
Wyobraźmy sobie, że zamiast centrów danych, w których przechowywane są informacje zapisane w postaci kodu binarnego, zaczniemy skutecznie i efektywnie kodować dane – teksty, filmy, fotografie, dźwięki – w DNA roślin lub innych organizmów27
O ile przechowywanie danych w organizmach roślinnych stanowi odpowiedź na wyzwania związane z materialną infrastrukturą internetu, o tyle Couldry i Mejias proponują, by na zjawisko kolonializmu danych odpowiedzieć strategiami i taktykami wykorzystywanymi w ramach ruchów dekolonizacyjnych. Postrzegają oni ekstrakcję (wydobycie) wartości z ludzkiego życia za pośrednictwem danych jako praktykę wpisaną w pięćsetletnią historię kolonializmu30
Dla Couldry’ego i Mejiasa ekstraktywizm i kolonializm danych stanowią zjawisko pierwotne wobec kapitalizmu – umożliwiający kolejne fazy jego rozwoju nowy etap kolonializmu. Inspirują oni do krytycznego przyjrzenia się wymówkom i usprawiedliwieniom, które w okresie kolonializmu miały uzasadniać masową ekstrakcję surowców naturalnych i – analogicznie – pojawiają się dzisiaj w kontekście ekstrakcji danych. Są to: racjonalność, progres, porządek, nauka, nowoczesność, zbawienie31
Odpowiedzią na takie rozpoznanie jest praca wyobraźni w skali globalnej. Wszystkie strategie dekolonizacyjne były zawsze aktami wyobraźni, dlatego również teraz tak ważne jest stworzenie alternatywnych wyobrażeń związanych z danymi i technologiami. Couldry i Mejias proponują, by powołać ruch technologii niezaangażowanych (na wzór ruchu państw niezaangażowanych), który m.in. bojkotowałby technologie ekstraktywistyczne i stosował alternatywne technologie, prowadziłby do niekupowania lub nieakceptowania „darmowych” produktów monopoli cyfrowych, odzyskiwałby dane (i produkty z nich powstałe) w imieniu tych, którzy je stworzyli, wprowadzałby podatki i sankcje wobec Big Techów, by w ten sposób naprawić szkody wyrządzone przez ich technologie, pracowałby nad nową wyobraźnią i nowymi formami społeczności bez technologii ekstraktywistycznych i związanych z nimi poważnych kosztów oraz tworzyłby solidarność, która łączyłaby w skali globalnej „niezaangażowane jednostki i społeczności na całym świecie siłą zbiorowej wyobraźni i na drodze wspólnego działania”33
Te pomysły stanowić mogą inspirujący punkt wyjścia do własnych eksperymentów z alternatywami technologicznymi: do tworzenia nowych idei, prototypów, organizacji i kolektywów zdolnych budować nowy – demokratyczny, sprawiedliwy i równiejszy – świat. Jedno wiemy na pewno – w tym świecie technologie kształtować będą większość zjawisk politycznych, egzystencjalnych, społecznych, ekologicznych i ekonomicznych. Od nas zależy, w jaki sposób go urządzimy.
Bartosz Frąckowiak jest kuratorem, reżyserem i badaczem kultury, a także wicedyrektorem Biennale Warszawa. W latach 2014–2017 był wicedyrektorem Teatru Polskiego w Bydgoszczy oraz kuratorem Międzynarodowego Festiwalu Prapremier. Kurator serii wykładów performatywnych organizowanych we współpracy z Fundacją Bęc Zmiana (2012). Reżyser przedstawień, m.in. Komornicka. Biografia pozorna (2012); W pustyni i w puszczy. Z Sienkiewicza i z Innych W. Szczawińskiej i B. Frąckowiaka w Teatrze Dramatycznym w Wałbrzychu (2011); wykładu performatywnego Sztuka bycia postacią (2012), Afryki Agnieszki Jakimiak (2014), Granic Julii Holewińskiej (2016), Workplace Natalii Fiedorczuk (2017) oraz dokumentalno-śledczego spektaklu Modern Slavery (2018). Publikował w pismach teatralnych i społeczno-kulturalnych: „Autoportret”, „Dialog”, „Didaskalia”, „Krytyka Polityczna”, „Teatr”. Wykładowca SWPS w Warszawie, współkurator I i II edycji Biennale Warszawa.