Nadejdzie czas, w którym będziecie musieli wybrać między tym co słuszne, a tym co łatwe i przyjemne.

A.D.

Łatwe

Zatrzymaj się, weź głęboki oddech i zastanów się nad chwilą, którą właśnie zaczynamy wspólnie przeżywać. Z myślą o Tobie i tym właśnie momencie ubrałam swoje przemyślenia w słowa, wystukałam je na plastikowych klawiszach, aby następnie móc przyglądać się ich wizualnym reprezentacjom na ekranie komputera, który umożliwił mi przesłanie skończonego pliku do redakcji, gdzie rozpoczęto pracę nad nadaniem mu formy odpowiedniej do druku. Zestaw standardowych czynności, stanowiących dla większości z nas nieodłączny element codziennej rutyny w interakcji z maszynami: wprowadzamy dane wejściowe, które następnie zapisywane są w pamięci, przetwarzane i generowane w formie danych wyjściowych. We wczesnych latach 90. proces ten wydawał się futurystyczną koncepcją, której następstwa i potencjalne implikacje były w stanie zrozumieć jedynie hermetyczne kolektywy informatyków i naukowców. Do dziś pamiętam emocje, jakie mną targały przy wysyłce pierwszej w życiu wiadomości mailowej z projektem graficznym w załączniku. Skrzynkę obsługiwał właściciel osiedlowej kawiarenki internetowej, któremu przekazałam zapisane na dyskietce małe dzieło sztuki wykonane w programie Paint i przerażona zapytałam: „Czy można priorytetem, bo ta wiadomość musi dojść na jutro”.

Dziś już nikogo nie dziwią petabajty danych prześlizgujących się każdego dnia przez nasze skrzynki mailowe, które skutecznie wyparły czasochłonne wizyty na poczcie i przyklejane na ślinę skrawki papieru, dzięki którym przekazywane treści otrzymywały zdolność przemieszczania się. To naturalne, że jako istoty ludzkie szukamy nieustająco przestrzeni na przekształcanie i optymalizację energii poświęcanej wykonywaniu codziennych czynności. Dla jednych może to brzmieć jak definicja lenistwa, inni nazywają ten proces działaniem nawykowym, który zakłada, że mózg człowieka celowo unika aktywności wymagających wysiłku, przez wzgląd na potrzebę zaoszczędzenia zasobów drogocennej mocy. W założenia te doskonale wpasowały się udogodnienia, które zapewniły nam potężne komputery, automatyzujące procesy i przetwarzające informacje zgodnie z zakodowanym algorytmem.

Typowe zastosowania urządzeń wykonujących za nas szereg skomplikowanych obliczeń zmieniały się i zaczęły się ewoluować wraz z rozwojem zaawansowanych technik komputerowych. Pierwsze modele, które zajmowały ogromne przestrzenie, a ich obsługa wymagała zaangażowania całych zespołów, swoje zastosowanie znalazły w armii do celów militarnych, takich jak łamanie szyfrów czy balistyka. Wystarczyło zaledwie kilkanaście lat, aby zminiaturyzować, skomercjalizować i rozpowszechnić dostępność takiego sprzętu, dzięki czemu dziś każdy i każda z nas może streamować całe sezony seriali, wykonywać pracę zdalnie, przeglądać Tik Toki albo zarabiać cyfrowe waluty poprzez udostępnienie swojej mocy obliczeniowej do weryfikacji transakcji w rozproszonych rejestrach danych.

Mamy rok 2022, do sieci podłączonych jest dwadzieścia dwa miliardy urządzeń, co w konsekwencji doprowadziło nas szybko i łatwo do wytworzenia nowego środowiska: technicznego. Ono zaś staje się integralnym elementem sfery naturalnej i społecznej. Szczelnie przyczepione do kominów i kondygnacji budynków mieszkalnych anteny systemów mobilnych stały się nieodłącznym elementem otaczającej nas rzeczywistości. Uśpiła się nasza czujność, co doprowadziło do sytuacji, w której nie zastanawiamy się nad potencjalnymi konsekwencjami związanymi z nadchodzącym rozwojem między innymi łączności 5G, która może przyczynić się do jeszcze bardziej agresywnych przejęć przestrzeni publicznej przez niezbędną do jej obsługi infrastrukturę.

Komunikaty marketingowe informują nas jednostronnie, jedynie na temat korzyści, pomijając aspekty techniczne, takie jak fakt, że motorem napędowym piątej generacja komunikacji bezprzewodowej jest technologia znana jako fale milimetrowe. Podobnie jak w przypadku każdej innowacji, nie da się uniknąć problemów i przeszkód, które należy pokonać, zanim wejdzie ona do powszechnego użycia. Jedną z nich jest zasięg sieci i odległość stacji bazowych, które mogą oferować stabilną łączność, kiedy znajdują się w maksymalnej odległości pięciuset metrów od siebie. Aby pokryć te same obszary, które obecnie pokrywają sieci 4G, trzeba będzie umieścić w przestrzeni całą masę nowych odbiorników. Dlatego wydaje się wielce prawdopodobne, że raczej nie doczekamy się wdrożeń 5G na wsiach i w małych miastach. Rozwiązania te wykorzystywane będą głównie w centrach wielkich metropolii, gdzie na niewielkiej przestrzeni będzie mogła korzystać z niego jak największa liczba odbiorców. Gdy przygotowywano symulację dla Nowego Jorku, wykonano obliczenia, z których wynika, że zapewnienie łączności wymagać będzie zagospodarowania przestrzeni dla około 2 milionów stacji. Prawdziwa inwazja!

Tempo rozwoju masowej cyfryzacji w 1965 roku przewidział Gordon Moore, dlatego to od jego nazwiska nazwano prawo, które zakłada, że każdego roku dwukrotnie wzrasta moc obliczeniowa, a jednocześnie spada koszt jej uzyskania. Są to dwa główne czynniki, które napędzają rozwój rynku technologii komunikacyjno-informacyjnych. Zwiększenie liczby tranzystorów i miniaturyzacja powierzchni układów elektronicznych doprowadziły do globalnej rewolucji i zmiany sposobu funkcjonowania większości obszarów naszego życia. Jednak działanie na tak ogromną skalę wiąże się z wieloma zagrożeniami, a najbardziej niepokojącym są niestabilność ekologiczna i niedobór zasobów naturalnych, niezbędnych do utrzymania obecnego poziomu wzrostu gospodarczego.

Kiedy doświadczamy świata za pośrednictwem szklanych ekranów, na których pokazywane są nam jedynie wybrane fragmenty rzeczywistości, bardzo łatwo tracimy z oczu jej prawdziwy obraz. Kiedy bez przerwy scrollujemy, zapominamy, że nasza aktywność w przestrzeni cyfrowej jest elementem niezwykle złożonej układanki. Przyjrzyjmy się bliżej chociażby kwestiom związanym ze strumieniowym przesyłem danych. Netflix udostępnia tysiące tytułów, które koją, śmieszą, smucą, odciągają naszą uwagę od rzeczywistości i usypiają czujność. Zwiększone natężenie treści wideo jest bezpośrednio związane z rozrostem infrastruktury, niezbędnej do ich obsługi, a jej powstanie z kolei stanowi podglebie rozkwitu kolejnych usług intensywnie wykorzystujących dane. Zachodzi tu technologiczny efekt domina, który ostatecznie prowadzi do bezpośredniego przełożenia na zwiększenie poziomu emisyjności.

W pierwszych miesiącach pandemii COVID-19 Unia Europejska zmuszona była narzucić ograniczenia na platformy Netflix i YouTube, regulując generowany przez nie ruch i obciążenia sieci. Bez tych odgórnych działań, na niektórych obszarach geograficznych niemożliwe było wykonywanie pracy zdalnej z powodu przeciążonej przepustowości. W dość brutalny sposób doświadczyliśmy ograniczeń przestrzeni internetowej, okazało się, że mimo zasysania gigabajtów treści z enigmatycznej chmury, udało nam się dobić do jej granic.

Korporacje zapewniające łączność i hosting przez lata przyzwyczajały nas do funkcjonowania bez limitów. Wystarczy kupić kartę SIM dostępną w każdym osiedlowym sklepie i bez większych problemów zdobywamy dostęp do bezkresnych przetworzy, do świata, który nie posiada własnej konstytucji, a odpowiedzialny jest za większą emisję dwutlenku niż dwieście osiem państw na Ziemi.

Według wyliczeń ITU (United Nations Agency for ICT) technologie informacyjno-komunikacyjne (ICT), obejmujące wszelkie produkty przechowujące, pobierające, przetwarzające, przekazujące lub odbierające informacje w formie cyfrowej za pośrednictwem sprzętu w postaci komputerów osobistych, smartfonów, aplikacji mobilnych, poczty elektronicznej, strumieniowej transmisji danych, w 2021 roku odpowiedzialne były za emisję dwutlenku węgla na poziomie 620 megaton (Mt). Wyższym wynikiem może pochwalić się tylko osiem państw na całym świecie: Chiny (10 668 Mt), USA (4 713 Mt), Indie (2 442 Mt), Federacja Rosyjska (1 577 Mt), Japonia (1 031 Mt), Iran (745 Mt), Niemcy (644 Mt) oraz Arabia Saudyjska (626 Mt).

Pieczołowicie wykreowana kultura „wiecznie podłączonych”, w którą zostaliśmy wepchnięci bez pytań i wcześniejszych konsultacji, doprowadziła nas do globalnego przebodźcowania. Wszechobecne powiadomienia, zaczepki i zachęty dezorientują nas i nie pozostawiają przestrzeni na refleksję. Żyjemy w świecie, w którym trudno znaleźć chwilę na zastanowienie się, czy obecny stan jest tym, w którym chcemy uczestniczyć, a globalne układy się rozrastają i żerują na naszym zagubieniu.

Źródła niewiedzy i manipulacji

Agnotologia to dział nauki badający kulturowe uwarunkowanie niewiedzy, która dystrybuowana jest dziś na masową skalę. Noam Chomsky niejednokrotnie wskazywał na utrzymanie społeczeństwa w stanie ignorancji jako zaplanowaną strategię masowej manipulacji. Uważa on, że brak dostępu do narzędzi umożliwiających dogłębną analizę rzeczywistości, przekazywanie danych anegdotycznych, często wyrwanych z kontekstu, brak nacisku na edukację usypia naszą czujność i pozwala utrzymać aktualny porządek świata, w którym wolność jednostki jest stopniowo ograniczana na rzecz systemowych układów.

Najskuteczniejszym remedium na ignorancję jest edukacja. W oświeceniu rozumiana jako dociekanie i tworzenie, stanowiła najwyższy cel człowieka. W XXI wieku, gdy z każdej możliwej strony spływają do nas wypaczone komunikaty, nauka jak nigdy dotąd narażona jest na degenerację, co prowadzi ludzkość ku intelektualnej stagnacji. Zagrożenia te szczególnie mocno demonstrują się w przypadku postrzegania i rozumienia naszej relacji i współzależności od globalnych sieci komputerowych – największego projektu, jaki stworzył człowiek w całej historii swojego istnienia. Mimo że Internet odgrywa tak kluczową rolę w naszym rozwoju, wciąż niewiele osób wie, skąd się wziął i jaką pełni funkcję.

Technologiczna dysleksja

Według szacunków Statisty, niemieckiej organizacji specjalizującej się w analizach rynku, globalna wspólnota osób, które piszą kod, do 2024 roku osiągnie 28,7 milionów, co oznacza wzrost o 3,2 miliona w porównaniu z 2020 rokiem. Znaczna część tego natężenia dotyczy Chin, które za wszelką cenę dążą do utrzymania pozycji globalnego technologicznego lidera.

Zakładając więc, że dzisiaj 24,5 miliona osób pisze i rozumie kod, w ujęciu globalnym stanowi to 0,003% całej populacji. Tak mały odsetek osób tworzy i odpowiada za produkty cyfrowe, które kreują nasz sposób komunikacji i postrzegania rzeczywistości. Cała reszta, czyli 99,997% to nieświadome jednostki, które podążają za cudzymi wizjami projektowymi.

Teraz wyobraź sobie, że osoby, które projektują interakcję, czyli moment, w którym stykasz się z maszyną, za swojego guru uważają Steve’a Kruga, autora książki Don’t Make Me Think [Nie każ mi myśleć]. Głosi on w swoich tezach, że zaprogramowane zadania, takie jak dokonanie zakupu, zatapianie się w streamie treści, komentowanie i automatyczne wrzucanie zdjęć do chmury, powinny być możliwie najprostsze w obsłudze. Technologie podane na tacy w formie przyjemnych przeżyć, doprawionych szczyptą ujmujących zabiegów i kolorowych przycisków, oduczają nas myślenia, krytycznego podejścia i zadawania pytań, a brak regulacji rynku prowadzi do tego, że na wyciągnięcie ręki dostępne są aplikacje i całe systemy niezachowujące standardów etycznych. Przyzwyczajanie nas do funkcjonowania z precyzyjnie zaprojektowanymi formami wytwarza w nas dodatkowo poczucie złudnej stabilności. Przy tak ogromnej złożoności procesów, w których uczestniczymy i przełomowych wydarzeń, których jesteśmy świadkami w ostatnich latach, dobitnie przekonaliśmy się, że tak naprawdę nic nie jest przewidywalne, a światem rządzi chaos. Każdy z nas adaptuje go na własnych warunkach, co w rezultacie prowadzi do powstania trendów społecznych celebrujących bałagan, który zaczął symbolizować poczucie komfortu w obliczu presji internetowej perfekcji.

Przykre są również praktyki nazywania odbiorczyń i odbiorców projektowanych rozwiązań „użytkownikami”, co pozbawia nas ludzkiego wymiaru. Rozwiązania cyfrowe projektowane są dla użytkowników i użytkowniczek, których jedynym zadaniem ma być używanie i zużywanie, aby doprowadzić do jak najszybszego zakupu nowego modelu. Po raz kolejny pomijane są nasze emocje, nadzieje i pragnienia. Jakby tego było mało, przestrzeń cyfrowa projektowana przez uprzywilejowane grupy społeczne przydaje jeszcze mocniejszej skali wyzwaniom związanym z wykluczeniem. Według statystyk World Bank miliard osób na świecie, czyli około 15% populacji, posiada jakiegoś rodzaju niedyspozycje fizyczne lub psychiczne. Przeprowadzone w 2020 roku analizy pokazały, że w przybliżeniu 98%stron w Internecie nie spełnia standardów związanych z dostępnością, znanych jako standardy WCAG. Oznacza to, że osoby z niepełnosprawnościami w pełni mogą korzystać jedynie z 2% zasobów dostępnych online.

Technologiczny kapitalizm

Wątpliwa etycznie forma i zatrważające tempo rozwoju sieci komputerowych zostały zdominowane przez narracje narzucane w ośrodkach badań nad mikroelektroniką oraz oprogramowaniem w Dolinie Krzemowej. Skąd minerał w nazwie? Sięga on korzeniami rewolucji mikroprocesorowej i ma związek z rozwijającymi się w tym obszarze technologiami półprzewodników opartych na krzemie, który jest podstawowym składnikiem w procesie produkcji sprzętu elektronicznego.

Kultura kreowana przez grupę największych graczy technologicznych stworzyła pryzmat, przez który zaczęliśmy pojmować, czym jest i jakie możliwości niesie ze sobą Internet. Brak sprawnych restrykcji zapobiegających monopolizacji tego obszaru gospodarki doprowadził do sytuacji, w której dominującą rolę w kształtowaniu kierunku rozwoju Internetu odgrywa grupa MAMAA.

Przez pierwsze dziewięć miesięcy 2021 roku udało im się skumulować kapitał na poziomie:

M (Microsoft): 529,5 miliarda złotych

A (Alphabet – Google): 724 miliardy złotych

M (Meta): 334,72 miliarda złotych

A (Amazon): 1321,37 miliarda złotych

A (Apple): 1011,30 miliarda złotych

Dla porównania budżet Polski na 2021 rok wyniósł 482 miliardy złotych.

Nie jest tajemnicą, że takie bogactwo osiągnięte zostało przez wyzysk pracowników i dewastację środowiska. Pierwsze nadużycia Amazona miały miejsce już w 2008 roku, kiedy zaczęto stawiać ultimatum wydawcom tytułów drukowanych na żądanie, łamiąc założenia prawa antymonopolowego, aż do 2018 roku, gdy na jaw wyszły praktyki antyzwiązkowe, których celem było zwalczanie zagrożeń dla firmy ze strony zorganizowanej siły roboczej. W 2012 roku natomiast, w odpowiedzi na śledztwo dziennikarskie przeprowadzone przez CBS, ujawniające zaangażowanie dzieci, osób niepiśmiennych, rozpaczliwie biednych i w związku z tym bezbronnych, w proces wydobycia kobaltu, złożony został pozew przeciwko Apple, Google i Microsoft, Tesli i Dell, zmuszający ich do podjęcia większych starań w celu zaprzestania czerpania korzyści z wykorzystywania nieletnich w procesie wydobywania minerału niezbędnego do produkcji komponentu magazynującego energię do zasilania ich urządzeń: baterii litowo-jonowych.

Utajanie rzeczywistych kosztów produkcji, brak transparentności procesów, poprowadziły nas prostą ścieżką do umocnienia nierówności ekonomicznych i obniżenia wskaźników dobrobytu społecznego. Zgromadzenie bogactwa przez wąską grupę wpływów, pozbawiało mniejsze przedsiębiorstwa konkurencyjnej przestrzeni, która jest podstawowym warunkiem istnienia i rozwoju zdrowego rynku. Symetria rozwoju środowiska cyfrowego została na stałe zaburzona, a z każdym dniem coraz ciężej jest nawrócić ją do poziomu zdrowej równowagi.

Nawykiem na masową skalę stało się nawiązywanie kontaktu i wyszukiwanie informacji w aplikacjach grupy Meta (dawniej Facebook), wykonywanie pracy biurowej na narzędziach Microsoft, wysyłanie maili (nieustająco skanowanych pod kątem kluczowych słów) ze skrzynek Google (grupa Alphabet). Wymienione produkty są albo narzuconymi nam systemami, w ramach których funkcjonujemy (kiedy kupisz nowy komputer, nie podejmiesz niezależnej decyzji dotyczącej zainstalowanego na nim systemu), albo usługami cyfrowymi, z których teoretycznie korzystamy za darmo, lecz tak naprawdę wykonujemy ukrytą pracę.

W Polsce spędzamy średnio dwie godziny dziennie w mediach społecznościowych. W tym czasie przewijamy informacje, wrzucamy swoje zdjęcia, komentujemy, opiniujemy: karmimy i uczymy algorytmy. Wydaje się, że w ujęciu dobowym to niewiele. Jednak w ciągu roku robi się z tego już miesiąc – miesiąc pracy. Trzydzieści dni, które bardziej bądź mniej świadomie zdecydowaliśmy się przeznaczyć na nawykowe przeciąganie kciukiem po kawałku szkła.

Krajowe inwestycje w rozwój centrów danych.

Dwadzieścia dwa miliardy podłączonych urządzeń, na które składają się inteligentne zegarki i opaski mierzące puls, czujniki internetu rzeczy, które umożliwiają całej masie przedmiotów nieustająco gromadzić dane, kamery monitoringu, technologie rozpoznawania twarzy, 5G, rozproszony rejestr danych, platformy do nauki zdalnej, czaty wideo, media społecznościowe, aplikacje nawigacyjne, wiadomości mailowe. Wszystkie te rozwiązania nieustannie gromadzą i analizują dane, a każdy przesyłany lub przechowywany bajt, aby funkcjonować, wymaga wielkoskalowych i energochłonnych terminali i infrastruktury.

W związku z rosnącym zapotrzebowaniem na niezawodny dostęp do mocy obliczeniowej coraz więcej centrów danych przenosi się do ośrodków miejskich. Wielkie serwerownie istnieją już praktycznie w każdym kraju na świecie, co w konsekwencji prowadzi do ich coraz ściślejszej integracji z tkanką miejską. Wybór takich lokalizacji nie jest przypadkowy, jest zależny od takich czynników, jak niskie koszty poboru energii i równie niskie ryzyko klęski żywiołowej.

Grupa badawcza Cushman & Wakefield poddała głębszej analizie 1189 globalnych rynków, a na podstawie uzyskanych wyników przygotowane zostało zestawienie najatrakcyjniejszych lokalizacji pod inwestycje związane z centrami danych. Ranking otwierają: Montreal, Rejkiawik i Warszawa. Czy miasta te są gotowe stawić czoła gwałtownemu rozrostowi nadmiarowej infrastruktury? Nowe typy wielowymiarowych centrów wywierają przecież duży wpływ na lokalne sieci energetyczne, zużywając setki jednostek energii elektrycznej rocznie. W mniejszych krajach, takich jak Dania, już podnoszone są te kwestie. Według Duńskiej Agencji Energii zużycie energii elektrycznej przez centra danych może stanowić nawet 15%całkowitego zapotrzebowania na energię elektryczną w 2030 roku.

Wiodące firmy są w pełni świadome tych trendów i zagrożeń, starają się chronić przed niestabilnymi cenami energii elektrycznej i poprzez inwestowanie w energię odnawialną budować swoją reputację marki świadomej ekologicznie. Według Międzynarodowej Agencji Energetycznej (IEA) sześć największych korporacyjnych odbiorców odnawialnych źródeł energii w 2021 roku to firmy z branży ICT, na czele z Google, który w 2019 roku ogłosił inwestycję w wysokości dwóch miliardów dolarów w otwarcie nowego regionu chmury w Polsce, aby lepiej obsługiwać swoich klientów w Europie Środkowo-Wschodniej i podpisał porozumienie dotyczące pośrednictwa sprzedaży z polskim dostawcą chmury krajowej, aby przyspieszyć przyjęcie na naszych ziemiach amerykańskiej myśli technologicznej.

Niestety mimo ambitnych planów, rzeczywistość brutalnie zweryfikowała Google Cloud Region Europe Central w Warszawie. Według wskaźników na rok 2022, intensywność emisji wynosi 622 gramy dwutlenku węgla na każdą kWh wyprodukowanej energii elektrycznej. Wyprzedza nas jedynie sześć miast na świecie, których gospodarka oparta jest równie mocno na węglu, są to: Sydney (727), Bombaj (721), Melbourne (691), Delhi (657) i Dżakarta (647). Spośród dwudziestu siedmiu regionów Google, tylko siedem da się zakwalifikować jako „niskoemisyjne”. Oznacza to, że generowana przez nie intensywność dwutlenku węgla wynosi maksymalnie 200 gramów przy każdej kWh. W przypadku całej reszty, emisja wyrównywana jest przez nabycie jednostek redukcji. I tak właśnie Google wykupuje sobie możliwość określania się mianem organizacji neutralnej klimatycznie. Na biednego przecież nie trafiło.

Inwestycja Google pociągnęła za sobą ich głównego konkurenta, czyli Microsoft, który zapowiedział lokatę kapitału w wysokości miliarda dolarów w nowe centrum danych w Polsce. Ich strategia jest jednak nieco inna, koncentrują się na edukowaniu tubylców, jak w pełni wykorzystać zasoby w chmurze, licząc, że pomoże to startupom, przedsiębiorcom i innym osobom korzystającym z ich usług. Wygląda na to, że drogi odwrotu nie ma, przyszłość będzie się wiązać z całkowitym transferem do chmury, ale umyka nam fakt, że duże centra lokalne niosą ryzyko zwiększonej eksploatacji lokalnych sieci i wykorzystania zasobów naturalnych.

Spróbujmy na tę sytuację spojrzeć z innej strony. Rozwój infrastruktury może odegrać kluczową rolę jako siła napędowa transformacji w stronę źródeł odnawialnych. Zwłaszcza w Polsce, gdzie prawie 74%energii pochodzi z węgla. Istnieje scenariusz, w którym Google i Microsoft wraz z operatorami sieci mogą wpłynąć na skierowanie produkcji i dystrybucji zielonej energii na bardziej zrównoważony tor, który obejmuje infrastrukturę, skuteczną integrację sieci i jej elastyczność. Jest spora szansa, że taki rozwój sytuacji okazałby się korzystny dla całego systemu i pomógłby w osiągnięciu celów klimatycznych. Jednak aby sprostać tym wyzwaniom, najpierw musimy zrobić krok wstecz i lepiej zrozumieć charakterystykę całego systemu technologii informacyjnych i komunikacyjnych, a zwłaszcza to, jak jej funkcjonowanie wpływa na zużycie energii. Pierwszym krokiem powinno być edukowanie władz, które mogłyby wspierać i ograniczać operatorów centrów danych poprzez przygotowywanie odpowiednich wytycznych, standardów i regulacji, chroniących nasze interesy i środowisko.

Unia Europejska zaczyna prężnie działać w tym zakresie, w 2020 roku powołała European Green Digital Coalition, która nawołuje między innymi do inwestowania w rozwój i wdrażanie ekologicznych rozwiązań cyfrowych o znacznej efektywności energetycznej. Od 2022 roku koalicję współtworzy dwadzieścia osiem państw (w tym Polska) i dwadzieścia sześć firm działających w sektorze IT. Czas zweryfikuje, jakie wartości przyniosą realizowane przez nich projekty i jak dużą moc sprawczą posiadają takie współprace.

Globalny kryzys półprzewodników

Krzemowe półprzewodniki, zwane czipami, to serce każdego urządzenia elektronicznego – bez niego nie istniałby twój laptop ani telefon, nie byłby też możliwy rozwój superkomputerów wykorzystywanych w nauce. Następnym razem, kiedy odpalisz swój sprzęt i uruchomisz zainstalowany na nim system operacyjny, pomyśl przez chwilę o tym, że jest to możliwe właśnie dzięki pracy małego komponentu, który pełni selektywną funkcję przewodnika lub izolatora impulsu elektrycznego.

Amerykański pionier w tej dziedzinie, IBM, doszedł do perfekcji w produkcji półprzewodników. Na płytce wielkości dwóch nanometrów, jest w stanie umieścić 50 miliardów tranzystorów. Innowacje w obszarze miniaturyzacji układów elektronicznych umożliwiają rozwój zaawansowanej nanomedycyny, lub „inteligentnego kurzu”, czyli czujników w skali submilimetrowej, działających w obrębie bezprzewodowych sieci autonomicznych platform obliczeniowych. Wyobraź sobie chmurę sensorów, spośród których każdy jest wielkości ziarenka piasku. Mogą unosić się w powietrzu i zbierać dane o jego jakości, monitorować ruch miejski albo lasy pod kątem zagrożenia pożarowego. Według spekulacji Microsoft Research, mniej więcej w 2025 roku osiągniemy taki poziom miniaturyzacji tranzystorów, że będą one mieć wielkość jednego atomu. Tym samym wyczerpiemy limit determinowany przez prawo Moore’a, dobijemy do brzegu, uzyskując maksymalną moc obliczeniową.

Tylko w 2021 roku, mimo szalejącej „gospodarki niedoborów” i zatrzymania łańcuchów dostaw, wyprodukowano tyle chipów, że na każdą osobę na Ziemi przypadło ich sto dwadzieścia osiem. Rząd Chin jako główny wytwórca nadaje tej branży takie samo znaczenie strategiczne, jak w przypadku programu rozwoju bomb atomowych. Przyświeca im cel samowystarczalności w zakresie technologii, która zostanie wykorzystana we wszystkich przyszłych postępach w obszarze nauki. Podczas dorocznego posiedzenia ONZ w 2021 roku prezydent Xi Jinping zobowiązał się do przekazania 1,4 biliona dolarów na badania w tym obszarze.

Mimo usilnych starań USA i Chin jedna firma pozostawia konkurencję daleko w tyle w produkcji zaawansowanych układów logicznych, niezbędnych w produkcji systemów komputerowych. Jest to Taiwan Semiconductor Manufacturing Company (TSMC), odpowiedzialna za produkcję czipów na zamówienie większości globalnych firm technologicznych, takich jak Apple, Nividia i Media Tek. Kiedy więc TSMC odnotowuje niedobory na linii, oddech wstrzymują firmy rozsiane po całym świecie.

W skali globalnej niepokojąca jest zależność krajów zachodnich od Tajwanu, głównie z powodu Chin, które roszczą sobie do niego prawo i nieraz zapowiadały, że w razie konieczności są w stanie przejąć nad Tajwanem kontrolę. Sytuacja jest jednak bardziej skomplikowana. Same Chiny również są zależne gospodarczo od Tajwanu, a on z kolei jest równie mocno powiązany politycznie i gospodarczo z USA. W rezultacie powstają wielomiliardowe plany, w które zaangażowanych jest wiele krajów, a każdy z nich liczy na zrzucenie obecnego króla z tronu i przejęcie palmy pierwszeństwa w wyścigu o dominującą pozycję w rozwoju najnowocześniejszych technologii. Wciąż jednak mało prawdopodobne jest stworzenie kompleksowego ekosystemu półprzewodników „z dnia na dzień” i detronizacja TSMC, który swoją pozycję rozwijał przez ostatnie trzydzieści lat.

Pikanterii sytuacji dodaje fakt, że produkcja czipów stała się w ostatnich latach niesłychanie skomplikowana i kosztowna. Trudno za nią nadążyć. Dlatego liczba czołowych producentów w branży spadła w 2020 roku z dwudziestu pięciu do zaledwie trzech. Coraz mniej firm specjalizuje się w produkcji, dlatego że potrzebny jest ogromny kapitał, aby uruchomić linię produkcyjną, a zastosowana w niej technologia już średnio po pięciu latach okazuje się przestarzała. Ta krótkotrwałość technologii determinuje konieczność maksymalnej eksploatacji i wykonywania pracy dwadzieścia cztery godziny na dobę przez siedem dni w tygodniu. Fabryka musi wypuszczać setki miliony urządzeń, sprzedawanych następnie po wysokich cenach, aby było to rentowne. Ekonomia tej branży jest niezwykle brutalna.

Tę sytuację przez ostatnie lata napędzał rozwój tak zwanych „odlewni”, czyli firm, które specjalizują się wyłącznie w produkcji wybranych komponentów i wykonują je jako kontrahent dla podwykonawców. W efekcie Apple projektuje procesor, wysyła projekt drogą cyfrową i zleca wykonanie go bardziej zaawansowanemu technologicznie podwykonawcy. Układ scalony zaprojektowany w Cupertino w Kalifornii zostanie wyprodukowany w Tajwanie, a następnie trafi do fabryki na Filipinach lub w Wietnamie, gdzie umieszczony zostanie w iPhonie. Gotowy telefon trafia drogą lotniczą do Europy lub do wraca Cupertino, gdzie sprzedawany jest w milionach sztuk w salonach Apple. Łańcuch dostaw półprzewodników jest prawdopodobnie jednym z najbardziej złożonych i rozproszonych geograficznie łańcuchów dostaw na świecie.

W czasie pandemii, gdy niedobory odbiły się na rynku samochodowym, zmuszonym do zamykania fabryk z powodu niewystarczającej liczby czipów, w dość brutalny sposób poznaliśmy punkty krytyczne panujących układów. Gdy wybuchła pandemia, prognozy dla rynków były fatalne, wieszczono załamanie się aktywności gospodarczej na całym świecie. Wszystko potoczyło się jednak w zupełnie innym kierunku. Zamknięci w domu, ucząc się i pracując zdalnie, poczuliśmy wzmożoną potrzebę korzystania z najróżniejszych usług elektronicznych. Wywołało to globalny efekt domina i zwiększony popyt właśnie na półprzewodniki. Zasobem o największym znaczeniu strategicznym w XX wieku była ropa, a teraz są to mikroskopijne tranzystory produkowane w Tajwanie. Na naszych oczach światowe mocarstwa walczą o kontrolę nad tempem i kierunkiem rozwoju środowiska technologicznego, co może doprowadzić do najgorszych scenariuszy (z punktu widzenia globalistów), czyli bipolaryzacji świata, w którym kluczową rolę odgrywać będą Stany Zjednoczone i Chiny, a inne kraje na całym świecie będą musiały opowiedzieć się po stronie któregoś z nich. Z perspektywy światowego handlu taki rozłam nie jest dobry, wpływa on też niekorzystnie na otwarty i zrównoważony postęp ludzkości.

Paradoks

Każdego dnia coraz więcej ludzi korzysta z coraz większej liczby urządzeń elektronicznych, wykonując z ich pomocą coraz to nowe czynności. Związek pomiędzy łatwiejszą produkcją a szerszym zakresem zastosowań wytwarzanych towarów miał swój debiut w procesie mechanizacji produkcji tkanin w dziewiętnastowiecznej Anglii. Na rynku pojawiło się wtedy więcej tekstyliów, które można było zacząć przerabiać na różnorodny odzieżowy asortyment. Przyglądając się tym przemianom, William Stanley Jevons, wiktoriański ekonomista, zauważył, że poprawa sprawności siły napędowej rewolucji przemysłowej, czyli silnika parowego, nie doprowadziła do wykonywania tej samej ilości pracy przy użyciu mniejszej liczby maszyn, lecz paradoksalnie do zwiększenia liczby silników, czemu towarzyszył wzrost ich produkcji i zakresu zastosowań. Nie powinno więc nikogo dziwić, że w czasach czwartej rewolucji przemysłowej, napędzanej przez internet ludzi, rzeczy, usług i danych, zjawisko to, nazwane paradoksem Jevonsa, nabrało jeszcze większego tempa. Dostępność większej mocy obliczeniowej, większych zasobów pamięci oraz nieograniczony transfer danych przełożyły się bezpośrednio na zwiększenie produkcji urządzeń elektronicznych.

Swoją cegiełkę do nadania tempa rozwoju gospodarki cyfrowej dokłada również zjawisko zwane potocznie „efektem podczepienia” (ang. bandwagon effect). Definiuje się je jako zwiększenie wykorzystania jakiegoś produktu lub jakiejś usługi przez daną osobę, jeśli inne osoby również zaczynają z niej korzystać. Całkiem logiczny ciąg zdarzeń – im nas więcej, tym więcej pojawia się okazji i możliwości do interakcji z danym rozwiązaniem. Efekt podczepienia jest nadzwyczaj powszechny w sektorach zaawansowanych technologicznie, a zwłaszcza w telekomunikacji, w której dość trudno uruchomić jest nowy produkt, gdyż początkowo ogranicza się on do korzyści generowanych przez niewielkie grupy. Dopiero w momencie osiągnięcia odpowiedniej skali determinowanej przez „podłączonych” konsumentów korzyści płynące z danego rozwiązania rosną w ogromnym tempie. Właśnie to sprawiło, że globalny sukces i popularność zyskały telefony, telefaksy, komputery osobiste i sieć Internet.

Istotną rolę odgrywały tutaj również kwestie czysto psychologiczne, które w swoich analizach Harvey Leibenstein nazywał efektem owczego pędu – istotne jest tu założenie, że konsumenci czują się lepiej, naśladując zachowania innych, co wynika głównie z chęci utożsamienia się z daną grupą. Zjawisko to mistrzowsko wykorzystywane jest przez korporacje technologiczne, zwłaszcza Apple, który tak prezentował swoje produkty, że rozwinął się wokół nich wręcz kult. Nadgryzione jabłko stało się wyznacznikiem statusu i kodem dostępu do społeczności, która podążając za sloganem: „Think different”, realizuje skryte pragnienie buntu i przeciwstawiania się temu, co powszechne i przyjmowania w zamian tego, co nowe, lepsze i słuszne.

Z biznesowego punktu widzenia konstrukcja takiego buntu jest niezwykle lukratywna. Prawdziwi wyznawcy przejawiają przecież wierność i wdzięczność. Omamieni wierni przestają patrzeć krytycznie, umykają im wszelkie ograniczenia wynikające z kontroli, której są poddawani, a w której Apple wiedzę prym. Ich ekosystem został zaprojektowany w taki sposób, aby w gestii giganta pozostawała decyzja o tym, jak korzystać z ich produktów. Pełnym nadzorem objęty jest kod, potrzebny do uruchomiania aplikacji, a udostępnienie alternatywnych narzędzi umożliwiających korzystanie z ofert konkurencyjnych sklepów jest potencjalnym przestępstwem, za które grozi kara pięciu lat pozbawienia wolności i 500 tysięcy dolarów grzywny. Takie praktyki stosowane są nie tylko w przypadku oprogramowania, ale obejmują również kwestie związane z naprawą sprzętu. Tim Cook, dyrektor generalny Apple, wielokrotnie ostrzegał akcjonariuszy, że przyszłe zyski firmy są zagrożone z powodu rosnącej rzeszy klientów, którzy decydują się dłużej korzystać ze swoich urządzeń, naprawiając je, zamiast wymieniać.

Na przestrzeni lat odbyło się kilka głośnych rozpraw, w których technologiczny mocarz zaprzągł do walki małe serwisy naprawcze. Jakby tego było mało, na ringu stanęli także giganci Microsoft i Google, którzy wspólnie pracują nad zablokowaniem przepisów obligujących firmy technologiczne do dostarczania oryginalnych części i schematów urządzeń niezależnym serwisom.

W samych Stanach Zjednoczonych w 2021 roku dwadzieścia siedem stanów rozważało wprowadzenie ustaw dotyczących prawa do naprawy, ale ponad połowa z nich została odrzucona. Lobbyści i grupy handlowe reprezentujące największe firmy technologiczne brutalnie zwalczają wszelkie próby odzyskiwania konsumenckiego prawa do naprawy, a same korporacje argumentują swoje działania obawą przed uszkodzeniem urządzeń lub wyrządzeniem szkody osobom, które próbują je naprawić. Na szczęście rosnąca presja społeczna nie przechodzi bez echa. Pod naciskiem świadomych konsumentów Apple wprowadza alternatywne rozwiązania: programy niezależnych napraw, w ramach których nieautoryzowanym serwisom udostępniane są oryginalne części, narzędzia, podręczniki napraw i materiały diagnostyczne do wykonywania nieobjętych gwarancją napraw. Program jest bezpłatny, ale naprawy muszą być wykonywane przez certyfikowanych techników, co stanowi barierę dla mniejszych graczy.

Unia Europejska prężnie działa w obszarze regulacji nadmiarowej produkcji sprzętów elektronicznych. Z sondaży poprzedzających prace Komisji Europejskiej nad pakietem inicjatyw wynika jasno, że dwie trzecie Europejczyków chce dłużej korzystać ze swoich urządzeń, pod warunkiem, że nie wpłynie to realnie na ich wydajność. W najbliższych latach możemy się więc spodziewać zmian w prawie, które normalizować będą kwestie związane z produkcją oraz przetwarzaniem elektroniki. Nowe produkty mają być projektowane z uwzględnieniem efektywności energetycznej oraz podlegać konserwacji i aktualizacji oprogramowania. Działania te wspierać będzie specjalny i obowiązkowy system oznaczania produktów pod kątem łatwości naprawy i dostępu do poszczególnych podzespołów. Pierwszy krok w tym kierunku zrobiła już Francja, która oznacza wszystkie smartfony oraz laptopy specjalną skalą ilustrującą poziom trudności potencjalnych napraw.

Zmniejszenie roli informacji

Wraz z rozwojem struktur Internetu, w obrębie których się poruszamy, zmianie uległy również formy wytwarzanych informacji, które stają się coraz tańsze w produkcji i dystrybucji. Wyeliminowało to bariery, które funkcjonowały wcześniej jako filtry motywujące do tworzenia treści o wysokich standardach. Dzisiaj każdy może stać się twórcą. W momencie, gdy w twojej dłoni ląduje smartfon z czterema obiektywami, włączasz się w proces przywykania do zmniejszenia jakościowego podejścia do tego, co i w jakim stopniu poddawane jest procesowi cyfryzacji. Zalew sieci niepotrzebnymi treściami odwraca uwagę od dostępu do rzetelnych informacji i wpływa na zwiększenie zapotrzebowania na moc obliczeniową, zasoby pamięci oraz nieograniczony transfer danych, których utrzymanie generuje ogromne zużycie energii elektrycznej.

Zmienił się zarówno sposób przekazywania treści, jak i sposób samej komunikacji, która rozumiana jako proces porozumiewania się, wymiany myśli i dzielenia się wiedzą stanowi fundament tworzenia relacji, które przez technologie komunikacyjno-informacyjne doprowadzone zostały do masowej standaryzacji. Na naszych oczach zrestrukturyzowały się ludzkie sieci społeczne, reorganizując i łącząc się bezpowrotnie z systemami technologicznymi.

Kluczową rolę w tym procesie odgrywają algorytmy, które manipulują przepływem dostarczanych do nas treści. Każdy twój ruch w sieci jest przecież narażony na nieustający nadzór i poddany analizie, która ma na celu zaproponowanie ci skrojonego pod ciebie zestawu informacji. Przez lata z wypiekami na twarzy przyglądaliśmy się osiąganiu przez sztuczne sieci neuronowe poziomu nadludzkiej i arcymistrzowskiej wydajności w perfekcyjnej analizie i wykrywaniu statystycznych wzorców w określonych zbiorach danych. Takie pojmowanie rzeczywistości to rodzaj rozumowania przez skojarzenia, co jest niezwykle odległe od myślenia przyczynowo-skutkowego, stanowiącego podstawę inteligencji człowieka. Maszyny w obecnym etapie swojego rozwoju nie są w stanie pojąć przyczyny danych zjawisk – tak naprawdę nie potrafią niczego zrozumieć, potrafią jedynie analizować.

Zbyt szybka i pochopna implementacja sztucznej inteligencji, bez uwzględnienia potencjalnych konsekwencji etycznych i środowiskowych, doprowadziła do sytuacji, w której „niezawodne” samochody autonomiczne powodują wypadki, czatbot okazuje się rasistą, silnik ryzyka kredytowego dyskryminuje ze względu na płeć, a technologia rozpoznawania obrazu klasyfikuje osoby Czarne jako goryle. I to właśnie boty funkcjonujące w takich paradygmatach odpowiedzialne są dziś za generowanie prawie 40%ruchu w sieci. Nasza uwaga i skupienie zalewane są materiałami, do których człowiek nie przyłożył ręki.

Nieodnawialne źródła uwagi.

Uwaga, zupełnie jak większość zasobów naturalnych, ma swoje ograniczenia. Doczekaliśmy się czasów, w których z każdej strony niezliczona liczba urządzeń walczy o nasze spojrzenie. Telefon przyklejony do dłoni nie dość, że zmniejsza naszą produktywność, to realnie wpływa na zmianę struktury naszych mózgów, a nawet fizjologię ręki.

Gdy na twoim telefonie pojawia się powiadomienie o nowej wiadomości, przeskakujesz z jednego zadania do drugiego. Wówczas dwa obszary mózgu – kora ciemieniowa i kora czołowa – stają ze sobą w pewnego rodzaju zawody w przeciąganiu liny. Kora ciemieniowa reaguje na rozproszenia, natomiast kora czoła jest odpowiedzialna za utrzymanie koncentracji. Jeśli lina zostaje przeciągnięta na stronę kory ciemieniowej, mózg pozostaje skupiony, ale podjęcie decyzji, co jest dla nas w danym momencie ważne, również wymaga wysiłku. Kiedy otwierasz zapełnioną po brzegi skrzynkę mailową, oceniasz znaczenie każdej wiadomości. Pod koniec dnia, po przeczytaniu średnio stu maili, znacząco spada zdolność podejmowania decyzji. Dlatego częstsze sprawdzanie skrzynki pocztowej prowadzi do wyzwalania stresu, poczucia przytłoczenia i niepokoju.

Wyobraź sobie swoją koncentrację jako taflę jeziora, nieustająco zaburzaną przez spadające krople powiadomień, które odciągają twoją uwagę od wykonywanych zadań. Samo przełączenie się pomiędzy czynnościami również wymaga wysiłku poznawczego, więc w konsekwencji prowadzi do drastycznego spadku energii.

Dostęp do internetu można dziś uzyskać wyłącznie za pomocą urządzeń, które drenują nie tylko planetę, ale i nas samych. Wychowaliśmy na własnej piersi żmiję, a jej kształt i konstrukcja dla wielu pozostaje cały czas nieodkrytą zagadką.

Struktura Internetu

Czym jest ta enigmatyczna infrastruktura Internetu? W najprostszym ujęciu można przyjąć, że jest ona synonimem trwałych inwestycji w oprogramowanie, sprzęt komunikacyjny i komputerowy. Obejmuje również kapitał ludzki, taki jak szkolenia, konserwacje i wszelkiego rodzaju zabiegi operacyjne. Jak wszystko na tym świecie, również jej powstanie musiało mieć swój początek. Jaki zbieg wydarzeń pchnął ludzkość w kierunku rozwoju sieci komputerowych? Wystrzelenie przez Związek Radziecki sputnika, pierwszego sztucznego satelity, który kilkukrotnie okrążył po orbicie naszą planetę. Jego trasa zahaczyła również o terytorium Stanów Zjednoczonych, znajdując się jednocześnie poza zasięgiem obrony terytorialnej. Wydarzenie to wstrząsnęło światem.

Jedyną słuszną odpowiedzią były inwestycje w rozwój nauk technicznych i ochrona przed potencjalnie nową formą zagrożenia. Ogromne sumy pociągnęły za sobą fale inżynierów i naukowców, którzy dziesięć lat po zrywie technologicznym, będącym odpowiedzią na obecność sputnika, stworzyli Internet. W sferze obronności i wojskowości wykorzystywanych jest wiele nowych technologii. Nie powinno więc dziwić, że sieć narodziła się w Agencji Zaawansowanych Projektów Badawczych (Advanced Research Projects Agency, ARPA). Jednostce tej przyświecała misja efektywnego wykorzystania mocy obliczeniowych komputerów. Ponieważ w owych czasach obsługa maszyn była niezwykle skomplikowana, trudno było doprowadzić do ich symultanicznego działania. Potrzebne było więc rozwiązanie, które umożliwiłoby wymianę danych i dzielenie się wynikami obliczeń na odległość.

Z odsieczą przyszły istniejące już linie telefoniczne, które gwarantowały najstabilniejszy przesył treści cyfrowych, głównie dzięki sprawnie funkcjonującym w ich ekosystemie modulatorom i demodulatorom, powszechnie zwanym modemami. Przez długi czas efekty tej pracy wykorzystywane były przez wojsko, aż do 1983 roku, gdy doszło do rozłamu na część cywilną i militarną. Kolebką komercyjnego wykorzystania internetu stały się uniwersytety. Wielu studentów pracujących dla wojska zostało skutecznie przeszkolonych w zakresie podstawowych operacji, a dodatkowe dotacje zachęcały do zgłębienia zastosowań tej technologii, takich jak skrzynka pocztowa, przesyłanie plików, a w końcu przeglądarka.

Internet niezwykle szybko oddzielił swoją działalność gospodarczą od lokalizacji głównych uniwersytetów badawczych i wstąpił na własną, niczym nie nieograniczoną drogę. Badacze i badaczki telekomunikacji oraz polityczki i politycy żywo dyskutowali o geografii ekonomicznej sieci komunikacyjnych. Udało im się jedynie zdefiniować ogólne zagadnienia, które nie były wystarczająco precyzyjne, by przewidzieć konkretne konsekwencje, szczególnie te wynikające z agresywnego przejęcia środowiska naturalnego i źródła pozyskiwania zasobów niezbędnych do zaspokojenia potrzeb tej ekspansji.

Łączność na dnie oceanów

Mimo rozbudzających wyobraźnię radiowych łączy telekomunikacyjnych umieszczanych na sztucznych satelitach Ziemi 99%całego ruchu internetowego opiera się na ukrytej głęboko pod wodą sieci infrastruktury podmorskiej. Wraz z rozrostem urządzeń i czynności, które wykonujemy online, stajemy się coraz bardziej zależni od transoceanicznych zbrojeń komunikacji cyfrowej, których rozwój napędza międzynarodowy biznes. Dziś przecież jednym kliknięciem zarejestrujesz spółkę w Hongkongu, prześlesz pliki do podwykonawców w Indiach, a zakończony sukcesem projekt rozliczysz, korzystając z szybkich międzynarodowych transferów pieniężnych.

W związku z ogromną zależnością sektora usług finansowych od ciągłości łączności dostarczanej za pomocą podmorskich kabli, ich niezawodność uznana została za warunek kluczowy dla funkcjonowania rządów i zapewnienia bezpieczeństwa narodowego – zyskały one miano infrastruktury krytycznej. Ten stan rzeczy wykorzystuje wojsko, które posiłkuje się ich zapleczem do zarządzania operacjami dalekiego zasięgu. Zyskują również cywile, jednostki, grupy, społeczności i całe kraje opierające swoją działalność na ponadnarodowej wymianie cyfrowych danych w wysokiej przepustowości. W kwietniu 2022 roku na mapie świata ciągnęły się czterysta dziewięćdziesiąt trzy czynne, aktywne lub będące w budowie podwodne kable internetowe. Różnorodność tych zbrojeń jest ogromna i zależna od kontekstu, w który zostały wpisane. W zupełnie innych warunkach funkcjonuje przecież liczący sobie trzysta kilometrów przewód z Azerbejdżanu do Turkmenistanu, biegnący pod Morzem Czarnym, niż ten ciągnący się przez sześć i pół tysiąca kilometrów, łączący Stany Zjednoczone z północną Hiszpanią. Z pozoru kable, których każdy kilometr waży średnio 1,5 tony, trwale zakotwiczyły się w niezwykle złożonym środowisku Ziemi. Wiąże się to z ukrytą pracą, ekonomią, kulturą i polityką, które utrzymują w ryzach globalne układy.

Rdzeń światłowodu otoczony jest warstwą ochronnego żelu, wzmocniony plastikowymi powłokami izolacyjnymi, zasilany za pomocą miedzianych kabli. Przesyła średnio sto gigabajtów na sekundę, przy czym nowsze konstrukcje są w stanie dobić nawet do czterystu gigabajtów. W jaki sposób tak ogromny zestaw danych „mieści się” w tak wąskich kanałach? Umożliwia to zastosowanie technik zwielokrotniania sygnałów, czyli wykorzystania więcej niż jednej długości fali światła do przesyłania informacji. Dłuższe przewody, średnio co siedemdziesiąt – sto kilometrów, przecinane są tak zwanymi regeneratorami, które wzmacniają ich transmisję.

W zachowaniu ciągłości łączności istotną rolę odgrywa również planowanie i sporządzanie idealnych tras, na których rozwijane są kable. Należy unikać miejsc, w których występują wulkany lub narażonych na trzęsienia ziemi i lawiny błotne. Siły natury lubią przypominać nam o swojej potędze i uczyć nas pokory, tak jak chociażby w 2012 roku podczas huraganu Sandy, który spowodował awarię kilku kluczowych odcinków na linii transatlantyckiej, czy podczas trzęsienia ziemi w Fukushimie, do którego doszło rok wcześniej. Jakby tego było mało, oddziały rekinów w 2014 roku regularnie podgryzały infrastrukturę Google, co zmusiło korporację do przeprowadzenia dodatkowych inwestycji, wkopania kabli w specjalne rowy wykute na dnie morskim przy użyciu pługów ciągniętych przez statki, a na niektórych fragmentach owinięcia ich najmocniejszym materiałem, jaki wymyślił człowiek – kevlarem.

Podwodne linie poddane są nieustającym napięciom, nie tylko przez nieokiełznane żywioły, ale również przez geopolityczne reperkusje. Trudno za nimi nadążyć. Rząd USA regularnie ostrzega wrogie mocarstwa, na przykład Rosję, przed ingerencją w transoceaniczne prądy informacji. Edward Snowden ujawnił praktyki National Security Agency (NSA), w której bez skrupułów nasłuchiwano właśnie komunikacji odbywającej się drogą światłowodową. Australia zablokowała technologicznego giganta Huawei przed zainstalowaniem kabla łączącego Australię z Wyspą Salomona, w obawie przed uzyskaniem przez Chiny dostępu do wrażliwych sieci wewnętrznych. Siatka zależności ma wymiar globalny, ale kto pociąga w niej za sznurki?

Rozwój światłowodów podąża ścieżkami, które utorowały im rozwój kabli telegraficznych i telefonicznych, systemów energetycznych i szlaków handlowych. Obecnie największa część udziałów, bo aż dwieście trzydzieści tysięcy kilometrów kabli, znajduje się w rękach amerykańskiej korporacji AT&T. Drugim co do wielkości posiadaczem jest chiński telecom (中国电信 Zhongguo dianxin). Często poszczególne odcinki należą do grup lub konsorcjów: firm technologicznych, lokalnych agencji rządowych, na przemian z różnymi innymi przedsiębiorstwami. Model ten umożliwia rozłożenie kosztów, jednak jest problematyczny i nie sprawdza się w sytuacjach kryzysowych, gdy organizacje zaczynają przerzucać na siebie nawzajem odpowiedzialność.

W ostatnich latach przeważająca liczba inwestycji finansowana jest przez Facebooka, który obecnie jest w posiadaniu prawie stu tysięcy kilometrów kabli. Do Google należą sześćdziesiąt cztery tysiące, co stanowi 9% globalnej infrastruktury. Amazon natomiast inwestuje w rozwój własnej i prywatnej sieci łączącej jego centra danych przy użyciu kabli przecinających Ocean Atlantycki, Spokojny, Indyjski oraz Morze Śródziemnomorskie i Morze Czerwone.

Technologiczni giganci słyną z przedstawiania światłowodów, które zakłócają podwodne ekosystemy, jako projektów służących rozwojowi cywilizacji. Nie ma co przeczyć, że zwiększanie przepustowości i dostępu do przestrzeni cyfrowej jest przecież jedynym możliwym sposobem na utrzymanie ich modelu biznesowego, nastawionego wyłącznie na wzrost i ekspansję. Wygląda na to, że nic nie jest w stanie ich powstrzymać. Google wspólnie z Meta do 2024 roku chcą powołać do życia projekt o nazwie Apricot, który ma połączyć Singapur, Japonię, Filipiny, Tajwan i Indonezję. Do Afryki natomiast podpięte zostaną kable, które mają połączyć trzydzieści trzy kraje, a plan ten ma sfinansować Facebook. Każdego dnia coraz mocniej zaciskamy sobie na szyi sznur technologicznej dominacji.

Źródło zasobów

Utrzymanie przy życiu tak progresywnej wizji wymaga odpowiedniej ilości zasobów, głównie metali i minerałów, a rosnące zapotrzebowanie na ich wydobycie uruchamia cały pakiet konsekwencji, na czele z długiem ekologicznym, który zaciągamy u kolejnych pokoleń.

Niech przykładem będzie złoto, uwielbiany przez ludzkość błyszczący wyznacznik statusu społecznego. W ogólnym obiegu natknąć możemy się na jego dwie odmiany. Pierwszym i najpopularniejszym typem jest złoto pierwotne, zwane również kopalnianym. Jak sama nazwa wskazuje wydobywane jest bezpośrednio w kopalniach. Szacuje się, że proces pozyskania tony tego minerału wiąże się ze zużyciem około dwustu pięćdziesięciu ton wody oraz prowadzi do nieodwracalnych wyniszczeń eksploatowanych terenów. Druga odmiana to złoto wtórne, pozyskiwane na drodze odzysku i rafinacji ze starej biżuterii, plomb i elektroniki.

Do produkcji każdego telefonu komórkowego wykorzystuje się około 0,034 grama złota, 0,34 grama srebra, 0,015 grama palladu, 25 gramów aluminium i 15 gramów miedzi. A to dopiero wierzchołek góry lodowej. Smartfony zawierają cały zestaw materiałów, powszechnie występujących w skorupie ziemskiej, ale trudnych do wydobycia, takich jak itr, lantan, terb i neodym.

Pierwiastki te są niezbędne w produkcji urządzeń elektronicznych z powodu swoich właściwości. Odporność złota na korozję oraz doskonałe przewodnictwo prądu sprawiają, że znajduje ono zastosowanie w laboratoriach, gdzie pełni funkcję izolatora w teleskopie Hubble’a, lub przy produkcji światłowodów, układów tranzystorowych albo półprzewodników, które umożliwiają bezzakłóceniowe funkcjonowanie łączy internetowych i telefonicznych.

Ponadto cenne surowce odnaleźć można na rynku wtórnym, na przykład w kartach SIM. W dwudziestu ośmiu tysiącach małych plastikowych prostokącików znajduje się mniej więcej uncja złota. Aktualnie na każdą osobę na świecie przypada 1,85 karty SIM. Daje to zawrotne czternaście miliardów sztuk, które stanowią potencjalne źródło pozyskiwania zasobów. Nic więc dziwnego, że niektórzy domorośli przedsiębiorcy w garażach zaczęli tworzyć minifabryki, w których zatapiają komponenty elektroniczne w kwasie i wydobywają z nich złote płatki. W świetle polskiego prawa takie działania są nielegalne.

Górnictwo miejskie, czyli proces odzysku surowców ze zużytych produktów, infrastruktury i innych wytworów pracy człowieka, to cenne źródło tak zwanych złóż antropogenicznych. W zużytym sprzęcie elektronicznym, wycofanych lub po prostu wyrzuconych produktach znajdują się takie ilości miedzi, platyny i innych metali szlachetnych, których łączna wartość opiewa na co najmniej dziesięć miliardów dolarów. Z jednej tony smartfonów, które zakończyły już swój cykl użycia, wydobyć można między innymi sto trzydzieści kilogramów miedzi oraz trzy i pół kilograma srebra. Podobne ilości wartościowych kruszców zatopione są w płytach głównych komputerów oraz pamięci RAM. Ich ponowne wykorzystanie stanowi niezwykle istotny element działań proekologicznych, których celem jest wprowadzania zasobów nieodnawialnych do ponownego obiegu.

Na popularności zyskały ostatnimi czasy również rozwiązania z działu górnictwa biologicznego, które wykorzystuje mikroorganizmy do utleniania metali, co umożliwia rozpuszczenie ich w wodzie i rozdzielenie w procesie substancji stałych. Ogromną zaletą zastosowania tego typu rozwiązań jest fakt, że wspierają go organizmy występujące w środowisku naturalnym, co przekłada się na niskie koszty operacyjne oraz jeszcze niższą emisję gazów cieplarnianych wydalanych w całym procesie.

Decyzja należy do ciebie

Ponoć ciekawość to pierwszy stopień do piekła. I to chyba właśnie tam zapędziła mnie moja hakerska nieustępliwość, napędzana potrzebą odkrycia jednego z oblicz wszechobecnej cyfryzacji, której niewygodne następstwa latami były skutecznie przed nami ukrywane.

W poszukiwaniu prawdy zanurkowałam na samo dno oceanów. Na głębokości prawie czterech tysięcy metrów zapada grobowa cisza, którą potęguje wszechobecna ciemność, a ciśnienie staje się jakieś trzysta osiemdziesiąt razy większe niż na powierzchni. Wydawałoby się, że w takich ekstremalnych warunkach są w stanie przeżyć jedynie gatunki zahartowane przez lata ewolucji. Bardzo się myliłam, gdyż okazało się, że nawet w takiej głębinie już zdążyła zamanifestować swoją obecność myśl naukowo-techniczna napędzająca rozwój komputeryzacji.

Na jej celowniku znalazły się kominy hydrotermalne, szczeliny głębinowe, z których wydobywa się woda o wysokich temperaturach, a jej zetknięcie się z zimnym oceanem prowadzi do wytrącenia się pierwiastków chemicznych, stanowiących kluczowy element niezbędny do funkcjonowania praktycznie każdego urządzenia elektronicznego.

Szczeliny kominów to nie tylko skarbnica cennych zasobów – zamieszkują je tajemnicze istoty, takie jak kraby yeti, głębinowe rurkowe, bioluminescencyjne ośmiornice i inne organizmy żywe, które czerpią życiodajną energię z zachodzących w ich otoczeniu reakcji chemicznych. Naukowcy oszacowali, że na grzbietach śródoceanicznych istnieje około sześciuset kominów, a każdy z nich posiada swój unikatowy ekosystem. W trakcie eksploracyjnych misji badawczych trudno nie trafić na nowy gatunek, dlatego potocznie siedliska te określa się mianem „uciemiężonych bogactwem”. Niestety spora ich część skazana jest na samotną konfrontację z nieustępliwymi maszynami sprowadzonymi na dno i zaprogramowanymi przez człowieka w jednym celu: przejęcia kominów, podzielenia ich na części i przejęcia minerałów.

Na dnie zbiorników oceanicznych, oprócz zuchwałego plądrowania zasobów, moją uwagę przyciągnęły wszechobecne konstrukcje falowodów optycznych, potocznie zwanych światłowodami. Ich obecność to konsekwencja zachłyśnięcia się wizją skomunikowania ze sobą całego globu. Obsesyjny wręcz proces urzeczywistnienia tych planów doprowadził ludzkość do obłędu – w tym szaleństwie zacisnęliśmy na szyi naszej Matki Ziemi półtora miliona kilometrów kabli internetowych. Każdy kilometr kabla o wadze dochodzącej do tony to ciężkie zbrojenia, na które spojrzeć można jak na metaforę łańcuchów trzymających w ryzach naszą swobodę. Globalna sieć komputerowa stała się przestrzenią pozwalającą wdrożyć globalną inwigilację, w której maszyny o nieograniczonej mocy obliczeniowej analizują każdy nasz ruch, aby następnie z pomocą zdobytej wiedzy precyzyjnie manipulować naszymi emocjami i zachowaniami.

Kolejny zakamarek piekła objawił się przede mną na szerokości geograficznej południowej 2° i 8′ oraz długości geograficznej zachodniej 29° i 8′. Te koordynaty wskazują, gdzie znajduje się Demokratyczna Republika Konga. Na jej terenach, głęboko pod ziemią, również kryją się drogocenne kamienie, napędzające rozwój środowiska technologicznego. Nic więc dziwnego, że o dostęp do nich walczą między innymi Chiny, Stany Zjednoczone i Izrael. Gdy do gry zasiadają tak potężni gracze, przestają obowiązywać ogólnie przyjęte standardy etyczne. W konsekwencji w obozach wydobywczych w Demokratycznej Republice Konga normą stało się wykorzystywanie dzieci do pracy w kopalniach oraz masowe gwałty na kobietach i dziewczynkach. Lokalne władze, wyniszczone brakiem środków i masową korupcją, nie są w stanie zapewnić bezpieczeństwa swojej społeczności. Miliony Kongijek i Kongijczyków zasypiają każdego dnia, ze strachem myśląc o jutrze.

Kiedy doświadcza się tak wielkiego zła, ucieczka jawi się jako jedyne z potencjalnych rozwiązań. Chce się zostawić za sobą świat przepełniony mrokiem, który dostrzegasz w pustych spojrzeniach osób drenowanych z energii w niewolniczej relacji z technologią. Najlepiej byłoby opuścić to piekło na Ziemi i zacząć wszystko od nowa, najlepiej na innej planecie w odległych galaktykach. Czynią to już uprzywilejowane grupy technologicznych kapitalistów, których reprezentują Elon Musk, Jeff Bezos oraz Richard Branson. Ich ekspansywne wizje, przypudrowane kampaniami marketingowymi, po raz kolejny odciągają nasza uwagę od wyzwań wynikających z pogłębiających się nierówności społecznych.

Niestety nawet scenariusz komercjalizacji przestrzeni kosmicznej każdego dnia staje się coraz trudniejszy w realizacji. Przeszkodą, która faktycznie zagraża ludzkim lotom kosmicznym i misjom robotów, jest prawie trzydzieści tysięcy kawałków gruzu orbitalnego, czyli – śmieci kosmicznych – pozostałości po wyścigach Chin, USA, Kanady i Indii o dominację w Kosmosie. Swoją cegiełkę dokładają również takie przedsięwzięcia jak wystrzelenie Tesli Roadster w przestrzeń kosmiczną w celach promocyjnych.

Podcinamy korzenie naszej planecie, drenujemy ją z zasobów, a jednocześnie zaśmiecamy otaczającą ją przestrzeń kosmiczną. Do przyjęcia takich „standardów” nastroiła nas wizja rozwoju środowiska technologicznego wykreowana na wzgórzach społecznej Kalifornii w Dolinie Krzemowej. To właśnie tam rozwijają się przepełnione pychą idee, które za nic mają ludzkie nadzieje i potrzeby, byleby tylko urzeczywistnić wizję świata, zgodną z celami biznesowymi uprzywilejowanych grup społecznych – tak zwanej technokracji. Pojawia się pytanie, czy mamy w sobie odpowiednio dużo odwagi, aby stopniowo zacząć zrywać te układy? A może jest nam w nich po prostu zbyt wygodnie?

Od setek lat, z większym lub mniejszym skutkiem, mielimy wciąż ten sam scenariusz. Wykluczona większość walczy z uprzywilejowaną mniejszością o wolność, rozwój, spokój i dobrobyt. Zrywy takie kończyły się bardzo różnie, co wynikało głównie z braku dostępu do odpowiednich narzędzi. Ogólnie dostępna technologia rozproszonych rejestrów danych, znana również jako blockchain, napawa rzeszę aktywistów optymizmem, gdyż niesie ze sobą potencjał, który może poprowadzić nas ku stworzeniu nowych i zdecentralizowanych struktur, częściowo zautomatyzowanych, opartych na zaufaniu oraz wzajemnej współpracy. Na horyzoncie pojawiła się nadzieja, jeszcze nie wszystko jest zaprzepaszczone.

Należy jednak mieć na uwadze, że migracja w kierunku transparentnych baz danych oraz ich rozproszenie odbyć się może jedynie kosztem urządzeń użytkowników podłączonych do sieci, potocznie zwanymi końcowymi, czyli nas. Dziś wszystkie transakcje, weryfikacja i generowane w procesie dane pokrywane i dostarczane są przez centralne jednostki, takie jak banki czy wielkie serwerownie. Rozproszenie odpowiedzialności pomiędzy społeczności, które zamiast zasysać moc obliczeniową z centralnej chmury, wypożyczają ją w małych częściach w ramach eksploatacji własnego sprzętu, a działanie to wynagradzane jest cyfrową walutą – to duet, który niesie ze sobą obietnicę zrewolucjonizowania ludzkiej działalności i nadania jej zupełnie nowego wymiaru. Proces ten jednak wymaga w pierwszej kolejności ogromnej dojrzałości oraz porzucenia wyuczonych wygód, do których przywykliśmy w codziennej relacji z internetem.

Niestety aktualne trendy zmierzają w zgoła odwrotnym kierunku. Bitcoin, który miał się stać się podporą nowego porządku świata, okazał się niesłychanie energożerny, a 0,001% osób jest w posiadaniu prawie jednej trzeciej zasobów waluty, co po raz kolejny prowadzi nas do niebezpiecznej kumulacji kapitału. Rynek sztuki cyfrowej, który miał wesprzeć artystów w odzyskiwaniu praw autorskich, zalewany jest dziełami o wątpliwej wartości. Zamiast rozwijać projekty umożliwiające dystrybucję gwarantowanego dochodu podstawowego, weryfikować etyczne łańcuchy dostaw, obecnie jedyne, na co stać społeczność, to generowanie obrazków małp i sprzedawanie ich w ramach limitowanych kolekcji.

A teraz wyobraź sobie świat, w którym zanim jakiekolwiek rozwiązania technologiczne zostaną wdrożone w realnym świecie, są poddawane szeregowi ocen określających potencjalne korzyści dla społeczeństwa, poziom wykorzystywania w całym cyklu zasobów naturalnych oraz wpływ na zmianę nawyków i zachowań ludzi. Tak właśnie może wyglądać świat, w którym przestajemy otaczać kultem technologię – to ona ma istnieć po to, by zadbać o nasz dobrobyt oraz ochronę środowiska naturalnego. Nic nie stoi na przeszkodzie, aby ta wizja stała się rzeczywistością – wystarczy, że tworząc przestrzeń cyfrową, będziemy się troszczyć o wszystkich podłączonych do sieci, odnosić się z szacunkiem do zasobów naturalnych, odpowiedzialnie urzeczywistniać idee, pamiętając o tym, że „things we design end up desining us”.

Tekst napisany na zamówienie Biennale Warszawa

Joanna Murzyn, technologiczna aktywistka. Swoimi działaniami dąży do ustanowienia naszego dobrobytu oraz ochrony zasobów naturalnych priorytetem, który powinien stać się częścią rozważań nad dalszym kierunkiem rozwoju technologii komunikacyjno-informacyjnych. Inicjatorka Instytutu Ekologii Cyfrowej, w ramach którego przeprowadza cyfrowo ekologiczne audyty oraz opracowuje programy edukacyjne i dobre praktyki, które poszerzają świadomość i wspierają procesy zrównoważonej i etycznej digitalizacji.