1. Co robić? Poza „rozwiązania, które już mamy”

Ostatnie prace Bernarda Stieglera mają wiele mówiące tytuły: La Société automatique 1. L’avenir du travail [Społeczeństwo automatyczne 1. Przyszłość pracy] (2015), Dans la disruption. Comment ne pas devenir fou? [W dysrupcji. Jak nie oszaleć] (2016), Qu’appelle-t-on panser 1. L’immense regression; 2. La leçon de Greta Thunberg [Co zwie się opatrywaniem myślą? 1. Potężny regres; 2. Lekcja od Grety Thunberg] (t. 1: 2018, t. 2: 2020) oraz Konieczna bifurkacja. „Nie ma alternatywy” (2020)[1]. W pracach tych Stiegler rozwija swój projekt nowej ekonomii politycznej. O ile projekt ten w środkowej fazie twórczości filozofa dotyczył problemów kapitalizmu konsumpcyjnego i kreślił alternatywę dla przestarzałego modelu produkcja–konsumpcja[2], o tyle w ostatnich pracach Stieglera zajmują nowe wyzwania związane z rzeczywistością kapitalizmu komputacyjnego, czyli takiego, który za pośrednictwem zautomatyzowanych obliczeń poddaje zalgorytmizowanej kontroli właściwie wszystkie aspekty życia. Ostatni zainicjowany przez Stieglera projekt, nawołujący do przebudowy fundamentów teoretycznych informatyki, a w konsekwencji do przezwyciężenia tego, co nazywa „ideologią komputacyjną”[3], wpisuje się w tę szeroką próbę wypracowania programu nowej ekonomii politycznej na miarę technologicznych wyzwań XXI wieku.

W projektach nowej ekonomii politycznej i nowej informatyki teoretycznej w kontekście kapitalizmu komputacyjnego nie znajdziemy pomysłów na ocalenie świata, nawet jeśli o ocalanie w nich chodzi – ocalanie jako otaczanie troską tego, o co trzeba się zatroszczyć, jako pielęgnowanie tego, co wymaga pielęgnacji. Pomysły, bardziej lub mniej interesujące, mają prawie wszyscy. W filozoficzno-aktywistycznej myśli Stieglera znajdziemy natomiast pojęcia, których w epoce Musków, Thielów, Gatesów i „rozwiązań, które już mamy”, rozpaczliwie nam brakuje. Pojęcia te mogą stanowić również elementy odpowiedzi na leninowskie pytanie: „Co robić?”, mimo że rodzą myśl, która zbacza z utartych ścieżek tak zwanej lewicowej filozofii. Dlatego warto te pojęcia poznać i dokonać ich kontekstualizacji – w ostatnich pracach samego Stieglera oraz w doświadczeniu zalgorytmizowanej codzienności, do której te prace bezpośrednio nawiązują.

2. Maszyny, instrumenty i pojęcia do walki

Filozofia jako sposób myślenia jest dla Stieglera przede wszystkim pracą polegającą na wytwarzaniu pojęć. Osobliwość Stieglerowskiej myśli bierze się między innymi z pojęciowej inwencji – w tym sensie pozostaje on spadkobiercą poprzedniego pokolenia francuskich filozofów określanych mianem „poststrukturalistycznych”[4]. Taka pojęciowa wynalazczość, jak wyjaśniał w długiej, opublikowanej pośmiertnie rozmowie z Mehdim Belhajem Kacemem[5], pełni jednak określoną funkcję: wiąże się ze zdolnością do włączenia wytworzonych pojęć w obieg społeczny, a więc również do zaimplementowania ich w maszyny. Funkcjonowanie społeczeństwa zawsze bowiem wiąże się z działaniem jakichś maszyn, a dzisiaj przede wszystkim z działaniem maszyn informatycznych. Złożony aparat pojęciowy, który Stiegler projektował i cyzelował w przekonaniu, że to pojęcia są narzędziami do walki o przyszłość, służy takiej właśnie implementacji.

We wstępie do La Pharmacologie du Front National [Farmakologia Frontu Narodowego] czytamy:

Niniejsze dzieło jest instrumentem. Zostało zaprojektowane tak, aby było instrumentem – i aby służyło do prowadzenia walk. Jak każdy instrument, winno ono być przedmiotem praktyki i, jak każdy instrument, winno ono instruować tych, którzy je praktykują: instrument dąży do tego, aby dostarczać zbioru instrukcji dotyczących określonego fragmentu świata, który jego praktycy, poprzez swoje praktyki, wspólnie mają, a przede wszystkim wspólnie czynią[6].

Zdanie to mogłoby otwierać właściwie każdą kolejną książkę-instrument Stieglera, w której dookreśla on swój projekt ekonomii politycznej. Celem tych książek-instrumentów jest przekształcenie dotychczasowego trybu funkcjonowania maszyn i ich przeprojektowanie w taki sposób, aby ujarzmić dezintegrującą moc, jaką niesie ze sobą – wraz z całym swoim potencjałem emancypacyjnym – każda technologia, dzięki czemu stalibyśmy się mniej podatni na technologiczne zranienie, zarówno jako indywidua, jak i społeczeństwa.

Taka transformacja technologiczna współczesnego systemu technicznego, równie nagląca jak transformacja energetyczna[7], może być jedynie wynikiem walki. Określenie „system techniczny” wprowadził Bertrand Gille w monumentalnej Histoire des techniques [Historia technik]. W ujęciu Gille’a system techniczny to spójna i historycznie zmienna całość składająca się ze współzależnych struktur. Proponując takie ujęcie, Gille chciał pokazać, że logika „postępu technicznego” wymyka się prostemu obrazkowi ewolucji technik odizolowanych geograficznie i rozwijających się chronologicznie[8]. Problem ze współczesnym systemem technicznym, który tworzy konwergencja maszyn obliczeniowych, polega na tym, że tryb funkcjonowania i organizacji tego systemu został w całości podporządkowany imperatywom rynku. To dlatego maszyny cyfrowe mogą służyć modelowi gospodarki, który de facto prowadzi do jej ruiny i naszej ruiny wraz z nią

Problemem zatem nie jest dążność do specjalizacji i totalizacji maszyn sama w sobie – dążność, którą w Le système technicien [System technicystyczny] trafnie opisywał Jacques Ellul[9]. Problemem jest natomiast ich podporządkowanie rzekomo uniwersalnym „prawom ekonomii” i rynkowi, które prawnik Alain Supiot nazywa „totalnym”[10]. Właśnie owo podporządkowanie, a nie same maszyny, jest dehumanizujące, jeśli trzymać się retoryki Ellula. Oznacza ono bowiem regularną wojnę wypowiedzianą ideałowi społecznej sprawiedliwości, która – jak przypomina Supiot, odnosząc się do treści Deklaracji filadelfijskiej przyjętej w 1944 roku przez Międzynarodową Organizację Pracy – miała być „jednym z fundamentów międzynarodowego porządku prawnego”[11].

Stanowisko Stieglera w tym aspekcie brzmi zaskakująco podobnie, choć jest wyrażone dosadniej: od czasów konserwatywnej rewolucji „bezalternatywnej” epoki Margaret Thatcher i Ronalda Reagana (która po 1989 roku objęła również Polskę na skutek reform Leszka Balcerowicza) jesteśmy w stanie wojny gospodarczej. Obecne tendencje libertariańskie uwidaczniające się w łonie cyfrowego kapitalizmu są jeszcze radykalniejszą wersją tej ultraliberalnej rewolucji epoki TINA[12]: nie tylko potwierdzają, że kapitalizm i demokracja od dawna są w separacji, a kalifornijscy arystokraci uberyzacji pokroju Pietera Thiela publicznie domagają się zakończenia jej oficjalnym rozwodem pod pretekstem „ucieczki od polityki we wszystkich jej formach”[13]. Tendencje te, w o wiele większym stopniu niż kapitalizm fordowski z jego „naukową organizacją pracy”, dążą do podporządkowania wszelkich celowości związanych z wszystkimi aspektami życia jednostkowego i zbiorowego kryterium efektywności – odtąd uznawanej za samowystarczalną i całkowicie poddaną obliczeniom, które miałyby zastąpić politykę i pomóc nam w rozwiązaniu naszych problemów dużo efektywniej niż my sami. Technokratyczny „apetyt na soft-totalitaryzm”, który w najbliższych latach będzie się pogłębiał i przybierał rozmaite formy nadzoru, ma swoje źródło właśnie w próbie odrzucenia wszelkiej polityczności i zastąpienia deliberacji obliczeniami. Jest on stałym dążeniem do osiągnięcia stanu, który Supiot nazywa „panowaniem za pomocą liczb”[14], z pominięciem stanu de iure, czyli prawa jako elementu kultury istniejącej w określonych granicach terytorialnych.

3. Zmiana psychofizjologiczna: od sposobu organizowania natury do sposobu organizowania mózgu

Coraz potężniejsze maszyny, które obecnie w dużo większym stopniu wytwarzają nas niż my je, mają charakter obliczeniowy – od urządzeń pomiarowych, statystycznych, logistycznych, monitorujących i naukometrycznych do aplikacji randkowych czy aplikacji służących do tak zwanego kwantyfikowania siebie. Ich postępująca z bezprecedensową prędkością konwergencja spowodowała, że przestały one być zwykłymi narzędziami. Tworzą oplatający Ziemię planetarny system technosferyczny, który zamieszkujemy. System ten ma zasadniczy wpływ na to, co wiemy i czego nie wiemy, a także na to, jak wyglądają i jak funkcjonują nasze „terytoria egzystencjalne”, które – jak trafnie zauważył Félix Guattari – „mogą być zdeterytorializowane, jak tylko można sobie to wyobrazić”[15], a które dzisiaj przybierają postać coraz bardziej zamkniętej i wrogiej planetarnej infrastruktury cyfrowej.

Jesteśmy w ten system uwikłani i zależni od niego do tego stopnia, że przed zmienieniem tego systemu musimy zrozumieć, jak on działa oraz kto i w jakim zakresie jest jego beneficjentem, aby wiedzieć, co właściwie mamy zmienić. Jak obrazowo pisze David Djaïz,

iPhone X, który kupuję w Apple Store w Paryżu, został zaprojektowany w Kalifornii, jego ekran Oled wyprodukował południowokoreański Samsung, jego pamięć NAND japońska Toshiba, a niektóre elementy kamery z funkcją rozpoznawania twarzy francuska firma STMicroelectronics; niezbędny do działania baterii kobalt wydobyto w kongijskich kopalniach, a wszystkie części zostały złożone w Chinach; skończony produkt został przetransportowany przez duński kontenerowiec do portu w Rotterdamie, z którego polskie ciężarówki przewiozły go do paryskiego sklepu. Kupując iPhone’a, a więc korzystając z mojej konsumenckiej swobody, uczestniczę w zglobalizowanej sieci wartości[16].

Przykład ten, za którym kryje się codzienność konsumentów-ofiar ekonomii uwagi, ale również codzienność dzieci zatrudnionych w kopalniach kobaltu i pracowników portów przeładunkowych – pokazuje stan de facto „technologicznej globalizacji”.

To ze względu na ten stan de facto pytanie o informatykę i NBIC (nanotechnologia, biotechnologia, informatyka i nauki kognitywne) w coraz bardziej problematycznym związku z kapitalizmem komputacyjnym musi stać się punktem wyjścia do dyskusji nad kształtem nowej ekonomii politycznej ery technologii obliczeniowych – od platform cyfrowych nie tylko dokonujących ekstrakcji naszych danych, ale również uderzających w nasze zdolności kognitywne[17], coraz śmielszych manipulacji neurotechnologicznych (projekt bezpośredniego połączenia mózgu z maszyną cyfrową), a od niedawna również morfotechnologicznych (czipy synaptyczne, które w symulowaniu funkcjonowania mózgu byłyby skuteczniejsze od mikroprocesorów i pozwoliłyby lepiej zrealizować owe połączenie) do cyfrowej infrastruktury finansjalizacji rynku.

Krytyka tego coraz szerzej komentowanego stanu de facto okaże się niewystarczająca, zwłaszcza jeśli będzie to tylko kolejna krytyka kapitalizmu. Potrzeba nam również upolitycznienia informatyki, wraz z powiązanymi z nią współczesnymi technonaukami (neurotechnologia, robotyka, sztuczna inteligencja, sztuczne życie i tak dalej) i szeroko rozumianym projektowaniem cyfrowym[18]. Przez upolitycznienie rozumiem otwartą debatę nad związkami między założeniami epistemologicznymi i twierdzeniami teoretycznymi, które leżą u podstaw informatyki, a rzeczywistością kapitalizmu komputacyjnego. Celem takiego upolitycznienia jest znalezienie wyjścia z zaburzenia poprzez skorelowanie procesu projektowania współczesnych maszyn obliczeniowych z celowościami innymi niż prymitywnie rozumiana efektywność i poprzez uwolnienie samych technologii od równie prymitywnie rozumianej funkcjonalności. Być może dzisiaj, w epoce „obiektów cyfrowych”[19], lepiej rozumiemy polityczny wydźwięk nieco zaskakującego twierdzenia Gilberta Simondona, który w 1957 roku pisał, że myśl filozoficzna w odniesieniu do trybów istnienia obiektów technicznych „ma do zrealizowania zadanie analogiczne do tego, jakie wykonała na rzecz zniesienia niewolnictwa i afirmacji wartości osoby ludzkiej”[20].

Pytanie, które warto w tym miejscu postawić, domagając się politycznych odpowiedzi na nie, zwłaszcza w zakresie zdrowia publicznego i edukacji, brzmi następująco: czemu i komu ma służyć skonstruowana infrastruktura technologicznej globalizacji, która doprowadziła do zaburzenia, oraz czy i jakie koszty (psychiczne, społeczne i środowiskowe) ma nieść. Warto przy tym pamiętać lekcję, której udzielił nam Simondon, wskazując, w krytycznym dialogu z Marksem, że nie może tutaj iść, a przynajmniej nie wyłącznie, o przejęcie środków produkcji i zniesienie własności, która miałaby prowadzić do alienacji robotnika. Rzecz bowiem w tym, że alienacja – której współczesną i dalece bardziej złożoną formą jest zaburzenie w na wskroś połączonym technologicznie społeczeństwie – ma charakter nie tylko ekonomiczno-społeczny, nawet jeśli pozostaje on wciąż istotny i nie można go lekceważyć, lecz również psychofizjologiczny: „Maszyna nie jest już przedłużeniem schematu cielesnego, ani dla robotników, ani dla tych, którzy posiadają maszyny”[21]. Dzisiaj, gdy technologia obliczeniowa nie tylko już „wyzywa energie natury” i stawia przyrodę do raportu niczym Heideggerowski „zestaw” [Gestell][22]. Odtąd zalgorytmizowanemu i zautomatyzowanemu „nastawianiu” podlega mózg jako warstwa materialna naszych aktywności psychicznych. To dlatego współczesne zaburzenie cyfrowe jest generowane w dużym stopniu przez „zmianę psychofizjologiczną”. Wraz z tą zmianą kapitalizm komputacyjny, oprócz tego, że wciąż pozostaje „sposobem organizowania natury”[23], staje się sposobem organizowania cyfrowego mózgu.

4. Nauka i edukacja w dobie dysrupcji

W kontekście tego zaburzenia psychofizjologicznego polityka technologiczna jest nam potrzebna w takim samym stopniu jak ekologia polityczna. „Nie jesteśmy pewni praw Natury? No to je uchwalmy!”, mówi Bruno Latour[24]. Doskonale. Rzecz jednak w tym, że podobne głosowanie należałoby zarządzić po to, aby uchwalić prawa technologii obliczeniowych, których nie jesteśmy pewni w takim samym stopniu – zwłaszcza w zakresie reperkusji psychospołecznych płynących z ich zastosowania, a także w obliczu zasady niepanowania charakteryzującej konwergencję dyscyplin z kręgu NBIC i badań przemysłowych prowadzonych przy ich udziale: badań nad sztuczną inteligencją, sztucznym życiem, robotyką i genetyką.

Na tę zasadę niepanowania przytomnie wskazywał już w 2004 roku inżynier i filozof Jean-Pierre Dupuy:

Jak wyjaśnić to, że nauka stała się działalnością tak „ryzykowną”, że zdaniem niektórych topowych naukowców stanowi ona dzisiaj główne zagrożenie dla przetrwania ludzkości? Niektórzy filozofowie odpowiadają na to pytanie, mówiąc, że marzenie Kartezjusza – „stać się panem i posiadaczem przyrody” – okazało się złe i jak najszybciej powinniśmy powrócić do „panowania nad panowaniem”. Niestety nic nie zrozumieli. Nie widzą bowiem, że technologia charakteryzująca samą siebie na naszym horyzoncie przez „konwergencję” wszystkich dyscyplin zmierza właśnie do niepanowania. Inżynier jutra nie będzie uczniem czarnoksiężnika z powodu swojego zaniedbania czy swojej niekompetencji, lecz będzie nim celowo. „Da” sobie złożone struktury lub organizmy i będzie starał się dowiedzieć, do czego są zdolne, badając ich własności funkcjonalne – to podejście wstępujące, z dołu do góry. Będzie poszukiwaczem i eksperymentatorem, co najmniej tak samo jak wykonawcą. Miarą jego powodzenia będzie bardziej to, do jakiego stopnia jego własne wytwory będą dla niego zaskakujące, niż zgodność tego, czego się dowie, z listą z góry zadanych zadań[25].

Pozostaje jednak pytanie, czy ów inżynier, zaskoczony wynikami obliczeń oraz niepewny ich przełożenia na organizację życia, nie pozostaje przede wszystkim proletariuszem: kimś, kto nie wie już, skąd te wyniki się biorą, ponieważ nie potrafi na powrót przyswoić sobie umiejętności, które zostały uzewnętrznione w maszyny o mocach obliczeniowych dalece potężniejszych od biologicznych zdolności intelektu. Czy owe poszukiwania, uchodzące za „naukowe”, lecz coraz bardziej problematyczne pod kątem odpowiedzialności nauki, nie przebiegają w całkowitej nieobecności myśli (naukowo-technicznej, ale także filozoficznej i społecznej), odbierając tym samym inżynierowi jego ingenium: talent, dzięki któremu może się realizować zawodowo i życiowo?

Dzisiaj, gdy niektórzy naukowcy decydują się na uprawianie działalności misyjnej na rzecz zielonej transformacji i przemawiają „głosem nauki”, brakuje – niewątpliwie trudnej – dyskusji o zagrożeniu, jakie stwarza nowa działalność, wciąż uchodząca za naukową, która stała się możliwa dzięki technologii obliczeniowej. W dobie nanotechnologii, tej mitologicznej siły demiurgicznej, która uderza w organizację najmniejszych cząstek materii, niezbyt rozsądne wydaje się twierdzenie, że sprzęgnięta z technologią obliczeniową nauka służy ludzkości. Warto w tym kontekście przywołać przenikliwą uwagę Jacques’a Lacana, który dał nam do zrozumienia, że sprawcza siła nauki jest o wiele bardziej nieludzka niż ludzka. Nauka bowiem „rozpętała się jedynie po to, aby zrzec się wszelkiego antropomorfizmu, […] choćby i miał to być antropomorfizm siły, której impet dał się odczuć w samym sercu ludzkiego działania”. To właśnie ta nauka, jak zauważa Lacan, jest podstawą „dysjunkcji, jakie tworzą nasze techniki”[26] – od dysjunkcji logicznych po wszelkiego rodzaju przedziały w obrębie czegoś, co pierwotnie jest całością, ustanawiane w celu lepszego poznania.

Prawdziwie nadludzkie wyzwanie, którego podjęcie można śmiało uznać za sprawdzian z człowieczeństwa części ludzkości zamieszkującej świat zachodni (obecnie określany jako globalna Północ), polega na uczynieniu tego poznania nie postludzkim czy transludzkim, lecz nie-nieludzkim, co oznacza podporządkowanie nieprzewidywalnej sprawczości technologii obliczeniowych innym celom niż sama ta sprawczość, brana za wartość samą w sobie i egzekwowana jako tak zwana efektywność, a tym samym ostrożniejsze obchodzenie się z ową nieprzewidywalnością, która odtąd stanowi pierwszorzędną cechę technosfery.

Problem z aktywnością naukową bazującą na paradygmacie komputacjonistycznym i przenoszoną dzisiaj na technologie obliczeniowe polega na tym, że ta aktywność wytwarza stan faktyczny, który nie może się przekształcić w nowy stan prawny: prawa w sensie ius (czyli w odniesieniu do norm prawnych, którym dzisiaj komercjalizowane technologie obliczeniowe nie podlegają) oraz prawa w sensie teorii (czyli w odniesieniu do zespołów twierdzeń i hipotez, które tworzą różne obszary nauki, a które dzisiaj są podawane w wątpliwość przez menadżerów zajmujących się tak zwaną data science i głoszących prymat modeli obliczeniowych nad modelami teoretycznymi, prymat korelacji nad przyczynowością[27]).

Tak właśnie przedstawia się anatomia zaburzenia, które Stiegler określił mianem dysrupcji. Warto to słowo do polszczyzny wprowadzić, aby precyzyjnie określić to, co czego wszyscy obecnie doświadczamy: stoimy twarzą w twarz z technologiczną dysrupcją, która w nas uderza i która – zgodnie z etymologią łacińskiego dirumpo – łamie na kawałki lub roztrzaskuje.

Krótkie prześledzenie transmutacji znaczeniowej tego określenia pokazuje, że to uderzenie jest działaniem celowym i ma silną legitymację naukową. Jak zauważa Wolfgang Streeck, o ile dysrupcja, jako termin o konotacjach jednoznacznie negatywnych, pierwotnie odsyłała do nieprzewidzianego i brutalnego zerwania oraz oznaczała klęskę tych, w których uderzyła, o tyle począwszy od lat 90. ubiegłego stulecia zyskała pozytywny odcień. Dysrupcja stała się odtąd nazwą dla takiej innowacji technologicznej, która – odtąd uznana za wartość samą dla siebie – wprowadza różnicę za sprawą wyniszczającego ataku przypuszczonego na działające na rynkach firmy, a tym samym radykalne przekształcenie samych rynków[28].

Wpływową teorię „dysrupcyjnych innowacji”, przez długi czas funkcjonujących w polszczyźnie jako „przełomowe innowacje”, co samo w sobie maskowało niszczycielski wymiar owego przełomu, wprowadził w połowie lat 90. Clayton Christensen, profesor zarządzania w Harvard Business School, z której rekrutują się również „teoretycy finansjalizacji”, co znakomicie pokazuje reportaż Charlesa Fergusona Inside Job[29]. Zgodnie z teorią Christensena, innowacja ma z zasady prowadzić do zerwania. Dysrupcyjna innowacja to taka, która powoduje zanik dotychczasowo (często ku zadowoleniu wszystkich) działającej technologii[30]. Dysrupcję, w odniesieniu do marketingu, który – jak zauważał w tym samym czasie Deleuze – stał się „instrumentem kontroli społecznej, […] formującym bezwstydną rasę naszych panów”[31], steoretyzował również Jean-Marie Dru, prezes globalnej agencji marketingowej TBWA. Teoria Dru bazowała na tym samym przekonaniu: życie w dysrupcji to przede wszystkim panowanie nieciągłości oraz nieustanne obalanie dotychczasowych praktyk i konwencji[32].

Termin „dysrupcja” umościł się w startupowym żargonie Doliny Krzemowej. Za dysrupcyjną innowację może zatem uchodzić Uber, który niszczy lokalne sieci usług przewozowych, albo Airbnb, które niszczy tkankę miast i zaburza toczące się w nich codzienne życie. Bohaterowie serialu Dolina Krzemowa, emitowanego przez HBO, przedstawiają wyniki swoich prac podczas wydarzenia TechCrunch Disrupt. Ideologię dysrupcji szerzy również Singularity University z Doliny Krzemowej, którego odnoga w postaci Digital University działa również w Warszawie. Dąży ona do całkowitej digitalizacji edukacji, powołując się na skądinąd słuszny argument, że tradycyjne ośrodki edukacyjne opierają się na dziewiętnastowiecznych założeniach, w związku z tym muszą ulec dysrupcji[33]. Zwolennicy dysrupcji mówią o

nowym DNA systemu edukacji opiera[jącym] się na założeniu, że nauka i rozwój musi trwać dziś całe życie (tzw. Life-long learning) oraz na holistycznym podejściu do edukacji ludzi i kształtowania w nich tzw. digital mindset (zorientowania i otwartości na technologię) oraz nowego sposobu myślenia o świecie[34].

Owo sztuczne „DNA”, opakowane usypiającą narracją o tym, że w dokonującej się „akceleracji” liczą się przede wszystkim ludzie, których „technologiczni eksperci” mają uczynić „odpornymi”[35] na zmianę, oznacza tutaj realizację starej neoliberalnej ideologii i jej wiodącego imperatywu politycznego: „Przystosuj się!”. Genealogię tego imperatywu wnikliwie prześledziła Barbara Stiegler[36]. Różnica polega jedynie na tym, że o ile teoretycy neoliberalizmu usiłowali tę konieczność adaptacji wyprowadzić z przeniesienia teorii ewolucji na płaszczyznę stosunków społeczno-gospodarczych, o tyle współcześni zwolennicy dysrupcji do języka biologii dorzucają startupowy żargon technologiczny, który ma przykrywać nędzę teoretyczną ich dyskursu.

Cały wysiłek teoretyczno-aktywistyczny, który podejmuje Bernard Stiegler, z grubsza polega na tym, aby tej dysrupcyjnej sile stawić czoła – nie tyle po to, aby ją zwolnić lub zatrzymać, ile po to, by nie opowiadać się za jeszcze większym przyspieszeniem, jak chcą lewicowi akceleracjoniści[37]. „Akceleracja” jest niszczycielska w tym sensie, że „krótko spina”, obchodzi wszystkie te procesy i wymiary życia, które tworzą cywilizację. Chodzi zatem raczej o to, aby prędkość zaburzenia i towarzyszącą mu automatyzację przekształcić w czas, który możemy zyskać i wykorzystać do tego, aby sam proces automatyzacji uczynić przedmiotem myśli i w ten sposób deliberować nad przyszłością. Rozumowanie Stieglera jest następujące: opatrzenie automatyzacji myślą oznacza wykorzystanie jej na rzecz dezautomatyzacji, jaką jest myślenie, a także kultywowanie wszelkich formy wiedzy i składających się na nią umiejętności praktycznych, teoretycznych i technicznych, które automatyzacja – jeśli tylko nie będziemy bezmyślnie ulegać jej rytmowi za namową „technologicznych ekspertów” – ma szanse umożliwić. Jak twierdził Stiegler w jednym z wywiadów, „z tego, co umożliwia powstanie Ubera, należy uczynić nową możliwość, lecz w zupełnie innym tonie”[38] – otworzyć nową epokę kultury technicznej, którą dysrupcja technologiczna bezpowrotnie niszczy. Różnica między techniką a technologią polega bowiem na tym, że o ile ta pierwsza jest empiryczna w tym sensie, że odnosi się ona do umiejętności praktycznych, jakie pozwala zdobyć, o tyle ta druga jest w całości podporządkowana logice obliczeniowej, która wręcz z zasady dąży do technologicznej autonomii jako automatyzmu. Wyzwanie w tym wypadku nie polega zatem na kształtowaniu „cyfrowych kompetencjimogących młodzieży co najwyżej pomóc obsługiwać zautomatyzowany system informatyczny, którego funkcjonowania nie rozumieją, lecz na inwestowaniu w umiejętności praktyczne, które mogą zostać dowartościowane przez czas zaoszczędzony dzięki automatyzacji. Innymi słowy, chodzi o wywołanie czegoś w rodzaju pozytywnej dysrupcji. To właśnie jej, ogólnie mówiąc, ma służyć projekt nowej ekonomii politycznej Stieglera.

5. Nietrywialność techniki

Philosopher par accident [Filozofowanie z przypadku] Stiegler scharakteryzował swój projekt filozoficzny w następujący sposób:

Interesuje mnie całkowite przekształcenie pytania o technikę. Całkowite w tej mierze, w jakiej utrzymuję, że zapytywanie filozoficzne jest pytaniem o technikę. Nie uprawiam filozofii techniki w takim sensie, w jakim niektórzy zajmują się filozofią sztuki, moralności, polityki, które miałyby tworzyć poszczególne regiony – uznawanej za ogólniejszą – wiedzy filozoficznej. Technika nie jest dla mnie przedmiotem regionalnym, lecz przedmiotem filozoficznym w sensie dosłownym. Stawiam pytanie o technikę jako pytanie filozoficzne i z tego punktu widzenia jestem w hiperfilozofii. Usiłuję na nowo i integralnie wypracować pytanie filozoficzne, a więc ponownie zbadać – w ich największej ogólności – pojęcia, które ugruntowują myślenie filozoficzne jako całość. Niezmiennie jednak za punkt wyjścia obieram pytanie o technikę jako zapomniane źródło wszystkich pytań[39].

Trzy tomy La technique et le temps [Technika i czas]: La Faute d’Épiméthée [Wina Epimeteusza], La Désorientation [Dezorientacja] oraz Le Temps du cinéma et la question de la mal-être [Czas kina i pytanie o niedostatek], wydane odpowiednio w 1994, 1996 i 2001 roku, są polem, na którym „hiperfilozofia” Stieglera nabrała kształtu. Poprzez niezwykle eklektyczną i heterodoksyjną reinterpretację dziedzictwa europejskiej filozofii od Greków do Immanuela Kanta, Martina Heideggera i Jacques’a Derridy, poprzez paleoantropologię André Leroi-Gourhana, filozofię indywiduacji Gilberta Simondona, teorię krytyczną szkoły frankfurckiej i fenomenologię Stiegler usiłuje dowieść, że technika – jako „pogoń za życiem za pomocą środków innych niż życie”[40] – „nie tylko nie jest trywialna, lecz konstytuuje warunek możliwości wszystkiego, co nie jest trywialne”[41].

Uznanie nietrywialności techniki wymaga przebudowy zachodniej tradycji filozoficznej (metafizyki), ponieważ – tak właśnie brzmi teza inaugurująca przedsięwzięcie filozoficzne Stieglera – tradycja ta ukonstytuowała się poprzez oddzielenie wiedzy (episteme) od sztucznych organów (przyrządów, artefaktów) umożliwiających jej wytwarzanie (techne). Tymczasem wszelkie formy wiedzy (teoretycznej, praktycznej i technicznej) wymagają nośników; nie istnieją bez technik, które – jako protezy naszej pamięci (skończonej z biologicznego punktu widzenia) – nie tylko umożliwiają nieskończoną międzypokoleniową transmisję wiedzy, lecz stanowią warunek jej możliwości i decydują o jej przyszłości.

Oznacza to, że przekształcenia nośników wiedzy pociągają za sobą nieuchronne przekształcenia samej wiedzy. Spośród filozofów żyjących bliżej naszych czasów trafnie opisywał to Jean-François Lyotard w swoim „raporcie o stanie wiedzy”, opublikowanym w 1979 roku w odpowiedzi na to, co wówczas nazywano informatyzacją społeczeństw, kiedy wiedzę zaczęto utożsamiać z informacją, a jednostką informacji był bit: „Natura wiedzy nie pozostaje nienaruszona pośród tych generalnych przekształceń [technologicznych]”[42]. Dzisiaj, w obliczu algorytmizacji społeczeństw[43], właściwie brakuje nam metafor obrazujących ilość informacji, które zasilają technosferę. Przez dwa stulecia wyprodukowaliśmy ich więcej, niż powstało od chwili wynalezienia druku.

Przekształcenia, o których pisał Lyotard, postępują z taką prędkością, że unieważniają wiedzę i czynią ją coraz bardziej niewydolną. W 2018 roku ilość wyprodukowanych danych wyniosła trzydzieści trzy zettabajty, czyli 33 000 000 000 000 000 000 000 bajtów[44]. Aby pokazać skalę hiperprzyspieszenia, warto dodać, że liczba ta stanowiła 90% informacji dostępnych wówczas w sieci, które zostały wyprodukowane zaledwie przez dwa poprzednie lata[45]. Jak pokazują analizy wykonane przez analityków IBM, ilość danych w 2025 roku wzrośnie do 175 zettabajtów[46], by zgodnie z prognozami osiągnąć pułap 2142 zettabajtów dziesięć lat później. Z pewnością, ilość wytwarzanych danych stała się niepojmowalna dla przytłaczającej większości spośród ponad czterech miliardów użytkowników sieci na długo przed tym, nim dotarliśmy do przedrostka „zetta”. Niemniej konsekwencje współczesnej hybris, której rozrost Grecy utożsamiali z nadmiernym przywiązaniem do rozwoju techniki[47] i która w pewnym sensie uśmierciła sieć[48], są z pewnością odczuwalne i w przytłaczający sposób oddziałują na to, co możemy zrozumieć i zobaczyć na kaptujących naszą uwagę ekranach.

Jeżeli dzisiaj możemy mówić – jak chce pewien włoski filozof – o stanie wyjątkowym jako stanie permanentnym, to byłby nim powstały w wyniku zdwojonego hiperprzyspieszenia informacyjnego stan infodemii (określenie WHO[49]), która jasno pokazuje, że lawina informacji bynajmniej nie powoduje lawinowego przyrostu wiedzy. Wydaje się natomiast, że zachodzi proces odwrotny, zdefiniowany przez socjologa Géralda Bronnera jako „apokalipsa kognitywna”[50]: zalew informacji doprowadził do całkowitej deregulacji „rynku kognitywnego”. W rezultacie rywalizują na nim absolutnie wszystkie idee pokazujące tysiące twarzy obłędu, w który osuwają się zaklęte przez ekrany umysły. Wyzwanie polega na tym, aby tę apokalipsę przezwyciężyć, bowiem od tego, w jaki sposób na nią zareagujemy, zależą możliwości ucieczki przed tym, co na tę chwilę należałoby nazwać, jak utrzymuje Bronner, cywilizacyjnym zagrożeniem.

Stawienie czoła temu zagrożeniu jest wyzwaniem par excellence technologicznym. Podejmując to wyzwanie, warto zaktualizować projekt Simondona, który – dążąc do rehabilitacji kultury technicznej i włączenia rzeczywistości technicznej w kulturę ogólną – pisał: „Aby na powrót nadać kulturze prawdziwie ogólny charakter, który utraciła, należy ponownie do niej wprowadzić świadomość natury maszyn, ich wzajemnych relacji oraz ich relacji z człowiekiem, a także świadomość wartości, które w tych relacjach występują”[51]. To w imię tych wartości Simondon postulował, aby „aksjomatyka technologii” była nauczana „tak, jak są nauczane podstawy kultury literackiej”, zaś „wtajemniczenie w techniki winno zostać umiejscowione na tym samym poziomie co edukacja naukowa”[52].

W obliczu tego wyzwania zajmowane przez Stieglera stanowisko względem i w obrębie filozofii jest klarowne: pytanie o technikę jako filozoficzne pytanie pierwsze jest pytaniem z gruntu politycznym, zaś filozofia, która takiego pytania nie bierze na poważnie, czyli nie umiejscawia go w kontekście następstw tak zwanej rewolucji cyfrowej, nie ma przed sobą żadnej przyszłości. O ile zatem w Le technique et le temps Stiegler poprzez swoją „hiperfilozofię” dążył do uczynienia z techniki szlachetnego i w tym sensie nietrywialnego przedmiotu filozoficznego namysłu, o tyle, począwszy od prac napisanych w pierwszej dekadzie XXI wieku aż do prac ostatnich, owa hiperfilozofia jest rozwijana i praktykowana w jednym, choć wielowątkowym, celu: wypracować nową ekonomię polityczną. „Filozofia, której nie da się przełożyć na kategorie ekonomii politycznej, to ściema” – deklarował Stiegler w opublikowanej z zachowaniem familiarnego tonu rozmowie z Mehdim Belhajem Kacemem[53].

6. Kant i kino

Stiegler w swojej filozoficznej walce filozofię pojmuje przynajmniej na dwa zazębiające się ze sobą sposoby: jako racjonalną dziedzinę wiedzy, której możliwość zaistnienia jest przygodnie kształtowana i zmienia się w rytm przekształceń systemu technicznego, a także filozofię jako nową krytykę ekonomii politycznej, której założenia Stiegler chce przeformułować, wychodząc od pytania o technikę i upolityczniając to pytanie w inny sposób, niż uczynił to Karol Marks, choć w duchu pewnego – krytycznie zaktualizowanego i przeczytanego poza wielkimi aparaturami pojęciowymi Marksowskiej filozofii – Marksa[54]. Stiegler pisze: „Jestem bowiem przekonany, że plenienie się barbarzyńskich zachowań wynika z braku propozycji ekonomicznej i politycznej, która mogłaby stanowić plan wyjścia poza antropocen”[55].

Realizacja takiego projektu przy użyciu pojęć filozoficznych przekutych w narzędzia służące do walki wymaga jednak w pierwszej kolejności przypomnienia i zaktualizowania funkcji rozumu. Rozum – stwierdza Stiegler, odnosząc się do zawartych w trzecim tomie La technique et le temps szczegółowych analiz Krytyki czystego rozumu Immanuela Kanta, a także do użytku, jaki z postulatów Kanta zrobili Max Horkheimer i Theodor W. Adorno – jest nieczysty, ponieważ jest technologią. Co to oznacza? Kant rozróżnił cztery rodzaje władz: intuicji (naoczności), intelektu, wyobraźni i rozumu, dając jednocześnie do zrozumienia, że każda wytworzona myśl potrzebuje jakiegoś schematu, który jest wytworem racjonalnej wyobraźni. Stiegler podtrzymuje to twierdzenie, zauważa jednak coś, czego Kant nie dostrzegł: schematy wyobraźni są wytwarzane przez artefakty, które składają się na kulturę i których produkcja w wieku XX została podporządkowana kapitalizmowi kulturowemu. Innymi słowy, wyobraźnia działa odtąd w połączeniu z tym, co Horkheimer i Adorno opisali w Dialektyce oświecenia jako „przemysł kulturalny”[56], który zasadza się na „uprzemysłowieniu wyobraźni jako przemysłowym uzewnętrznieniu zdolności schematyzowania, a przez to również jako alienującym urzeczowieniu poznającej świadomości”[57].

Horkheimer i Adorno pod adresem Kulturindustrie ze stolicą w Hollywood wytoczyli w 1944 roku potężne działa: Kulturindustrie paraliżuje wyobraźnię i umiejętność rozróżniania do tego stopnia, że widz lub widzka nie potrafi odróżnić percepcji od wyobraźni, fikcji od rzeczywistości. Horkheimer i Adorno w tej z pewnością jednostronnej, momentami przestarzałej, dla niektórych burżuazyjnej, ale w wielu miejscach wciąż aktualnej krytyce, którą dzisiaj trudno ignorować w kontekście instalowanej Virtual Reality, a zwłaszcza w odniesieniu do projektu Metaverse, nie dostrzegli rzeczy o kluczowym znaczeniu: problemem jest nie tylko to, że zorganizowany przemysłowo system techniczny, w tym konkretnym przypadku kino (a z czasem, jeszcze szerzej, telewizja), może podporządkować sobie pracę wyobraźni publiczności oraz przemysłowo ukierunkowywać, synchronizować i w tym sensie kontrolować przepływ pojedynczych świadomości. Fundamentalną kwestią jest to, że – jak twierdzi Stiegler, korygując za jednym razem Kanta oraz Horkheimera i Adorna – wyobraźnia nie działa bez artefaktów i w tym sensie musi być wspomagana, zaś protezą podstawową, dzięki której wyobraźnia „chodzi”, jest kino i składające się na nie „obrazy-przedmioty”. To dlatego pytanie o wyobraźnię w erze przemysłowej – wyobraźnię, którą Kant nazywał transcendentalną, a która przede wszystkim jest hipermaterialna – jest pytaniem o ekonomię polityczną. To, jak działa lub nie działa nasza wyobraźnia, a także jaki użytek możemy z niej zrobić, w znacznej mierze zależy bowiem od przemysłowej organizacji artefaktów, która jej działanie, na dobre i na złe, warunkuje.

Co ciekawe, wysuwane przez Stieglera tezy, które wyprowadza on z krytyki trzech krytyk Kanta i krytyki teorii krytycznej, znajdują dzisiaj zaskakujące potwierdzenie w neuronaukach. W swojej ostatniej książce o wiele mówiącym tytule, Le cinéma intérieur. Projection privée au cœur de la conscience [Kino wewnętrzne. Prywatna projekcja w sercu świadomości], Lionel Naccache utrzymuje, że człowiek jest twórcą fikcji:

W rzeczywistości nie przestajemy wytwarzać, w sposób niepohamowany, znaczeń nadawanych wszystkiemu, co przeżywamy. Znaczeń, które z tego powodu można słusznie nazwać fikcjami – nie po to, by podkreślić ich iluzoryczny czy błędny charakter (którego nie muszą posiadać z konieczności), lecz po to, by przypomnieć o ich wymiarze subiektywnym: znaczenia te, ścisłe lub nie, mają w naszych oczach sens; ponad wszystkim innym tworzą one sens, który mają dla nas rzeczy[58].

Tworzenie takich znaczeń, twierdzi Naccache, byłoby fundamentalną cechą naszego umysłu. Umysł ten żyje w – bardziej lub mniej swoim własnym, choć zawsze już zamieszkiwanym przez innych i dlatego współdzielonym – świecie, którego sens wytwarza jak w filmie. Bohaterem w tym filmie jest „ja”. Praca umysłu – czy „umysłu-mózgu”, jak nazywa go Naccache – który neuronauki opisują w kategoriach uniwersalnych, przejawia się zawsze już na sposób „dywersalny”; jest zapisana w osobliwych fikcjach, które tworzą nas wszystkich oraz każdą i każdego z nas z osobna.

Czy rzeczywiście jednak to osobliwe „kino wewnętrzne” jest zaskakująco podobne do kina jako takiego, czy jednak jest ono w znaczącym stopniu uwarunkowane przez obrazy, które to ostatnie generuje na skalę przemysłową? Tak mogłoby brzmieć tutaj pytanie Stieglera, który pisał w opublikowanych wraz z Jacques’em Derridą Échographies de la télévision [Echografie telewizji]:

Obraz w ogóle nie istnieje. To, co określa się jako obraz mentalny, i to, co ja tutaj będę nazywał obrazem-przedmiotem, zawsze zapisanym w jakiejś historii, w jakiejś historii technicznej, stanowi dwa aspekty jednego i tego samego zjawiska. Nie można ich oddzielić od siebie tak samo jak elementu znaczonego od elementu znaczącego, które niegdyś określały dwa aspekty znaku językowego[59].

Rzecz tutaj nie w tym, aby negować coś, co realnie istnieje, a mianowicie różnicę między obrazem mentalnym a (ruchowym i czasowym) obrazem-przedmiotem będącym podstawową jednostką każdego filmu, efektem „systematycznej dyskretyzacji ruchu” i wynikającą z „rozległego procesu ugramatycznienia tego, co widzialne”[60]. Wyzwanie dla myśli polega na tym, aby tych dwóch obrazów nie postrzegać we wzajemnej opozycji, lecz dostrzec, jak się ze sobą komponują.

Tylko wtedy, gdy będziemy podążać tą drogą, będziemy w stanie zobaczyć, co przydarza się obrazom mentalnym składającym się na film, które reżyseruje i wyświetla jednocześnie nasz umysł, w jaki sposób analogowo-cyfrowe zdarzenie nas przekształca, a także co – lub kto – oprócz nas, pisze do tego filmu scenariusz w momencie, gdy nasza zdolność widzenia wydaje się zagrożona pochłonięciem przez obrazowe przepełnienie[61]. Umysł, podobnie jak kultura, wizualna i każda inna, nie istnieje bowiem bez techniki, tak samo jak uwaga nie istnieje bez tego, co jest jej przedmiotem.

7. „Przygoda lepszego życia”

Głębszym powodem coraz powszechniejszej krytyki, jaka spada dzisiaj na Facebooka/Meta i innych kapitalistycznych potentatów z Doliny Krzemowej, jest to, że tryb istnienia współczesnych obrazów-przedmiotów, całkowicie sterowany przez algorytmy, których nie znamy i których dlatego właśnie nie jesteśmy w stanie ani poddać racjonalnej krytyce, ani uczynić ich przedmiotem deliberacji, prześcigają rozum i sprawiają, że zaczyna on niedomagać. A w konsekwencji zostajemy pozbawieni niezbędnego narzędzia do walki o racjonalną przyszłość: wpadamy w szaleństwo i nic, poza samounicestwieniem, nie jest w stanie go zatrzymać, jak zdawał się sugerować Stiegler w swojej być może najposępniejszej książce[62]. To w tym konkretnym kontekście nawołuje on jednak do zaangażowania się w nową krytykę współczesnego rozumu jako nową krytykę ekonomii politycznej, podstawowym celem tej krytyki jest bowiem przemysłowa reorganizacja: przeprojektowanie funkcjonalności systemu technicznego i jego ponowne zestrojenie z funkcjami rozumu.

Tak jak Stiegler dokonał fundamentalnej dla dwudziestopierwszowiecznej filozofii krytyki Kanta[63], tak też swoją nową krytykę ekonomii politycznej rozwijał w bardzo bliskim dialogu z Kantem. Dlatego podstawową funkcją rozumu pozostaje dla niego zdolność syntetyzowania i to właśnie tę zdolność nowy ład algorytmiczny, w jego dotychczasowym kształcie, czyni systemowo dysfunkcyjną, ponieważ w imię optymalizacji polegającej na zwiększaniu efektywności dąży on do całkowitego zautomatyzowania działań intelektu, które od tej pory są przenoszone na maszyny obliczeniowe o mocy o wiele potężniejszej niż sam intelekt.

Aby wyjaśnić tę zmianę zachodzącą w społeczeństwie, które staje się zautomatyzowane, Stiegler podtrzymuje Kantowskie rozróżnienie rozumu i intelektu. Obliczenia wykonywane przez algorytmy to nic innego jak zautomatyzowany intelekt. Tego rodzaju technologiczna automatyzacja pozwala przenieść na maszynę analityczne funkcjonowanie tego, co Kant definiował jako Verstand (intelekt, tłumaczony również jako rozsądek). Intelekt może podlegać automatyzacji dlatego właśnie, że jego władza, w odróżnieniu od syntetycznej władzy rozumu, jest analityczna. Zasadniczy problem polega jednak na tym, że intelekt bez rozumu, który zawsze wykracza poza kalkulację, nie wytwarza wiedzy.

Doprecyzujmy: rzecz oczywiście nie w tym, aby przeciwstawiać syntetyczny rozum analitycznemu intelektowi, odrzucając charakterystyczne dla funkcji intelektu kalkulacje, pomiary czy obliczenia. Rozum i intelekt komponują się ze sobą, toteż wyzwanie dla myśli polega na zrozumieniu, jakie reguły rządzą tego rodzaju kompozycjami w nowym otoczeniu techno-logicznym: z jednej strony chodzi o dostrzeganie granic epistemologicznych modeli obliczeniowych, co pociąga za sobą krytykę twierdzeń teoretycznych lub przekonań, na podstawie których są one projektowane, a z drugiej strony – o refleksję nad użytkiem czynionym z tych modeli, który jest dobry wtedy, gdy uwzględniają one kontekst i dziedzinę zastosowania.

A taka refleksja wykracza poza intelekt i jest zadaniem rozumu, który jednak intelektem nie tyle „zawiaduje”, jak chciałby tego Kant, ile się z nim układa, ponieważ jest „nieczysty”, a więc zależny od technik intelektu: może nad tymi technikami zapanować, otwierając tym samym „nowy wiek rozumu”, może również zostać przez te techniki systematycznie uśmiercany, co zawsze wiąże się z wezbraniem sił nierozumnych. Dlatego rozpoznanie granic intelektu i tworzonych przez niego maszyn obliczeniowych musi iść w parze z rozpoznaniem granic rozumu, który sam jest technologią. Nie zmienia to jednak faktu, że w dokonaniu takiego rozróżnienia wciąż pomocna okazuje się funkcja, jaką rozum – zdaniem Alfreda North Whiteheada – pełni: rozum jest „organem wzmacniającym nowość” (ang. the organ of emphasis upon novelty). To dzięki działaniu tego organu otwiera się „przygoda lepszego życia”[64].

Wydaje się, że odnalezienie tej funkcji rozumu ma istotne znaczenie w kryzysie, który jest czasem na podjęcie kluczowych decyzji służących jego przezwyciężeniu. Zakres podejmowania jakiejkolwiek decyzji przez intelekt obejmuje tylko taki obszar, w jakim może chodzić o powtórzenie lub wzmocnienie tego, co już jest. Tymczasem dzisiaj stawką jest podejmowanie decyzji jako rezultatu dokonanej syntezy, a więc decyzji wymagających odwołania się do rozumu potrafiącego w procesie ich podejmowania w sytuacji rzeczywistej wyjść poza to, co już jest. Dlatego nie możemy liczyć na to, że przygodę lepszego życia zapewnią nam technologie obliczeniowe, które obecnie prowadzą „do hipertrofii intelektu i regresu rozumu, jakim rozumiał go Kant – jako władzy decydowania na drodze syntetyzowania, nazywanego również sądzeniem”[65].

8. Polityczne i naukowe implikacje kognitywizmu

Wykorzystujące głębokie uczenie i sieci neuronowe maszyny (potocznie nazywane sztuczną inteligencją), które dzisiaj tę infrastrukturę tworzą, są czysto analityczne i komputacyjne. I w tym sensie nie myślą. Myślenie od inteligencji odróżnia to, że myślenie wykracza poza obliczenia i dlatego możliwe jest wyłonienie się czegoś, czego jeszcze nie ma, co jest przyszłością. Takie stwierdzenie stoi jednak w jawnej sprzeczności z „kognitywizmem”, który od cybernetyki zaczerpnął stwierdzenie głoszące, że myślenie znaczy obliczanie, kalkulowanie (ang. thinking is reckoning)[66], zaś umysł to maszyna obliczeniowa, której działanie można zadowalająco wyjaśnić, odwołując się do modelu komputera (perspektywa komputacjonalistyczna) lub do modelu sieci neuronowej (perspektywa koneksjonistyczna). Dyskurs ten okazał się na tyle znaczący, że automatyzm uchodzi dzisiaj za dominujący model poznania[67].

U źródeł Stieglerowskiego projektu zmierzającego do przebudowy informatyki teoretycznej leży krytyka tego modelu poznania i stojących za nim twierdzeń teoretycznych, które zakładają daleko idące analogie między maszyną a organizmem i między umysłem a komputerem. Tym, co umożliwia wyprowadzanie tych analogii, jest mgliste pojęcie informacji[68], które samo pochodzi z komputacjonalnych modeli obliczeniowych: teorii obliczalności (zajmujących się badaniem problemów dających się rozwiązać przy użyciu komputerów) i matematycznej teorii komunikacji Shannona (rozpatrującej i optymalizującej komunikację jako transmisję sygnału w kanale komunikacyjnym, w którym występują szumy, i uznającej za nieistotne dla komunikacji znaczenie tego sygnału, podobnie jak rodzaj i funkcję urządzeń, które ją umożliwiają)[69].

To z uwagi na te złożone powiązania drogą do przekształcenia informatyki i jej zastosowań jest krytyka jej podbudowy teoretycznej, która wywodzi się z teorii ludzkiej kognicji, uchodzących w drugiej połowie XX stulecia za rewolucyjne i powiązanych z rozwijającymi się jednocześnie komputerami, neurofizjologią i sztuczną inteligencją. Z jednej strony chodzi o ukazanie ograniczeń epistemologicznych tych modeli teoretycznych, a z drugiej – o implikacje polityczne i gospodarcze ich zastosowań w kontekście zintegrowanej automatyzacji, instalowanej przy wykorzystaniu platform cyfrowych. W tym kontekście czysto ideologiczny i brzemienny w długofalowe skutki psychospołeczne związek między informatyką i ekonomią, w której podstawowym surowcem są nie tylko nasze dane, ale również nasze zasoby psychiczne, jest raczej oczywisty. Wyzwanie polega zatem na tym, aby przygotować fundamenty teoretyczne pod nową i z konieczności transdyscyplinarną epistemologię, która pozwoliłaby się nam wydostać ze zautomatyzowanego zacisku kapitalizmu komputacyjnego. Taka epistemologia mogłaby dać nowy impuls dla informatyki stosowanej i szeroko rozumianego dizajnu cyfrowego, których celowość nie byłaby już podporządkowana imperatywowi efektywności zautomatyzowanych systemów obliczeniowych, umacniających mechanizmy rynku, lecz sprzyjałaby funkcjonalnemu wytwarzaniu nowości.

9. Egzorganogeneza i funkcje

Wytwarzanie nowości, jak już wiemy, jest funkcją „organu”, jakim jest rozum. Nowość można jednak tutaj rozumieć w odniesieniu do biologii teoretycznej, gdzie ma ona bardzo konkretne znaczenie: wytwarzanie nowości to wytwarzanie nowych struktur, które umożliwiają organizmowi pełnienie nowych funkcji i które pozostają nieobliczalne i w tym sensie nieprawdopodobne[70]. Biolog Maël Montévil sytuuje te nowy struktury w obrębie tego, co nazywa „przestrzeniami nowości”[71]. To dzięki tym nowościom organizmy biologiczne, organizując się za pośrednictwem organów zdolnych do pełnienia nowych funkcji, mogą nie tylko utrzymać się przy życiu, ale również to życie organizować, przekształcając skupiska, w których żyją. Owo przekształcenie jest jednak możliwe jedynie lokalnie i w obrębie tego, co Montévil i Mossio nazywają „pętlą więzów”[72]. Więzy, podobnie jak nowości, mają tutaj funkcjonalne, a nie metaforyczne znaczenie. Znaczenie to odsyła nas do mechaniki (więzy to ograniczenia nakładane na ruch ciała lub układu ciał), jednak w tym wypadku należy je przedefiniować z uwzględnieniem specyfiki i osobliwości typowych dla organizacji organizmów i ich biologicznych funkcji. Natomiast „pętla” oznacza tutaj barierę, która choć stanowi ograniczenie, nie zamyka pola zmian i nie ogranicza typowej dla tych zmian dynamiki.

To dzięki wytwarzanym w tym polu nowościom, które w języku filozofii Jacques’a Derridy moglibyśmy określić jako wytwarzanie różnic, organizmy mogą „negocjować” z nieubłaganym prawem entropii: nie mogą wyrugować dążności do entropii, która z perspektywy termodynamicznej jest dążeniem charakteryzującym naturę i ściśle związanym z przebiegiem procesu ewolucji, co oznacza, że organizmy tej dążności podlegają (ponieważ żyją) i same entropię wytwarzają (ponieważ ewoluują). Mają jednak na tyle sił sprawczych, by dążność do entropii odwlec w czasie lokalnie – poprzez wytwarzanie różnic i w obrębie miejscowych pętli więzów, które na nie oddziałują i od których są zależne. Innymi słowy: ich dążność do entropii idzie w parze z (specyficzną dla organizmów żywych i tworzonych przez nie systemów) dążnością do antyentropii, która pozwala systemowi zachować i energię, i dynamiczny potencjał do odnowy umożliwiającej mu lepsze funkcjonowanie. Obie te tendencje występują zatem równolegle, nie są sobie przeciwstawne, wręcz komponują się ze sobą. Wytwarzanie antyentropii nie istnieje bez wytwarzania entropii, której niektóre formy mogą pełnić kluczową funkcję w utrzymaniu procesu życiowego (jak w przypadku dyfuzji chemicznych w organizmie)[73].

Mimo że zwierzęta ludzkie są, rzecz jasna, organizmami, nasza więcej niż biologiczna specyfika bierze się stąd, że do wytwarzania nowości, które w sposób zasadniczy przekształcają nasze otoczenie życiowe i nas samych, używamy nie tyle narządów, ile przyrządów, nie tyle organów biologicznych, ile organów technicznych. Te ostatnie nie tylko podlegają ewolucji równoległej do ewolucji biologicznej. Organizacja organów technicznych w systemy techniczne umożliwiła również gatunkowi ludzkiemu nadawanie kierunku samej ewolucji poprzez dobór, który Charles Darwin nazwał sztucznym, a więc poprzez wzmacnianie i utrwalanie w przyszłych pokoleniach roślin i zwierząt pożądanych cech. Dobór sztuczny jest jedną z dróg, która doprowadziła nas do sztucznej Ziemi.

Drugą drogą jest natomiast egzosomatyzacja. O ile w swoich pierwszych pracach Stiegler definiował technikę jako „pogoń za życiem za pomocą środków innych niż życie”, o tyle w pracach ostatnich odwoływał się do dokonań biologa Alfreda Lotki i wprowadzonego przez niego terminu „ewolucja egzosomatyczna”, odnoszącego do ewolucji organów pozacielesnych. Wprowadzając ten termin w 1945 roku na podstawie swoich wcześniejszych prac, Lotka chciał opisać „zwiększoną [u ludzkiego gatunku – M.K.] zdolność adaptacji, osiągniętą dzięki nieporównywalnie szybszemu [względem poprzednich epok] rozwojowi «sztucznych» podpór wspomagających nasz wrodzony aparat receptorowo-efektorowy”[74]. Jako zorganizowane organizmy ludzkie wytwarzamy nowości przy wykorzystaniu tych właśnie „«sztucznych» podpór” w procesie egzosomatyzacji, który – począwszy od paleolitu górnego – przekształcił proces antropogenezy w proces egzorganogenezy, a organizmy i organizacje ludzkie w egzorganizmy i egzorganizacje, po rewolucji przemysłowej coraz bardziej zależne od „komfortu egzosomatycznego”[75] i tworzące coraz bardziej złożone – a przez to coraz bardziej narażone na krytyczne zachwiania i balansujące na granicy chaosu informacyjnego – systemy informatyczne.

Nieredukowalna ambiwalencja organów egzosomatycznych polega bowiem na tym, że o ile służą nam one do odwlekania w czasie wzrostu entropii poprzez wytwarzanie mniej lub bardziej lokalnych i uwarunkowanych terytorialnie różnic, co dla Stieglera jest tożsame z wytwarzaniem nowych umiejętności, o tyle mogą one również doszczętnie niszczyć nasze otoczenie życiowe, nie tylko w sensie biologicznym, ale również w sensie społecznym i psychologicznym. Proces egzosomatyzacji, która w XX wieku uległa bezprecedensowemu przyspieszeniu, w znacznym stopniu za sprawą wynalezienia zapisu informatycznego[76], charakteryzowały dwie rzeczy. Po pierwsze, proces egzosomatyzacji został podporządkowany procesowi gospodarczemu, którego organizacja, bazująca na przestarzałych twierdzeniach fizyki klasycznej[77], przyczynia się do zwiększania entropii, co jako pierwszy w swoich przełomowych pracach opisał Nicolas Georgescu-Roegen[78]. Po drugie, za sprawą rozwoju maszyn obliczeniowych bazujących na zapisie informatycznym w procesie egzosomatyzacji zaszła brzemienna w skutki mutacja: o ile do tej pory proces ten polegał na eksterioryzacji zdolności obliczeniowych intelektu i przenoszenia go na maszyny (słynna Marksowska hipoteza o istnieniu intelektu powszechnego[79]), o tyle w momencie, gdy podstawowym zasobem kapitalizmu stały się nasze dane (data economy) i nasza uwaga (ekonomia uwagi), proces egzosomatyzacji zaczął zachodzić na gruncie interioryzacji funkcji maszyn obliczeniowych, których projektowanie i działanie nie zależy od nas, mimo że mają one fundamentalny wpływ na proces kształtowania tego, co Lew Wygotski nazwał „wyższymi funkcjami psychicznymi”, dowodząc, że mają one pochodzenie społeczne, są „kulturowo-psychiczne”, a nie ugruntowane biologicznie czy intelektualnie[80].

Jesteśmy pierwszymi wytworami tej mutacji egzorganogenetycznej i wciąż mamy szansę wykorzystać ją do projektowania nowych nośników, które wzmacniałyby wyższe funkcje psychiczne, zamiast je osłabiać, a tym samym funkcjonalnie przyczyniałyby się do wytwarzania nowych form wiedzy zamiast do jej niszczenia. Wydaje się, że pytanie o projektowanie – a więc również pytanie o założenia teoretyczne, na których ono bazuje i które decydują o funkcjonalnościach projektowanej aplikacji, platformy czy systemu – jest w tym kontekście kluczowe i wymaga przyjęcia nieco szerszej perspektywy, obejmującej relację między techniką, ludźmi i ich otoczeniem życiowym zawsze już będącym otoczeniem technicznym. Rzecz bowiem w tym, że technika z definicji nie jest neutralna, ponieważ jej implementacja funkcjonalnie to otoczenie zmienia i warunkuje jego dalsze możliwości przekształceniowe, jak również otwiera lub zamyka nowe możliwości. To dlatego błędne jest wciąż powszechne przekonanie, że w ostateczności liczy się to, w jaki sposób z tych aplikacji, platform czy systemów korzystamy, co z kolei pozwala podtrzymywać błędne wyobrażenie o technice jako biernym narzędziu i traktować pytanie o technikę jako pseudoproblem, również w odniesieniu do zwyczajowych debat dotyczących ekonomii politycznej.

10. Technologie informatyczne w walce z denoetyzacją i w służbie deproletaryzacji

Podstawowe pytanie, które uruchamia teoria egzorganogenezy w odniesieniu do postaci, jaką ona przyjęła w kapitalizmie komputacyjnym, brzmi następująco: czy jesteśmy w stanie wyobrazić sobie technologie informatyczne sprzyjające wytwarzaniu antyentropii w skali ludzkiej, co oznacza wytwarzanie nowych form wiedzy? W jaki sposób dane [łac. datum: dar], którymi obecnie obdarowujemy GAFAM (Google, Amazon, Facebook, Apple, Microsoft), mogłyby tego rodzaju produkcji służyć, czyniąc zarówno z wiedzy, jak i z wpisanych w jej wytwarzanie procesów deliberacyjnych, fundament nowego gospodarowania? Jak projektować maszyny obliczeniowe, które takim procesom deliberacyjnym, zamiast je zastępować, sprzyjają, a więc pozostają otwarte na to, co nieobliczalne i co wymaga podjęcia decyzji przy uwzględnieniu innych kryteriów?

Przez wiedzę Stiegler rozumie rozmaite umiejętności, dzięki którym nie tylko o czymś wiemy, bo jesteśmy doinformowani, lecz przede wszystkim potrafimy: żyć, projektować, teoretyzować, kontemplować, wychowywać, pielęgnować, gotować, troszczyć się o siebie i o innych. Powszechnie powtarzany argument, zgodnie z którym wiedza ulega obecnie demokratyzacji, dlatego że jest dostępna online, jest błędny, gdyż myli wiedzę z informacją. Wiedza jednak nie sprowadza się do informacji w zakresie, w jakim jej wytwarzanie wymaga interpretowania i przekształcania informacji, a nie ich mechanicznego przetwarzania, co samo w sobie zawsze jest gestem mniej lub bardziej krytycznym. Co więcej, takie wytwarzanie nigdy nie jest czynnością indywidualną; jest natomiast współdzieleniem i wymaga przekazywania, dzięki któremu wiedza może się odtwarzać, przybierać nieprawdopodobne i nieprzewidywalne formy, bez względu na to, czy chodzi o wiedzę życiową, praktyczną, artystyczną czy naukową – nawet jeśli wytwarzanie tych form wiedzy rządzi się odrębnymi prawami i wymaga przestrzegania innych reguł ustalanych przez rozmaite, formalne lub nieformalne, profesjonalne lub amatorskie, wspólnoty wiedzy, od społeczeństw i miast po wspólnoty uczonych, wikipedystów, twórców wolnego oprogramowania, towarzystw, cechów, klubów i wspólnot działkowych.

W tym sensie wiedza w postaci składających się na nią umiejętności nigdy nie ulega przedawnieniu, pod warunkiem że realizuje się jako praktyka. Nie sprowadza się również do kognicji, lecz tworzy „noezę” i stanowi podstawę życia, które można opisywać jako „życie noetyczne”[81]. Kluczowe zadanie „nowej informatyki teoretycznej” polegałoby zatem na wzmacnianiu rozmaitych form noezy ze świadomością, że nowe technologie informatyczne, jak każda technika, mogą rozrastaniu się życia noetycznego jednocześnie służyć, jak i generować funkcjonalną „denoetyzację”, czyli utratę zdolności myślenia. Docieramy tutaj do powracającego w myśli Stieglera motywu, zgodnie z którym technika jest farmakonem: jest zarazem tym, co stanowi lekarstwo, i tym, co pozostaje trucizną; tym, co czyni nas bezmyślnymi, i tym, co pozwala nam walczyć z własną bezmyślnością (ze świadomością, że nie mamy w tej walce szans na ostateczne zwycięstwo). Technika nie stanowi problemu, wyzwanie polega na tym, że musimy uczynić ją przedmiotem myśli i nauczyć się myśleć z nią, co dzisiaj, według Stieglera, oznacza: opatrzyć technikę myślą.

Wewnętrzną właściwością nowoczesnej techniki jest to, że innowacje techniczne zawsze postępują szybciej niż organizacje społeczne (instytucje) i kultura, które bez techniki, a więc poza egzorganogenezą, nie istnieją. Wyjątkowość współczesnych, zorganizowanych w system technologii informatycznych, które same zyskały właściwości organizujące, jak gdyby były organizmami żywymi, polega na tym, że składają się one na nowe stadium egzosomatyzacji, które Stiegler określił jako „egzorganogenezę noezy”[82]. Dlatego tym, co w tym stadium jest wystawione na śmiertelne zagrożenie, jest sama zdolność do opatrzenia myślą owej „egzorganogenezy noezy” i do nauczenia się myślenia w niej przy użyciu nowych organów egzosomatycznych. Tragizm tej sytuacji, doświadczany na każdym kroku naszej cyfrowej i neocybernetycznej codzienności, dobrze oddaje ostrzeżenie Norberta Wienera, które miało być mottem czwartego tomu La technique et le temps pod tytułem Facultés et fonctions de la noèse dans l’âge post-véridique [Władze i funkcje noezy w erze postwerydycznej]: „Technologia cybernetyczna to miecz obosieczny i prędzej czy później głęboko was zrani”[83].

Pobieżna lektura którejkolwiek z ostatnich prac Stieglera wystarczy, aby dostrzec, że ich wydźwięk był coraz bardziej desperacki i że przepełniają je ponure diagnozy „społeczeństwa automatycznego”, które nastało w „erze antropocenu”:

Era antropocen to era kapitalizmu przemysłowego, w obrębie którego obliczenia przeważają nad wszelkim innym kryterium decyzyjnym. Jako algorytmiczne i maszynowe, obliczenia te konkretyzują się i materializują w postaci automatyzmu logicznego i tą właśnie drogą ustanawiają nadejście nihilizmu reprezentowanego przez społeczeństwo komputacyjne, które staje się automatyczne i zdalnie sterowane[84].

Owej desperacji towarzyszy również tragizm. Rację ma Yuk Hui, który w swoim „wspomnieniu Bernarda” pisał, że był on „myślicielem katastrofy”, „największym tragistą od czasów Nietzschego”[85]. Nie powinno nam to jednak przesłaniać tego, co słusznie odnotował Philippe Petit: ta „najbardziej zdesperowana [spośród wszystkich dwudziestopierwszowiecznych myśli – M.K.] jest również najbardziej otwarta na przyszłość”[86].

Melancholia Stieglera nie obezwładnia jak tytułowa melancholia u Larsa von Triera[87]. Jest aktywna – jak u Vincenta van Gogha[88]. Przeżywamy apokalipsę i ciągnący się za nią nihilizm, który przepełnia to, co de facto się staje. Wyzwanie polega natomiast na tym, aby w tym przepełnieniu – jak pisze Anne Alombert – znaleźć okazję do „przekształcenia faktów, zawsze brutalnych i arbitralnych, w nowe i konieczne prawa”[89]. Krytyka fundamentów teoretycznych informatyki, którą Stiegler usiłował zainicjować, chce tę okazję wykorzystać do przekształcenia urządzeń informatycznych w nośniki służące rozwojowi nowych form myśli, a co za tym idzie – nowych umiejętności. Rzecz w tym, aby nie dać się tym urządzeniom obezwładnić i – cytując Gilles’a Deleuze’a – „być godnym tego, co nam się przytrafia”[90].

11. It’s NOT Okay to Panic

W szerszym kontekście Stieglerowskiego projektu ekonomii politycznej, rozwijanego już we wcześniejszych pracach, przebudowa fundamentów teoretycznych informatyki wpisuje się w podstawowy cel tego projektu, którym jest walka z „upowszechnioną proletaryzacją”, czyli utratą rozmaitych form wiedzy i składających się na nie umiejętności na skutek „niezwykle szybkiego przenikania technologii w rozmaite systemy społeczne (system rodzinny, system edukacyjny, system polityczny, system prawny, system językowy i tak dalej)”[91].

Proletaryzacja odnosi się do procesu, w którym „indywiduum nie jest w stanie ponownie sobie przyswoić lub na powrót dokonać interioryzacji wiedzy, która została uzewnętrzniona (i często zautomatyzowana) w nośniku technicznym”[92]. Cechą kapitalizmu komputacyjnego jest to, że proletaryzacja zaczęła w nim obejmować nie tylko utratę umiejętności praktycznych i życiowych, jak w przypadku kapitalizmu przemysłowego (XIX wiek) i konsumpcyjnego (XX wiek), lecz również utratę zautomatyzowanych umiejętności projektowych i zdolności do podejmowania racjonalnych decyzji. W Społeczeństwie automatycznym Stiegler przywołuje przykład Alana Greenspana, byłego szefa biura Rezerwy Federalnej, zeznającego przed Kongresem po tym, jak system finansowy uległ załamaniu w 2008 roku. Greenspan nie był w stanie odpowiedzieć, co było przyczyną tej ruiny, gdyż nadzorowany przez niego proces finansjeryzacji pozbawił go takich umiejętności. Co więcej, zeznając, Greenspan podkreślał, że powszechnie akceptowane przez system praktyki stosowania instrumentów pochodnych (derywat) zostały uwiarygodnione między innymi przez Nagrodę Nobla w dziedzinie ekonomii, przyznaną za odkrycie nowej metody, która wyznacza ich wartość[93]. Z tego rodzaju deprywacją wiedzy mierzą się dzisiaj również architekci Facebooka, którzy nie panują nad działaniem stworzonych przez siebie algorytmów.

Komentując film Don’t Look Up, fizyk Szymon Malinowski, główny bohater dokumentu Można panikować[94], nazwany w mediach polskim odpowiednikiem naukowca granego przez Leonarda DiCaprio, zauważył: „Ten film jest wyłożeniem na stół podstawowych mechanizmów, które rządzą życiem społecznym, które oderwało się od podstaw przyrodniczych”[95]. Mechanizmy te są jednak przede wszystkim technologiczne, a owo oderwanie jest wynikiem informacyjnego zatrucia. Problemem być może nie są „ludzie [którzy] kompletnie nie rozumieją tego, jak jesteśmy zależni od klimatu”[96], lecz dotychczasowy tryb funkcjonowania przemysłu cyfrowego, który to rozumienie uniemożliwia.

Zmiana mechanizmów społecznych wymaga zatem publicznej debaty na temat nowych funkcjonalności technologii cyfrowych. Polityka klimatyczna na miarę sytuacji nie skonkretyzuje się poza polityką technologiczną. Nie uczynimy bowiem przedmiotem powszechnego zatroskania konieczności walki z kryzysem klimatycznym w sytuacji, gdy nasza uwaga jest nieustannie kaptowana jako dochodowy zasób i odwracana od tego, co istotne. Zaproponowana przez Bernarda Stieglera krytyka fundamentów teoretycznych informatyki usiłuje przezwyciężyć ten stan nieuwagi, który musi wzbudzać niepokój, a tym samym wytwarzać nową myśl. To niepokój jest bowiem warunkiem istnienia myśli, która nie pozwala przerodzić się mu w strach, ponieważ oswaja niepokój i chroni przed tym, co niegodne. W tym sensie nie można panikować, jeżeli prawdą jest, że panikos oznacza właśnie zbiorowy strach, który uniemożliwia jakiekolwiek rozumne działanie.

  1. B. Stiegler, Konieczna bifurkacja. „Nie ma alternatywy”, tłum. M. Krzykawski, M. Markiewicz, Wydawnictwo Uniwersytetu Śląskiego, Katowice 2022 [w przygotowaniu].
  2. Zob. Tenże, Pour une nouvelle critique de l’économie politique, Galilée, Paris 2009 oraz tenże, Od gospodarki libidalnej do ekologii ducha. Rozmowa z Frédérikiem Neyratem, tłum. M. Tokarzewski, „Radykalny Słoń” [w przygotowaniu].
  3. Tenże, La société automatique 1. L’avenir du travail, Fayard, Paris 2015, s. 68.
  4. Inwencja pojęciowa służy również Stieglerowi do prowadzenia krytycznego dialogu z Jacques’em Derridą, Gilles’em Deleuze’em czy Jeanem-François Lyotardem. Stiegler prowadzi ów dialog na tych polach, na których myśl filozofów okazuje się albo niewystarczająca, albo domaga się krytycznego przekształcenia, zwłaszcza w odniesieniu do przemian technologicznych i technonaukowych współczesnego świata. Z jednej strony chodzi zatem o to, aby kontynuować ich pracę i dokonać jej krytycznej aktualizacji w nowym otoczeniu technologicznym, a z drugiej przezwyciężyć dzielące ich spory, które są najczęściej konfliktami stwarzanymi przez ich epigonów, a nie konfliktami, które realnie zachodziły między tymi filozofami. Trudno dzisiaj o sensowną ocenę dziedzictwa poststrukturalizmu i prób jego zastosowania do analizy współczesnej sytuacji, zwłaszcza w odniesieniu do kwestii ideologii, filozofii polityki i krytyki ekonomii politycznej, z pominięciem sposobu, w jaki Stiegler to dziedzictwo zaktualizował i przekształcił (zob. B. Stiegler, M.B. Kacem, Philosophies singulières. Conversation avec Michaël Crevoisier, Diaphanes, Paris–Zurich–Berlin 2021, s. 156 oraz B. Dillet, The Pharmacology of Poststructuralism: An Interview with Bernard Stiegler, w: The Edinburgh Companion to Poststructuralism, ed. B. Dillet, I. MacKenzie, R. Porter, Edinburgh University Press, Edinburgh 2013).
  5. B. Stiegler, M.B. Kacem, Philosophies singulières…, s. 156.
  6. B. Stiegler, La Pharmacologie du Front National, Flammarion, Paris 2013, s. XI. Jeśli nie zaznaczono inaczej, tłum. M.K.
  7. Zob. A. Alombert, Jakie transformacje energetyczne na rzecz trzech ekologii? Entropie, ekologie i gospodarka w erze antropocen, „Er(r)go” 2022, nr 1 (44) [w przygotowaniu].
  8. Zob. Histoire des Techniques, éd. B. Gille, Gallimard, Paris 1978.
  9. Zob. J. Ellul, Le système technicien, Cherche-midi, Paris 2004.
  10. A. Supiot, L’Esprit de Philadelphie. La justice sociale face au marché total, Seuil, Paris 2010.
  11. Tamże, s. 9. Deklaracja ta podkreśla, że prawo do dostatku i rozwoju duchowego ma każda osoba bez względu rasę, wyznanie i płeć, a zapewnienie sprzyjających warunków do tego, aby z tego prawa można było korzystać, ma być podstawą polityki krajowej i międzynarodowej państw i narodów świata. Międzynarodowa Organizacja Pracy została utworzona w 1919 roku jako autonomiczna organizacja stowarzyszona z Ligą Narodów. Po drugiej wojnie światowej, gdy Liga Narodów została przekształcona w Organizację Narodów Zjednoczonych, MOP stała się organizacją afiliowaną przy ONZ. W swoich analizach Supiot podkreśla, że uderzył on ze szczególną siłą w państwa byłego bloku wschodniego w procesie tak zwanej demokratyzacji zachodzącym po 1989 roku, gdy demokracja była uznawana za synonim rynkowego kapitalizmu.
  12. TINA to skrót od „there is no alternative”. Jest on kojarzony z Margaret Thatcher, która w ten właśnie sposób komentowała wprowadzane przez siebie reformy gospodarcze w Wielkiej Brytanii, przez co „żelazna dama” była również znana pod przydomkiem „Tina”. Te „bezalternatywne reformy” doprowadziły do społecznej dezintegracji i wyłonienia się: „mniej niż społeczeństwa, społeczeństwa postspołecznego” (W. Streek, How Will Capitalism End. Essays on a Falling System, Verso, London–New York 2018, s. 13–14). Współczesną reakcję w postaci sił ciążących ku nacjonalistycznemu zamknięciu, często idącym w parze – jak w Polsce – z fundamentalizmem religijnym, a także wraz z tym, co tego rodzaju siły zawsze napędza: szukaniem kozłów ofiarnych, od uchodźców i muzułmanów po osoby LGBT+, należy czytać jako skutek tych „bezalternatywnych reform” i próbę zapełnienia pustego miejsca po społeczeństwie.
  13. „In our time, the great task for libertarians is to find an escape from politics in all its forms – from the totalitarian and fundamentalist catastrophes to the unthinking demos that guides so-called «social democracy»” (P. Thiel, The Education of a Libertarian, „Cato Unbound”, 13.04.2009, https://www.cato-unbound.org/2009/04/13/peter-thiel/education-libertarian/ [dostęp: 22.01.2022]). Cyt za: D. Djaïz, Slow Démocratie. Comment maîtriser la mondialisation et reprendre notre destin en main, Allary Édition, Paris 2019, s. 21.
  14. Zob. A. Supiot, La gouvernance par les nombres. Cours au Collège de France (2012–2014), Fayard, Paris 2015.
  15. F. Guattari, Les Trois écologies, Galilée, Paris 1989, s. 38–39.
  16. D. Djaïz, Slow Démocratie…, s. 21.
  17. Jak alarmuje neuronaukowiec Michel Desmurget, powszechna dostępność urządzeń cyfrowych i wszechobecność ekranów kaptujących naszą uwagę, a w szczególności uwagę najmłodszych, uderzają w same podstawy ludzkiej inteligencji, takie jak zdolność operowania językiem symbolicznym, koncentracji, zapamiętywania i życia w kulturze (tutaj rozumianej jako pewien zbiór umiejętności, które pomagają nam zorganizować się zarówno na płaszczyźnie jednostkowej, jak i na płaszczyźnie zbiorowej oraz zrozumieć świat). Przebodźcowanie informacją generuje niedobodźcowanie intelektualne, co prowadzi do tego, że mózg nie jest w stanie rozwinąć własnego potencjału. To właśnie dlatego Desmurget w zatroskaniu pisze o „fabrykowaniu cyfrowego kretyna” – kretyna w sensie czysto medycznym (kretynizm jako jednostka chorobowa wskazująca na zaburzenia intelektualne i powiązane z nimi zaburzenia somatyczne), niemającym nic wspólnego z obelgą. Jego analizy jasno pokazują również, że to nie treści sączące się z ekranów powodują ten kretynizm. Treści, które zawsze podlegają subiektywnej ocenie, są tutaj sprawą wtórną. Zasadniczym problemem jest to, że te treści konsumujemy. W krajach zachodnich owa nadkonsumpcja, jak pokazują przywoływane przez neuronaukowca badania, przedstawia się następująco: trzy godziny dziennie w przypadku dzieci od lat dwóch, blisko pięć godzin w przypadku dzieci w przedziale wiekowym od ośmiu do dwunastu lat, blisko siedem godzin w przypadku młodzieży w przedziale wiekowym od trzynastu do osiemnastu lat. W skali rocznej daje to tysiąc godzin w przypadku dzieci w wieku przedszkolnym (ponad jeden rok szkolny), 1,7 tysiąca godzin w przypadku dzieci w wieku gimnazjalnym (dwa lata szkolne) i 2,4 tysiąca godzin w przypadku młodzieży licealnej (dwa i pół roku szkolnego). Przetaczająca się obecnie przez Polskę dyskusja o niedomaganiu szkoły zawodzi w tym sensie, że w ogóle nie bierze pod uwagę czynników technologicznych, które decydują o systemowym niepowodzeniu szkolnym coraz większej liczby dzieci i młodzieży (M. Desmurget, La Fabrique du crétin digital. Les dangers des écrans pour nos enfants, Seuil, Paris 2019).
  18. M. Gerritzen, G. Lovink, Made in China, Designed in California, Criticised in Europe: Amsterdam Design Manifesto, Institute of Network Cultures, https://networkcultures.org/blog/publication/amsterdam-design-manifesto/ [dostęp: 22.01.2022].
  19. Zob. Y. Hui, On the Existence of Digital Objects, University of Minnesota Press, Minneapolis–London 2016.
  20. G. Simondon, Du mode d’existence des objets techniques, Aubier, Paris 1958, s. 9.
  21. Tamże, s. 118.
  22. „Nastawianie, które wyzywa energie natury, jest eksploatacją w dwojakim sensie. Eksploatuje, gdy otwiera i wystawia” (M. Heidegger, Pytanie o technikę, w: tegoż, Odczyty i rozprawy, tłum. J. Mizera, Aletheia, Warszawa 2007, s. 17).
  23. J.W. Moore, Capitalism in the Web of Life Ecology and the Accumulation of Capital, Verso, London 2015, s. 87.
  24. É. Aeschimann, Portrait. Bruno Latour, le climat mis au vote, „Libération”, 20.12.2010, https://www.liberation.fr/terre/2010/12/20/le-climat-mis-au-vote_701827/ [dostęp: 22.01.2022].
  25. J.-P. Dupuy, Le problème théologico-scientifique et la responsabilité de la science, „Le Débat” 2004, nr 2 (129), s. 181. Fragment ten cytuję w delikatnie zmienionym przekładzie Macieja Kropiwnickiego (zob. S. Žižek, Hegel i mózg podłączony, tłum. M. Kropiwnicki, Wydawnictwo Krytyki Politycznej, Warszawa 2021, s. 25).
  26. J. Lacan, Triomphe de la religion, précédé de Discours aux catholiques, Seuil, Paris 2005, s. 49.
  27. Głośny artykuł Chrisa Andersona znakomicie pokazuje tego typu rozumowanie: „Wystarczy korelacja – pisze prowokacyjnie prezes TED. – Możemy dać sobie spokój z szukaniem modeli. Możemy analizować dane bez stawiania hipotez na temat tego, co mogą one pokazać. Możemy wrzucić liczby do największych klastrów obliczeniowych, jakie kiedykolwiek widział świat, i pozwolić algorytmom statystycznym znaleźć wzorce, których nauka znaleźć nie może” (C. Anderson, The End of Theory: The Data Deluge Makes the Scientific Method Obsolete, „Wired”, 23.06.2008, https://www.wired.com/2008/06/pb-theory/ [dostęp: 22.01.2022]). O ile takie rozumowanie trudno brać na poważnie z punktu widzenia nauk matematycznych, które są naukami teoretycznymi, o tyle prawdą jest również to, że siła oddziaływania tego rodzaju ateoretycznego podejścia na wyobraźnię współczesnych inżynierów algorytmów, twórców maszyn tłumaczeniowych bazujących na sieciach neuronowych lub samych data scientists wydaje się ogromna. Celną krytykę tego rodzaju podejścia przeprowadzili matematyk i informatyk Cristian S. Calude oraz matematyk i logik Giuseppe Longo (C.S. Calude, G. Longo, The Deluge of Spurious Correlations in Big Data, „Foundations of Science” 2017, nr 3 [22], s. 595–612).
  28. W. Streek, How Will Capitalism End…, s. 39.
  29. Tytuł tego dostępnego w sieci filmu został przetłumaczony na polski jako Szwindel. Anatomia kryzysu. Zob. B. Stiegler, Wstrząsy. Głupota i wiedza w XXI wieku, tłum. M. Krzykawski, Wydawnictwo Naukowe PWN, Warszawa 2017.
  30. J.L. Bower, C.M. Christensen, Disruptive Technologies: Catching the Wave, „Harvard Business Review” 1995, nr 1–2, https://hbr.org/1995/01/disruptive-technologies-catching-the-wave [dostęp: 22.01.2022].
  31. G. Deleuze, Negocjacje. 1972–1990, tłum. M. Herer, Wydawnictwo Naukowe Dolnośląskiej Szkoły Wyższej Edukacji TWP, Wrocław 2007, s. 187.
  32. J.-M. Dru, Disruption live: zmiana reguł gry na rynku, tłum. B. Jankowiak, TBWA, Warszawa 2003.
  33. Zob. M. Marchwicka, Transformacja cyfrowa a ludzie, 26.03.2021, https://digitaluniversity.pl/transformacja-cyfrowa-a-ludzie/ [dostęp: 22.01.2022].
  34. Tamże.
  35. Owa „odporność” to tak zwana rezyliencja, która miałaby nam pomóc przetrwać nieuchronną gwałtowność dysrupcji. Termin ten jest używany w wielu dziedzinach: ekologii (zdolność ekosystemu do podniesienia się po zawirowaniach, jakie w niego uderzyły), psychologii (indywidualna zdolność do przystosowania się do otoczenia, w którym panują wrogie jednostce warunki), nauki o materiałach (odporność materiałów na odkształcenia) czy w odniesieniu do sieci informatycznych (zdolność sieci do podtrzymania pracy i skorygowania błędów, które się pojawiają). Ideologiczne przechwycenie tego terminu polega na tym, że rezyliencję uznaje się odtąd za najbardziej pożądaną umiejętność w sytuacji nieciągłości wywołanej dysrupcją – zarówno w odniesieniu do organizacji, jak i do jednostek. Jak zauważa Streek, rezyliencji nie należy mylić z odpornością w sensie biologicznym (resistance). „Rezyliencja nie jest odpornością, lecz – bardziej lub mniej dobrowolnym – dostosowaniem adaptacyjnym. Im większą rezyliencję udaje się jednostkom rozwinąć na mikropoziomie życia codziennego, tym mniejsze będzie zapotrzebowanie na wspólne działanie na poziomie makro” (zob. W. Streek, How Will Capitalism End…, s. 40).
  36. Zob. B. Stiegler, Il faut s’adapter. Sur un nouvel impératif politique, Gallimard, Paris 2018.
  37. Por. N. Srnicek, A. Williams, #Accelerate Manifesto for an Accelerationist Politics, 14.05.2013, https://criticallegalthinking.com/2013/05/14/accelerate-manifesto-for-an-accelerationist-politics/ [dostęp: 22.01.2022] oraz ciż, Wymyślając przyszłość. Postkapitalizm i świat bez pracy, tłum. E. Bińczyk, J. Gużyński, K. Tarkowski, Wydawnictwo Uniwersytetu Mikołaja Kopernika, Toruń 2019.
  38. B. Stiegler, L’accélération de l’innovation court-circuite tout ce qui contribue à l’élaboration de la civilisation, „Libération”, 1.07.2016, https://www.liberation.fr/debats/2016/07/01/bernard-stiegler-l-acceleration-de-l-innovation-court-circuite-tout-ce-qui-contribue-a-l-elaboration_1463430 [dostęp: 22.01.2022].
  39. B. Stiegler, Philosopher par accident. Entretien avec Élie During, Galilée, Paris 2004, s. 21–22.
  40. Tenże, La technique et le temps 1. La faute d’Épiméthée, Fayard, Paris 2018, s. 38.
  41. Tenże, Critique de la raison impure, wywiad przeprowadzony przez Camille Riquier, „Esprit”, 2017, nr 3–4, s. 118–129, DOI: 10.3917/espri.1703.0118; https://www.cairn.info/revue-esprit-2017-3-page-118.htm [dostęp: 22.01.2022].
  42. J.-F. Lyotard, Kondycja ponowoczesna. Raport o stanie wiedzy, tłum. M. Kowalska, J. Migasiński, Aletheia, Warszawa 1997, s. 28.
  43. Zob. D. Cardon, À quoi rêvent les algorithmes. Nos vies à l’heure des big data, Seuil, Paris 2015 oraz É. Sadin, La vie algorithmique. Critique de la raison numérique, L’Échappée, Paris 2021.
  44. T. Gaudiaut, La totalité des données créées dans le monde équivaut à…, Statista, 24.04.2019, https://fr.statista.com/infographie/17793/quantite-de-donnees-numeriques-creees-dans-le-monde/ [dostęp: 22.01.2022].
  45. Planétoscope, https://www.planetoscope.com/Internet-/1523-.html [dostęp: 22.01.2022].
  46. H. Vatter, Addressing Data Growth with Scalable, Immidiate and Live Data Migration, IBM, 30.11.2022, https://www.ibm.com/blogs/journey-to-ai/2020/11/addressing-data-growth-with-scalable-immediate-and-live-data-migration/ [dostęp: 22.01.2022].
  47. Zob. X. Guichet, Du soin dans la technique. Question philosophique, ISTE éditions, London 2021, s. 35–41.
  48. W 2017 roku André Staltz, programista, który „większość czasu spędza na budowaniu transparentnego oprogramowania”, odnotował na swoim blogu, że 70 procent przepływów w sieci jest kontrolowana przez dwie firmy: Google i Facebook (Meta), co wymaga namysłu nad tym, czy wciąż możemy mówić o sieci (A. Staltz, The Web Began Dying in 2014. Here’s How, Staltz, 30.11.2017, https://staltz.com/the-web-began-dying-in-2014-heres-how.html [dostęp: 22.01.2022]).
  49. Światowa Organizacja Zdrowia wprowadziła to określenie w odniesieniu do trwającej pandemii. Ten zabieg językowy miał na celu pokazanie, że wirus COVID-19 jest pierwszym w historii wirusem roznoszonym technologicznie, a więc za pomocą dezinformacji lub błędnych informacji, którym ulega znaczna część populacji i które przyczyniają się do osłabienia zdrowia publicznego, zarówno jako obszaru wiedzy empirycznej, jak i jako instytucji publicznej (wspólne oświadczenie WHO, UN, UNICEF, UNDP, UNESCO, UNAIDS, ITU, UN Global Pulse, IFRC, Managing the COVID-19 Infodemic: Promoting Healthy Behaviours and Mitigating the Harm from Misinformation and Disinformation, 20.09.2020, https://www.who.int/news/item/23-09-2020-managing-the-covid-19-infodemic-promoting-healthy-behaviours-and-mitigating-the-harm-from-misinformation-and-disinformation [dostęp: 22.01.2022]). Tak rozumiana infodemia bynajmniej nie pojawiła się wraz z pandemią COVID-19. Pandemia co najwyżej wyostrzyła istnienie infodemii i pozwoliła lepiej zrozumieć jej psychospołeczne reperkusje.
  50. G. Bronner, Apocalypse cognitive, PUF, Paris 2021.
  51. G. Simondon, Du mode d’existence…, s. 13.
  52. Tamże.
  53. B. Stiegler, M.B. Kacem, Philosophies singulières…, s. 41.
  54. Zob. B. Stiegler, Wstrząsy. Głupota i wiedza w XXI wieku…, zwłaszcza rozdział VI pod tytułem Powtórne odczytanie „Grundrisse” (poza dwa nieporozumienia marksistowskie i poststrukturalistyczne), s. 305–366.
  55. Tenże, Dans la disruption. Comment ne pas devenir fou?, Les liens qui libèrent, Paris 2015, s. 120.
  56. Zob. M. Horkheimer, T.W. Adorno, Dialektyka oświecenia. Fragmenty filozoficzne, tłum. M. Łukasiewicz, Wydawnictwo Instytutu Filozofii i Socjologii PAN, Warszawa 1994.
  57. B. Stiegler, La technique et le temps 3. Le temps du cinéma et la question du mal-être, Fayard, Paris 2018, s. 633.
  58. L. Naccache, Le cinéma intérieur. Projection privée au cœur de la conscience, Odile Jacob, Paris 2021, s. 9–10.
  59. B. Stiegler, L’image discrète, w: J. Derrida, B. Stiegler, Échographies de la télévision. Entretiens filmés, Galilée, Paris 1996, s. 165.
  60. Tamże, s. 167.
  61. Zob. P. Szendy, Pour une écologie des images, Minuit, Paris 2021.
  62. Zob. B. Stiegler, Dans la disruption. Comment ne pas devenir fou?…
  63. Ujmując rzecz – ze względu na braku miejsca – bardzo skrótowo: w pierwszej wersji Dedukcji transcendentalnej, jednego z rozdziałów Krytyki czystego rozumu, Kant rozróżnia trzy syntezy: ujmowania (w intuicji/naoczności), odtwarzania (w wyobraźni) i rozpoznawania (w czystym pojęciu będącym wytworem intelektu). Stiegler postuluje wprowadzenie czwartej syntezy – syntezy techno-logicznej i atranscendentalnej – która „warunkuje syntezę rozpoznawania, a także podpiera i wiąże ze sobą wszystkie syntezy świadomości” (La technique et le temps 3…, s. 751). Synteza techno-logiczna to inaczej zdolność wyobraźni do uzewnętrzniania własnych wytworów (obrazów) i przekształcania ich w artefakty, które same stają się protezami wiedzy i warunkują jej wytwarzanie. W języku Stieglera taka synteza techno-logiczna – jako efekt działania czegoś, co nazywa „retencją powtórną”, rozwijając teorię retencji Edmunda Husserla – warunkuje również funkcjonowanie pamięci, nie tylko w jej wymiarze jednostkowym, ale przede wszystkim w wymiarze kulturotwórczym, pozwalającym doświadczać (i przekształcać ją) zapisanej (zachowanej w retencji powtórnej) przeszłości i odnotowywać własne przeżycia, które w ten sam sposób przekształcą przyszłe pokolenia.
  64. A.N. Whitehead, The Function of Reason, Princeton University Press, Princeton 1929, s. 14–20.
  65. B. Stiegler, Nooróżnorodność, technoróżnorodność. Elementy do przebudowy gospodarczej opartej na przebudowie informatyki teoretycznej, w niniejszym tomie.
  66. J.-P. Dupuy, Aux origines des sciences cognitives, La Découverte, Paris 1994, s. 16.
  67. Zob. D. Bates, Automaticity, Plasticity, and the Deviant Origins of Artificial Intelligence, w: Plasticity and Pathology. On the Formation of the Neural Subject, ed. D. Bates, N. Bassiri, Fordham University Press, New York 2016 oraz tenże, Penser l’automaticité au seuil du numérique, w: Digital Studies. Organologie des savoirs et technologies de la connaissance, éd. B. Stiegler, FYP éditions, Limoges 2014.
  68. Śledząc genealogię pojęcia informacji, które w XX wieku zdominowało debatę naukową, Mathieu Triclot pisze ze swadą: „Co mamy na myśli, gdy mówimy o informacji, obróbce informacji, w odniesieniu do rzeczy tak różnych od siebie, jak programy, komputery, mózgi, sieci, media, wyborcy, białka, organizmy społeczeństwa…? Lista tego, co się tyczy informacji, może dzisiaj wydawać się nieskończenie otwarta. «Dyskurs informacji» nie tylko wdarł się do debat dotyczących informatyki i sieci, ale również do debat prowadzonych w obrębie nauk o życiu, o człowieku i o społeczeństwie. Co łączy neurobiologa, który stwierdza, że «układ nerwowy mięczaka przekazuje informację według kodu, analizuje ją i obrabia» [Jean-Pierre Changeux – M.K.], kognitywistę, który mówi nam, że «umysł jest zasadniczo systemem, który manipuluje symbolami» [Jerry Fodor – M.K.], antropologa, który wyjaśnia, że «druga zasada termodynamiki nie odnosi się do mitów, ponieważ informacja, którą ona przekazują, nie ulega zatraceniu» [Claude Lévi-Strauss – M.K.], technofila entuzjastę, który domaga się, aby «ludzkie społeczeństwa zaopatrzyły się w lepszy układ nerwowy, zdolny do przetwarzania informacji w czasie rzeczywistym» [Joël de Rosnay – M.K.], czy wiceprezydenta Stanów Zjednoczonych, który odkrywa, że «lingua franca nowego tysiąclecia będzie składała się z zer i jedynek» [Albert Gore – M.K.]. Nie wspominając o Jacques’u Lacanie, który proponuje, abyśmy ujęli «erosa kobiecej seksualności jako informację przeciwstawną entropii społecznej»” (M. Triclot, Le moment cybernétique. La constitution de la notion d’information, Champ Vallon, Seysell 2008, s. 5).
  69. Zob. Prendre soin de l’informatique et des générations. En hommage à Bernard Stiegler, éd. A. Alombert, V. Chaix, M. Montévil, V. Puig, FYP éditions, Limoges–Paris 2021, s. 11.
  70. F. Bailly, G. Longo, Biological Organization and Anti-Entropy, „Journal of Biological Systems” 2009, nr 17, s. 63–96; G. Longo, M. Montévil, Perspectives on Organisms: Biological Time, Symmetries and Singularities, Springer, Dordrecht, 2014.
  71. M. Montévil, Possibility Spaces and the Notion of Novelty: From Music to Biology, „Synthese” 2018, nr 196, s. 4555–4581, https://doi.org/10.1007/s11229-017-1668-5 [dostęp: 22.01.2022].
  72. M. Montévil, M. Mossio, Biological Organisation as Closure of Constraints, „Journal of Theoretical Biology” 2015, nr 372, s. 179–191. Na teorię „pętli więzów” powołuje się amerykański biolog Stuart A. Kauffman, twierdząc, że „ci młodzi naukowcy odkryli pewną, a być może nawet właśnie «tę» brakującą koncepcję organizacji biologicznej” (S.A. Kauffman, Świat poza fizyką. Powstanie i ewolucja życia, tłum. T. Lanczewski, Copernicus Center Press, Warszawa 2021, s. 6–7).
  73. Na tę kwestię zwrócił mi uwagę Giuseppe Longo, za co mu dziękuję.
  74. A.J. Lotka, The Law of Evolution as a Maximal Principle, „Human Biology” 1945, nr 17, s. 188.
  75. N. Georgescu-Roegen, Energy and Economic Myths. Institutional and Analytical Economic Essays, Pergamon, New York 1976, s. 35.
  76. Antropolożka Clarisse Herrenschmidt rozróżnia trzy fazy w historii sposobów zapisu: sposoby zapisywania języków wynalezione mniej więcej 3300 lat p.n.e., następnie sposoby zapisywania liczb na wybijanym pieniądzu, dzięki wynalezieniu zapisu arytmetycznego 620 lat p.n.e., wreszcie zapis informatyczny, który za podstawę ma kod. Ten ostatni zapis powstał między 1936 a 1948 rokiem (za sprawą prac matematyka Alana Turinga), a następnie znalazł swoje przedłużenie w zapisie charakterystycznym dla sieci. Dlatego też Herrendschmidt nazywa ten zapis „usieciowanym” (fr. réticulaire) (C. Herrenschmidt, Les trois écritures. Langue, nombre, code, Gallimard, Paris 2007). Termin „usieciowienie”, którego używa Stiegler, mówiąc o informacji (i który nie występuje w informatyce), został przez niego zaczerpnięty z tej właśnie pracy.
  77. Jak pokazuje Mariana Mazzucato, fizyka klasyczna stała się dla dwudziestowiecznej ekonomii neoklasycznej miernikiem „naukowości”: „Ekonomiści chcieli, by ich dyscyplina została uznana za «naukową» – czyli bliższą fizyce niż socjologii – co miało wymazać towarzyszące jej wcześniej konotacje polityczne i społeczne” (M. Mazzucato, Wartość wszystkiego. Wytwarzanie i zawłaszczanie w globalnej gospodarce, tłum. J. Bednarek, Heterodox, Poznań 2021, s. 31). Na triumf modelu fizycznego w dominującej dzisiaj teorii ekonomicznej wskazuje również inny ekonomista Ivar Ekeland. Zauważa on, że jednym z największych sukcesów tej teorii jest matematyka finansowa będąca rzekomo naukowym uprawomocnieniem finansjalizacji (zob. I. Ekeland, Du bon usage des modèles mathématiques, „Responsabilité & Environnement” 2021, nr 101, http://www.annales.org/re/2021/re_101_janvier_2021.html [dostęp: 22.01.2022]. Fizyczny (redukcyjny) model poznania wpłynął również na kognitywistyczne wyjaśnianie umysłu: „Prawie wszystko w świecie da się wyjaśnić w kategoriach fizycznych” (D. Chalmers, Świadomy umysł, tłum. M. Miłkowski, Wydawnictwo Naukowe PWN, Warszawa 2017, s. 171).
  78. N. Georgescu-Roegen, The Entropy Law and the Economic Process, Harvard University Press Cambridge, Massachusetts–London 1971.
  79. „Przyroda nie buduje ani maszyn, ani lokomotyw, ani kolei żelaznych […]. To wszystko są wytwory ludzkiej pracowitości, materiał naturalny przekształcony w organy ludzkiej woli panującej nad przyrodą, czyli działalności ludzkiej w przyrodzie. Są to stworzone ludzką ręką organy mózgu ludzkiego; uprzedmiotowiona siła wiedzy. Rozwój kapitału trwałego wskazuje, do jakiego stopnia powszechna ludzka wiedza stała się bezpośrednią siłą wytwórczą, a przeto same warunki społecznego procesu życiowego przeszły pod kontrolę powszechnego intelektu i zgodnie z nim zostały przetworzone” (K. Marks, Zarys krytyki ekonomii politycznej, tłum. Z.J. Wyrozembski, Książka i Wiedza, Warszawa 1986, s. 574).
  80. Zob. L.S. Wygotski, Narzędzie i znak w rozwoju dziecka, tłum. B. Grell, Państwowe Wydawnictwo Naukowe, Warszawa 1978.
  81. Termin „noetyczny” pochodzi od greckiego słowa nous, którym Arystoteles określił duszę „intelektywną” (lub „rozumną”), odrębną od duszy „wegetatywnej” i „zmysłowej”. Husserl posługiwał się z kolei terminem „noeza”. Rozumiał przezeń akt myślenia, czyli procesy zachodzące w świadomości, które odnosiły się do przedmiotu, a więc do tego, co jest myślane. Mimo że życie noetyczne w ujęciu Stieglera niewątpliwie jest możliwe dzięki myśleniu, jego „noeza” jest, po pierwsze, uwarunkowana technologicznie i w tym sensie zawsze już jest „technezą”, a po drugie – i dlatego właśnie – nie ogranicza się do działalności czysto intelektualnej, lecz obejmuje również kultywowanie wiedzy praktycznej, mogące przywodzić na myśl to, co socjolog Richard Sennet opisał jako „dobrą robotę” (ang. craftmanship) (R. Sennet, Etyka dobrej roboty, tłum. J. Dzierzgowski, Muza, Warszawa 2010). Z filologicznej perspektywy łacińskim odpowiednikiem greckiego nous (nie tylko intelekt, ale również zmysł, intuicja i pomyślunek) nie byłby intelectus, lecz sensus (zob. Vocabulaire européen des philosophies. Le dictionnaire des intraduisibles, éd. B. Cassin, Seuil–Le Robert, Paris 2019, s. 1133–1134). W tym ujęciu życie noetyczne dotyczyłoby również form życia zmysłowego. Krótko mówiąc, noetyczne jest wszystko to, co przydaje życiu sensu poprzez współtworzenie i współdzielenie jakiejś wiedzy.
  82. Cyt. za: Prendre soin de l’informatique et des générations…, s. 16.
  83. Cyt. za: F. Conway, J. Siegelman, Dark Hero of the Information Age: In Search of Norbert Wiener. The Father of Cybernetics, Basic Books, New York 2006.
  84. B. Stiegler, La société automatique 1…, s. 23.
  85. Y. Hui, Zrywa się wiatr: wspomnienie Bernarda, tłum. J. Maliński, Machina Myśli, http://machinamysli.org/zrywa-sie-wiatr-wspomnienie-bernarda/#_ftn4 [dostęp: 22.01.2022].
  86. P. Petit, Mais au fait, c’était quoi la pensée de Bernard Stiegler?, MarianneTV, 7.08.2020, https://www.marianne.net/societe/mais-au-fait-c-etait-quoi-la-pensee-de-bernard-stiegler [dostęp: 22.01.2022].
  87. Por. A.W. Nowak, Mała zmiana (pojęciowa), wielka rewolucja, „Czas Kultury” 2021, nr 21, https://czaskultury.pl/artykul/mala-zmiana-pojeciowa-wielka-rewolucja/ [dostęp: 22.01.2022].
  88. „Zamiast więc oddawać się beznadziei, opowiedziałem się za melancholią aktywną – na tyle, na ile byłem zdolny do działania. Inaczej mówiąc, wolałem melancholię, która czegoś z nadzieją wyczekuje, która czegoś pragnie i szuka, od melancholii, która, smętna i rozżalona, rozpacza” (V. van Gogh, Listy do brata, tłum. J. Guze, M. Chełkowski, Czytelnik, Warszawa 1964, s. 000–000. Przekład zmieniony przez M.K.).
  89. A. Alombert, Nous avons à devenir la quasi-cause du décès de Bernard Stiegler, Mediapart, 15.08.2020, https://blogs.mediapart.fr/anamnesis/blog/150820/nous-avons-devenir-la-quasi-cause-du-deces-de-bernard-stiegler [dostęp: 22.01.2022].
  90. G. Deleuze, wykład z 3.06.1980 wygłoszony na Université Paris 8 Vincennes-Saint-Denis, Webdeleuze, https://www.webdeleuze.com/textes/249 [dostęp: 22.01.2022]. Cyt. za: A. Alombert, Nous avons…
  91. B. Stiegler, Ce qui fait que la vie vaut la peine d’être vécue. De la pharmacologie, Flammarion, Paris 2008, s. 183.
  92. A. Alombert, M. Krzykawski, Glosariusz Internacji. Wprowadzenie do pojęć Bernarda Stieglera i Kolektywu Internacja, w: B. Stiegler, Konieczna bifurkacja…
  93. Zob. B. Stiegler, La société automatique 1, s. 10–11. Cytowany przez Stieglera Greenspan nawiązywał do Nagrody Nobla przyznanej w 1997 roku Myronowi S. Scholesowi i Robertowi C. Mertonowi. Sposób funkcjonowania systemu finansowego pokazuje pouczający wywiad z „nawróconym” handlarzem derywatami Anicem Lajnefem, który przez wiele lat działał w samym jego sercu. Wywiad został opublikowany na francuskim kanale obywatelskim Le Média pour tous [Media dla wszystkich]: https://www.youtube.com/watch?v=KcBJ5WVys_M&ab_channel=LeMediaPourTous [dostęp: 22.01.2022].
  94. Można panikować (It’s Okay to Panic), reż. J.L. Ramsey, 2020, https://www.youtube.com/watch?v=osm5vyJjNY4&ab_channel=RamseyUnited [dostęp: 22.01.2022].
  95. Świat się chwieje, audycja G. Sroczyńskiego, TOK FM, 2.01.2022, https://www.tokfm.pl/Tokfm/7,124813,27965760,polski-odpowiednik-naukowca-z-nie-patrz-w-gore-rozbieramy.html?fbclid=IwAR0vUj6HzfnuQR2DPQcVQIkKmokuAW5ZzVfDPFkXUKcKV0IpiErSe2HDG6k#s=BoxOpMT [dostęp: 22.01.2022].
  96. Tamże.
Tekst napisany na zamówienie Biennale Warszawa

Michał Krzykawski, pracownik naukowy na Wydziale Humanistycznym Uniwersytetu Śląskiego w Katowicach, gdzie kieruje Centrum Badań Krytycznych nad Technologiami. Pracuje na rzecz budowania dialogu między myśleniem filozoficznym, techniką i naukami w kontekście wyzwań, jakie niesie za sobą transformacja cyfrowa. Autor wielu prac z zakresu współczesnej filozofii i literatury francuskiej, filozofii techniki, nauki i ekonomii politycznej, m. in.: Bifurcate. ‘There Is no Alternative’ (pod redakcją Bernarda Stieglera i Kolektywu Internacja, Paris 2020, London 2021) i Inne i wspólne. Trzydzieści pięć lat francuskiej filozofii (Warszawa 2017).