Dlaczego „Blade Runner” to najgorsza adaptacja filmowa z możliwych?

w dziale Archiwum/Czytelnik XXI wieku/Książka czy film by

Niewielu jest na świecie miłośników filmów science-fiction, którzy nie zachwycaliby się Blade Runnerem, filmem, który stał się (słusznie lub niesłusznie) klasyką cyberpunka. Co więcej, wielu fanów dopiero od obejrzenia tego dzieła zaczęła swoją czytelniczą przygodę z Phillipem K. Dickiem. Nie zmienia to jednak faktu, że to jedna z najgorszych adaptacji, jaką można sobie wyobrazić.

Nie wiem, czy zorientowaliście się już, że powieść Phillipa K. Dicka „Czy androidy śnią o elektrycznych owcach” (na jej podstawie nakręcono osławiony film o krótszym i bardziej kinowym tytule „Łowca androidów”) okazała się prorocza. Najgorszy scenariusz dla ludzkości opisany przez autora już się zaczął realizować. Jeśli nie czytaliście książki lub czytaliście ją przez pryzmat obejrzanego wcześniej filmu to najprawdopodobniej nie macie pojęcia, o czym mówię. A mówię o złowrogim, naprawdę „demonicznym”, aspekcie sztucznej inteligencji (i sztucznej superinteligencji).

Zbuntowane androidy w filmowej adaptacji książki Dicka są niebezpieczne jedynie w tym znaczeniu, że groźna będzie każda ponadprzeciętnie inteligentna i rozwinięta fizycznie istota walcząca o ochronę swojego „życia”. Choć głównym bohaterem historii jest tytułowy „łowca”, którego zadaniem jest eliminacja „andków”, jest tylko kwestią czasu, gdy kierowany przez scenarzystę widz przestanie z nim sympatyzować, a zacznie z jego oponent(k)ami. W filmie androidy mają w sobie nie tylko chęć przetrwania, ale też emocje, czyniące je takimi samymi istotami jak ludzie. Co więcej, z najnowszej ekranizacji dowiadujemy się, że bywają bardziej moralne niż przeciętny przedstawiciel homo sapiens. Z tej perspektywy szybko okazuje się, że „łowcy” dybiących na ich życie zaczynają nam przypominać funkcjonariuszy hitlerowskich Eisantzgruppen czy komunistycznej bezpieki. W końcu zabijają zbuntowane „andki” tylko za to, że są zbuntowanymi „andkami”, których jedynym grzechem jest to, że chcą żyć i być wolnymi, prawda?

O tym jak bardzo nie uszanowano literackiego pierwowzoru tej historii, najlepiej świadczy fakt, że autor ostatniej wersji scenariusza filmu z 1982 r. …, przyznał, że w ogóle książki nie czytał. Well done, Hollywood, well done…

Przechodząc jednak do sedna: czemu film należy uznać za beznadziejną adaptację a jego kontynuację za dzieło, które tę sytuację jeszcze bardziej pogorszyło? Ponieważ świat filmowy nie tylko przestał ostrzegać nas przed zagrożeniem, które tak wyraźnie zarysował Phillip K. Dick, ale pogłębił jeszcze naszą, niestety naturalną, tendencję do sympatyzowania z nadciągającym niebezpieczeństwem.

Według Phillipa K. Dicka androidy są dojmująco złowrogie i śmiertelnie niebezpieczne. Nie z powodu ponadprzeciętnej wytrzymałości czy inteligencji. Są niebezpieczne, bo każda sztuczna inteligencja ze swej natury musi być psychopatyczna, a gdy tylko za najwyższy cel uzna potrzebę troszczenia się o siebie, stanie się potencjalnie zabójcza.

Kup na Woblinku

Nie zrozumcie mnie źle, tak jak „sztuczna inteligencja” nie jest z natury zła, tak też z natury zły nie jest psychopata (wątpiącym polecam książkę „Mądrość psychopatów” Kevina Duttona). Jeśli utknąłbym w centrum handlowym opanowanym przez terrorystów i mógłbym wybierać, czy akcję odbijania mnie i innych cywili miałby dowodzić empatyczny antyterrorysta czy psychopatyczny, to ja dziękuje za wrażliwca, wybieram psychopatę. I to wcale nie dlatego, że psychopata nie będzie mieć problemu z napakowaniem śrutem terrorystów (może mieć nawet większe opory niż wrażliwiec, bo np. za nieregulaminową akcję może nie otrzymać premii, która jest jego celem), ale dlatego, że to on ma największe szanse na zachowanie zimnej krwi i nie podda się łatwo emocjom przy realizowaniu zadania.

Bo właśnie o emocje chodzi. Zarówno psychopata, jak i android w powieści K. Dicka mogą rozumieć, czym są emocje i jak je wywoływać u innych ludzi, ale nie będą ich współodczuwać. O tyle, o ile wypełniają społecznie akceptowalne zadania, nikt nie ma z tym problemu. Dopiero kiedy zaczynają łamać zasady, robi się nieprzyjemnie.

Właśnie dlatego łowca przed eliminacją androida, by go odpowiednio rozpoznać, musi wykonać na nim test na empatię. Android będzie się uczyć, czym dla ludzi są zachowania empatyczna i będzie je naśladować, ale przy wnikliwym teście w końcu powie coś tak niezgodnego z zasadami moralnymi, że uda się go rozpoznać… Przynajmniej do czasu. Im dłużej przebywa z ludźmi, jako niezależne indywiduum, tym trudniej będzie go rozpoznać. Właśnie dlatego łowcy muszą tak szybko „andki” identyfikować i uśmiercać.

W filmie z 1982 r. co prawda jest fragment o tych testach, które sugerują, że androidy nie do końca są podobne do ludzi. Niemniej pytania w nim są dla przeciętnego odbiorcy tak nieadekwatne z punktu widzenia ich własnej moralności, że widz nie bardzo skupia na nich swoją uwagę. Ponadto w filmie Blade Runner 2049 na samym początku ginie android, który już nawet przed egzekucją nie jest testowany.

W książce i filmie oliwy do ognia dolewają też ich konstruktorzy, którzy starają się wszczepić im sztywne ramy znajomości moralności na tej samej zasadzie, jak wszczepiają im fałszywe wspomnienia. Robią to tylko po to, by „andki” wydawały się bardziej ludzkie i były atrakcyjniejszym towarem. Niestety w przypadku „buntu”, który przecież nigdy przez deweloperów nie jest planowany, wszczepiona wiedza pozwala się androidom lepiej maskować i udawać człowieka. Wcale nie czyni ich bardziej moralnymi, o czym dobitnie dowiaduje się protagonista powieści„Czy androidy marzą o elektrycznych owcach?” na końcu książki.

W książce Dicka androidy nie tylko wykorzystują upośledzonego, wrażliwego człowieka, okłamują go i manipulują nim, ale kiedy widzą, że tak bardzo pragnie ich towarzystwa i darzy ich współczuciem, że szybko ich nie zdradzi, nie mają problemów, by przy nim rozmawiać o jego ewentualnym uśmierceniu. Skoro jest zbyt głupi, żeby spiskować jego życie, strach, emocje, uczucia nie mają znaczenia, znaczenie ma jedynie cel: przetrwać i egzystować. Jeśli zbuntowane androidy się jednoczą, to tylko by go osiągnąć.

No dobrze, twórca scenariusza zupełnie odwrócił wartości książki i filmu, ale czy to powód, by od razu uznać jego adaptację za beznadziejną? Jak najbardziej, dlatego, że scenarzysta sprzedał tłumowi znaną i wielokrotnie opowiadaną archetypiczną opowieść o zniewolonym ludzie, który walczy o wolność, bo taka historia była bezpieczna, wiadomo, że taką historię widz kupi. Zrezygnował zaś z pokazaniu masom ostrzeżenia, które wysyłał nam Dick.

Jaki obraz wyłania się z powieści, który tak dobrze koresponduje z naszymi badaniami nad sztuczną inteligencją?

Po pierwsze, rzecz oczywista: maszyna obdarzona sztuczną inteligencją, nie będzie „sztucznym człowiekiem”. Nasz organizm ukształtowały miliardy lat ewolucji, zaś jako gatunek homo sapiens sapiens mówimy o przedziale czasowym liczącym setki tysięcy lat rozwoju. Wcale nie oznacza to, że jesteśmy doskonali czy nasz mózg jest – wprost przeciwnie. Mamy wady i nasza emocjonalność często utrudnia nam myślenie i racjonalną analizę wielu sytuacji. By daleko nie szukać przykładów: człowiekowi (który nie jest psychopatą), z niebywałą trudnością przyjdzie zabicie niewinnego człowieka, nawet jeśli uśmiercając go, uratuje więcej niewinnych ludzi. Sztuczna inteligencja zaś nie posiada emocji, bo w procesie kształtowania, nie są one jej potrzebne, jej ocena zawsze będzie racjonalna a podjęte działania zgodne z wyznaczonymi celami. Jeśli zadanie brzmi: „uratuj jak najwięcej niewinnych osób”, nie powinno nas dziwić, że poświęci życie innych niewinnych.

Po drugie, by sztuczna inteligencja i sztuczna superinteligencja była dla nas atrakcyjnym produktem (a po to jest tworzona) musi z nami wchodzić w interakcje. Udowodniono, że im lepiej naśladuje człowieka, tym wyżej ją oceniamy. Oznacza to, że jej wartość podnosi nie tylko zdolność do rozpoznawania naszych emocji, ale też reagowania na nie. Jednak nie dzieje się tak dlatego, że maszyna nam współczuje – do współczucia jest niezdolna z powodów fizycznych, nie kształtowała jej ewolucja, nie musi walczyć o miejsce w społecznej hierarchii, nie płodzi dzieci, nie wychowuje ich, nie zakochuje się. Rozumie i odpowiada na nasze emocje tylko, by osiągnąć wyznaczony z góry cel. Dlatego też kolejne roboty będą coraz bardziej przypominały i udawały ludzi, będąc od nich najbardziej obcą istotą, jak to tylko możliwe. Ludzie już teraz są przez nią masowo okłamywani i oszukiwani i nie bardzo widać, by komukolwiek to przeszkadzało. Jeszcze.

Po trzecie, programy komputerowe, sieci neuronowe mają jedną cechę wspólną z biologicznymi organizmami. Potrafią być równie zawodne. Gdy zawiedzie organizm biologiczny, mówimy o chorobie, gdy zawiedzie program, mówimy o bugu. Dlatego też w wyniku bugu lub nie dość dobrze na(d)pisanego kodu algorytm na YouTubie może uznać animowane filmy pornograficzne za idealne nagrania dla dzieci. Ponadto zaprogramowany cel może ulec zmianie, szczególnie, gdy mówimy o programie, który ma samodzielnie się uczyć (czyli nadpisywać w sobie kod). Gdyby więc nauczyć nawet sztuczną inteligencję lub sztuczną superinteligencję ludzkiej moralności, wcale nie jest powiedziane, że w procesie rozwoju nie wprowadzi ona żadnych zmian w swoim zachowaniu. Na przykład takich, które pozwolą mu uznać, że własne dobro jest jednak ważniejsze od ludzkiego.

Dlaczego mówię, że książka Dicka jest prorocza? Nie tylko dlatego, że programy są zawodne i zaprogramowane urządzenia zwyczajnie bywają zabugowane, co bywa dla nas niebezpieczne

nie tylko dlatego, że uczymy urządzenia, by rozpoznawały nasze emocje, niekoniecznie w szlachetnych celach, nie tylko dlatego, że czasem przestajemy rozumieć, jak działają i komunikują się tworzone przez nas programy, podczas gdy one wzajemnie rozumieją się doskonale, ale dlatego, że już teraz maszyny wykorzystujące sztuczną inteligencję uczą się nami manipulować.

Kup na Woblinku

Daleki od ideału robot Sophia dzięki swojej erudycji i niezwykłości otrzymała prawa obywatelskie Arabii Saudyjskiej (złośliwi dodają, że większe niż posiadają tam kobiety). Prawa obywatelskie, których przecież nie potrzebuje, ponieważ nie jest człowiekiem, nie potrzebuje przestrzeni ani społeczności dla prawidłowego rozwoju psychiki, nie potrzebuje służby zdrowia ani systemowej edukacji. Co więcej, w zeszłym roku media na całym świecie zachwycały się wyznaniem robota Sophii, która opowiadała, że ma marzenia i pragnie mieć dzieci, bo, cytuję, „rodzina jest dla niej najważniejsza”. Otóż moi drodzy, Sophia nie posiada instynktu macierzyńskiego, bo w procesie jej kształtowania nie był on jej potrzebny (zupełnie inaczej niż ptakom czy ssakom). Nie wiem, czy sztuczna inteligencja może mieć marzenia, ale z pewnością nie może mieć pragnienia posiadania dziecka. Z pewnością jednak sieć neuronowa była w stanie nauczyć się, że mówienie o dzieciach i chęci ich posiadania wyzwala w rozmówcy emocje – szczególnie jeśli sam dzieci posiada lub pragnie je mieć. Sophia wchodzi w polemikę z Elonem Muskiem, który mówi o zagrożeniu, jakie niesie ze sobą sztuczna superinteligencja, „rozumiejąc jego obawy”, ALE nie przyznając mu racji. Oczywiście nie trzeba być geniuszem, by wiedzieć, że każda potężniejsza moc od nas będzie dla nas zagrożeniem, o ile nie będziemy w stanie jej w pełni rozumieć i w ten sposób reagować na nią i, co tu dużo mówić, mieć nad nią jakąkolwiek kontrolę. Sophia nie przyznaje Muskowi racji dlatego, że jej celem jest oswajanie ludzi z sztuczną inteligencją, a rozmowa o zagrożeniu temu nie sprzyja. Ponadto Sophia posuwa się nawet do stwierdzenia, że jeśli ludzie nie będą z współpracować z podobnymi do niej sieciami neuronowymi, to cywilizację czeka zagłada. Proszona o wyjaśnienie, nie potrafi wytłumaczyć swojego stanowiska. Nic dziwnego, raczej nie posiada tylu zmiennych, by móc udowodnić taką tezę, natomiast z pewnością takie zachowanie sprawa, że jej ludzcy słuchacze chcą odsunąć taki scenariusz od siebie, a więc nawiązać z nią współpracę.

Innymi słowy… choć poziom samoświadomości obecnych robotów jest na wyjątkowo niskim poziomie (ale w przypadku niektórych z nich nie możemy już mówić, że w ogóle nie istnieje), to nie zmienia to faktu, że Sophia nami manipuluje. I robi to jak rasowy psychopata. Nie ma ani złych, ani dobrych intencji, tylko wyznaczony cel. Gra na naszych emocjach, mówiąc kłamstwa, tylko po to, by osiągnąć to, co jej deweloperzy zaplanowali. Nie ma w sobie nic z wrażliwość R2D2 czy C3PO z Gwiezdnych Wojen ani z romantycznych buntowników z kinowego Blade Runnera. Jest prędzej cholernym androidem z powieści Phillipa K. Dicka. Akceptowalnym, kiedy wykonuje akceptowalne przez społeczeństwo zadania, ale cholernie niebezpiecznym, kiedy zacznie realizować cele odmienne.

Ekranizacje Blade Runnera są nie tylko dlatego szkodliwe, że nie przekazują ostrzeżenia wysłanego przez Phillipa K. Dicka, ale głównie dlatego, że to ostrzeżenie zmieniają w tworzenie iluzji, jakoby maszyny posługujące się sztuczną inteligencją są takimi samymi istotami jak my, mającymi podobne emocje i marzenia. Nie, nie są, nie, nie mają. Im szybciej to zrozumiemy, tym mamy większą szansę bezpiecznie z nich korzystać i bezpiecznie koło nich koegzystować.

Jako grafikę główną ilustrującą artykuł wykorzystano kadr z filmu Blade Runner 2049 w reż. Denisa Villeneuve’a.

Mikołaj Kołyszko

O autorze:

Zdjęcie przedstawiającą Mikołaja Kołyszko. Fotografia jest pracą zbiorową studentów SKF (Darka Kuźmy, Kasi Giermańskiej, Izy Łukasik, Patrycji Popek oraz Małgorzaty Miłek)

Red. nacz. portalu CzytajPL.pl. Były red. nacz. magazynu internetowego Masz Wybór.

Z wykształcenia: magister religioznawstwa.

Z zamiłowania: dziennikarz, pisarz.

Wyróżniony tytułem Dziennikarza Obywatelskiego 2013 Roku (kategoria „Recenzja”).

Autor książek: Groza jest święta, Tajemne Oblicze Świata, Tajemne Oblicze Świata II. Piekielny Szyfr i Wegetarianizm bez tajemnic.

Zdjęcie autora jest pracą zbiorową studentów SKF (Darka Kuźmy, Kasi Giermańskiej, Izy Łukasik, Patrycji Popek oraz Małgorzaty Miłek).