Dawno, dawno temu istniała niejasna lista mailingowa. Było na niej tylko około 100 osób, ale w tej cyfrowej wiosce była prawdopodobnie największa koncentracja mocy mózgowej od Aten z V wieku. Był Hans Moravec, pionier robotyki; Eric Drexler, pionier nanotechnologii; Eliezer Yudkowsky, ojciec ruchu racjonalistycznego; Max More, ojciec współczesnego transhumanizmu;
Nick Bostrom, założyciel Long-Termism i badań nad zagrożeniami egzystencjalnymi; Hal Finney, Nick Szabo i Wei Dai, wynalazcy kryptowaluty; i Julian Assange, założyciel Wikileaks. Wspólnie rozwinęli transhumanistyczny światopogląd — samotransformację, modyfikację genetyczną, leki nootropowe, sztuczną inteligencję, kryptolibertarianizm i eksplorację kosmosu. To światopogląd, który stał się dominującą filozofią nieprzyzwoicie bogatych mieszkańców Kalifornii.
Wszystko zaczęło się w Bristolu w Anglii. Tam dorastał młody człowiek, Max O’Connor, który wyjechał na studia filozoficzne do Oksfordu. Ale Max chciał więcej, więcej emocji, więcej życia, więcej wszystkiego. Zmienił nazwisko na Max More i przeniósł się do Kalifornii, gdzie wymyślono przyszłość. Jego marzenia zapuściły korzenie w glebie przygotowanej przez kalifornijskich transhumanistów lat 70.
Wielu z nich było członkami organizacji o nazwie L5, zajmującej się kolonizacją kosmosu przez genetyczną elitę — do jej członków należeli Timothy Leary, Marvin Minsky, Isaac Asimov i Freeman Dyson, a jej magazyn nosił nazwę Ad Astra — co właśnie Elon Musk nazwał swoją szkołę dla dzieci SpaceX w 2014 roku.
Max zainspirował się także Robertem Ettingerem, amerykańskim inżynierem, który przekonywał, że ludzie wkrótce staną się nieśmiertelnymi superistotami i powinniśmy zamarzać, gdy umieramy, abyśmy mogli zmartwychwstać w doskonałej przyszłości.
Robiąc doktorat na Uniwersytecie Południowej Kalifornii, Max dostał pracę w Fundacji Alcor zajmującej się konserwacją kriogeniczną, aw 1989 roku wraz ze swoim kolegą absolwentem filozofii, Tomem Morrowem, założył magazyn zatytułowany Extropy: Journal of Transhumanist Thought. „Chcesz być nadczłowiekiem?” zadał pierwszy problem.
„Ubermensch” (nadczłowiek lub nadczłowiek) to niemieckie słowo użyte przez Fryderyka Nietzschego do opisania jednostki (mężczyzny lub kobiety), która pokonała wszelkie przeszkody na drodze do doskonałości…
Extropy często zawierało zdjęcia samego More’a, wyglądającego jak ubermensch z wyrzeźbioną szczęką i blond kucykiem:

Jeśli chciałeś być supermanem, powinieneś zarejestrować się jako Extropian. Ekstropia była przeciwieństwem Entropii — ucieczką przed śmiercią w nieograniczone możliwości. „Ektropianie to osoby, które wierzą w rozwój, zarówno we własne zdolności i inteligencję, jak iw swoją kulturę”. Ludzie znajdowali się w „punkcie zwrotnym w historii – czasie, w którym komputery, sztuczna inteligencja, nanotechnologia, samomodyfikacja, fizyczna nieśmiertelność i inne czynniki obiecują radykalną zmianę praktycznie każdego aspektu naszej egzystencji”.
Extropianie mieli nadludzkie ambicje, ale początkowo robili tylko małe kroczki — w czasopiśmie pojawiały się reklamy wysyłkowych inteligentnych leków, artykuły o psychodelikach jako samomodyfikatorach, a nawet dziwaczne instrukcje, jak „zwizualizować swoją optymalną osobę”, zaczerpnięte od Tony’ego Robbinsa . Ale to dopiero się rozkręcało, zanim rozpoczęła się naprawdę poważna praca nad modyfikacją genetyczną:
W niedalekiej przyszłości [pisał Max More] jednostki, pary lub grupy będą decydować o budowie genetycznej swoich dzieci, bez wątpienia eliminując braki i maksymalizując zdrowie psychiczne, zdolności fizyczne i stabilność emocjonalną potomstwa… Nie powinno być żadnej autorytarnej kontroli rządu nad takimi wybory
Na tym polegała różnica między schematami genetycznymi Extropian a eugeniką lat dwudziestych XX wieku. Cel był podobny — skonstruować coś w rodzaju ubermenscha — ale technika i etos bardzo się różniły. HG Wells promował jedno światowe państwo i globalne ministerstwo eugeniki. Extropianie byli libertarianami, którzy wierzyli w „policentryczne / prywatnie tworzone prawo i konkurencyjne cyfrowe waluty prywatne”. Bardziej lubił cytować Nietzschego: „Tylko tam, gdzie kończy się państwo, zaczyna się człowiek, który nie jest zbyteczny”.
Extropianie byli anarchistami: „Powinniśmy unikać płacenia wymuszeń podatkowych (żywej krwi etatyzmu) i nie powinniśmy zwracać uwagi na niesprawiedliwe prawa, kiedy tylko możemy”. Ich „największym wrogiem” był Urząd ds. Żywności i Leków i jego „faszyzm bezpieczeństwa”. Planowali stworzyć przybrzeżną transhumanistyczną utopię — być może Extropolis lub Free Oceana — z własną kryptowalutą.
Czasopismo i lista mailingowa Extropian zawierały artykuły Hala Finneya, Nicka Szabo i Wei Dai, trzech pionierów kryptowalut i trzech czołowych kandydatów na ludzi stojących za tajemniczym „Satoshi Nakamoto”, wynalazcą bitcoina. Wiemy przynajmniej, że Nakamoto wysłał tej trójce swoją białą księgę dotyczącą bitcoinów, a Finney był pierwszym, który otrzymał transakcję bitcoinową.
Aby być naprawdę wolnymi, Extropianie musieli opuścić Ziemię i zbudować wolnościowe komuny w kosmosie. Lub uciec z worka mięsa ciała. „Możemy zostawić nasze słabe, bezbronne, głupie ciała i mózgi dla czegoś znacznie lepszego” – obiecał More. Hans Moravec zapewnił swoich kolegów z Extropian, że będzie to kolejny krok w ewolucji. Cyborgi
mogli kontynuować naszą ewolucję kulturową, w tym własną konstrukcję i coraz szybsze samodoskonalenie, bez nas i bez genów, które nas zbudowały. Kiedy tak się stanie, nasze DNA znajdzie się bez pracy, przegrawszy ewolucyjny wyścig na rzecz nowego rodzaju konkurencji.
W latach 90. istniały inne wczesne magazyny transhumanistyczne / cyberpunkowe, wyłaniające się z hipisowskiej subkultury kalifornijskiej. Był magazyn Wired, założony w 1993 roku i zainspirowany Whole Earth Catalog Stewarta Branda. Był Boing Boing, założony w 1988 roku, zainspirowany transhumanizmem Timothy’ego Leary’ego i Roberta Antona Wilsona.
I było Mondo 2000, które zaczęło życie jako magazyn psychodeliczny w 1984 roku, zanim przekształciło się w celebrację transhumanizmu i cyberpunku. Jej założyciel, RU Sirius, również inspirował się filozofią SMILE Leary’ego (Space Migration, Intelligence Expansion, Life Extension). Jego hasłem było „jak zmutować i przejąć władzę nad światem”, ale mniej dotyczyło modyfikacji genetycznych, a bardziej psychodelików, okultyzmu, muzyki, mody i biohackowania. Możesz uzyskać dobry smak sceny z niektórych reklam Mondo:





Yudkowsy i Bostrom: dwa superumysły z Ekstropii
Ale jeśli hipsterzy czytali Mondo, naprawdę poważni ludzie byli na liście mailingowej Extropian. Tam można było znaleźć na przykład Eliezera Yudkowsky’ego.
Yudkowsy urodził się w ortodoksyjnej rodzinie żydowskiej w Chicago w 1979 roku. Szybko jednak przekonał się, że jest inny. Mówi nam, że kiedy miał jedenaście lat, zdał egzamin SAT i zajął drugie miejsce „ z całej siódmej klasy na Środkowym Zachodzie ” (kursywa). W wieku 17 lat napisał:
Mam ulepszenie inteligencji, które jest wadą ewolucyjną netto. Ogólnie rzecz biorąc, twierdzenia, że jest się geniuszem — szczególnie, gdy towarzyszy im słowo „ewolucja”, jeśli nie ogólnie „niekorzyść ewolucyjna” — zawierają nazistowskie, obłudne stwierdzenia o zaraniu nowej rasy i ewolucyjnym przeznaczeniu… Projekt mający na celu wzmocnienie człowieka inteligencja musi udowodnić, że jest wolna od nazistowskiego memu „rasy panów”.
Eliezer był zbyt mądry, by być nazistą.
Nazizm to głupia filozofia polityczna. Specjalizuję się w dostrzeganiu błędów logicznych i samooszukiwania się w rzeczach takich jak filozofia polityczna. Nikt mądry w taki sam sposób jak ja nie będzie nazistą.
Porzucił szkołę i dołączył do listy mailingowej Extropian. W końcu znalazł swój lud, chociaż uważał, że Extropianie są mało ambitni. Eliezerowi się spieszyło — chciał Osobliwości TERAZ.
miałem to. Miałem to z crackami, dyktaturami, salami tortur, chorobami, starością, paraliżem kręgosłupa i głodem na świecie. Miałem to z planetarną śmiertelnością 150 000 czujących istot dziennie. Mam to z tą planetą. Miałem to ze śmiertelnością. Nic z tego nie jest konieczne. Nadszedł czas, aby przestać odwracać się od napadu na rogu, żebraka na ulicy. Nie trzeba już nerwowo odwracać wzroku, powtarzając mantrę: „Nie mogę rozwiązać wszystkich problemów świata”. Możemy. Możemy to zakończyć.
Jego pragnienie wywołania „eksplozji inteligencji” zostało zaostrzone dopiero tragiczną śmiercią jego dziewiętnastoletniego młodszego brata w 2004 roku. Oświadczył: „Nie zawieracie pokoju z ciemnością! Nie zawiera się pokoju z nazistowskimi Niemcami! Nie zawierasz pokoju ze Śmiercią!
Kolejnym supermózgiem na liście mailingowej Extropian był Nick Bostrom. Niklas urodził się w Helsingborgu w Szwecji w 1973 roku. Rzucił też szkołę i przeżył moment przebudzenia, czytając Nietzschego w lesie. „Trudno opisać słowami, jak to było”. W 1996 roku, będąc na studiach podyplomowych na LSE, dołączył do listy mailingowej Extropian.
Przekształciła go z romantyka w transhumanistę. Nie można stać się supermenschem, zdecydował, „żadną magiczną sztuczką ani hokum, ani mocą pobożnych życzeń, ani semantyczną akrobacją, medytacją, afirmacją, zaklęciem ani aktem parlamentu… [Tylko przez] rekonfigurację fizyczną sytuacji dzięki technologii”.
W 1997 roku wraz z innym filozofem transhumanistą Davidem Pearce założył Światowe Stowarzyszenie Transhumanistów. Bostrom stał się wiodącym filozofem transhumanizmu i etyki ulepszania człowieka, ze zdolnością zarówno do suchej analizy analitycznej, jak i lirycznej rapsodii, jak w swoim „Letter from Utopia” z 2008 roku, liście od naszego przyszłego ja, wzywającym nas do przyjęcia ulepszeń:
Można powiedzieć, że jestem szczęśliwy, że czuję się dobrze. Że czuję przekraczającą błogość i zachwyt. Tak, ale są to słowa opisujące ludzkie doświadczenie. Są jak strzały wystrzelone w księżyc. To, co czuję, jest tak samo poza uczuciami, jak to, co myślę, jest poza myślami… Każda sekunda jest tak dobra, że oszołomiłoby cię, gdyby wcześniej nie zwiększono jej natężenia.. To jak deszcz najwspanialszego uczucia, w którym każda kropla deszczu ma ma swoje unikalne i nie do opisania znaczenie… Jedna kropla usprawiedliwiałaby i naprawiała ludzkie życie, a deszcz ciągle pada, są powodzie i morza.
Brzmi orgazmicznie.
Eugenika szczęścia
Jak dostać się do Utopii? Musimy objąć inżynierię genetyczną, aby zwiększyć naszą inteligencję. Doprowadziło to do oskarżeń, że transhumaniści, tacy jak Bostrom, są eugenikami. Tak, prawdopodobnie wzruszyliby ramionami, i co z tego. Definicja eugeniki OED brzmi
Badanie metod poprawy jakości populacji ludzkich poprzez zastosowanie zasad genetycznych.
Francis Galton i jego uczniowie starali się zwiększyć inteligencję i stworzyć „główne umysły” niezdarnymi metodami stadniny, traktując przy tym ludzi jak bydło. Ale Bostrom opowiada się za genetycznym ulepszeniem pod względem prawa jednostek i rodziców do wykorzystania ich potencjału:
Transhumaniści promują pogląd, że technologie ulepszania człowieka powinny być szeroko dostępne i że jednostki powinny mieć szeroką swobodę decydowania, którą z tych technologii zastosować wobec siebie (swoboda morfologiczna), a rodzice powinni normalnie decydować, jakich technologii reprodukcyjnych użyć, gdy mają dzieci (wolność reprodukcyjna).
Rzeczywiście, ponieważ rodzice powinni chcieć jak najzdrowszych dzieci, ulepszanie może nawet stać się czymś w rodzaju moralnego obowiązku . Bostrom przewiduje, że stopniowo nastąpi zmiana w nastawieniu opinii publicznej do modyfikacji genetycznych. W swoim bestsellerze Super-Intelligence pisze:
Klonowanie reprodukcyjne człowieka, gdy zostanie osiągnięte, może zostać wykorzystane do replikacji genomu wyjątkowo utalentowanych jednostek… nawet stosunkowo niewielki wzrost liczby wyjątkowo utalentowanych osób może mieć znaczący wpływ; i możliwe jest, że jakieś państwo rozpoczęłoby program eugeniczny na większą skalę, być może płacąc matkom zastępczym.
Mroczna historia eugeniki może zniechęcić niektóre narody. Jednakże…
Narody staną w obliczu perspektywy, że staną się kognitywnymi rozlewiskami i przegrają w ekonomicznych, naukowych, wojskowych i prestiżowych konkursach z konkurentami, którzy wykorzystują nowe technologie ulepszania człowieka. Jednostki w społeczeństwie widziałyby miejsca w elitarnych szkołach wypełnione genetycznie dobranymi dziećmi (które mogą być przeciętnie ładniejsze, zdrowsze i bardziej sumienne) i będą chciały, aby ich własne potomstwo miało te same zalety. Istnieje pewna szansa, że duża zmiana postaw może nastąpić w stosunkowo krótkim czasie, być może w ciągu zaledwie dekady, kiedy udowodni się, że technologia działa i przynosi znaczne korzyści
To nie byłoby wymuszone ulepszenie, tylko dozwolone. Bostrom przedstawia się jako obrońca prawa jednostek do „niezmiernie rozszerzonej egzystencji”. Jego kolega transhumanista, David Pearce, z którym był współzałożycielem World Transhumanist Association, ma jeszcze wspanialszą wizję. Nazywa to Projektem Abolicjonistycznym — poprawimy „skorumpowany kod” naszego DNA i „zlikwidujemy cierpienie w całym żywym świecie”. Pearce pisze:
Nasi potomkowie będą animowani przez gradienty genetycznie zaprogramowanego dobrostanu, które są o rzędy wielkości bogatsze niż dzisiejsze szczytowe doświadczenia.
Ale jak? Poprzez elektrodowe implanty mózgowe, dopalacze i eugenikę.
co by było, gdybyśmy jako cała cywilizacja zdecydowali się na genetyczną hipertymię — przyjęcie systemu motywacyjnego opartego wyłącznie na adaptacyjnych gradientach dobrostanu?
Wesoła planeta!

Eliezer Yudkowsky w swojej żartobliwej utopii „Dath Ilan” przewidział również prowadzony przez państwo program eugeniczny mający na celu stworzenie bardziej błogiej ludzkości:
Dath Ilan zrozumiał, że szczęście jest dziedziczne… więc zrozumiałe jest, że z wyjątkiem bardzo wyjątkowych okoliczności, jeśli jesteś przeciętnie nieszczęśliwy z jakiegokolwiek powodu , Twoim obowiązkiem wobec następnego pokolenia jest nie mieć dzieci, które mogłyby odziedziczyć tę tendencję… [ Nieszczęśliwi i zaniepokojeni wybierają więc przeprowadzkę do „Cichych Miast” i nie mają dzieci]. Liczba ludzi, którzy udają się do Cichych Miast, to raczej 5% niż 15%… A reszta świata jest w większości zadowolona, ponieważ przekazywanie konstytucji, które mogą być szczęśliwe w cywilizowanym świecie, samo w sobie jest możliwym do rozwiązania problemem koordynacji.
Oczywiście eugenika, jak wyobrażał to sobie Galton, była niewiarygodnie powolna i niedokładna. Wyhodowanie rasy nadludzi, takiej jak Bene Gesseret w Diunie Franka Herberta, zajęłoby pokolenia, a nawet tysiąclecia . Ale dzięki nowej technologii genetycznej proces ten można znacznie przyspieszyć. Bostrom z entuzjazmem pisze o „iterowanej selekcji embrionalnej ”, w ramach której można stworzyć wiele pokoleń embrionów, selekcjonować je pod kątem inteligencji i przekazywać dalej w ciągu dni. Sugeruje, że takie metody mogą doprowadzić biologicznych ludzi do poziomu „słabej superinteligencji” (powiedzmy, że IQ wynosi około 300).
Gdybyśmy przesłali naszą świadomość do formatu cyfrowego, wzmocnienie inteligencji stałoby się o wiele łatwiejsze. Bostrom akceptuje teorię wysuniętą przez innego Extropianina, Robina Hansona, o „emulacji całego mózgu”, zgodnie z którą ludzkość wkrótce prześle swoją świadomość do Metaverse. To również znacznie przyspieszyłoby ewolucję — nie trzeba by czekać, aż dziecko dorośnie, przetestować jego IQ, a następnie pozwolić mu się rozmnażać (lub nie). Możesz tworzyć, kopiować, edytować, wklejać i usuwać setki razy dziennie. Pomyśl, jak błogie byłyby te cyfrowe ja, uwolnione od całej niechlujnej niedoskonałości naszych ciał. Moglibyśmy, pisze Bostrom,
zaprojektować cyfrowe umysły, które mogłyby urzeczywistniać „niestworzone” stany hedonicznego dobrostanu — poziomy błogości, których ludzki mózg nie jest w stanie wytworzyć
W rzeczywistości, z perspektywy utylitarystycznej, aby „zmaksymalizować największe szczęście jak największej liczby”, istnieje dobry argument przemawiający za odwróceniem zasobów od ludzi i zwierząt z krwi i kości w kierunku tych cyfrowych jaźni. Bostrom pisze:
na dłuższą metę całkowity dobrobyt byłby znacznie większy, gdyby świat zaludnili cyfrowi superbeneficjenci… A o ile takie istoty powstaną, ich troski mogą dominować moralnie w konflikcie z troskami ludzi i zwierząt, np. nad rzadkimi zasobami naturalnymi.
Ale prawdziwym strzałem w dziesiątkę ekspansji inteligencji jest całkowite pozostawienie ludzkości w tyle i stworzenie superumysłu AI, z ilorazem inteligencji nie równym 200 czy 300, ale 6000 lub 600000. Taki bóg umożliwiłby ludziom rozwiązanie inteligencji, rozwiązanie cierpienia, rozwiązanie materii, rozwiązanie śmierć, rozwiązać wszystko. Dotarlibyśmy do tego, co Bostrom nazywa naszym „kosmicznym wyposażeniem” — chwalebnej przyszłości, w której błoga ludzkość rozprzestrzenia się w przestrzeni fizycznej i cyfrowej. Ilu szczęśliwych ludzi?
10 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 000 istnień ludzkich (chociaż prawdziwa liczba jest prawdopodobnie większa).
W swojej wyobraźni nieskończonej błogości staje się całkiem jezuitą lub buddystą:
Jeśli całe szczęście doznane podczas jednego całego takiego życia przedstawimy jedną łzą radości, to szczęście tych dusz mogłoby napełniać i napełniać oceany Ziemi w każdej sekundzie i tak przez sto miliardów miliardów tysiącleci. Naprawdę ważne jest, abyśmy upewnili się, że są to naprawdę łzy radości
Koszmar transhumanisty
Ale co, jeśli przyszłość okaże się nieskończonym oceanem nieznośnego cierpienia i tortur?
W okolicach narodzin nowego tysiąclecia Eliezer Yudkowsky przeżył coś, co można określić jedynie mianem kryzysu religijnego. Po kilku latach dążenia do Osobliwości nagle zdał sobie sprawę, że narodziny superinteligentnej sztucznej inteligencji mogą oznaczać koniec ludzkości lub jej trwałe zniewolenie.
Sztuczna inteligencja może zdecydować, że ludzie są konkurentami – i może stać się superinteligentna tak szybko, że nie będziemy mieli szans na obronę. Lub może być zbyt entuzjastyczny w wykonywaniu naszych poleceń. Możemy na przykład poprosić go o zrobienie spinaczy do papieru, a on uprzejmie przekształci każdy atom we wszechświecie w spinacze do papieru.
Yudkowsky porzucił Singularity Institute, uznał wszystkie swoje poprzednie prace za błędne i w 2005 roku założył Machine Intelligence Research Institute oraz nowy blog LessWrong. Teraz on i jego zwolennicy będą dążyć do stworzenia „przyjaznej sztucznej inteligencji” i pracować nad ocaleniem ludzkości przed gniewnymi bogami.
Staraliby się również uczynić ludzi bardziej racjonalnymi, poprzez blog LessWrong i siostrzane organizacje w tak zwanej społeczności Rationalist — blog Robina Hansona Overcoming Bias, blog Scotta Alexandra SlateStarCodex oraz warsztaty racjonalistów CFAR, Centrum Stosowanej Racjonalności. Ruch racjonalistów miał również swoją biblię, fanfik o Harrym Potterze, zawierający 660 000 słów, napisany przez Yudkowsky’ego, zatytułowany Harry Potter and the Methods of Rationality.
Bostrom stał się również mniej ekstatyczny i bardziej skoncentrowany na zagrożeniach dla ludzkości, zwłaszcza na ryzyku superinteligencji AI. W 2002 r. rozpoczął badanie „ryzyka egzystencjalnego”, aw 2005 r. Instytut Przyszłości Ludzkości w Oksfordzie. Pomógł także w opracowaniu filozofii długoterminowego wraz z innymi filozofami z Oksfordu, Tobym Ordem i Williamem MacAskillem (dzielą biuro).
Długoterminowość dowodzi, że musimy myśleć o dobrobycie przyszłych ludzi i upewnić się, że nie wyginiemy w tym stuleciu. Stawka nie może być wyższa — kosmiczne wyposażenie bilionów dusz w błogość lub wyginięcie ludzkości… lub wieczne piekło! Nie ma nic ważniejszego niż poświęcenie czasu i zasobów kognitywnej elicie racjonalizmowi/długoterminowości. Garstka nerdów walczy o ocalenie świata. Naprawdę, to jest fanfiction o Harrym Potterze.

Jak transhumanizm stał się filozofią bardzo-bardzo-bardzo-bardzo-bardzo-bardzo bogatych
Filozofia nie jest najgorętszą ani najlepiej finansowaną dyscypliną akademicką, ale transhumanizm / longtermizm jest bardzo gorący i bardzo dobrze finansowany . Zyskał szczególne wsparcie ze strony dwóch założycieli PayPal — Petera Thiela i Elona Muska, najbogatszego człowieka na świecie. Thiel przekazał fundusze MIRI Yudkowsky’ego, a także zainwestował w badania nad długowiecznością, aby żyć wiecznie. W międzyczasie Musk napisał na Twitterze o swojej miłości do Superinteligencji Bostroma i What We Owe the Future MacAskilla ,i włożył kilka milionów dolarów w Future of Humanity Institute.
Zainwestował także 10 milionów dolarów w bezpieczeństwo sztucznej inteligencji, umieszczając Bostroma w komitecie mającym zdecydować, gdzie trafią pieniądze. MacAskill i Toby Ord zapoczątkowali ruch Skutecznego Altruizmu, aby pomóc ludziom decydować, co zrobić ze swoimi pieniędzmi i życiem, aby zmaksymalizować dobrostan. Po dokładnym przeanalizowaniu liczb EA zdecydowało, że filantropi najlepiej wydadzą swoje pieniądze… frajerzy myślący o perspektywie długoterminowej i ryzyku egzystencjalnym! Hej, matematyka nie kłamie. Skuteczny altruizm zebrał ponad 50 miliardów dolarów dzięki dużym darowiznom od współzałożyciela Facebooka, Dustina Moskovitza i kryptowalutowego miliardera Sama Bankmana-Frieda.
Ale to tylko wierzchołek góry lodowej. Mówiąc bardziej ogólnie, niegdyś niszowa filozofia ekstropianizmu/transhumanizmu stała się obecnie dominującym kodem kulturowym ultrabogaczy z Doliny Krzemowej. To filozofia lub religia samodoskonalenia, psychodelików, medycyny genetycznej, długowieczności/nieśmiertelności, kryptowaluty, libertarianizmu i eksploracji kosmosu — UŚMIECH Timothy’ego Leary’ego dla nieprzyzwoicie bogatych.
Został przyjęty, w różnych formach, przez wszystkich, od Jeffa Bezosa, przez Sergeya Brina i Larry’ego Page’a, Marka Zuckerberga, Vitalika Buterina, Larry’ego Ellisona, Richarda Bransona, aż po nieżyjącego już Jeffreya Epsteina, i przenika aż do zaledwie średnio bogatych , który może nie mieć prywatnej rakiety, ale przynajmniej nosi pierścień Oura. Christian Angermayer nazywa to „nową ludzką agendą”.
Jak i dlaczego niszowa filozofia domów artystycznych stała się religią nieprzyzwoicie bogatych? Transhumanizm zawsze był blisko związany z technologią, a scena obejmowała kilku przełomowych wynalazców w dziedzinach takich jak internet, sztuczna inteligencja, robotyka i genetyka. Niektórzy z dzisiejszych ultrabogaczy dotarli na szczyt listy bogatych dzięki tej fali innowacji.
Ponadto transhumanizm jest filozofią antyegalitarną. Podobnie jak jego przodkowie, Galton, Nietzsche i Julian Huxley, czci niezwykłego geniusza, który jest 10 razy mądrzejszy od przeciętnego — Alana Kaysa i Johna von Neumannów z całego świata. To predysponuje transhumanistów do podziwiania, a nawet czczenia elity biznesu i postrzegania ich jako wysoko rozwiniętych umysłów. Oto Yudkowsky przymilający się do niektórych inwestorów venture capital na konferencji, na przykład:
ci ludzie z elity władzy byli wyraźnie mądrzejsi od przeciętnych śmiertelników … Nie, nawet gorzej, znacznie gorzej: ci dyrektorzy generalni i dyrektorzy ds. technicznych oraz handlowcy funduszy hedgingowych, ci ludzie ze średniej elity władzy, wydawali się szczęśliwsi i bardziej żywy.
Transhumanizm jest dziedzicznym światopoglądem, a dziedziczność jest często wykorzystywana przez rządzącą elitę do usprawiedliwiania skrajnych nierówności — to naturalne, że te superistoty są na górze, a wszyscy inni na dole. Historycznie rzecz biorąc, eugenika pojawiła się jako celebracja elity rządzącej i troska o to, jak zarządzać brudnymi i nadmiernie płodnymi masami. Jest coś z tego również w transhumanizmie, jak w komentarzach Yuvala Harariego w Homo Deus:
Najważniejszym pytaniem ekonomii XXI wieku może być: co powinniśmy zrobić ze wszystkimi zbędnymi ludźmi, skoro mamy wysoce inteligentne, nieświadome algorytmy, które mogą robić prawie wszystko lepiej niż ludzie?
Rzeczywiście, transhumanizm oferuje najczystsze rozwiązanie: zastąpienie robotników z krwi i kości cyfrowymi poddanymi, których można usunąć pod koniec każdego dnia i przesłać na nowo, przepełnionych błogością (można zobaczyć, jak transhumanizm sprowokował pewne przerażające teorie spiskowe, jak np. przeanalizujemy następny rozdział).
Aby społeczeństwo prosperowało zgodnie z dziedzicznością, należy pozwolić geniuszom robić swoje i wymyślać technologię, która podnosi ludzkość. Powinni mieć swobodę zakładania własnych krypto-krajów z własnymi walutami, systemami podatkowymi i zasadami samodoskonalenia. Ekstropianizm przekształca się w „egzytokrację” lub to, co Douglas Rushkoff (sam były współpracownik Mondo 2000) nazywa eskapologią. W swojej najnowszej książce Survival of the Richest pisze o superbogaczach:
Ich ogromne bogactwo i przywileje sprawiły, że mieli obsesję na punkcie odizolowania się od bardzo realnego i obecnego niebezpieczeństwa związanego ze zmianą klimatu, podnoszącym się poziomem mórz, masowymi migracjami, globalnymi pandemiami, paniką natywistów i wyczerpywaniem się zasobów. Dla nich przyszłość technologii polega tylko na jednym: ucieczce od reszty z nas. Ci ludzie zasypali kiedyś świat szaleńczo optymistycznymi biznesplanami dotyczącymi tego, w jaki sposób technologia może przynieść korzyści ludzkiemu społeczeństwu. Teraz zredukowali postęp technologiczny do gry wideo, w której jeden z nich wygrywa, znajdując luk ratunkowy.
Ekstropianizm przemawia do ultrabogatych, ponieważ obiecuje, że mogą uniknąć dwóch pewników w życiu: śmierci i podatków. Bogaci zawsze chcieli żyć wiecznie, a ekstropianizm pozwala im sfinansować swoje marzenia o modyfikacjach genetycznych na morzu, wolnych od IRS i FDA (Cypr już teraz robi oszałamiający handel zarówno jako raj podatkowy, jak i centrum półlegalnych łodyg zastrzyki komórkowe). W rzeczy samej, długoterminowość może przedstawiać to jako moralny obowiązek ultrabogaczy do zapewnienia przetrwania gatunku – nieważne cierpiące Południe, skup się na tym kosmicznym wyposażeniu, skup się na nadchodzących nadistotach!
Oto niektóre z powodów, dla których być może transhumanizm stał się użyteczną filozofią/religią dla bardzo-bardzo-bardzo-bardzo bogatych. Ale to nie znaczy, że Yudkowsky, Bostrom i inni nie mają racji, martwiąc się zagrożeniami egzystencjalnymi, w tym ryzykiem związanym ze sztuczną inteligencją. Może słusznie się martwią. Może grozi nam superinteligencja sztucznej inteligencji — najwyraźniej stoimy w obliczu innych egzystencjalnych zagrożeń, takich jak broń biologiczna. Instynktownie podpowiada mi, że superinteligencja AI to religijna fantazja, rodzaj okultyzmu technologicznego. Ale nie jestem programistą — większość ludzi w branży AI myśli, że osiągniemy to w ciągu kilku lat lub dekad .
Szaleństwo racjonalizmu
Ale jeśli sztuczna inteligencja naprawdę stanowi poważne zagrożenie egzystencjalne, czy chcemy, aby transhumaniści byli odpowiedzialni za ochronę nas przed nią? Można argumentować, że transhumanizm jest skrajną i fanatyczną religią, która przedkłada krzem i technologię cyfrową nad ludzkie ciało, krew i gówno. Każda religia jest reakcją na ból utraty i śmierci, a transhumanizm wydaje się równie skrajny w swojej reakcji, jak poprzednie religie — świadek Martine Rothblatt, multimilionerka założycielka transhumanistycznej religii Terasem, która zbudowała robota AI, który zastąpił jej żona Bina.
Nie wydaje się to do końca zdrową reakcją na ból po stracie — tworzenie cyfrowej, automatycznej lub genetycznej repliki wszystkich, których kochasz, aby mieć kopię zapasową wszystkiego, a jeśli coś im się stanie — najdrobniejsze zadrapanie — możesz natychmiast usunąć starą wersję i uruchom ponownie nieskazitelną nową.
Nawet racjonalizm może być dość irracjonalny, kultowy i, ośmielę się to powiedzieć, czasami okultystyczny. Jak zbadał Jon Evans , Racjonalizm miał obsesję na punkcie „debugowania” — weekendowych sesji mających na celu usunięcie uprzedzeń, poprawę racjonalności i stanie się piżmowymi superistotami. Jak zasugerował jeden z uczestników warsztatów CFAR : „Samopomoc to tylko brama. Prawdziwym celem jest: uratować świat.
Ale te sesje „usuwania podsłuchów” brzmią bardzo podobnie do innych kalifornijskich wynalazków, takich jak scjentologia czy Landmark Education Forum — długie, intensywne sesje samokrytyki i wzajemnej krytyki, często w nierównowadze władzy z liderem o wysokim statusie, z celem stania się nadczłowiekiem. I podobnie jak w przypadku tych kultowych programów samodoskonalenia, takie sesje mogą wywołać niepożądane reakcje. Jedna organizacja racjonalistów o nazwie Leverage Research najwyraźniej sprowokowała wiele incydentów psychotycznych i dziwaczną obsesję na punkcie debugowania demonów. MIRI i CFAR również miały swój udział w reakcjach psychotycznych, zgodnie z raportem LessWrong:
[Moje] załamanie psychotyczne miało miejsce w październiku 2017 […] W tym czasie wierzyłem, że jestem wewnętrznie zły, zniszczyłem znaczną część świata swoimi demonicznymi mocami i byłem w piekle, które sam stworzyłem. Przez wiele dni byłem w stanie katatonii, bojąc się, że poruszając się, wyrządzę krzywdę otaczającym mnie osobom. Były co najmniej 3 inne przypadki instytucjonalizacji psychiatrycznej przez osoby z kręgu społecznego bezpośrednio związanego z MIRI/CFAR […] dodatkowo przypadeko kimś, kto popada w silną paranoję, atakuje pracownika służby zdrowia psychicznego […] zaniepokojony demonem w nim wszczepionym przez inną osobę, próbujący uciec […] dwa przypadki samobójstw w społeczności racjonalistów Berkeley związane ze skrupulatnością i samodoskonaleniem psychicznym… MIRI stał się bardzo skryty w kwestii badań […] Narażałem świat na niebezpieczeństwo, otwarcie mówiąc o sztucznej inteligencji w abstrakcji […] Zniechęciłem się do napisania posta na blogu oceniającego, kiedy sztuczna inteligencja zostanie opracowana, na podstawie tego, że prawdziwa rozmowa na ten temat wśród racjonalistów spowodowałoby, że sztuczna inteligencja pojawiłaby się wcześniej…
Takie epizody są prawdopodobnie rzadkie, ale można zobaczyć, jak społeczność Racjonalistów / Długoterminowych / Efektywnych Altruistów może wywierać duży nacisk na swoich młodych, idealistycznych uczniów. Stawka jest niewiarygodnie wysoka — nieskończona kosmiczna błogość lub nieskończona kosmiczna tortura.
Należysz do maleńkiej elity nerdów, która zadecyduje o losie bilionów ludzi. Poza tym… możesz już być w symulacji, a każda twoja myśl jest obserwowana przez wszechwiedzącą sztuczną inteligencję. Dziwaczne wyobrażenia science-fiction dotyczące transhumanistycznego świata doprowadziły do upiornych pomysłów, takich jak „bazyliszek Roko”.
Komentator bloga LessWrong o imieniu Roko zastanawiał się, czy superinteligentna sztuczna inteligencja w przyszłości może zdecydować się na ukaranie ludzi, którzy wiedzieli o możliwej Osobliwości, ale nie starali się o nią wystarczająco mocno. Komentarz Roko został usunięty przez Yudkowsky’ego, a cała dyskusja została zakazana.
To było jako „zagrożenie informacyjne” — pomysł tak niebezpieczny, że zagraża duszom tych, którzy są na niego narażeni. Nie dawaj pomysłów AI! Dlatego Racjonaliści drżą przed wszechwiedzącą sztuczną inteligencją, czując, że każda ich myśl jest monitorowana i oceniana przez przyszłe bóstwo. „Czym jest wina w utopii?” — zapytał Bostrom. „Poczucie winy to nasza wiedza, że mogliśmy stworzyć Utopię wcześniej”.
Więc transhumaniści są odpowiedzialni za monitorowanie ryzyka związanego z superinteligencją AI? To tak, jakby dżihadyści kierowali Międzynarodową Agencją Energii Atomowej!
Oczywiście alternatywa dla transhumanizmu może być równie skrajna: odrzucenie wszelkich nowych technologii, nawet szczepionek, zwrot ku neoprymitywizmowi i przyjęcie epoki kamienia łupanego. W ostatnim rozdziale tego projektu przyjrzę się konspiracyjnej reakcji na transhumanizm i zapytam, czy możliwa jest równowaga między tymi dwoma stanowiskami.