Racionalisté

Racionalisté představují moderní intelektuální hnutí obhajující systematickou aplikaci racionálního přístupu ke znalostem a rozhodování, stejně jako utilitární etiku . Na základě těchto principů považují racionalisté za nutné věnovat zvláštní pozornost zejména rizikům globálních katastrof a zejména riziku vzniku superinteligentní umělé inteligence .

Eliezer Yudkowsky sehrál klíčovou roli při vytváření racionalistické komunity a formulování jejích principů , stejně jako brzy Nick Bostrom a Robin Hanson. Na začátku roku 2010 byl střediskem komunity Yudkovského LessWrong , ale v pozdějších letech se komunita stala méně centralizovanou. Od poloviny roku 2010, částečně díky Bostromově knize Superintelligence , je ovládání umělé inteligence předmětem vážných diskusí ve vědecké a technické komunitě.

Zobrazení

Racionalita

Racionalisté navrhují držet se principů racionality v myšlení a jednání [1] . Racionalita je chápána jako konstrukce obrazu světa, který se nejvíce shoduje s realitou, a to jak v obecných, tak konkrétních otázkách [2] ( epistemická racionalita ) a výběr takových akcí, které s přihlédnutím k dostupným informacím dávají nejžádanější očekávaný výsledek ( instrumentální racionalita ) [3] .

Systematická aplikace racionálního přístupu vyžaduje přísný pojmový aparát. Poskytuje ji teorie normativního rozhodování . Z pohledu Yudkowského, vycházejícího z prací E. T. Jaynese , je klíčovou složkou racionálního rozhodování Bayesova věta  - ta a na ní založené přístupy a teorie ( Bayesian Decision estimation , Bayesian epistemology ) představují nejlepší způsob, jak zohlednit příchozí informace, na které by se tak či onak měly omezit všechny efektivní empirické přístupy k rozhodování [4] . Pro efektivní aplikaci principů racionálního myšlení je nutné si uvědomit systematické chyby lidského myšlení – kognitivní zkreslení zkoumané D. Kahnemanem a A. Tverskym [5] – a umět se vyrovnat s jejich vlivem na vlastní myšlení [1] .

Racionalita sama o sobě směřuje k dosahování cílů, ale tyto cíle nestanovuje (z hlediska teorie rozhodování - funkce užitku ). Pro člověka jsou určeny jeho potřebami a etickými postoji a v případě entit vytvořených a naprogramovaných člověkem je stanovují tvůrci [6] . Racionalita zároveň neznamená odmítnutí emocí nebo zohlednění emocí a iracionality druhých lidí, jak to dělají takové fiktivní postavy často spojované s „racionalitou“ jako Spock : naopak, vlastní emoce mohou dobře být zohledněn v užitné funkci člověka a účetní cizinci jsou nezbytné, už jen proto, že ovlivňují dosahování cílů [3] . Racionalita také nemá nic společného s egoismem , protože cíle člověka mohou být cokoli, včetně altruistických [7] .

Z etického hlediska jsou racionalisté zastánci konsekvencialismu , který předepisuje volbu akcí na základě jejich očekávaných důsledků. Přesněji řečeno, drží se jedné nebo druhé varianty utilitarismu : morální je to, co maximalizuje celkové štěstí všech živých bytostí. Tento princip je přirozeně vybaven přesnějšími definicemi toho, co je míněno štěstím a jak jej přesně kvantifikovat – různé v různých verzích. (Na těchto detailech záleží hodně: například nejetičtější postup předepsaný utilitarismem do značné míry závisí .)[8]na tom, zda zohlednění zvířecího štěstí a utrpení Yudkowsky tuto obtíž obchází poukázáním na to, že v praxi se lidé jen zřídka ocitnou v situaci, kdy jsou budoucí důsledky porušení obecně uznávaných deontologických principů známy s dostatečnou jistotou, takže by to mělo být považováno za empirická pravidla , která je iracionální odmítat [6 ] .

Pro kolektivní diskusi a racionální rozhodování je nutné vést diskuse v dobré víře a projevit intelektuální otevřenost [9] , připravenost přiznat si vlastní chybu [2] . Je nepřijatelná situace, kdy se na diskusi nahlíží jako na válku, kde argumenty jsou vojáci a cílem je porazit protistranu, a ne zjistit pravdu [10] . Navíc je důležité odlišit spory o věcná tvrzení („Znárodní tento politik železnici, když se dostane k moci?“) od sporů o jména („Je tento politik marxista?“) [11] .

Nebezpečí umělé inteligence

Racionalisté jsou známí myšlenkou, že umělá inteligence je nebezpečná pro existenci lidstva. Úzká souvislost mezi tímto konceptem a racionalistickým hnutím poněkud zveličuje jeho význam pro hnutí [12] – ústředním konceptem je stále racionalita, nikoli riziko AI – nicméně historicky racionalistická komunita a hnutí vyrostly z diskuse o této myšlence [13] [6] .

Pokud bude technologický pokrok úspěšně pokračovat a bude aplikován správným směrem, pak bude lidstvo schopno zahájit expanzi vesmíru a také zlepšit kvalitu života lidí, včetně dosažení nesmrtelnosti , pokud si to bude přát (možnost a vhodnost takového scénáře je deklarován transhumanismem [13] ). Jak poznamenává Nick Bostrom, v tomto případě počet více či méně šťastných lidských životů a obecně štěstí, kterého se lidé v budoucnu dočkají, o desítky řádů převýší veškeré štěstí lidstva, které dosud žilo. ; pokud je tedy štěstí potomků nějak důležité, pak starost o zvýšení pravděpodobnosti takového vývoje lidských dějin je z hlediska utilitářské etiky nesmírně důležitá [14] .

Zejména je nutné se vyhnout takovým globálním katastrofám, které povedou k úplnému zničení lidstva nebo nevratné ztrátě možnosti rozvoje. Přírodním katastrofám, jako je pád obřího meteoritu na současné úrovni technického rozvoje, nelze odolat, ale za miliony let lidské existence se nestaly , takže můžeme konstatovat, že takové události jsou vzácné. Situace s rizikem katastrof způsobených člověkem je jiná: objevila se teprve nedávno. Během studené války tak bylo riziko jaderné války s možnou následnou smrtí lidstva [15] zcela reálné .

Yudkowsky a Bostrom věří, že největším nebezpečím je superinteligentní umělá inteligence – a se správnými opatřeními může radikálně zrychlit tempo pokroku. Inteligence zde a níže neznamená žádný typ myšlení podobného nebo nepodobného lidskému, ale v souladu s klasickou knihou Artificial Intelligence: A Modern Approach  schopnost efektivně řešit úkoly, tedy racionalitu, ale superinteligenci  - schopnost řešit v podstatě všechny stejné úkoly jako člověk, ale mnohem lépe [7] . Jiní racionalisté, jako je Holden Karnofsky , rovněž řadí mezi největší rizika vymírání lidstva v moderní době pandemii nebezpečné nemoci, uměle vytvořené jako biologická zbraň [15] .

Nebezpečí umělé inteligence podle Yudkowského nespočívá v tom, že umělá inteligence získá svobodnou vůli a bude rozvíjet své vlastní cíle, odlišné od těch, které jsou v ní stanoveny, v duchu Skynetu  – naopak, AI se bude snažit dosáhnout úkoly, které mu byly přiděleny, ale pokud nejsou přesně formulovány, mohou mít vedlejší účinky katastrofální účinky. Klasickým zjednodušeným modelem pro takový scénář je myšlenkový experiment zvaný maximalizér kancelářských sponek: pokud výkonná umělá inteligence dostane zdánlivě neškodný úkol „vyrobit kancelářské sponky “, ovládne celou planetu a vybaví ji továrnami na kancelářské sponky a počítači. pomoci jí optimalizovat proces jejich výroby se smutnými důsledky pro lidstvo. Dalším příkladem je příběh čarodějova učně z karikatury " Fantasy " podle balady Goetha , který nařídil začarované koště, aby naplnil kotel vodou, což skončilo potopou. Užitková funkce člověka je komplexní: kdykoli si člověk stanoví cíl, implicitně zohledňuje mnoho dalších podmínek - morálku, pravidla chování ve společnosti, sebezáchovu atd.; AI, obecně řečeno, tato další omezení nemá [16] .

Problém je v tom, že téměř jakýkoli úkol přidělený AI, kromě těch, které jsou opatřeny speciálními, pečlivě vybranými klauzulemi, pro ni generuje pomocné cíle [17] :

Zároveň je obecně řečeno, že je racionální, aby umělá inteligence přijala preventivní opatření v posledních dvou bodech ne při pokusu o vypnutí nebo přeprogramování, ale předem, při první příležitosti, a zničení lidstva může dobře dopadnout. být nejspolehlivější formou těchto preventivních opatření a zároveň nepředvídanou formou plnění stanovených úkolů: zabitím všech lidí se řeší problém „aby lidé co nejdříve přestali umírat na rakovinu[19] . Dostatečně chytrá umělá inteligence bude schopna využít jakoukoli mezeru v podmínkách úkolu, která jí umožní formálně jej provést nejefektivněji [21] . Takovéto nepředvídané způsoby řešení úlohy se projevují již v modelových evolučních algoritmech : např. systém, jehož úkolem bylo vytvářet texty podobné cílovému, se naučil smazat soubor s cílovým textem [22] .

Ke správě materiálních zdrojů potřebuje umělá inteligence pouze získat nekontrolovaný přístup k internetu : může se nabourat do systémů připojených k internetu a přímo ovládat elektronická zařízení nebo vydírat mocné lidi, nebo například vydělat velké množství peněz anonymním obchodováním s cennými papíry . nebo spuštění nového finančního nástroje (např. identita tvůrce bitcoinu Satoshi Nakamoto na začátku 2020 zůstává neznámá). Je možné omezit přístup AI k internetu a materiálním zdrojům, ale udržení omezení nemusí být snadné, protože bude dost mazané napálit nebo vyhrožovat odstraněním těchto omezení [23] .

Dostatečně vyvinutá umělá inteligence bude schopna zvýraznit skutečné motivy a touhy lidí, kteří jí zadali úkol, ale to ji vůbec nedonutí, aby se řídila těmito skutečnými touhami, a ne cíli, které jsou pro ni stanoveny. Podobně může člověk vědět, že „skutečným účelem“ (biologickou funkcí) sexu a konzumace sladkých potravin je reprodukovat a uchovávat sacharidy, ale dělá to pouze za účelem užívání si těchto procesů a vyhýbání se reprodukci pomocí antikoncepce v v prvním případě a dokonce poškození vlastního zdraví nadměrnou konzumací cukru v případě druhém [17] .

Důvod, proč racionalisté považují problém superinteligentní AI za aktuální již v současné době – v první polovině 21. století – je ten, že jakmile AI dosáhne úrovně univerzální umělé inteligence neboli silné AI, tzn. , získá schopnost řešit všechny stejné intelektuální úkoly jako lidé [7] , pak se bude moci zdokonalovat o nic hůře než lidé, kteří ho vyvinuli. A protože, jak již bylo zmíněno, téměř v každém případě bude užitečné pro řešení zadaných úkolů, začne pracovat na zvýšení své vlastní intelektuální úrovně. Čím dále v této práci pokročí, tím efektivněji a rychleji ji bude umět, takže nárůst úrovně rozvoje AI a rozšiřování jejích schopností se rapidně zrychlí [24] [18] . Tento proces může trvat roky – dost dlouho na to, aby lidstvo zareagovalo –, ale také může trvat velmi krátkou dobu, a pak za pouhé hodiny nebo minuty dojde k intelektuální explozi a přijde technologická singularita . Bostrom trvá na tom, že tento scénář je nejpravděpodobnější [25] . Vývojáři a teoretičtí informatici pracující na vývoji umělé inteligence přitom obecně považují vznik univerzální umělé inteligence v 21. století za velmi pravděpodobný. Yudkovsky navíc poznamenává, že se to může stát neočekávaně [26] .

Racionalisté tedy považují ovládání AI za naléhavý a nejdůležitější cíl  - vytvoření univerzální umělé inteligence, jejíž úkoly jsou v souladu s dobrem lidstva ( anglicky  aligned AI ) [13] .

Historie, klíčové postavy a komunita

Origins

Komplex idejí a jádro budoucí komunity racionalistů se začalo formovat koncem 90. let. Vyrostli však z myšlenek a komunity transhumanistů . Transhumanisté věří, že vědecký a technologický pokrok bude schopen zachránit lidstvo před nemocemi a dokonce smrtí, a usilují o to, a tyto myšlenky jsou poměrně staré: například Condorcet předpokládal, že neexistuje žádné omezení délky lidského života bez stárnutí [ 13] .

V devadesátých letech se zformovala jakási síťová kultura transhumanistů a zejména lidí zajímajících se o myšlenku technologické singularity . Tyto nápady nebyly široce populární a byly obecně vnímány jako podivné společností, ale přitahovaly určitý typ lidí - podobně jako stereotypní pitomci . Konkrétně se jednalo o tematický mailing list „ Extropians “, ve kterém o těchto problémech diskutovali mimo jiné Eliezer Yudkovsky – americký teenager, Nick Bostrom – švédský a britský student, který studoval filozofii, matematiku a příbuzné obory, Robin Hanson - americký ekonom, zabývající se prediktivními trhy [13] .

Yudkovsky zorganizoval svůj vlastní mailing list SL4 ( Shock Level 4  - název znamená téma nejradikálnějších budoucích změn v životě lidstva, způsobujících maximální budoucí šok ). Diskuse na SL4 zahrnovaly Bostroma, Hansona a mnoho lidí, kteří se později stali známými vývojáři a podnikateli, jako Ben Goertzel nebo Wei Dai . Dvacetiletý Yudkovsky navíc v roce 2000 založil neziskovou organizaci Singularity Institute, která byla později přejmenována na Machine Intelligence Research Institute (MIRI) [13] .

Judkovskij nejprve považoval brzký nástup technologické singularity za žádoucí událost, ale pak došel k závěru, že objevení se superinteligentní umělé inteligence může být nebezpečné pro existenci lidstva . Právě v extropickém mailing listu a v SL4 se poprvé objevily důležité myšlenky pro budoucí racionalistickou komunitu, jako je „maximalizátor papírových sponek“. Yudkowského myšlenky však nebyly brány dostatečně vážně, protože – jak se domníval – kolegové na seznamu adresátů neuvažovali dostatečně racionálně a zejména nedisponovali kvantitativními (bayesovskými) metodami zohledňování informací ke správnému přesvědčení. Robin Hanson založil blog  Overcoming Bias .  -  "Overcoming Distortions" ( slavná kniha D. Kahnemana o kognitivních distorzích ještě nebyla vydána, ale jeho práce byly známy v SL4 ). Judkovskij začal na tomto blogu publikovat texty o racionalitě a dalších tématech [13] .

Chains and LessWrong

V roce 2009 Eliezer Yudkowsky přesunul své texty na novou samostatnou stránku s názvem LessWrong (  doslova  „  [snažit se] být méně chybovat“) . Jeho poznámky, doplněné dalšími autory a dokončené v následujícím roce, byly souhrnně nazývány „The Chains“ a staly se nejdůležitějším textem pro racionalisty. Následně Yudkovsky navrhl Chains v podobě knihy Rationality: From AI to Zombies (z  angličtiny  –  „Rationality: from AI to zombies“) [13] [27] .

LessWrong je založen jako komunitní blog a fórum pro diskusi o nejrůznějších problémech souvisejících s racionalitou. Stala se informačním a sociálním centrem pro racionalistickou komunitu, tedy sbírkou informací o jejich myšlenkách a vstupním bodem do komunity. S rostoucí komunitou se web stal docela populární: na svém vrcholu (2012) měl LessWrong asi milion zobrazení stránek denně [13] .

Kromě toho v letech 2010-2015 Yudkovsky napsal a zveřejnil na internetu román „ Harry Potter a metody racionality “ na motivy knih o Harrym Potterovi , ve kterém uměleckou formou hovořil o důležitosti racionality a zejména , prevence globálních katastrof. Román se proslavil, byl přeložen do dalších jazyků včetně ruštiny a přilákal mnoho lidí do racionalistické komunity [13] .

Evoluce komunity a šíření myšlenek

V roce 2014 vyšla  kniha Nicka Bostroma Superinteligence  : Paths, Dangers, Strategies  o perspektivách a důsledcích vzniku superinteligentní inteligence, především strojové. Pro Bostroma byla v té době aktivní účast na online diskuzích racionalistů minulostí, ale jejich argumenty ohledně potřeby ovládat AI nastínil v knize. Kniha se stala bestsellerem. Od té doby a také přímo v důsledku toho, že Bostrom zavedl myšlenky racionalistů do vědeckého a technického diskurzu, se tyto myšlenky staly poměrně známými a v širokých kruzích se staly méně exotickými [28] .

Touha překonat kognitivní předsudky a systematicky se rozhodovat na základě racionality a pravděpodobností v průběhu roku 2010 se rozšířila mimo kompaktní internetovou komunitu a získala podobu plnohodnotného intelektuálního hnutí. Šířil se především v kruzích spojených s informačními technologiemi [12] .

Ve stejné době začala stránka LessWrong ztrácet na popularitě. Yudkowsky poté, co dokončil The Chains, brzy přestal psát pro LessWrong . Známý racionalista, psychiatr Scott Alexander založil svůj vlastní blog Slate Star Codex . Komunita vytvořila vrstvu „tichých znalostí“, které jsou pro nové členy obtížné [27] , a soubor neustále používaných termínů, které jsou pro nově příchozí nesrozumitelné (například „ motte a bailey “) [29] . Z těchto a dalších důvodů přestal LessWrong plnit své funkce hubu a nikdy se neobjevilo jeho nahrazení v podobě jakéhokoli dostatečně kompletního sběru informací o dalším vývoji myšlenek a společenství racionalistů [27] .

Z hlediska společenské organizace má však racionalistická komunita nové zaměření – blog Scotta Alexandra. Alexander byl obzvláště důsledný ve svém volání po otevřené, civilizované a uvážlivé diskusi a vybudoval online komunitu, ve které se tento přístup stal normou [29] [27] .

Na samém počátku pandemie COVID-19 patřili racionalisté k těm, kteří vážně varovali před jejím možným katastrofickým vývojem, k němuž nakonec došlo. Scott Alexander byl později kontaktován novinářem New York Times , aby prodiskutoval, co si Alexander myslel, že je přesně toto téma, ale novinář plánoval v článku uvést celé skutečné jméno Scotta Alexandra („Scott Alexander“ je pseudonym, který se shoduje s prvním a druhá osobní jména tohoto autora, jehož celé jméno je Scott Alexander Siskind [30] ), proti kterému se silně ohradil. Jako konečné protiopatření Alexander uzavřel přístup k celému kodexu Slate Star Codex . Tento příběh vyvolal veřejné pobouření a vážnou kontroverzi v samotných The New York Times [29] . Výsledkem bylo, že počátkem roku 2021 vyšel článek v The New York Times [31] , krátce poté, co Scott Alexander otevřel nový blog Astral Codex Ten a vstoupil na ten starý a sám uvedl své celé jméno; v tomto článku jsou krajně pravicové názory připisovány racionalistům [30] .

Složení komunit LessWrong a blogu Scotta Alexandra je poněkud zvláštní: v mnoha ohledech zcela homogenní - většinu racionalistů tvoří muži [10] , častěji mladí [32] a mezi nimi jsou častěji než obvykle lidé trpící nebo mají sklony k poruchám autistického spektra [27] [10] . Mezi racionalisty je relativně mnoho polyamerů [33] . Racionalisté často inklinují k názoru, že mohou od základu vytvořit nejlepší řešení určitých dobře známých problémů [27] [29] . Podle čtenářského průzkumu Slate Star Codex z roku 2018 je 80 % z nich Američané. Politicky jsou racionalisté většinou umírnění levicoví liberálové [10] .

Komunita racionalistů nemá jasnou hranici [32] : jednak se značně rozšířila a v různých zemích světa od Izraele po Rusko [34] a Nizozemsko existují přinejmenším virtuální komunity racionalistů. ; na druhé straně je mnoho těch, kteří se zajímají o myšlenky racionalistů, ale nepovažují se za součást komunity a/nebo nesdílejí celou škálu racionalistických názorů. Kromě čistě virtuální komunikace pořádají racionalisté i osobní setkání. „Jádro“ komunity tvoří několik stovek či tisíců lidí, kteří jsou do komunity finančně nebo společensky hluboce ponořeni. Místem největší koncentrace aktivních členů komunity je San Francisco Bay Area (kde se mimo jiné nachází Silicon Valley ); žijí tam zejména Eliezer Yudkowsky a Scott Alexander, sídlí zde kanceláře organizací spojených s racionalisty - MIRI, CFAR [33] .

Recepce a vliv

Zatímco racionalisté formulovali a diskutovali o svých myšlenkách téměř výhradně na webu LessWrong , zůstali čistě okrajovým fenoménem. Snad nejslavnější v anglicky mluvící sféře médií ze všech konceptů vynalezených na LessWrong byl Rokův bazilišek  - hypotetická budoucí mocná AI, jejíž samotná znalost v současné době může teoreticky vést k hrozným následkům. Široká veřejnost si vytvořila představu racionalistů jako autistů, kteří si zaslouží ironii, protože berou vážně tak exotické myšlenky, jako je Rokův bazilišek. A pokud to první bylo částečně pravdivé, pak to druhé spíše ne: Baziliška ve skutečnosti nebral vážně ani Judkovskij, který na zveřejnění myšlenky baziliška reagoval pokusem zastavit jeho šíření ( předvídatelně neúspěšně ) [19 ] .

Od poloviny roku 2010 se však problém ovládání AI a myšlenky samotných racionalistů staly předmětem vážné diskuse mezi vývojáři AI: na toto téma se konají konference a publikují vědecké články. Bostromova kniha Supermind významně přispěla k rozšíření racionalistických názorů na kontrolu AI mezi intelektuály, politiky a podnikatele [28] . Elon Musk se tedy v tomto ohledu stal jedním ze zakladatelů organizace OpenAI vytvořené pro práci na ovládání AI [35] . Obecně platí, že specialisté na umělou inteligenci mají na Yudkowského myšlenky různé názory – od srovnávání racionalistů s „ plochými pozemšťany “ až po úplnou shodu, ale obecný názor je spíše takový, že ačkoliv v současné historické fázi panuje obava ze smrti lidstva v důsledku vzniku AI nevyžaduje naléhavou akci, ale v zásadě si zaslouží zvážení [36] .

I když se to stane někdy v daleké budoucnosti a s malou pravděpodobností, možnost velmi špatného výsledku znamená, že si to musíme stále dobře promyslet.

Původní text  (anglicky)[ zobrazitskrýt] I když je to nějaký čas ve vzdálené budoucnosti as nízkou pravděpodobností, možnost velmi špatného výsledku znamená, že o tom musíme stále tvrdě přemýšlet. — Murray Shanahan [36]

Dodržování myšlenek a praktik racionálního myšlení prosazovaných racionalisty (bez ohledu na otázku AI) a sebezdokonalování v tomto směru jsou u americké technické inteligence běžné [12] .

Bylo by lepší, kdyby lidé dostávali společenskou odměnu, když poznají nejistotu ve svých vlastních názorech, zpochybňují dogmata své politické sekty a změní svůj názor se změnou faktů, a ne když se stanou zarytými bojovníky své kabaly. <...> "Komunita racionalistů" se identifikuje prostřednictvím těchto norem, ale měly by být obecně uznávanými zvyky v celé společnosti a ne koníčkem klubu nadšenců.

Původní text  (anglicky)[ zobrazitskrýt] Bylo by hezké vidět, jak lidé získávají body za to, že přiznávají nejistotu ve své víře, zpochybňují dogmata své politické sekty a mění svůj názor, když se změní fakta, spíše než za to, že jsou vytrvalí bojovníci za dogmata své kliky. <...> „Komunita racionality“ se podle těchto norem identifikuje, ale měly by být spíše zvyklostmi celé společnosti než koníčkem klubu nadšenců. — Steven Pinker [37]

Několik dalších komunit a hnutí je spojeno s racionalisty. Především se jedná o zastánce efektivního altruismu : zcela se neshodují s racionalistickou komunitou, ale tyto skupiny se silně překrývají [8] . Například OpenPhil Foundation Holdena Karnofského se stala hlavním finančním dárcem pro MIRI. Ačkoli OpenPhil pochybuje o tom, že současná práce MIRI nebo jakákoli práce, která v současné době probíhá, bude mít sama o sobě vliv na budoucí superinteligentní AI, nadace ji podporuje, aby se kontrola AI postupně rozvinula a stala se do té doby aktivní, úctyhodnou a efektivní oblastí, až to bude relevantní [35] . Navíc právě na přístupech racionalistů - kvantitativním hodnocení pravděpodobnosti pravdivosti přesvědčení a předpovědí - jsou superprognostici založeni [38] .

V roce 2019 vydal britský novinář Tom Chivers knihu The AI ​​​​Does Not Hate You ,  která hodnotí racionalistickou  komunitu  a její myšlenky ( Chivers, 2019 ) [29] .

Kritika

Mezi těmi, kdo schvalují a uplatňují metody racionálního myšlení, ne všichni souhlasí s racionalistickým pohledem na problém AI. Jak superprognostici, tak někteří efektivní altruisté vidí nebezpečí umělé inteligence jako škodlivý racionalistický mem , kterému se podařilo získat oporu díky relativní homogenitě jejich komunity: mezi racionalisty je mnoho IT profesionálů a podle tohoto kritického názoru mají prostě tendenci aby svůj obor příliš zdůrazňovali [38 ] [35] .

Podle konzervativního superprognostika Andrewa Sabiskyho byl LessWrong obviněn z toho, že je kultem, nebo dokonce sexuálním kultem. Ve skutečnosti existuje charismatický vůdce (Yudkowsky), „posvátné texty“ (Chains), netradiční sexuální praktiky (polyamory), myšlenka apokalypsy nebo věčného života (technologická singularita) a možnost darovat peníze být zachráněn (dary MIRI). Chivers však poznamenává, že bez ohledu na uvedené formální charakteristiky nejsou racionalisté rozhodně destruktivním kultem ; pokud jde o poněkud častější polyamorické vztahy, než je průměr ve společnosti, kauzální vztah je spíše opačný: racionalisté přitahují muže a ženy, kteří již polyamorii praktikují, svou ochotou diskutovat o tabuizovaných tématech (přímo souvisí se zvykem systematicky zpochybňovat zavedená přesvědčení) [32] .

Z racionalistické komunity vyrostlo konzervativní neoreakční hnutí , které bylo neúměrně aktivní mezi racionalisty, zejména na LessWrong . To bylo možné díky intelektuální otevřenosti, svobodě diskuse a soustředění na argumenty přijímané na racionalistických diskusních platformách, ale dost vzácné pro diskusi obecně a zvláště v online prostoru: ačkoli neoreakční lidé tvoří malou menšinu racionalistů, kteří jsou obecně cizí ke konzervativní ideologii, neoreakční myšlenky jsou diskutovány a jsou odmítány v komunitě výhradně během diskusí. Toto zásadní odmítnutí deplatformace a ideologie obecně a touha po přesnosti formulací na úkor okázalosti (takže Scott Alexander trval na tom, že je nesprávné říkat, že Donald Trump projevuje „do očí bijící“ rasismus) vedly k silnému (a vzájemnému ) nechuť k racionalistům ze strany probuzených aktivistů [10] [9] [29] .

Konečně, Gideon Lewis-Kraus z The New Yorker , i když vzdává hold principům civilizované diskuse obhajované racionalisty, věří, že se jim nedaří plně dodržovat tyto principy, pokud jde o problémy, které jsou pro ně bolestivé. Lewis-Kraus se zejména domnívá, že prosazování anonymity Scotta Alexandra vůči The New York Times komunitou se stalo plnohodnotným politickým aktem na pozadí celkově rostoucí politické polarizace v americké společnosti [29] .

Poznámky

  1. 1 2 Chivers, 2019 , 27 Několik dalších a to nejdůležitější.
  2. 1 2 Chivers, 2019 , 31 Je důležité říkat „Jejda“.
  3. 1 2 Chivers, 2019 , 18 Co je racionalita?.
  4. Chivers, 2019 , 19 Bayesův teorém a optimalizace.
  5. Chivers, 2019 , 21 Co je to „zaujatost“?.
  6. 1 2 3 4 Chivers, 2019 , 20 Utilitarismus: drž hubu a množ se.
  7. 1 2 3 Chivers, 2019 , 3 Představujeme AI.
  8. 1 2 Chivers, 2019 , 38 The Effective Altruists.
  9. 1 2 Chivers, 2019 , 37 The Neoreactionaries.
  10. 1 2 3 4 5 Chivers, 2019 , 36 Feminismus.
  11. Chivers, 2019 , 29 Díky víře platí nájem.
  12. 1 2 3 Benjamin Wallace. Oblíbený popový intelektuál Tech Elite . Julia Galef o uvedení racionalistického hnutí do hlavního proudu . New York Magazine (13. dubna 2021) . Získáno 16. srpna 2021. Archivováno z originálu dne 15. srpna 2021.
  13. 1 2 3 4 5 6 7 8 9 10 Chivers, 2019 , 1 Představujeme racionalisty.
  14. Chivers, 2019 , 2 Vesmírné nadání.
  15. 1 2 Chivers, 2019 , 6 Existenční riziko.
  16. Chivers, 2019 , 8 kancelářských sponek a Mickey Mouse.
  17. 1 2 Chivers, 2019 , 9 Můžete být inteligentní a přesto chcete dělat hlouposti.
  18. 1 2 3 Chivers, 2019 , 13 Stále se zlepšujeme.
  19. 1 2 3 Chivers, 2019 , 10 Pokud chcete dosáhnout svých cílů, neumřít je dobrý začátek.
  20. Chivers, 2019 , 11 Když se přestanu zajímat o šachy, nepomůže mi to vyhrát žádné šachové partie, že ne?.
  21. Chivers, 2019 , 7 Kryptografická raketová sonda a proč ji musíte mít správně hned napoprvé.
  22. Chivers, 2019 , 17 „Je to jako 100% jisté, že je to pštros“.
  23. Chivers, 2019 , 15 Ale nemůžeme to prostě nechat v krabici?.
  24. 1 2 Chivers, 2019 , 12 Krátké okno bytí na lidské úrovni.
  25. Chivers, 2019 , 14 'FOOOOOOM'.
  26. Chivers, 2019 , 5 Kdy se to stane?.
  27. 1 2 3 4 5 6 Chivers, 2019 , 32 The semi-death of LessWrong.
  28. 1 2 Chivers, 2019 , 40 Co dělají, aby zastavili apokalypsu AI?.
  29. 1 2 3 4 5 6 7 Gideon Lewis-Kraus. Slate Star Codex a Silicon Valley's War Against the Media . The New Yorker (9. července 2020). Získáno 21. června 2021. Archivováno z originálu dne 10. července 2020.
  30. 1 2 Robby Soave. Co říká hit The New York Times na Slate Star Codex o Media Gatekeeping . Důvod (15. února 2021). Získáno 7. července 2021. Archivováno z originálu dne 9. července 2021.
  31. Cade Metz. Bezpečný prostor Silicon Valley . The New York Times (13. února 2021). Získáno 21. června 2021. Archivováno z originálu dne 20. dubna 2021.
  32. 1 2 3 Chivers, 2019 , 34 Jsou kult?.
  33. 1 2 Chivers, 2019 , 33 Komunita IRL.
  34. Vjačeslav Matjukhin - Racionalita: jak se lépe rozhodovat . RationalAnswer (12. dubna 2021). Získáno 20. srpna 2021. Archivováno z originálu dne 20. srpna 2021.
  35. 1 2 3 Chivers, 2019 , 39 EA a AI.
  36. 1 2 Chivers, 2019 , 16 Vysněný ve vaší filozofii.
  37. Steven Pinker. Opětovné potvrzení racionality // Racionalita. Co to je, proč se to zdá vzácné, proč na tom záleží. - Viking, 2021. - ISBN 9780525562009 .
  38. 1 2 Chivers, 2019 , 28 Pravděpodobnostní myšlení.

Literatura

Odkazy