Termíny simulace a duplikace mají v úvahách kolem mysli a mozku výsadní postavení - pokusím se ukázat, že na pomyslném hřišti Artificial Intelligence kopou proti sobě dva týmy, odlišující se díky různým odpovědím na otázku, jestli lze simulaci vědomí ztotožnit s jeho duplikací.

I.

Duplikace objektu O je vytvoření takového objektu O', který má s objektem O společné všechny konstitutivní vlastnosti (slabá verze) nebo všechny netriviální vlastnosti (silná verze). Simulace objektu O je vytvoření takového objektu O', který má s objektem O společný symbolický popis sledovaných vlastností. Spor o AI se vede na úrovni slabé verze duplikace. Jaké jsou dostačující podmínky mentálních stavů? A jsou vůbec symbolicky popsatelné? Je rovněž patrné, že simulace zohledňuje potenciální symbolický popis pouze - v nejširším smyslu chápaného - chování. V definici se předpokládají sledované vlastnosti, tj. relevantní vlastnosti přístupné perspektivě 3. osoby.

II.

Komputační modelace mysli (a model je „jen“ modelem, nikoli kopií reality!) mají řadu variant.1

Stoupenci silné umělé inteligence tvrdí, že … stroj nejen simuluje lidskou schopnost rozumět, ale rovněž, (1) že o stroji se může doslova říci, že rozumí … a (2) že stroj a jeho program vysvětlují lidskou schopnost rozumět …2

Obvyklá námitka s hurikány (v našem kulturním regionu naposledy rozmělněna in: Dokulil, M., Problém „mysli a těla“, Filosofický časopis 4/2000; v koncentrovanější podobě též in: Egan, G., Prach, Ikarie 12/2000): Tak jako nelze ztotožnit hurikán a matematický model hurikánu, tak jako nelze ztotožnit dopravní (a jinou) zácpu s její počítačovou (a jinou) simulací, tak nelze ztotožnit systém, který má mentální stavy (člověk, povětšině autor, nejčastěji Searle) se systémem, který mentální stavy pouze simuluje (stroj, povětšině digitální počítač, nejčastěji Čínský pokoj). Intuice je zřejmá, ale snad se ukáže, že AI nelze tak snadno smést ze stolu.

III.

David J. Chalmers v kritické reakci na Penroseovu knihu Shadows of the Mind. A Search of the Missing Scince of Consciousness navrhuje všechny teorie mysli zařazovat podle toho, jak odpovídají na následující tři otázky:

Otázka po vztahu duplikace a simulace vědomí se vzhledem k tomuto rozlišení transformuje na spojení prvních dvou bodů:

IV.

John R. Searle a jemu podobní by odpověděli, že v žádném. Čínský pokoj prý dokonale simuluje chování („jako-že“ rozumění čínštině), ale chybí mu ono evokované vědomí (mentální stav rozumění) - a odtud ostrá distinkce mezi simulací a duplikací. Opačná pozice, obhájci AI, komputacionisté, funkcionalisté, behavioristé se vesměs shodují v tvrzení, že mezi vědomím a korektní simulací chování je poměrně úzká vazba, nejčastěji charakterizovaná jako supervenientní. Nejsilnější podoba aplikované teorie supervenience tvrdí, že jisté vlastnosti fyzikálního substrátu jsou dostatečnou i nutnou podmínkou emergence vědomí. Je zajímavé, že Searle sám je velký obhájce teorie supervenience. Na několika místech píše o „tuhosti stolu“, makroúrovňové vlastnosti, která je způsobena mikrourovňovými vlastnostmi jednotlivých elementů (atomů stolu). Píše o ontologické neredukovatelnosti makroúrovňových vlastností na kompozice mikroúrovňových a píše taky o tom, že záměna neuronálního modulu za jeho silikonový funkční ekvivalent by vyvolala nějakou změnu na makroúrovni („tančící qualia“). Zdá se, že Searle proklamuje teorii supervenience posilněnou o striktně biologický make-up (lidský mozek a pouze lidský mozek). Proč nelze v nereduktivním „supervenientním“ sestupu pokračovat i na úrovni neuronálních sítí Searle nezdůvodňuje. Neuron jako by byl dále neanalyzovatelný, je to elementární exekuční jednotka, která ovšem není plně definována svojí funkcí, ale navíc ještě jakýmsi „masem“, které ovšem není funkčně popsatelné, a tedy simulovatelné. Searle a jemu podobní musí předpokládat úroveň, která vzdoruje simulaci, úroveň, kterou nelze plně popsat symbolicky. Zmiňovaný Roger Penrose proto dokonce uvažuje o relevanci kvantových procesů při konstituci vědomí.

V.

Exekuce libovolného prvku z třídy správných programů je (dostatečnou podmínkou pro) evokování vědomí. Tak zní základní teze komputacionismu, která jako dostatečnou podmínku emergence mysli, stanovuje (a) správný program (posloupnost transpozic, komputaci), (b) správnou exekuci (implementaci programu). Fyzikální systém implementuje daný program tehdy, když kauzální struktura fyzikálního systému zrcadlí formální strukturu komputace.3 Specifičnost vědomí a jeho multirealizovatelnost bývá často demonstrována v protikladu k vyměšování (a samozřejmě k hurikánům). Vyměšování samozřejmě lze popsat jako program, jako posloupnost jistých kroků, ale to, jestli bude daný systém, který implementuje program vyměšování skutečně vyměšovat, tedy jestli bude instancí vyměšování, nezáleží na struktuře implementované komputace. Jinak je tomu v případě mentálních stavů. To, jestli systém má mentální stavy, je důsledkem implementace programu, protože vlastnost „mít mentální stavy“ se liší od vlastnosti „být schopen vyměšovat“ tzv. organizační invariantností - určitá vlastnost je organizačně invariantní tehdy, pokud zůstává zachována při změně, která zachovává strukturní topologii systému. Organizačně invariantní vlastnosti jsou důsledkem jen a pouze kauzálního uspořádání systému. Takže zatímco vyměšování a např. létání jsou vlastnosti závislé na „vnějších“ okolnostech (chemicko-biologický design v případě vyměšování; vzdálenost objektu od povrchu země v případě létání), vědomí je plně v intencích „vnitřních“ strukturních zákonitostí. Značně zlehčeno, Searla dělí od komputacionismu předpoklad, že vědomí a vyměšování mají společného víc, než se na první pohled zdá - a to specifický fyziologický kontext.

Teze AI se samozřejmě netýkají toho, že procesy, které leží pod (podporují, „underlying“) inteligencí mohou být popsány symbolicky, ale toho, že tyto procesy jsou symbolické.4

Searle vrací úder a tvrdí, že nezpochybňuje tvrzení, že každá vědomá mysl je realizací programu, protože chování jakéhokoli systému lze přepsat jako posloupnost nějakých transpozic („jako-že“ vědomí je simulovatelné). S čím nesouhlasí, je stanovisko, že tento program (byť patřičně implementován) konstituuje mysl. To by prý totiž znamenalo, že zdi jeho domu myslí. Připadá vám tato myšlenka absurdní? Searle zde využívá vlivného Putnamova argumentu (Representation and Reality, 1988), který tvrdí, že pokud by vědomí bylo definováno jako nutný důsledek implementace programu, pak, vzhledem k tomu, že téměř každý trochu složitější hmotný objekt implementuje při vhodné interpretaci téměř každý program, každý složitější hmotný objekt, tedy i zeď, má vědomí.

Rekapitulace argumentu: Mějme program, který předepisuje, že když je systém ve stavu q1, má se přesunout do stavu q2, a mějme libovolný, dostatečně složitý objekt. Lze nalézt takové zobrazení, že ve sledovaném čase, vždy, když se objekt nacházel ve stavu q1, po něm následoval stav q2. Problém s aplikabilitou Putnamova argumentu je ten, že mění podmínky přechodů mezi stavy (q1 a q2) způsobem, který neodpovídá definici implementace. Korektní přechod totiž musí být závislý a kontrafaktuální. Nestačí, aby byl ve sledovaném čase každý výskyt q1 následován q2; zadaný přechod do q2 se musí odehrát vždy, když bude systém ve stavu q1 - tedy: kdyby byl systém ve stavu q1, přešel by do stavu q2. Zdi Searlova domu tedy mohou myslet, ale pouze v případě, že budou patřičným způsobem implementovat správný program.

VI.

Na první pohled jednoduše zodpověditelná otázka po vztahu simulovaného a duplikovaného nabývá v kontextu teorie mysli specifického vyostření do úvah o roli behaviorálních kritérií při identifikaci lidské mysli. Zatímco Searlova pozice biologického naturalismu umožňuje duplikovat vědomí pouze při současné duplikaci jedinečného fyziologického kontextu, pro komputacionisty znamená konstatovaný rozdíl mezi simulací a duplikací vědomí pouze to, že se buď nepodařilo simulovat vědomí nebo vědomí simulovat. Strašidlo behaviorismu znovu obchází Evropu, neboť simulace a duplikace vědomí je v komputacionistické perspektivě totéž.

 

POZNÁMKY

1 Dokulil, M., Problém "mysli a těla". Filosofický časopis 4/2000, s. 571.

2 Searle, J. R., Minds, Brains and Programs. Behavioral and Brain Sciences vol. 3, s. 418.

3 A physical system implements an inputless FSA in a given time-period if there is a mapping f from physical states of the system onto formal states of the FSA such that: for every formal state-transition P – Q in the specification of the FSA, if the physical system is in a state p such that f(p)=P, this causes it to transit into a state q such that f(q)=Q.

4 Haugeland, J., Artificial Intelligence. A Bradford Book, 1985.