În 1980, John Searle a propus, în lucarea sa de referință “Minds, Brains and Programs”, un ingenios experiment mental care avea să devină celebru. Acesta și-a închipuit următorul scenariu: să spunem că un vorbitor de engleză, care nu cunoaște limba chineză, s-ar afla într-o cameră singur, complet izolat de lumea externă. În aceasta cameră, cineva din exterior ar strecura niște notițe cu inscripții în limba chineză, inscripții pe care protagonistul nostru nu ar avea cum să le înțeleagă. Totodată, alături de aceste notițe, protagonistului i s-ar oferi și niște instrucțiuni scrise în limba engleză prin care i s-ar comunica cum ar trebui manipulate simbolurile din chineză pentru a putea transmite în exterior un răspuns corect, în limba chineză. Situația, cu câteva simplificări, s-ar prezenta în următorul mod:

chinese-room.jpeg
Sursa: aim

Experimentul a rămas consacrat sub numele de „Camera chinezească a lui Searle”, din rațiuni evidente. Prin acesta, autorul a ridicat la fileu niște întrebări cât se poate de interesante: „Când putem spune despre o entitate că înțelege informațiile pe care le procesează?”, „Ce înseamnă și din ce derivă capacitatea de a înțelege?”, „Se poate susține o analogie între mintea umană și modul în care funcționează programele computerelor?”, sau, mai direct, „Pot gândi computerele digitale?”. În cazul ultimelor două întrebări, răspunsul lui Searle pare a fi un ferm și răspicat „nu”.

Obiectivul experimentului

În anii ’80, computaționalismul domina filozofia minții. De asemenea, majoritatea cercetătorilor care lucrau în domeniul inteligenței artificiale aderau la această teorie. Computaționalismul presupunea, în tușe extrem de groase, că mintea noastră funcționează asemenea unui computer digital, prin manipulare de reprezentări, sub forma transformării inputurilor în outputuri. Termenul de „computare” a fost folosit inițial de către Alan Turing pentru a descrie mecanismele unei mașini Turing, capabilă să realizeze orice funcție cu ajutorul unui algoritm, ajungând să fie preluat ulterior de cercetători din varii domenii, precum psihologia, neuroștiințele, filozofia, informatica etc. Trebuie menționat aici faptul că, la fel ca orice teorie sau familie de teorii, computaționalismul se prezintă sub diferite forme: unele mai radicale, altele mai cumpătate. În forma lui cea mai radicală, computaționalismul susține că mintea este doar computație. În formele sale mai modeste, acesta poate susține că anumite procese ale minții au la bază computația, diferenţiind, în funcție de autor, care sunt acele procese.

Experimentul propus de Searle vine ca reacție împotriva computaționalismului radical, care susține că mintea noastră se poate reduce la computații sau, în alte cuvinte, că mintea noastră se aseamănă întru totul unui program. Sigur, în cultura mainstream, computaționalismul radical nu ne este străin, căci foarte multe filme și seriale abordează tema încărcării minții într-un calculator (Black Mirror fiind cel mai cunoscut). Searle își propune să demonstreze o ipoteză extrem de interesantă, anume faptul că dintr-un sistem pur sintactic nu poate deriva o semantică. Adică, dintr-un sistem ce operează cu simboluri conform unor reguli formale nu poate lua naștere sensul.

După el, toate computerele digitale sunt sisteme pur sintactice, care funcționează într-un mod similar cu cel al camerei chinezești. Acestea nu înțeleg sensul informațiilor pe care le procesează, la fel cum nici vorbitorul de limba engleză nu înțelege chineza. Ceea ce reușesc ele să facă este să execute anumite operații (stabilite de programator) în funcție de forma unor secvențe de cod introduse. Astfel, nu putem spune că ele posedă intenționalitate, adică însușirea de a avea stări mentale despre obiecte, de a avea credințe, dorințe și intenții1, cu toate că, la fel ca în scenariul camerei chinezești, comportamentul lor poate imita comportamentul unei entități care posedă intenționalitate. Căci, nu-i așa, ca observatori externi ai camerei chinezești, noi putem avea impresia că individul ce se află în interior cunoaște limba chineză, având în vedere că transmite în exterior doar răspunsuri corecte. Dar, în realitate, acesta nu înțelege sensul cuvintelor pe care le primește și, respectiv, transmite. După Searle, o teorie a minții care nu explică intenționalitatea este o teorie eronată a minții, fiindcă oamenii, prin structura lor, au stări intenționale; ei înțeleg sensul reprezentărilor cu care operează.

Alternativa propusă de Searle

În locul computaționalismului radical, Searle propune o alternativă, cred eu, mult mai rezonabilă, anume faptul că mintea nu este un program care ar putea fi rulat pe orice suport compatibil, ci un produs al creierului, dependent de structura sa biologică. Conform teoriei sale, puterile cauzale ale creierului sunt suficiente pentru a explica intenționalitatea: dacă, să spunem, am avea un creier în cuvă și am reuși să replicăm toate procesele biologice care au loc la nivelul său atunci când vede un copac, fără ca acest creier să fie întrupat și să vadă cu adevărat un copac, acesta ar avea, în continuare, experiența vizualizării unui copac, experiența înțelegerii faptului că vede un copac, experiența susținerii unor credințe despre copacul cu pricina etc2. Astfel, înțelegerea modului în care operează creierul la nivel structural și reproducerea proceselor în cauză par a fi suficiente pentru a asigura intenționalitatea, pe când replicarea minții sub forma unui program care procesează inputuri și le transformă în outputuri după niște reguli precise nu pare a fi suficientă.

Contraargumentul înaintat de Jerry Fodor

Jerry Fodor este de acord cu Searle cu privire la faptul că încă nu putem spune despre computerele digitale că gândesc, deci că au stări intenționale, cel puțin pentru moment. Acest lucru se petrece deoarece nu putem stabili încă care sunt relațiile cauzale potrivite între obiectele externe unui subiect și simbolurile operate de mintea acelui subiect. Computerele nu pot avea stări intenționale deocamdată, deoarece stările intenționale presupun asocierea unui simbol mental cu un element exterior subiectului. Oamenii fac acest lucru în mod intuitiv, dar, pentru a face un computer să realizeze așa ceva, trebuie să-l programăm conform formulei care reprezintă relația potrivită dintre simbol și referent, formulă pe care nu am descoperit-o încă, dar cu ajutorul căreia oamenii operează în mod inconștient. De asemenea, trebuie să dotăm respectivul computer cu receptori, pentru a putea fi conectat la mediul extern. Astfel, pentru Fodor, mintea se reduce cu adevărat la un program complex, care procesează inputuri și generează outputuri în funcție de niște reguli, reguli pe care încă nu le cunoaștem cu precizie. Problema, pentru el, se rezumă la o problemă de semantică: „ce asigură proprietățile semantice ale unui simbol?”3. Odată cunoscut răspunsul la această întrebare, putem să programăm computerele în funcție de el și să asigurăm intenționalitatea astfel. Trebuie să precizez aici că Fodor este un adept al computaționalismului clasic, care, așa cum precizează Piccinini4, susține că există un limbaj al gândirii, cogniția rezumându-se la manipularea, asemănătoare cu cea desfășurată de o mașină Turing, a unor structuri lingvistice.

Cauza divergenței de opinii dintre cei doi

Modul în care cei doi definesc intenționalitatea stă la baza opiniilor lor diferite. Pentru Fodor, intenționalitatea este produsă, cel puțin în parte, de cauze externe. Ea constă în stabilirea unei relații cauzale între un obiect extern și reprezentarea sa mentală, relație care asigură semantica reprezentării mentale. Mai simplu spus, intenționalitatea constă în a știi că atunci când spun „câine” mă refer la un câine real, care există în afara mea, adică înțeleg conținutul structurii lingvistice. Searle înțelege intenționalitatea ca o stare produsă de componentele interne ale creierului, a cărei existență este independentă de mediul extern, dar ale cărei condiții de adevăr sunt dependente de mediul extern. Adică halucinațiile produc intenționalitate, dar ele sunt false, deoarece nu există niciun corespondent în lumea reală al conținutului lor. Această diferență de definiții este esențială în disputa dintre cei doi, căci ea stă la baza celor două moduri diferite de cercetare a minții propuse de aceștia: de sus în jos, cum propune Fodor, plecând de la modul în care mintea funcționează, sau de jos în sus, după cum propune Searle, plecând de la modul în care creierul funcționează.

De ce s-ar putea ca Searle să aibă dreptate

După cum susține și el în articolul în care răspunde criticilor5, chiar dacă am stabili relația cauzală potrivită între obiectele mediului extern și reprezentările lor mentale, dacă această relație ar fi un dat, “a matter of fact6”, ea nu ar putea să asigure o interpretare a obiectelor. Scenariul s-ar transpune în următorul mod: am avea un robot care, atunci când receptorii săi vizuali ar recepta un câine și ar transpune acest eveniment în limbaj binar, ar putea face conexiunea între informațiile oferite de receptorii vizuali și secvența din limbaj binar corespunzătoare pentru „câine”. Astfel, ar corela două secvențe diferite, dar de aceeași natură, în funcție de o regulă. Nu s-ar produce înțelegerea, deoarece aceasta ar presupune ca robotul să fie măcar într-un oarecare fel conștient de legătura dintre simbol și referent7, să aibă, deci, o oarecare formă de conștiență.

Desigur, dacă experimentul mental propus de Searle a arătat ceva, a arătat doar care sunt limitele computaționalismului radical. Se prea poate ca alte forme mai moderate ale aceleași teorii să reziste acestei obiecții. În orice caz, computaționalismul și, cu atât mai mult, computaționalismul radical, nu este singura teorie a minții articulată de către filozofi și cercetători. Existe multe alte modele interesante care nu se aseamănă deloc acestuia (teoria sistemelor dinamice, spre exemplu). Dar despre ele voi scrie mai mult cu altă ocazie.

 

NOTE

  1. Parafrază după definiția inteționalității propusă de Searle, Searle, John R. “Minds, Brains, and Programs.” Behavioral and Brain Sciences 3, no. 3 (1980): 417–24. https://doi.org/10.1017/s0140525x00005756, p.424.
  2. Parafrază a: Searle, John R. “Author’s Response” Behavioral and Brain Sciences 3, no. 3 (1980): 450–56. https://doi.org/10.1017/s0140525x00005756, p. 452.
  3. Parafrază a: Fodor, J. A. “Searle on What Only Brains Can Do.” Behavioral and Brain Sciences 3, no. 3 (1980): 431–32. https://doi.org/10.1017/s0140525x00005823, p.431.
  4. Piccinini, Gualtiero. “Computationalism in the Philosophy of Mind.” Philosophy Compass 4, no. 3 (2009): 515–32. https://doi.org/10.1111/j.1747-9991.2009.00215.x, p. 521
  5. Parafrază a: Searle, John R. “Author’s Response” Behavioral and Brain Sciences 3, no. 3 (1980): 450–56. https://doi.org/10.1017/s0140525x00005756, p. 454.
  6. Ibidem.
  7. Ibidem.

 

Imagine: Rene Magritte – „The False Mirror” (1928); Sursa: Flickr


Mai multe despre:
image_pdf

Dacă v-a plăcut articolul pe care tocmai l-ați citit, puteți să sprijiniți printr-o donație următoarele texte pe care le pregătim pentru dumneavoastră, accesând:
Oana Voiculescu este studentă la Facultatea de Filosofie din cadrul Universității din București. Interesele sale vizează mai multe domenii, printre care estetica, filozofia antică, psihologia, neuroștiințele și neuroetica, teatrul și biologia. Ușor haihuie și cu o curiozitate ieșită din matcă, crede în puterea umorului și a modestiei.

Scrieți un comentariu

Adresa dumneavoastră de email nu va fi publicată.