Ce inseamna sa "intelegi" si de ce un AI nu poate intelege absolut nimic
Exista in ziua de astazi o serie de discutii pe seama a ceea ce noi numim "inteligenta artificiala". Si in aceste discutii exista o multime de oameni neatenti, care folosesc termeni umani precum "AIul a inteles" sau "AIul stie" pentru seria de computatii careia noi i-am dat denumirea "AI" (Artificial Intelligence).
Cognitie
Cei care fac astfel de confuzii si care iau in serios ideea ca un AI "gandeste" doar pentru ca produce un output sunt un pericol pentru o gandire rationala asupra a ceea ce se intampla de fapt. Ceea ce se intampla de fapt este ca avem acelasi hardware pe care il aveam si in trecut - in principiu aceleasi procesoare si placi grafice pe care rulam aceste abstractii software pe care le denumim "AI" si care abstractizeaza limbajul uman (spre deosebire de jocuri video, muzica sau alte lucruri). Toate aceste lucruri nu au nicio legatura cu cognitia, fiind simple simulari si abstractizari.
OK, dar ce ne face pe noi sa spunem ca noi avem cognitie si calculatorul, nu? Raspunsul este simplu: avem experiente directe. Acesta este punctul de plecare. Cu alte cuvinte, avem experiente subiective, si putem face un argument abductiv prin care sa acceptam faptul ca si alte persoane au experiente subiective ca noi, pentru ca au structuri foarte similare si comportamente foarte similare cu noi. Nu ajungem la solpisism (ideea ca doar tu existi si restul oamenilor sunt doar simulari in mintea ta) din simplu fapt ca solipsismul presupune asumptii aditionale (asumptia ca ceilalti oameni au structuri si comportamente similare cu ale tale dar sunt simple simulari) si deci solipsismul este mai putin probabil sa fie corect din simple motive de parsimonie (vrei ca asumptiile tale sa fie cat mai simple si cat mai putine ca numar, iar solipsismul face asumptii aditionale insubstantiate).
Metacognitie
In plus, pe langa cognitie (pe langa faptul ca avem experiente subiective si putem gandi/face rationamente pe baza lor) avem ceea ce se cheama "metacognitie". Putem reflecta recursiv la continutul gandirii noastre. Stim ceva. Si stim ca stim ceva. Si stim ca stim ca stim ceva. Si tot asa la infinit, in principiu.
Sa luam niste exemple concrete ca sa intelegem mai bine despre ce e vorba. Sa presupunem ca avem de rezolvat o problema de matematica, o ecuatie de gradul doi, sa zicem. Stiind foarte bine (hopefully) care este algoritmul de rezolvare, dupa ce ne uitam putin peste problema spunem "gata, stiu cum se rezolva!". Ce inseamna asta, mai exact? Inseamna ca avem experienta subiectiva a procesului de rezolvare - ne imaginam cum urmeaza sa o abordam si sa o rezolvam, pas cu pas. Daca este o problema simpla, putem face acest lucru din minte sau chiar putem avea raspunsul imediat (fara sa stim initial exact cum am ajuns la el). Este posibil sa rezolvi o problema si sa nu stii imediat cum ai ajuns la acel raspuns dar stii ca poti veni cu explicatia procesului respectiv in scurt timp.
Cum, mai exact? Si ce inseamna asta? Dupa parerea mea, ceea ce se intampla este ca un proces mintal din afara egoului (a procesului mintal cu care te identifici) a rezolvat problema si apoi a interactionat cu egoul de asa natura incat egoul "stie" ca problema este rezolvata. Continutul acelui proces este apoi reflectat metacognitiv in ego astfel incat sa poti descrie cum ai rezolvat problema, pas cu pas. Dar stii de dinaintea acelui proces metacognitiv ca problema a fost rezolvata, chiar daca nu poti spune imediat cum - ai avut experienta constienta de rezolvare a problemei, doar nu o poti descrie imediat metacognitiv - nu poti spune exact cum ai facut, pana nu reflectezi asupra ei, pas cu pas. A "sti" inseamna integrarea rezolvarii problemei in ego si se simte precum acel "evrika moment".
Ceva similar se intampla si atunci cand spui "simt ca trebuie sa..." sau cand faci o mutare la sah pe care nu o poti explica exact - nu poti spune exact de ce ai luat acea decizie. In realitate atunci cand actionezi intuitiv ceea ce se intampla este ca exista un proces mintal care "impinge" in egoul tau prin "metafore mintale" care se simt intr-un anumit fel, si acele "metafore" te determina sa iei respectivele decizii. Tot asa si atunci cand faci mutari la sah - nu ai reflexia metacognitiva asupra lor (sa poti spune altora de ce le-ai facut), dar procesul care le determina "impinge" in ego prin acele "metafore mintale" care se simt in felul "cred ca trebuie sa mut regina aici".
Ca un exemplu mai concret despre ceea ce vreau sa spun, acum multi ani am facut un curs de rocket science cu Jeffrey Hoffman, astronautul desemnat sa repare telescopul Hubble. Intr-una dintre lectii a povestit cum intr-o zi l-a luat somnul in Statia Spatiala Internationala. Si a avut un vis: se facea ca alerga spre un mare incendiu. Multi oameni fugeau de incendiu si il atentionau sa fuga, sa se adaposteasca, dar el continua sa alerge spre incendiu. Si se facea din ce in ce mai cald, si focul devenea din ce in ce mai mare, atmosfera era innabusitoare, de iad. Asa de cald se facuse incat s-a trezit din cosmar. Cand s-a uitat in jur a vazut ca o carpa plutise in imponderabilitatea din statia internationala si acoperise ventilatorul care impingea oxigen in cabina lui - murea axfisiat. Desigur, a dat carpa la o parte si a supravietuit. Dar ce e interesant la acest caz este metafora prin care mintea lui a comunicat catre ego - acel incendiu si caldura resimtita si oamenii care alergau sa scape de incendiu erau modul mintii sale de a reprezenta faptul ca ramanea fara oxigen - acestea sunt "metaforele mintale" la care faceam referire. Uneori procesele mintale disociate de ego comunica cu egoul prin metafore, care se simt in diferite moduri (deja-vu, nostalgie, intuitie si asa mai departe). Abia atunci cand reflectam metacognitiv asupra acelor decizii in ego putem descrie catre altii de ce am luat respectiva decizie (uneori nici atunci, pentru ca nu putem interpreta exact metaforele mintale despre care am vorbit).
Calculatorul
Un AI nu are nimic din toate aceste lucruri. Un AI nu este altceva decat un set de computatii care produc un rezultat - o abstractizare a unor procese utile pentru noi. Un AI nu este un subiect, pentru ca stim ca un subiect are anumite proprietati: este un proces metabolic autosustinut care creste in complexitate divizandu-se (cu alte cuvinte, este o fiinta vie). Un calculator nu este nimic de acest fel. A crede ca un calculator are astfel de proprietati este ca si cum ai confunda un manechin cu un om doar pentru ca arata la fel.
Cum AIul nu este un subiect, nu poate "avea" niciun fel de "intelegere" a nimic, pentru ca "sti" si a "intelege" sunt experiente subiective, nu computatii. Sigur, putem vorbi metaforic si spune "AIul a inteles ce vreau de la el" sau "AIul stie cum sa rezolve problema mea", dar niciodata nu ar trebui sa uitam ca sunt doar metafore pentru "seria de computatii pe care o voi declansa cand apas pe ENTER dupa ce scriu promptul cel mai probabil va produce un output util pentru problema pe care incerc sa o rezolv". Trebuie doar sa fim atenti sa nu uitam ca nu exista un AI ca "subiect" care sa "inteleaga" sau sa "stie" orice si ca vorbim strict metaforic cand folosim aceste verbe.
Animale
De ce sunt aceste lucruri importante? Pentru ca altfel intelegerea realitatii este denaturata - ajungem sa credem ca exista un AI constient doar pentru ca afiseaza un anumit comportament (fara sa ne uitam si cum e el construit), sa ne complicam viata dand drepturi unor manechine si, in general, sa nu intelegem pozitia ridicola in care ne aflam cand facem toate aceste lucruri - ajungem sa vorbim despre cum este AIul constient si ce drepturi sa aiba cand omoram sute de miliarde de animale in fiecare an. Ba mai mult, exista oameni care cred ca "animalele nu sunt constiente", ca sunt un fel de "roboti inconstienti". Cei care emit astfel de enunturi nu sunt in stare sa diferentieze constienta de metaconstienta, avand o intelegere foarte limitata a lucrurilor. Desigur ca animalele sunt constiente - cu certitudine simt durere, chiar daca nu pot reflecta asupra ei asa cum o facem noi, prin metaconstienta. Un animal, chiar si foarte simplu, este infinit mai constient decat orice AI, pentru ca AI are constienta 0 si orice numar impartit la zero da infinit. Si, deci, orice animal este metafizic infinit mai valoros si mai legitim decat orice AI, doar prin simplu fapt ca are experiente si poate sa sufere.
Concluzie
Concluzia este ca ar trebui sa fim mai atenti la asumptiile noastre metafizice atunci cand folosim diferite verbe precum "intelege" sau "stie" in contextul unui AI. Ele nu pot fi decat metafore, nimic mai mult de atat. Eforturile noastre ar trebui sa se concentreze pe fiintele constiente, nu pe seriile de computatii pe care noi le denumim "AI".
Comentarii