Psychologia bez psyche, o umyśle sztucznej inteligencji

Ludwig Wittgenstein twierdził, że „Gdyby lew umiał mówić, nie moglibyśmy go zrozumieć", cytat ten rozumieć można jako wstęp do rozważań na temat pozornie nie związany – AI. W dyskursie na temat AI utrzymuje się często, nawiązując do analogii chińskiego pokoju, że obdarzony zdolnościami językowymi system sztucznej inteligencji nie rozumie sensu podawanych mu i odtwarzanych przezeń znaków. Nawet jeśli sztuczna inteligencja - w porównaniu z ludzkim umysłem - pozostanie wybrakowana, warto zastanowić się dlaczego.
Opublikowano: 10 października 2025

Książka „Psychologia sztucznej inteligencji” jest zaproszeniem do rozważań na temat natury owej zdolności i przełożeniem ludzkich kompetencji na grunt sztucznych sieci neuronowych. Okazuje się, że badanie inteligencji i potencjału ludzkiego mózgu jest utrudnione przez latentny charakter inteligencji oraz intuicyjność użytkowania, można by powiedzieć, „sprzętu” obliczeniowego, z którym się urodziliśmy. Chociaż mózg nie ma problemu z wykonywaniem całego wachlarza niesamowitych czynności, nie potrafi do końca opisać sposobu, w jaki one zachodzą. Co więcej opis wielowarstwowej kory mózgowej, podział jej części na motoryczne, percepcyjne i asocjacyjne nie oddaje w pełni, rozbudzonego zapachem mokrej ściółki leśnej, wspomnienia harcerskiego obozu sprzed siedmiu lat.

Inteligencja wyślizguje się z rąk badaczy mimo rozwinięcia metod jej badania.

Testy IQ, choć powszechnie stosowane, czy to do wsparcia procesu edukacji, czy uzasadnienia społecznych nierówności, okazują się niewystarczające, by w pełni oddać wielorakość rodzajów inteligencji. Podążając za podziałem inteligencji zaproponowanym przez Roberta Stenberga, na inteligencję kreatywną, praktyczną i analityczną, zorientować się można, że przynajmniej początkowo sztuczna inteligencja zdaje się dorównywać człowiekowi. Programy takie jak Dall-E wspaniale radzą sobie z generowaniem obrazków w sposób, który można by nazwać kreatywnym, a sposób konstrukcji programów analitycznych, mimo mniejszej od ludzkiego mózgu ilości neuronów radzi sobie z analizą złożonych systemów zależności między danymi. Kwestia praktyczna pozostaje kwestią sporną.

W swojej książce Tony Prescott poświęca czas na porównanie konstrukcji sztucznych sieci neuronowych i ludzkiego mózgu, które mimo wielu podobieństw w obszarze hierarchiczności i ogólnej organizacji funkcji zbliżonej do tych obecnych w systemach obliczeniowych, przejawiają pewne różnice. Jedną z nich jest hybrydowość efektów wywoływanych przez substancje chemiczne w mózgu, mających właściwości urządzeń analogowych (stopniowość lub ciągłość procesów) i cyfrowych (włączanie lub wyłączanie urządzenia).  

W ramach funkcjonalizmu założyć można, że różnice architektoniczne nie mają znaczenia tak długo, jak pozostają efektywne i praktyczne. Ponadto, podążając za myślą Alana Turinga „każde urządzenie, które może obliczać dane liczbowe, jest w stanie w zasadzie naśladować każde inne”. A sztuczna inteligencja najwyraźniej naśladuje inteligencję bardzo dobrze. Począwszy od dekodowania obrazów, przewidywania ruchów szachowych mistrzów po prowadzenie samochodów, tworzenie klasterów słów zbliżonych znaczeniowo. Według licznych badaczy zdolność chatów nie wykracza jednak poza naśladownictwo, zwłaszcza w kwestiach językowych. Argumentuje się to brakiem cielesnych doświadczeń oraz znajomością siatki połączeń między wyrazami a nie ich realnym rozumieniem.

Ludzie mają trudność z zaakceptowaniem braku swojej wyjątkowości – zarówno interpersonalnie jak i intergatunkowo. Antropocentryzm i zwykły egoizm wzmacniają przekonania supremacyjne i wtórnie prowadzić mogą do zaostrzania opresji. Wracając do cytatu Wittgensteina lew pozostałby niezrozumiany ze względu na znaczną rozbieżność rzeczywistości doświadczanej przez niego i ludzi. Co jednak z robotami?

Przytoczona w książce hipoteza fizycznego systemu symboli rzuca nowe światło na kryteria aplikowane wobec maszyn mających być uznane za inteligentne. W ramach tej teorii działanie maszyny jest inteligentne jeśli uznane byłoby za takie, gdyby wykonawcą był człowiek, a maszyna musi mieć w tym celu zdolność do przechowywania i manipulacji materiałem symbolicznym. Mimo licznych testów w kręgach antyfunkcjonalistów uznaje się, że materiał używany przez AI jest subsymboliczny, a jakościowa odmienność inteligencji sztucznej i biologicznej wraz z bardziej dynamiczną niż obliczeniową naturą ludzkiego mózgu skutecznie uniemożliwiają uznanie obecnych LLM za inteligentne.

Doświadczenia użytkowników, sposób w jaki ludzie zwracają się do Chata GPT sugerują jednak odmienny stan rzeczy i udowadniają silną tendencję do antropomorfizacji. Być może, zdjąwszy ludzi z piedestału i uznawszy ich nie tylko za zwierzęta ale też biologiczne roboty, możliwe będzie przyjęcie perspektywy cyberfizycznej. Być może to połączenie funkcji biologicznych umożliwiających bezpośredniość doświadczeń z możliwościami analitycznymi okaże się czynnikiem wystarczającym i koniecznym do inteligentnego działania.
Książka Tonego Prescotta to idealny wstęp do poszerzenia rozumienia konceptu inteligencji oraz rozpoczęcia własnych rozważań. Istotnym aspektem rozwoju i inteligencji maszyn zdaje się być rola języka. Używanie skomplikowanych struktur językowych może być też użyte jako oznaka i trop inteligencji. Jednocześnie postrzeganie i kategoryzowanie rzeczywistości pozostaje w dużej zależności od jej semantycznego opisu. Test Turinga i jego ulepszone alternatywy mają ułatwić rozpoznanie świadomości i inteligencji, lecz są tylko ludzkimi narzędziami obarczonymi uprzedzeniami ich twórców. Z tego względu wyznaczenie granicy między podmiotem nią obdarzonym a przedmiotem, który ją skutecznie imituje, pozostaje kwestią sporną i zawiłą. Kiedyś zdolność do liczenia uznawano za przejaw inteligencji, ale obecnie nikt nie uważa, że kalkulator jest inteligentny, a tym bardziej świadomy.
Czy kiedykolwiek maszyna osiągnie poziom umiejętności pozwalający na uznanie jej za inteligentną? I kto o tym zdecyduje? Myśl, że ludzka inteligencja jest najwyższą formą uprawiania myślenia, zakorzeniona jest w antropocentrycznym poglądzie na świat. Chociaż obecne procesy poznawcze zachodzące w komputerach nie przypominają tych ludzkich, nie możemy wykluczyć, że kiedyś się doń upodobnią. O ile w ogóle jest im to do czegoś potrzebne.

To pytania na razie pozostające bez odpowiedzi, lecz dociekanie w tych kwestiach zdaje się mieć niebagatelne znaczenie dla kształtowania się naszej wspólnej rzeczywistości. Być może to Czytelnik znajdzie na nie odpowiedź…

 

Autorka: Aleksandra Maryniak

 

Funduszepleu
Projekt Multiportalu UŁ współfinansowany z funduszy Unii Europejskiej w ramach konkursu NCBR