Mózg to nie komputer – stworzenie Sztucznej Inteligencji nie będzie możliwe

https://www.flickr.com/photos/126293865@N04/

Im bardziej Puchatek zaglądał do chatki prosiaczka, tym bardziej go tam nie było. Podobnie jest z badaniami nad mózgiem: im bardziej naukowcy zaglądają w jego strukturę, tym bardziej nie ma tam komputera. A nawet – można by rzec – nie ma nic.

Wielu badaczy mózgu ciągle jeszcze spodziewa się, że znajdą kedyś ślady pamięciowe – np. zapis piątej symfonii Bethovena, albo słowa „koszula” lub jakiegokolwiek innego słowa, lub obrazu twarzy, zasad gramatycznych czy w ogóle czegokolwiek. Ale tam tego nie ma.

Robert Epstein jest psychologiem na American Institute for Behavioral Research and Technology w Kalifornii. Napisał 15 książek i był redaktorem naczelnym Psychology Today. Oryginał artykułu ukazał się tu: Aeon – The Empty Brain Tekst tłumaczył z angielskiego Rafał Betlejewski.

Nasze mgliste wyobrażenia o tym, jak funkcjonuje mózg mają swoją ciekawą historię – ale wynalezienie komputerów w latach 40 ubiegłego wieku wprowadziło wiele zamieszania. Od tego czasu psychologowie, lingwiści, neurolodzy i inni eksperci żyją metaforą mózgu jako wielkiego i skomplikowanego komputera.

Żeby błyskawicznie pojąć, jak niemądra jest ta metafora, wystarczy zastanowić się nad działaniem mózgu dziecka. W wyniku ewolcji, ludzkie maluchy, tak jak i noworodki wszystkich innych gatunków ssaków, przychodzą na świat gotowe do funkcjonowania. Dziecko widzi niewyraźnie, ale zwraca natychmiastową uwagę na twarze i szybko zaczyna rozpoznawać matkę. Woli dźwięk ludzkiego głosu od innych dźwięków niewerbalnych i szybko zaczyna odróżniać poszczególne głoski. My ludzie, bez wątpliwości, jesteśmy zbudowani by funkcjonować z innymi.

Zdrowy noworodek jest także wyposażony w conajmniej dwanaście natychmiastowych odruchów – gotowych wzorów zachowań, koniecznych dla przetrwania. Odwracamy głowę w stronę obiektu pocierającego nasz policzek i włączamy odruch ssania. Wstrzymujemy oddech, gdy zostaniemy wrzuceni do wody. Mamy uścisk tak silny, że prawie podtrzymuje nasz własny ciężar. No i mamy wbudowaną potężną siłę uczenia się, co pozwala nam się błyskawicznie zmieniać i przystosowywać do świata, który nas otacza.

Wesprzyj Fundację Dziennikarską mediumpubliczne.pl

Zmysły, odruchy i umiejętność uczenia się – oto z czym zaczynamy – a to bardzo wiele. Gdyby zabrakło któregoś z tych elementów, nie mielibyśmy szans.

Wymieńmy jednak to, z czym się NIE rodzimy: nie rodzimy się z informacjami, danymi, zasadami, oprogramowaniem, wiedzą, słownikami, odwzorowaniami, algorytmami, modelami, pamięcią, obrazami, procesorami, symbolami i buferami – czyli wszystkim tym, co pozwala działać komputerom. Nie tylko, że się z nimi nie rodzimy, to i nie wykształcamy tych rzeczy w późniejszym życiu. Nigdy.

Nie przechowujemy w pamięci słów i zasad ich użycia. Nie tworzymy reprezentacji obrazów, które widzimy, nie zapisujemy ich w pamięci operacyjnej i nie utrwalamy następnie na twardych dyskach. Nie odzyskujemy następnie tych danych z zapisanych baz. Komputery to robią, ale nie my.

Komputery rzeczywiście przeliczają i zapisują, używają algorytmów. Operują na matematycznych reprezentacjach świata. Rzeczywiście przetwarzają informacje. Mają też coś, co jest fizyczną pamięcią i rzeczywiście opierają się na algorytmach. Jednakże ludzie tak nie funkcjonują: nigdy nie funkcjonowali w ten sposób i nigdy nie będą tak funkcjonować. Pytanie więc, skąd takie przywiązanie świata naukowego do metafory komputera?

W książce pt. „Na nasze podobieństwo” (In Our Own Image, 2015) specjalista od sztucznej inteligencji George Zarkadakis opisuje sześć różnych metafor, których ludzie używali w przeszłości do przedstawienia sposobu działania mózgu.

W najwcześniejszym, przedstawionym jeszcze w Biblii, ludzie zostali stworzeni z gliny, którą następnie inteligentny Bóg natchnął duchem. Ten duch nas ożywił i stanowił siłę umysłu.

Wynalezienie inżynierii hydraulicznej w 3 wieku przed Chrystusem zaowocowało medelem hydraulicznym naszego umysłu – to przepływ różnych płynów przez nasz organizm – tzw „humorów” – sprawiał, że żyliśmy. Ten model funkcjonował przez blisko 1600 lat poważnie ograniczając możliwości rozwoju medycyny.

W wieku szesnastym pojawiła się metafora automatu poruszanego przez sznurki i zębatki, którą wyrażali najwięksi filozofowie jak choćby Kartezjusz, uznający człowieka za maszynę. W wieku siedemnastym brytyjski filozof Thomas Hobbes zasugerował, że myślenie jest wynikiem drobnych mechanicznych poruszeń w mózgu. W wieku osiemnastym odkrycie elektryczności i chemii spowodowalo wytworzenie nowej metafory umysłu, a w połowie dziewiętnastego wieku niemecki fizyk, Hermann von Helmholtz, porównał mózg do telegrafu.

Każda z tych metafor odzwierciedlała swoją epokę i jej nawiększe osiągnięcia. Dość naturalnym więc zjawiskiem było, że w latach czterdziestych, wraz z wynalezieniem komputerów, uznano, że mózg funkcjonuje jak komputer, w którym materia mózgowa to hardware a myśli to software. Kamieniem węgielnym tej metafory była książka „Język i komunikacja” (1951) psychologa Georga Millera – od której liczy się epoka tzw „nauk kognitywnych”. George Miller ogłosił wtedy, że umysł może zostać ściśle opisany z zastosowaniem praw teorii informacji, obliczania i lingwistyki.

Ten sposób myślenia został podniesiony do poziomu religii w pracy Komputer i Mózg (1958), w której matematyk John von Neumann stwierdził wprost, że funkcjonowanie mózgu jest oparte o przetwarzanie danych cyfrowych. Przyznawał co prawda, ze niewiele ciągle wiadomo o tym, jaką rolę odgrywa mózg w rozumowaniu i zapamiętywaniu – nie przeszkadzało mu to jednak w tworzeniu daleko idących paraleli pomiędzy działaniem komputerów i umysłu.

Pomysł został pociągnięty dalej i dziś mamy sytuację taką, że tysiące naukowców na całym świecie przyjmują teorię „komputerową” jako punkt wyjścia do swoich badań. A te badania pochłaniają mnóstwo wysiłku i pieniędzy, powstają setki opracowań i popularnych książek. Przykładem może być książka Raya Kurzweila (2013) pt. „Jak wytworzyć umysł: Sekret myślenia rozszyfrowany”, w której autor wyjaśnia, w jaki sposób działają algorytmy zawarte w mózgu, jak mózg „przetwarza” dane, a nawet w jaki sposób struktury mózgowe przypominają struktury matematyczne.

Metafora komputerowa zdominowała nasze myślenie o mózgu zarówno w rozmowach na ulicy jak i w laboratoriach naukowych. Właściwie nie da się teraz przeprowadzić jakiejkolwiek debaty na ten temat bez odwołania się do tej metafory. Dokładnie tak samo, jak w kręgach religijnych nie da się przeprowadzić rozmowy bez odwołania się do metafory ducha i boga.

Ale metafora komputerowa jest tylko metaforą – czyli sposobem na przedstawienie czegoś, czego właściwie nie rozumiemy. I tak jak z poprzednimi metaforami, los tej metafory jest przesądzony – albo zostanie zastąpiona przez kolejną, albo rzeczywiście zaczniemy coś rozumieć.

Mylna logika metafory komputerowej

Mylna logika metafory komputerowej jest dość łatwa do wykazania: opiera się na fałszywym sylogizmie z dwoma słusznymi założeniami i fałszywą konkluzją. Słuszne założenie nr 1: wszystkie komputery wykazują elementy inteligencji. Słuszne założenie nr 2: wszystkie komputery są przetwornikami informacji. Fałszywa konkluzja: wszystkie stworzenia, które wykazują inteligencję są przetwornikami informacji.

Pomysł, że ludzkie umysły są przetwornikami informacji dlatego, że komputery są przetwornikami informacji jest – powiedzmy to uczciwie – dość głupi i kiedy już metafora komputerowa zostanie odrzucona, będziemy na nią spoglądać tak samo pobłażliwie, jak dziś patrzymy na metaforę hydrauliczną. Powstaje pytanie: dlaczego model komputerowy jest tak trwały i narzucający się? Oraz jaką cenę płacimy za trzymanie się tego wyobrażenia?

Na zajęciach ze studentami często przeprowadzam pewien eksperyment: wybieram studenta, którego proszę o narysowanie banknotu jednodolarowego – tak dokładnie, jak to możliwe z pamięci. Zabieram pierwszy rysunek, podaję studentowi taki banknot i proszę o ponowne narysowanie dolara. Następnie porównujemy oba rysunki.

Oto rysunek z pamięci, wykonany przez studentkę Jinny Hyun:

dolar 1

A oto rysunek, który powstał, gdy Jinny mogła patrzeć na oryginał dolara:

dolar 2

Jinny była tak samo zaskoczona różnicą pomiędzy rysunkami, jak Ty teraz. Jak widać pierwszy rysunek dramatycznie odstaje od drugiego, choć przecież Jinny widziała dolara tysiące razy.

Na czym polega problem? Czyżbyśmy nie mieli obrazu dolara zapisanego na twardym dysku naszej pamięci? Czyżbyśmy nie mogli po prostu wydobyć obrazu dolara, by go właściwie narysować? Wygląda na to, że nie. Wygląda też na to, że nawet za tysiąc lat neurologia nie odkryje miejsca, w którym taki obraz dolara mógłby być przechowywany, gdyż takiego miejsca po prostu nie ma.

Badania nad mózgiem pokazują nam, że całe rejony mózgu, a czasami nawet cały mózg jest aktywizowany do najprostszych zadań pamięciowych. Kiedy dochodzą silne emocje, miliony neuronów jest wzbudzanych. Pomysł, że ślad pamięciowy jest zapisywany w poszczególnych neuronach jest obsurdalny. W jaki sposób miałby powstawać taki ślad w komórce!? Jak niby miałoby to działać?

Co się wydarza, gdy Jinny rysuje dolara z pamięci? Gdyby nigdy wcześniej nie widziała banknotu, zapewne jej pierwszy rysunek w ogóle nie przypominałby drugiego. Ale fakt, że widziała dolara w jakiś sposób ją zmienił. Jakoś na nią wpłynął. Jej mózg zmienił się w taki sposób, że mogła zwizualizować banknot – albo powiedzmy tak: Jinny mogła ponownie doświadczyć oglądania banknotu dolarowego i dać temu rysunkowy wyraz. Oczywiście jest to wyraz bardzo niedoskonały.

Doświadczenie z dotlarem pokazuje, że wizualizowanie sobie czegoś, co nie istnieje jest dużo mniej dokładne, niż widzenie czegoś, co się przed nami znajduje. Dlatego właśnie jesteśmy dużo lepsi w rozpoznawaniu przedmiotów, niż w ich odtwarzaniu. Kiedy sobie coś przypominamy musimy ponownie „wytworzyć” doświadczenie obcowania z tym czymś – jednak gdy coś rozpoznajemy musimy zaledwie uświadomić sobie, że coś takiego już widziliśmy.

Można by argumentować, że Jinny nie była przygotowana do narysowania dolara i że gdyby wiedziała, że czeka ją takie zadanie, nauczyłaby się dolara i od razu namalowała rysunek drugi. OK, ale nie zmienia to faktu, że żaden dolar nie zostałby zapisany na jej twardych dyskach, po prostu „byłaby nauczona” rysowania dolara, tak jak pianista jest wyuczony odgrywania koncertu szopenowskiego bez „wdrukowywania” sobie w twardy dysk zapisu nutowego.

Powiedziawszy to wszystko moglibyśmy zacząć budować wyobrażenie umysłu jako czegoś pustego – a w każdym razie pozbawionego metafory komputerowej. Moglibyśmy przyjąć, że pamięć to zmiana całej konfiguracji mózgu.

W trakcie życia nieustannie doświadczamy, a każde z tych doświadczeń ma pewien wpływ na całość naszego funkcjonowania. Podstawą są tu doświadczenia trzech rodzajów: 1) obserwujemy świat dookoła; 2) łączymy sygnały nieistotne z sygnałami mającymi znaczenie; 3) jesteśmy nagradzani bądź karceni za swoje zachowanie.

Efektywność naszego funkcjonowania związana jest z umiejętnością przyswajania tych doświadczeń.

Nikt nie wie, w jaki sposób mózg zmienia się pod wpływem doświadczenia – np. co się dzieje w mózgu po tym, jak nauczyliśmy się recytować wiersz. Wiemy natomiast, że mózg się zmienił w taki sposób, że możemy teraz wyrecytować wiersz, czego wcześniej nie umieliśmy. Gdy wychodzimy na scenę, by go wyrecytować, jego zapis nie zostaje w jakiś sposób odtwaorzony z dysku, tak jak i ruchy palcami nie są odtwarzane z dysku. Po prostu – to my recytujemy – żadne odtwarzanie nie zachodzi.

Spójrzmy na taki przykład: oto piłkarz jest w stanie wcelować nogą w piłkę lecącą z szybkością 60 km/h i posłać ją w odpowiednim kierunku z jeszcze większą szybkością (u Ronaldo to nawet 130 km/h). Jak to możliwe? Gdyby przyjąć metaforę komputerową, w głowie Ronaldo musiałby powstać skomplikowany matematyczny model lotu piłki dotyczący kątów w przestrzeni, rotacji, szybkości itd. a następnie to wszystko musiałoby zostać przeliczone i przetworzone na własne ruchy piłkarza.

Gdybyśmy funkcjonowali jak komputery, to może i tak by było. Ale Michael McBeath z Uniwersytetu w Arizonie dał prostsze wytłumaczenie: Ronaldo po prostu porusza się w taki sposób, żeby utrzymywać piłkę w ciągłej wizualnej relacji z otoczeniem (bramką i trybunami), co jest w sumie dość proste i nie wymaga żadnych obliczeń. Krótko mówiąc, Ronaldo jest w doświadczeniu, które łączy go z rzeczywistością bez konieczności dokonywania symbolicznych reprezentacji.

Kurzweil, Stephen Hawking i neurolog Randal Koene, pośród wielu innych, przewidują, że ludzki umysł jest jak software, który wkrótce będzie można „zrzucić” na dysk, co pozwoli nam na uzyskanie niezwykłych nowych mocy i umiejętności. Na tym koncepcie oparł się film Transcendencja (2014) z Johnny Depem, w którym zawartość mózgu naukowca zostaje „zrzucona” do internetu, co przynosi straszne konsekwencje dla całej ludzkości.

Na szczęście coś takiego nigdy nie będzie możliwe, gdyż metafora komputerowa jest po prostu nieprawdziwa. Nie chodzi tylko o to, że nie istnieją żadne banki pamięci, do których można by się było dobrać, ale jest jeszcze inny problem: nazwijmy go unikatowością poszczególnych umysłów.

Skoro każdy z nas nieustannie zmienia się pod wpływem swoich małych i dużych doświadczeń trudno byłoby twierdzić, że jakiekolwiek doświadczenie może dwoje ludzi zmienić w ten sam sposób. Jeśli pójdziemy razem na koncert Joy Division, wpływ jaki to doświadczenie będzie miało na mnie i na Ciebie będzie zapewne całkiem różny. Wynika to z tego, że każde z nas ma inną konfigurację mózgu stworzoną przez miliony małych oddziaływań, jakie wystąpiły w naszych głowach niezależnie od siebie.

Już w 1932 roku sir Frederic Bartlett pokazał, że nie ma dwóch osób, które potrafią opowiedzieć identycznie historię, która została im przedstawiona. Nie powstała nigdy żadna kopia historii w ich głowach. Raczej każda z osób została w jakiś sposób odmieniona przez historię, która została im opowiedziana – do tego stopnia, że każda z nich (tydzień, miesiąc, rok później) potrafi odtworzyć doświadczenie słuchania historii choć na własny sposób i coraz bardziej niedokładnie.

Każdy z nas jest wyjątkowy. I jest to w sumie przygnębiająca myśl dla kogoś, kto chciałby modelować umysł. Każde małe doświadczenie może wpływać na miliony neuronów w mózgu, a nawet na cały mózg, który i tak był całkiem inny przed chwilą od każdego innego mózgu.

Nawet gdybyśmy potrafili zarejestrować stan wszystkich 90 miliardów neuronów w mózgu w jakimś danym momencie, taki obraz byłby bezwartościowy poza ciałem, w którym powstał. Dane zapisywane  w komputerach nie zmieniają się z czasem, nawet po wyłączeniu prądu. Natomiast w mózgu wszystko jest płynne i ustaje wraz z ustaniem życia. Co więcej, by zrozumieć coś z takiego obrazu mózgu, musielibyśmy mieć zmiany stany neuronów od początku życia danej osoby, wraz z kontekstem społecznym, w jakim powstawały.

Proszę sobie tylko wyobrazić takie zadanie! Musielibyśmy nie tylko zarejestrować stan 90 miliardów neuronów, oraz ich 100 bilionów połączeń, ale także zmienną siłę tych połączeń, stan i obecność 1000 białek otaczających neurony, oraz wszystkie zmiany jakie w tym środowisku zachodzą. Do tego dochodzi unikatowość każdego mózgu. W niedawnym artykule w New York Times, neurolog Kenneth Miller napisał, że „potrzebne będą stulecia, by w ogóle cokolwiek pojąć z samych połączeń między neuronami”.

Jesteśmy ludźm, nie komputerami. Trzeba spróbować sobie o tym przypomnieć. Próbujmy poznwać mózg, ale bez kajdanów, jakie narzuca nam model komputerowy. Od 50 lat ten model nie dał nam żadnego prawdziwego wglądu w naturę naszych umysłów. Czas chyba nasisnąć DELETE.

Chcesz napisać polemikę? Wyślij swój tekst na kontakt@mediumpubliczne.pl
Czy zgadzasz się z tezą artykułu? NieTak (Ocena: +13, liczba głosów: 47)
Loading...
Główne zdjęcie artykułu pochodzi z portalu www.flickr.com
Autor: UCI Research