Sztuczna Inteligencja – objawienie ezoteryczne — (POLEMIKA)

Czy miałem zakodowane gdzieś w głowie, że jeśli pojawi się ten właśnie artykuł „Mózg to nie komputer – stworzenie Sztucznej Inteligencji nie będzie możliwe„, to go skomentuję? Raczej nie, a mimo to piszę. Dlaczego piszę, skoro nic na to nie wskazywało – nie było żadnego śladu pamięciowego, który wyzwoliłby we mnie chęć napisania polemiki?

Olbrzymia sieć komórek nerwowych, czyli mózg, podrażniany chemicznie przez różnego rodzaju enzymy akurat tu i teraz, i w moim przypadku uzyskał odpowiednią mieszaninę tychże, które zablokowały wstyd i obawę przed publicznym wystąpieniem, dodały pewności siebie i zmotywowały do tego, by odpisać, a nawet odpisać starannie, oraz zablokowały wszystkie inne priorytety zaplanowane na dzisiejszy dzień. Oto przelewam myśli na drukowane litery. Czy posługuję się pamięcią? Też nie, bo mimo wielu przeczytanych książek, znajomości ortografii, interpunkcji i stylistyki, to w pierwszej wersji napisane słowa są nieuczesane. Jedynie zakreślają problem, a dopiero później zastanawiam się, czy napisane są poprawnie, czy czyta się je w rytmie, czy akapity rozdzielają poszczególne myśli.
Mózg, jeśli się nad tym zastanowić, jest systemem neuroprzekaźników zanurzonym w laboratorium chemicznym. Ale to nie wszystko. Mózg potrafi się uczyć i posiada do tego celu mnóstwo odbiorników i nadajników. Odbiorniki takie jak wzrok, słuch, węch, dotyk oraz nadajniki jak głos, mimika, cały układ ruchowy są środkami komunikacji dwustronnej o niesamowitej wręcz precyzji. Dociera do nas niewyobrażalna ilość informacji o ogromnej rozdzielczości, na które reagujemy na niewyobrażanie dużą ilość sposobów. W każdej sekundzie.
Mózg – u noworodka – jest gotowy, by przetwarzać bodźce właśnie z tych odbiorników i reagować właśnie za pomocą tych nadajników. Gdy małemu dziecku jest zimno, lub gorąco, gdy boli je brzuch, gdy jest głodne – to płacze. Ale po pewnym czasie, gdy zacznie kontrolować sygnały zewnętrzne i nadajniki, to ubierze się samo, rozbierze, albo podejmie decyzję o nie wychodzeniu na zewnątrz, pokaże gdzie boli, wyciągnie kabanosa z lodówki, itd.
Czy nauczony mózg jest inny od takiego nauczonego? Nie fizycznie, aczkolwiek proces uczenia zapewne modyfikuje strukturę mózgu – czego na marginesie nie mogą odnaleźć badacze.

Jaki to ma związek ze sztuczną inteligencją?

Paradygmatem jest, że przede wszystkim sztuczna inteligencja fizycznie istnieje. Realizuje procesy decyzyjne – daje wynik (w prawdzie w postaci liczby) określający prawdopodobieństwo zdarzenia z bardzo dobrym przybliżeniem sięgającym nawet ponad 99%.
Ale na początek dobrze jest wyobrazić sobie czym ona, sztuczna inteligencja, w ogóle jest. Otóż fizycznie i upraszczając jest to program, który potrafi modyfikować swoje właściwości w zależności od pozyskanych danych. W praktyce, jest to zbiór podfunkcji ułożonych w długie warstwy wejściowe (przyjmujące dane), kilka warstw tych samych lub podobnych podfunkcji pod nimi odpowiedzialnych za zapamiętywanie i rząd podfuncji odpowiedzialnych za przedstawienie wyniku. Te podfunkcje mogą komunikować się ze sobą w dół i w górę.

Co to potrafi i czym jest „mózg” mózgu sztucznej inteligencji? Na sucho: to zestaw parametrów uzyskanych w procesie uczenia. Brzmi niewyobrażalnie, na razie. Jednak nauczenie programu symulującego sztuczną inteligencję rozpoznawania liczb napisanych odręcznie na kartce w kratkę o wymiarach 16×16 jest obecnie zadaniem trywialnym, akademickim i każdy (lub prawie każdy) programista zalicza to zadanie na kolokwium. Zadanie to jest jednak o tyle trudne, że trzeba zaprojektować odpowiednią strukturę takiego mózgu. Strukturę która będzie się uczyła. Strukturę, która przez „nieskończone” iteracje kiedyś załapie, o co chodzi w danych uczących. To ze względu na strukturę modelu nie wiadomo, czy efekt uczenia będzie zadowalający. Samo uczenie nie odbiega niczym od uczenia dziecka: nie dotykaj, bo się poparzysz, nie baw się nożem, 6×7 daje wynik 42. W przypadku komputerów powtarzanie tych samych poleceń następuje setki tysięcy razy po sobie. Plansza 16×16 z zaznaczonymi na czarno, a nawet szaro kwadracikami, powtórzona programowi setki tysięcy razy powoduje, że program nauczy się rozpoznawania liczb.

110362

A czym jest wiedza? Podfunkcje mają dwie ważne właściwości: wagę i bias.

Waga odpowiada za ważność informacji, a bias odpowiada za to jak bardzo „leniwa” jest podfunkcja. To też przybliżenie, bo w zasadzie jedna podfukncja ma wiele wag, bo jedna waga odpowiada „prawdomówności” podfunkcji powyżej. To jakby rejting plotkarek – niektóre są bardziej wiarygodne, a inne mniej. A bias odpowiada za sceptyczność – czasem można się w coś zaangażować i, przy niskim biasie, traktować każdą teorię spiskową za prawdopodobną, a przy skrajnie wysokim biasie na odwrót – nie interesować się żadną z teorii spiskowych.

Wynikiem treningu „sztucznej inteligencji” jest zestaw wag i biasów powstały w procesie uczenia. To jakby zestaw norm etycznych i skłonności w realnym życiu. Czym jest uczenie się? Jeśli włożysz widelec do gniazdka i porazi Cię prąd, to o wiele szybciej nauczysz się, by tego nie robić, niż zrozumienie formułki „nie wkładaj nic do gniazdka”. Sztuczna inteligencja jest zaprogramowana tak, by w przypadku porażki przekazywać informację zwrotną o błędzie. Nie jest to cyfrowy elektrowtrząs zmieniający tok myślenia. To po prostu niewielka korekta przekazywana wyższym warstwom od niższych. To jak wskaźnik dyscypliny panujący w klasie. Dlatego też sztuczna inteligencja uczy się wolniej – a w zasadzie potrzebuje tysięcy powtórzeń – wskaźnik dyscypliny jest na tyle niski, by cały model zachowywał się poprawnie – poprawnie, czyli uczył się w stopniu zadowalającym i by nie doprowadził do anarchii, czyli zupełnego rozregulowania.

Czym nie jest sztuczna inteligencja?

Niestety i na szczęście jest to tylko zestaw wag i biasów dla danej topologii. Nauczona zestawem danych i skorygowana błędami poprawia swoją skuteczność. Czyż nie jest podobna do szkolnego nauczania znanego z rzeczywistości, przecież wagi są jak prawdomówność źródła, biasy są jak sceptycyzm do informacji, duża liczba powtórzeń jest podstawą edukacji, karanie za złą odpowiedź jest formą autokorekty.

Wesprzyj Fundację Dziennikarską mediumpubliczne.pl

Sztuczna inteligencja jednak nie dorasta do zwykłej inteligencji z powodu organicznej liczby bodźców i ograniczonych sposobów reakcji. Jak wspomniałem wcześniej, ilość doznań zmysłowych mózgu jest niepoliczalna, a komputer ma na wejściu tylko obraz 16×16. Wiele modeli sztucznych inteligencji nie przeszło próby miliardów powtórzeń nauki i nigdy nie uzyskało pożądanego efektu. Bo albo sieć była za mała, albo dane niewystarczająco duże, albo wskaźnik nauczania był nieprawidłowy.

Nauczanie sztucznej inteligencji, to wielokrotne próby odtworzenia jakiegoś małego skrawka mózgu. W większości skazane na porażkę. I to nie porażka, którą można odczuć tu i teraz. Program – ucząc się – przetwarza dane przez kilka, kilkanaście godzin lub kilka dni. Porażka przychodzi z kilkudniowym opóźnieniem. Po tym trzeba eksperyment zacząć od nowa. A my mamy od urodzenia gotowy model – mózg. Przez lata ewolucji przystosowywany do zarządzania wzrokiem, słychem, ruchami. Jak nam się zechce, to pohuśtamy się na huśtawce, możemy też napawać się kolorem czerwonego sportowego samochodu, ale gdy spotka nas nieszczęśliwe zdarzenie i spadniemy z huśtawki, albo zobaczymy wóz strażacki w akcji, to możemy uznać zarówno zabawkę jak i kolor samochodu, za niebezpieczeństwo.

Ależ się nakręciłem pisząc te słowa. Przez moment myślałem, że przyniosę ludziom światło objawienia. A zacząłem pisać – na samym początku – gdy nakręcił mnie temat i pierwszy akapit. Niestety później okazało się, że w zasadzie nie mam interlokutora, bo temat zszedł w ezoterykę.

red. admin_mp
Chcesz napisać polemikę? Wyślij swój tekst na kontakt@mediumpubliczne.pl
Czy zgadzasz się z tezą artykułu? NieTak (Ocena: +3, liczba głosów: 5)
Loading...
The following two tabs change content below.

Paweł Miechowiecki

Ostatnie wpisy Paweł Miechowiecki (zobacz wszystkie)