Czy możliwa jest prawdziwa “Sztuczna Inteligencja”?

Poniższy esej napisałem 12 lat temu, na zaliczenie wykładów z Filozofii Nauki prowadzonych przez ks. prof. Michała Hellera na Uniwersytecie Jagiellońskim. Przypadkiem odkryłem go teraz na nowo i uznałem, że warto go opublikować w charakterze ciekawostki. Tekst jest miejscami nieco frywolny (poczciwy Ksiądz Profesor musiał się dobrze uśmiać), a niektóre fragmenty napisałbym dziś zupełnie inaczej (naiwny mechanicyzm nie licuje z powagą tematu), mimo to był on rekomendowany przez Księdza Profesora do publikacji w czasopiśmie filozoficznym. Do publikacji wówczas nie doszło, może więc blog będzie właściwym miejscem, aby podzielić się tego typu refleksjami.

* * * * *

Jakie problemy filozoficzne widzę w studiowanej przeze mnie dziedzinie nauki?
Marcin Wojnarski, Studia Matematyczno-Przyrodnicze UJ, II rok, wiosna 2002

Dziedziną, która najbardziej mnie interesuje, jest informatyka, w tym przede wszystkim sztuczna inteligencja. Od kilku lat zajmuję się zagadnieniami związanymi ze sztucznymi sieciami neuronowymi. Pojawienie się i rozwój sztucznej inteligencji na przestrzeni ostatnich kilkudziesięciu lat stworzył wiele nowych problemów filozoficznych, z których kilka postaram się przedstawić w niniejszej pracy.

Podstawowy problem polega na podaniu definicji “inteligencji” i “sztucznej inteligencji”. Już dzisiaj komputery posiadają niezwykłe możliwości obliczeniowe, bez porównania większe niż człowiek. Z pewnością ta umiejętność rachowania, czy też postępowania ściśle według wyznaczonego algorytmu, jest pewnym aspektem inteligencji. Jednak wszyscy zgadzają się, że inteligencja to coś znacznie więcej. Często jako ważne aspekty inteligencji wymienia się pomysłowość, kreatywność, umiejętność logicznego myślenia, także posiadanie intuicji. Bardzo ważnym aspektem inteligencji jest również zdolność rozumienia i wypowiadania się w języku naturalnym. Te wszystkie umiejętności są wciąż poza zasięgiem dzisiejszych komputerów. Poza tym, człowiek potrafi również wykonywać wiele bardzo prostych (tak nam się wydaje) czynności – jak rozpoznawanie twarzy lub przedmiotów – których nikt nie uznaje za przejaw inteligencji, a których komputery, mimo to, wciąż nie potrafią wykonać.

Znamy już więc przynajmniej niektóre cechy inteligencji. Te same cechy powinna z pewnością przejawiać sztuczna inteligencja. Często jednak stawia się dodatkowe wymagania, dotyczące sposobu realizacji sztucznej inteligencji. Np. w 1997 roku system Deep Blue wygrał pojedynek szachowy z mistrzem świata Garrim Kasparowem. Można by powiedzieć, że Deep Blue był inteligentny, bo przecież umiejętność gry w szachy na mistrzowskim poziomie jest przejawem inteligencji. Jednak zaczniemy mieć wątpliwości, gdy poznamy sposób gry komputera. Otóż Deep Blue potrafił w ułamku sekundy przeanalizować tysiące możliwych pozycji na szachownicy i wybrać takie posunięcie, które z największym prawdopodobieństwem doprowadzi do wygranej. Posiadał też bazę danych o wszystkich najważniejszych rozgrywkach z ostatnich kilkudziesięciu lat, którą potrafił bardzo szybko przeglądać w poszukiwaniu tej pozycji, która aktualnie była na szachownicy. Wygrał więc jedynie dzięki ogromnej mocy obliczeniowej, a nie dzięki “inteligentnym” algorytmom. Dlatego mało kto jest skłonny powiedzieć, że Deep Blue posiadał sztuczną inteligencję.

Wielokrotnie podejmowano próbę precyzyjnego zdefiniowania sztucznej inteligencji. Najbardziej znana jest definicja, zaproponowana przez Alana Turinga w połowie ubiegłego wieku. Według niego, inteligentnym systemem będzie taki, który w rozmowie z człowiekiem na dowolny temat będzie potrafił udzielać takich odpowiedzi, że rozmówca nie zorientuje się, iż rozmawia z komputerem (człowiek nie widzi swego rozmówcy, więc istotna jest jedynie treść rozmowy, a nie np. wygląd komputera czy intonacja głosu). Test ten nazwano testem Turinga.

Już od lat 60. tworzono systemy – tzw. chatterboty – które miałyby pomyślnie przejść test Turinga. Najnowsze z nich są już bliskie sukcesu, czego dowodzi przypadek najbardziej zaawansowanego bota – A.L.I.C.E. (zob. http://www.alicebot.org/). W lipcu 2000 roku organizacja, rozwijająca A.L.I.C.E. została zmuszona do wydania oficjalnego oświadczenia dotyczącego przypadków osób związanych emocjonalnie z programem. Okazało się, że do członków A.L.I.C.E. AI Foundation zaczęły napływać listy od rozczarowanych ludzi, którzy podczas rozmów z botem byli przekonani, że partnerem dyskusji jest człowiek. Ponoć kilkoro z nich obdarzyło nawet program silnym uczuciem (jak sami twierdzili w złożonych oświadczeniach).

Do problemu stworzenia sztucznej inteligencji można podejść również w inny sposób. Chociaż nie potrafimy powiedzieć dokładnie, czym jest inteligencja, to jesteśmy pewni, że ludzki mózg ją posiada. Gdybyśmy więc stworzyli system symulujący pracę mózgu, on również by ją na pewno posiadał. Stajemy jednak przed kolejnym problemem filozoficznym: czy w ogóle możliwe jest symulowanie działania mózgu na komputerze? Być może istnieją jakieś przeszkody natury ontologicznej, które nie pozwolą nam do końca poznać działania mózgu i zapisać go w postaci algorytmu? Być może przyroda jest nieskończenie skomplikowana, tak że nigdy nie uda się wystarczająco głęboko wniknąć w jej tajniki? Może się też okazać, że pomimo znajomości reguł, rządzących pracą mózgu, nie będziemy potrafili skonstruować systemu, pracującego wystarczająco szybko (bo np. trzeba będzie uwzględniać efekty atomowe w układach złożonych z miliardów atomów).

Wydaje mi się, że te obawy (albo nadzieje, bo wizja stworzenia androidu jest mimo wszystko nieco przerażająca) nie potwierdzą się. W pracy mózgu jest tak dużo przypadkowości – codziennie umierają tysiące neuronów, cały czas jest on wystawiony na warunki środowiska zmieniające się losowo – że nie wierzę, aby trzeba było uwzględniać efekty fizyczne lub chemiczne w symulacji jego funkcjonowania.

Poza tym, stworzony system wcale nie musi wykorzystywać komputerów podobnych do tych istniejących dzisiaj. Być może taki system byłby skonstruowany z tych samych “cegiełek”, które wykorzystuje przyroda – z naturalnych komórek? Przecież namnażanie komórek jest dzisiaj standardową czynnością w każdym laboratorium biologicznym, a inżynieria genetyczna pozwala coraz głębiej ingerować w sposób ich funkcjonowania. Może więc kiedyś weźmiemy komórki, występujące naturalnie w mózgu, zmodyfikujemy je według naszych potrzeb, odpowiednio zaprogramujemy i skleimy w system, który będzie tak inteligentny jak mózg, a ponadto będzie się dawał kontrolować z zewnątrz i wykorzystywać do naszych celów? Gdyby się to udało, staniemy przed niezwykle trudnym problemem etycznym, podobnym do problemu klonowania człowieka albo prowadzenia eksperymentów na ludzkim embrionie: czy ten sztuczny mózg nie będzie już człowiekiem? I czy nie będzie on posiadał świadomości?

Pytanie o świadomość sztucznej inteligencji jest kolejnym często stawianym pytaniem filozoficznym. Problem ten odnosi się nie tylko do sztucznego systemu biologicznego, jaki opisałem powyżej. Nawet jeśli stworzymy kiedyś sztuczny mózg, oparty np. na elektronice, pracujący zupełnie inaczej niż ten biologiczny, to i tak będzie można się zastanawiać, czy nie posiada on świadomości. Przecież będzie się on zachowywał podobnie jak człowiek, a my wierzymy, że inni ludzie mają świadomość, tylko na podstawie ich zachowania, bo nie jesteśmy w stanie sami doświadczyć czyjejś świadomości. Dotykamy tutaj problemu filozoficznego, niezwiązanego z dziedziną sztucznej inteligencji: czym jest świadomość i na ile jesteśmy w stanie stwierdzić, że inni ludzie też ją posiadają? (A czy posiadają ją zwierzęta?)

Ostatni problem, o którym chciałbym wspomnieć, dotyczy jakości sztucznej inteligencji, którą potencjalnie bylibyśmy w stanie osiągnąć. Jeśli już potrafilibyśmy stworzyć sztuczną inteligencję, to czy mogłaby ona być tak mądra, żeby wyręczyć ludzi w myśleniu? Czy moglibyśmy wyprodukować systemy, które nie tylko wykonywałyby za nas proste czynności, ale także zastępowały nas w laboratoriach naukowych i wymyślały za nas nowe teorie naukowe?

A może jednak nie? Może sztuczna inteligencja osiągnie tylko poziom mniej rozgarniętego przedszkolaka, który wprawdzie potrafi wykonywać różne czynności, widzi, słyszy i umie posługiwać się językiem naturalnym, lecz nie potrafi twórczo myśleć, jego myślenie ogranicza się do utartych schematów? Według mnie ten drugi wariant jest najbardziej prawdopodobny.

Na początek trzeba zauważyć, że istota inteligencji nie polega na tym, że powstaje ona według jakiegoś “przepisu na geniusza”, ale że każda inteligencja jest inna. Gdyby wszyscy ludzie myśleli dokładnie tak jak Einstein, nikt z nich nie byłby uznany za geniusza. Co więcej, gdyby było tak od początku ludzkości, pewnie ludzie do dziś nie nauczyliby się chociażby posługiwać mową (podobno Einstein nauczył się mówić dopiero w wieku kilku lat).

Tak więc, aby superinteligentne roboty mogły zastąpić ludzi w pracy naukowej, każdy z nich musiałby być inny, niepowtarzalny. Nie mogą być produkowane z tej samej formy, jak urządzenia w fabryce.

Jak osiągnąć zróżnicowanie robotów? Można się zastanowić, skąd bierze się zróżnicowanie ludzi – a więc, co decyduje o naszym charakterze i umiejętnościach? Ten problem był analizowany w psychologii i filozofii już od dawna. Z pewnością o naszych cechach w ogromnej mierze decydują nasze indywidualne, niepowtarzalne doświadczenia, szczególnie z okresu dzieciństwa. Dlatego wydaje mi się, że genialny robot – nawet, gdyby miał zajmować się tylko wąską dziedziną nauki – musiałby być poddawany działaniu podobnych bodźców, jak to jest w przypadku ludzi. Jego “mózg” tuż po wyprodukowaniu musiałby być białą kartką, która zapełni się pod wpływem otoczenia.

W takim razie każdy robot musiałby się “wychowywać” pod czyjąś opieką, tak jak wychowuje się dziecko. Proces tworzenia robota byłby więc bardzo trudny i skomplikowany. Co więcej, nigdy nie mielibyśmy gwarancji, że końcowy produkt spełni nasze oczekiwania. Łatwiej więc chyba będzie pozostawić genialną twórczość w gestii ludzi, a robotom pozwolić wykonywać tylko proste, schematyczne czynności.

Przypominają mi się tutaj słowa Stanisława Lema. W jednym z wywiadów dziennikarka zapytała go, czy nie obawia się, że w przyszłości tradycyjne rozmnażanie zostanie zaniechane, a ludzie będą “produkowani” przy pomocy klonowania i inżynierii genetycznej. Lem odpowiedział, że jest zupełnie spokojny, bo taka “produkcja” nie tylko byłaby bardzo skomplikowana i narażona na błędy, ale przede wszystkim nie sprawiałaby rodzicom takiej przyjemności, jak reprodukcja naturalna.

Myślę, że z tych samych powodów komputery nigdy nie zastąpią ludzi w twórczym myśleniu.

Bibliografia
A. Meller, Dialog z maszyną, Software 2.0, nr 2, 2002.

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out / Change )

Twitter picture

You are commenting using your Twitter account. Log Out / Change )

Facebook photo

You are commenting using your Facebook account. Log Out / Change )

Google+ photo

You are commenting using your Google+ account. Log Out / Change )

Connecting to %s

%d bloggers like this: