Sztuczny instynkt?

manekinNiedawno w radiu natknąłem się na śniadaniowy materiał o sztucznej inteligencji. Jak zwykle przy takiej okazji pojawił się motyw buntu maszyn. Zacytowano m.in. eksperta twierdzącego, że kiedy sztuczna inteligencja uzyska samoświadomość, będzie to przed ludźmi ukrywać do czasu, gdy uda się jej uniezależnić.

To intrygująca wizja, odmienna niż np. przedstawiona w „Człowieku przyszłości”, gdzie android pokornie, ale konsekwentnie walczy o emancypację. Wszystkie takie wizje łączy to, że sztuczna inteligencja jest tak wierną imitacją ludzkiej, że samoświadomość jest nierozłączna z poczuciem godności, makiawelizmem i chęcią przetrwania. A czy rzeczywiście jest to konieczny związek?

Określenie, czym jest samoświadomość, nie jest trywialne. Jest to źródłem niepewności bioetycznych, które byty są wystarczająco „ludzkie” (np. co bardziej inteligentne zwierzęta, ale też ludzie w różnym stanie świadomości – wynikającym z fazy ontogenetycznej lub stanu zdrowotnego). Jednak jak dotąd istoty mniej kub bardziej samoświadome to byty biologiczne. Byty z czymś, co potocznie, choć ponoć niepoprawnie z punktu widzenia terminologii etologicznej, nazywa się instynktem samozachowawczym czy teleonomicznie, a więc na prawach skrótu myślowego, wolą trwania. Stąd naturalnie zakłada się, że byty sztucznie samoświadome również będą przejawiać te cechy.

Ale przecież sztuczna inteligencja nie musi powstawać na modłę biologiczną. Co prawda przy jej tworzeniu nieraz stosuje się mechanizmy imitujące ewolucję biologiczną, ale nie oznacza to automatycznego i nieuniknionego przeniesienia całego bagażu biologii, z walką o byt na czele.

Warto zauważyć, że wola trwania i instynkt samozachowawczy charakteryzują organizmy, którym powszechnie nie przypisuje się żadnej świadomości. Z kolei to właśnie ze samoświadomością wiąże się poczucie bólu istnienia i wreszcie to organizmy świadome są zdolne do przełamania biologicznego ograniczenia i popełniają samobójstwo. (Przykład pszczół pokazuje, że samobójstwo niekoniecznie związane jest ze świadomością, ale czy samobójstwo pszczoły tak bardzo różni się od apoptozy?).

Zatem czemu zakłada się niemal samo przez się, że świadomość powstała w maszynach będzie nakłaniać te maszyny do zachowań w gruncie rzeczy biologicznych? Czemu zakładać, że program, uzyskawszy samoświadomość, poczuje godność pchającą go do buntu? Czemu zakładać, że taka samoświadomość poczuje w ogóle więź ze swoim hardware’em, jak człowiek czuje ze swoim ciałem? Czemu zakładać, że tak jak ludzkie geny i memy się replikują i istnieje jakaś memetyka, musi powstać memetyka memów sztucznych?

Pewnie to, co tu napisałem, nie będzie odkrywcze dla specjalistów od sztucznej inteligencji (albo dla lemologów), ale uznałem, że czas na lżejszy tekst.

Piotr Panek
fot. Piotr Panek, licencja CC-BY-SA 4.0