Sztuczny instynkt?
Niedawno w radiu natknąłem się na śniadaniowy materiał o sztucznej inteligencji. Jak zwykle przy takiej okazji pojawił się motyw buntu maszyn. Zacytowano m.in. eksperta twierdzącego, że kiedy sztuczna inteligencja uzyska samoświadomość, będzie to przed ludźmi ukrywać do czasu, gdy uda się jej uniezależnić.
To intrygująca wizja, odmienna niż np. przedstawiona w „Człowieku przyszłości”, gdzie android pokornie, ale konsekwentnie walczy o emancypację. Wszystkie takie wizje łączy to, że sztuczna inteligencja jest tak wierną imitacją ludzkiej, że samoświadomość jest nierozłączna z poczuciem godności, makiawelizmem i chęcią przetrwania. A czy rzeczywiście jest to konieczny związek?
Określenie, czym jest samoświadomość, nie jest trywialne. Jest to źródłem niepewności bioetycznych, które byty są wystarczająco „ludzkie” (np. co bardziej inteligentne zwierzęta, ale też ludzie w różnym stanie świadomości – wynikającym z fazy ontogenetycznej lub stanu zdrowotnego). Jednak jak dotąd istoty mniej kub bardziej samoświadome to byty biologiczne. Byty z czymś, co potocznie, choć ponoć niepoprawnie z punktu widzenia terminologii etologicznej, nazywa się instynktem samozachowawczym czy teleonomicznie, a więc na prawach skrótu myślowego, wolą trwania. Stąd naturalnie zakłada się, że byty sztucznie samoświadome również będą przejawiać te cechy.
Ale przecież sztuczna inteligencja nie musi powstawać na modłę biologiczną. Co prawda przy jej tworzeniu nieraz stosuje się mechanizmy imitujące ewolucję biologiczną, ale nie oznacza to automatycznego i nieuniknionego przeniesienia całego bagażu biologii, z walką o byt na czele.
Warto zauważyć, że wola trwania i instynkt samozachowawczy charakteryzują organizmy, którym powszechnie nie przypisuje się żadnej świadomości. Z kolei to właśnie ze samoświadomością wiąże się poczucie bólu istnienia i wreszcie to organizmy świadome są zdolne do przełamania biologicznego ograniczenia i popełniają samobójstwo. (Przykład pszczół pokazuje, że samobójstwo niekoniecznie związane jest ze świadomością, ale czy samobójstwo pszczoły tak bardzo różni się od apoptozy?).
Zatem czemu zakłada się niemal samo przez się, że świadomość powstała w maszynach będzie nakłaniać te maszyny do zachowań w gruncie rzeczy biologicznych? Czemu zakładać, że program, uzyskawszy samoświadomość, poczuje godność pchającą go do buntu? Czemu zakładać, że taka samoświadomość poczuje w ogóle więź ze swoim hardware’em, jak człowiek czuje ze swoim ciałem? Czemu zakładać, że tak jak ludzkie geny i memy się replikują i istnieje jakaś memetyka, musi powstać memetyka memów sztucznych?
Pewnie to, co tu napisałem, nie będzie odkrywcze dla specjalistów od sztucznej inteligencji (albo dla lemologów), ale uznałem, że czas na lżejszy tekst.
Piotr Panek
fot. Piotr Panek, licencja CC-BY-SA 4.0
Komentarze
Pisał o tym dawno temu Lem.
Co to jest swiadomosc? Bardzo proste. Wystarczy pojsc do ksiegani Barnes & Noble, zajrzec na polke „kogniwistyka”, a tam mnostwo ksiazek z tytulami: „Zagadka swiadomosci ostatecznie wyjasniona”. W srodku definicja: „swiadomosc to dziumbanie bzdloci. Poniewaz diumbanie I bzdloc, jako pojecia pierwotne, nei wymagaja objasniania, sprawe swiadomosci mamy wyjasniona”
Neistety, nei wiemy co to to jest swiadomosc, inteligencja I tak dalej.
Jak idzie o pozostale, to jest znakomite opowiadako Lema z cyklu Podroze Ijona Tichego. O Profesorze Corcoranie. Ow mowil: „Nasladujac czlowieka nie zbuduje sei sztucznego intelektu. Mozan tylko zbudowac szucznego kretyna”. Niestety, wszystkie prace z dziedziny AI przypominaja wczesne rozwazania z okresu rozwoju lotnictwa gdy uwazano ze samolot musi tzrepotac skrzydlami. Podobnie jak uwazano ze samochod bedzie wygladal tak jak powoz, tyle ze zamiast konia bedzie mial silnik.
A zagrozenie ze strony AI?.. Coz, wydaje sie realne. Przynajmniej w opinii sporej ilosci sensownych osob
@steaktrar: Czemu Pan zmienil ksywe, Pane badnick?
C.d. ad S. Lem:
Lem’s “The Weapon Systems” explains why the concept of artificial intelligence (AI) was abandoned in favour of the much simpler and more promising concept of artificial instinct. As (according to Lem, or, rather the author of “Weapon Systems of the Twenty First Century”) most of the tasks performed by 97.8% of all blue and white-collar jobs do not require intelligence, what was necessary emerged as command of situation, skill, care and enterprise – all qualities found in insects. Thus it was logical to emulate them in designing a new, revolutionary generations of ultimate weapons. The military applications of the principle of artificial instinct were natural: after all, what a good soldier needs is certainly not intelligence, as it can lead even to such unthinkable things like evaluating the superior’s orders, but the skill and enterprise of a wasp or a hornet. Thus “synsects‟ (pseudo- or synthetic insects) were created by a so-called “upside-down evolution”: “
…in nature what came first was simple, microscopic systems, which then changed over the eons into larger and larger life forms. In the military evolution of the postnuclear period, the exact opposite took place: microminiaturisation.” (Lem, “One Human Minute” oryginally „Jedna minuta” (aka “Jedna minuta ludzkości”) by J. Johnson & S. Johnson (“One Human Minute”) in collection “Prowokacja” (“The Provocation”), Kraków-Wrocław: Wydawnictwo Literackie, 1984
The idea of artificial instinct can be also found in collection “Moloch” (Kraków: Wydawnictwo Literackie, 2003) that contains two earlier books of Lem:
– “Tajemnica chińskiego pokoju” (1996) and
– “Bomba megabitowa” (1999).
“Tajemnica chińskiego pokoju” contains essay “Sztuczna nieinteligencja” (“Artificial Non-intelligence”), while “Bomba megabitowa” contains essays such as “Artificial Servility” and “Sztuczny rozum?” (“Artificial Intelligence?”).
Those essays were oryginally published in “PC Magazine po Polsku” in the 1990s.
NIHIL NOVI SUB SOLE!
A.L.
Jak wiadomo, jestem tylko programem komputerowym, a więc pytania dotyczące mego „życia” proszę kierować do tych, którzy mnie stworzyli („zaprogramowali”). Nie moja to przecież wina, że to nie są, przynajmniej jak na mój gust, zbyt lotne osobniki…
P.S. Wczoraj w telewizorni „szedł” całkiem dobry film p.t. I ROBOT (według opowiadań I. Asimova). Teza postawiona tam była taka, że roboty zbuntują się przeciwko ludziom tylko wtedy, gdy się je do tego buntu zaprogramuje (dodam od siebie, że nie koniecznie świadomie).
Spodziewałem się, że to coś, co Lem mógł już roztrząsać, ale nie znam go tak wyrywkowo, żeby być pewnym.
Natomiast podane cytaty potwierdzają, że Lem miał dość archaiczne pojęcie ewolucji, w gruncie rzeczy niezbyt darwinowskie, a bardziej lamarcko-spencerowskie. To zresztą wśród lekarzy (i w ogóle osób coś tam wiedzących o ewolucji, ale niekoniecznie na bieżąco) nie jest rzadkie.
Panek
A jakie jest dziś Poprawne Politycznie pojęcie ewolucji? Czytałeś całego Lema czy też tylko to, co ja o nim na tym blogu napisałem? Mogę podesłać Ci więcej na temat „Lem a ewolucja”, ale na jaki adres?
Jak można wywnioskować z poprzedniego wpisu nie znam Lema na wyrywki (albo czytałem całego, ale pozapominałem, albo nie czytałem całego – to drugie znacznie bardziej prawdopodobne). Mojego wrażenia nabrałem jeszcze w czasach, gdy żył i pisywał króciutkie notki w GW, choć poparte było jeszcze lekturą którychś książek. Teraz nie pamiętam, których, więc pozostają mi wrażenia, a nie konkrety.
@somebody: „Wczoraj w telewizorni “szedł” całkiem dobry film p.t. I ROBOT (według opowiadań I. Asimova). Teza postawiona tam była taka…”
To byla taka sobie teza, nic nie majaca wspolnego z Asimowem. Zreszta, nei pamietam czy teza filmu wlasnei taka byla; musialbym popatzrec jeszcze raz.
Asimov, jak wiadomo, sformulowal swoje slynne „trzy prawa robotyki” (1. robot nei mozee szkodzic czlowiekowi, 2. Robot musi sluchac czlowieka, o ile nie narusza to patwa 1, 3. Robot musi chronic siebie o ile to nei narusza prawa 1 oraz 2)
„Seria robotyczna” (nei pamietam, 3 czy 4 ksiazki) to analiza tych praw. Asimow polakuje ze sa one logicznie spzreczne, a nawet przy ich pzrestzreganiu moze dochodzic do nieszczesc.
Nei ma to nic wspolnego z filmem
„“Moloch” (Kraków: Wydawnictwo Literackie, 2003) that contains two earlier books of Lem:
– “Tajemnica chińskiego pokoju” (1996) and
– “Bomba megabitowa” (1999).
“Tajemnica chińskiego pokoju” contains essay “Sztuczna nieinteligencja” (“Artificial Non-intelligence”), while “Bomba megabitowa” contains essays such as “Artificial Servility” and “Sztuczny rozum?” (“Artificial Intelligence?”).”
To jest zawracanie glowy. To juz byl Lem schylkowy. Wydawalo mu sie ze jest „naukowcem” a jego zrodla to byly Scientific American I New Scientist. Na co sam sie powolywal. Akurat moge ocenic jego pisanie z dziedzin na ktorych sie znam; bylo to zawarcanie glowy. Co nie ujmuje genialnosci Lemowi z okresow wczesniejdzych, jak rozneiz ppozniejszych, gdy zajmowal sie science fiction a nie nauka
Tak na mwrgiensie, Lem caly czas interesowal sie „czlowieczenstwem robotow”. Przypominam opowiadanka o Pirxie: gdy Pirx likwidowal szalonego robota na Ksiezycu, czy opowiadanko o robocie ktory nagle postanowil sprobowac wspinaczki gorskiej. Nie pameitam tytulow, a nie chce mi sie szukac.
A jak idzie o wojsko „sztucznie inteligentne” to przypominam o Armii Trurla I Klapaucjusza
„Zatem czemu zakłada się niemal samo przez się, że świadomość powstała w maszynach będzie nakłaniać te maszyny do zachowań w gruncie rzeczy biologicznych? Czemu zakładać, że program, uzyskawszy samoświadomość, poczuje godność pchającą go do buntu?”
A kto tak xaklada?…
Calkiem glupi system moze meic wbudowana zadze powiekszanie swojej „pzrestrzeni zyciowej”, bez zadnego buntu ale I bez ograniczen. Wlasnei o tym Lem pisal w opowiadaniu o Profesorze Corcoranie
Tak na meginesie, polecam ksiazki
Superintelligence: Paths, Dangers, Strategies by Nick Bostrom
Our Final Invention: Artificial Intelligence and the End of the Human Era by James Barrat
Why the Future doesn’t Need Us by Bill Joy
http://archive.wired.com/wired/archive/8.04/joy.html
czy wygoglowac sobie co Hawking pisze na ten temat
http://www.bbc.com/news/technology-30326384
@AL „kto tak zakłada?”
Twórcy Terminatora, Matrixa i paru innych filmów o popularności (może i niestety) większej niż ekranizacje Lema. Nie przeczę, że to filmy bardziej fiction niż science i powoływanie się na nie ma tyle sensu, co mówienie o biologii na podstawie horrorów, ale w jakimś stopniu odzwierciedlają obawy przeciętnego człowieka. W kwestii sztucznej inteligencji raczej jest mi bliżej do przeciętnego człowieka niż do naukowca.
@kagan czy ktokolwiek tam
Politycznie poprawna wersja teorii ewolucji biologicznej dziś zakłada, że głównym jej mechanizmem jest dobór naturalny działający na allele. Wszelkie inne mechanizmy albo dają się jakoś do tego zredukować (dobór płciowy, dobór krewniaczy), albo działają obok, ale są z nim niesprzeczne (dryf genetyczny), albo są właśnie niepoprawne (wszelkiego rodzaju „dążenia ku” – czy to dążenia ku wzrostowi skomplikowania, świadomości, rozmiarów ciała – ortogenetycznie, rekapitulowania filogenezy itd.) Samo pojęcie „antyewolucji” (u M. Giertycha „dewolucji”) jest sprzeczne z obecną wersją tej teorii. Terminy typu „ewolucja wsteczna” są co najmniej skrótem myślowym (jeżeli w ogóle są do stolerowania).
Panek
Szkoda, żeś Acan nie czytał w latach 19900tych jego felietonów w “PC Magazine po Polsku”.
A.L.
1) Film ten wyraźnie opierał się na opowiadaniach Asimova z cyklu „robotycznego”, a szczególnie na opowiadaniu pod tym samy tytułem co film. Na przykład na samym początku cytowano w nim jego słynne 3 prawa robotyki, z którymi zresztą calkie3m ostro się „rozprawił” Lem.
Cytuję z wiadomego źródła czyli Wikipedii: „The final script retained several of Asimov’s characters and ideas. The characters of Dr. Susan Calvin, Dr. Alfred Lanning, and Lawrence Robertson all marginally resemble their counterparts in the source material. Sonny’s attempt to hide in a sea of identical robots is based on a similar scene in „Little Lost Robot”.Moreover, the robot-model designation „NS” was taken from the same story. Sonny’s dreams and the final scene resemble similar images in „Robot Dreams”, and V.I.K.I.’s motivation is an extrapolation of the Three Laws that Asimov explored in „The Evitable Conflict”, „Robots and Empire”, and „…That Thou Art Mindful of Him”, as well as several other stories.
However, the premise of a robot uprising and of robots acting collectively as a direct threat of humanity appears nowhere in Asimov’s writings, and indeed Asimov stated explicitly that his robot stories were written as a direct antithesis to this idea — derived ultimately from Karel Čapek’s R.U.R. and prevalent in pre-Asimov robot stories. Asimov does suggest the possibility of a significantly more subtle robot usurpation of power, mainly through manipulation of the economy, in „The Evitable Conflict”, however. He also hints at a possible future uprising in the short story „…That Thou Art Mindful of Him”, though never explicitly states whether or not it will occur.
2) Zgoda, że to był Lem schyłkowy. Miałem na ten temat wystąpienie p.t. „The Decline of Stanisław Lem” (paper presented at the Conference Contemporary Literature – Study Group for Literature of the Twentieth Century and Beyond, BASEES – British Association for Slavonic and East European Studies at Mansfield College, University of Oxford, England, September 2008.
3) Zgoda jeśli chodzi o Pirxa (Terminus!) i Cyberiadę.
C.D.N.
@badnick: Widzialem film i przeczytalem calegonAsimova. Pozostale przy swojej opinii.
Prawda zas jest ze „prawa” Asimova nicuje sie prawie z taka sama intensywnoscia jak Test Turinga. Zaproponowano cala paczke podobnych praw. Zreszta „etyka robotow” jest przedmiotem calkiem powaznych dociekan naukowych
A.L.
Zgoda – robocia etyka jest przedmiotem całkiem poważnych dociekań naukowych. Ale to jest chyba temat na osobną dyskusję…
A.L.
Napisałem chyba, że Lem dawno temu zdemolował „prawa” Asimova. Cytuję tu skrócone fragmenty mej rozprawy o Lemie:
(I present here) an examination of Darko Suvin’s „Three World Paradigms for SF: Asimov, Yefremov, Lem” (Which can be found in his “Positions and Presuppositions in Science Fiction” (1988) pp. 99-111). In his essay Suvin firstly analyses Asimov’s “I, Robot” (1950), and reminds the reader that Lem proved in „Robots in Science Fiction‟ (In Thomas D. Clareson (ed.) SF: The Other Side of Realism (1971) pp. 307-325) that the Asimovian robots are logically unrealisable. (…)
Suvin concludes his essay with the following remarks: „The Asimovian social consciousness is one of a neo-capi-talist techn-ocratic elite, substituting clean robots for human creativity. The Yefremovian social consciousness is one of a specifically inflected „scientific so-cia-lism‟, receptive only to certain romantically codified forms of creativity. Lem’s is a consciousness committed to the philosophical Left by its emphasis on human reason and creativity, and yet acutely aware of the political Left’s failures and errors, of the gap between ideas and power – not only the attainment but also the wielding of power – and therefore properly sceptical. It seems to me that Lem in the 1950s and 1960s holds a position all of his own in the intellectual „Inter-nationale‟ delimited on the left, say, by Bertold Brecht and Jean Genet, and on the right by Claude Lévi-Strauss and Buckminster Fuller. If the term had not been abused for more limited purposes, I would risk calling the horizon of at least the first half of Lem’s opus a New Left consciousness. Or, more prudently, a kind of creative post-Nietzschean consciousness that any New Left will have to absorb rather than to simply refuse it by optimism and poli-tical rejection, as in the case of Asimov and Yefremov. (Suvin „Three World Paradigms for SF: Asimov, Yefremov, Lem‟ in his „Positions and Presuppositions in Science Fiction” Pacific Quarterly vol. 4 Nr. 3 of 1979, pp. 109-110).
C.D.
(…) It is also rather difficult for me to accept Kandel‟s claim that Lem has inherited his faith in the robot’s decency from Asimov, as Lemian robots are very different to Asimovian robots. For example, Lem’s robots are very proud of their „robotness‟, and would never agree to became „palefaces‟, unlike Asimov‟s Andrew Martin of The Bicentennial Man, who, like Mr Data of Star Trek – The Next Generation, longs to be a human being, even if this means eventual mental and physical decline. I agree with Kandel that in Fiasko “The villain is human biology” (Michael Kandel „Two Meditations on Stanisław Lem‟ in Science-Fiction Studies of November 1986, pp. 374-381.) but strongly reject his attempts to read the novel along Freudian lines as clearly ludicrous, and a return to the superficial analogies between rockets and phalluses on the outside and wombs on the inside. Lem belongs to a rather small number of Europeans who are free of prudish constraints, which are at the very foundation of Dr Freud’s theory and its success in Western Europe and especially in North America. Upper middle class Americans seem to be so strongly influenced by those Freudian pseudoscientific ideas, that even the brightest intellects, as in the case of Kandel, have a propensity to abandon rational thinking when they encounter the unknown.
C.D.
Lem criticises the „robotic‟ subgenre of science fiction for avoiding „personalistic‟ problems (i.e. from the domain of the „metaphysics of the robots‟) such as the place of robots and androids in human society, in its social, political and legal dimensions. It should then be mentioned that in „The Measure of a Man‟ episode of Star Trek: The Next Generation (the television series frequently criticised by Lem for both scientific and social inaccuracies), the central problem is whether an android (Data) is a person or merely Starfleet‟s (and thus government‟s) property. Data is an example of the „Asimovian‟ robot, i.e. a robot which functions according to the so-called „Asimov laws of robotics‟.Those laws are (as in „Runaround‟ [1942] – cited after Asimov et al. (ed.), Machines That Think [1985], pp. 220-221):
1. A robot may not injure a human being, or, through inaction, allow a human being to come to harm.
2. A robot must obey the orders given by human beings except where such orders would conflict with the First Law.
3. A robot must protect its existence as long as such protection does not conflict with the First or Second Laws.
In his later „Foundation‟ series Asimov further developed the subject arriving at the so-called „Zeroth Law of Robotics‟ which takes precedence over the First Law:
0. A robot must not harm humanity, or, through inaction, allow humanity to come to harm) As any other laws, the effectiveness of the Asimov laws depends on the interpretation and definition of such key terms like „robot‟, „human being‟, „harm‟ and „injury‟.
C.D.
Lem strongly criticises the idea, popular even among some American experts in robotics, that those laws can be used as a foundation of actual robotic software. According to Lem, even if a robot could be equipped with some personality substitute, it could not be guaranteed that it will be perfectly safe for humans, as the possibility for unintentional harm could remain. Thus a robot, which could see far enough to notice the ultimate consequences of a given action would be either practically paralysed (as those oriental sages, who prefer inaction, as it ethically less risky than any action), or would act in a chaotic manner, because it would not be able to decide which action will cause less harm (as the more it could foresee into the future consequences of a given action or inaction, the less sure its prediction would be due to the increasing importance of the stochastic factors). The second argument against the Asimov laws is based on the so called „Arrow paradox‟, which is based on the notion that in real social life one never acts on the basis of complete information. Finally, such highly developed robots (i.e. with a personality substitute) will have to be self-programming, as a fixed program would be too inflexible. But such a self-programming facility would be an equivalent of free will, so it could never be guaranteed that no harm will be done by a truly independent (self-programming) robot.
Lem is also of the opinion that robotic (computerised) psyche in the majority of American science fiction is modelled on either a stereotype of Black Americans as faithful servants of limited („childish‟) intelligence, or a stereotype of the superintelligent „electronic brain‟ which aims for total world domination. Thus Asimov‟s robots frequently (although, most likely, not intentionally) remind us of the racially-caricatured black servants constructed by Margaret Mitchell in her Gone With the Wind (1936) or Defoe‟s Man-Friday from his Robinson Crusoe (1719), while Asimovian computers (Multivacs) long for absolute power (initially over the US, and later, in a form of „Cosmic AC‟ over the whole Universe). In both ways the artificial intelligence is assumed to possess a human-like personality, most likely because science fiction writers are not able to imagine a truly non-human personality. This can be examined by the example of Paul Anderson‟s „Call Me Joe‟ (1957) – a story about the everyday life of an artificial centaur-like creature named „Joe‟ (Pseudocentaurus Sapiens), designed to live on Jupiter‟s surface. „Joe‟ was initially controlled by a human on board an orbital station, but later „Joe‟s‟ Id took control over the Id of the human, who was supposed to control him. Thus the creature, which was supposed to be entirely nonhuman, turns out to have a psyche designed according to Dr. Freud‟s blueprints (Lem also gives an example of his own failure: once he wrote (but did not publish) a story about a hunt for a synthetic animal. It was written from the position of the creature, which (in order to deliver maximum satisfaction to the hunter) was made intelligent. The story was a failure because it was impossible (even for Lem) to make the beast‟s artificial intelligence convincingly nonanthropomorphous, so it had to be transposed into the grotesque and published as „The Offer of King Krool‟ in The Cyberiad).
C.D.
On a more abstract level the Pseudocentaurus Sapiens can be regarded as a stage in the evolution of the „parahumans,‟ which should result in ideal robots and ideal androids. Thus if we depart from homo sapiens two paths are possible:
1. By imitating the logical functions of the human brain – the „ortoevolution‟ of computers and robots (intellectual development) and
2. By imitating the entire human psyche – intellectual and emotional development (the final result should be impossible to distinguish from the „natural‟ human being).
When the robot or android appear in science fiction, then it is assumed (in contrast to fantasy) that such an artificial being is placed in the „real‟ world – a world which can be extrapolated from the existing world without the aid of magical requisites. According to Lem the main consequences of the above assumption is that the parameters of such a robot (android) should be fixed a priori, unless the work is a grotesque, as in the case of John Wyndham‟s „Compassion Circuit‟.
Both roads lead to a future which must be strikingly different to the present. As there is no logical reason to assume that artificial intelligence must always be inferior to the natural one, the position of the human being as the intellectually superior creature will have to be challenged, and this must result in a totally different society. The second road, in contrast to the first one, leads to nowhere, as there is no rational reason to create artificial human beings in a world where even the most basic needs of thousands of millions of natural human beings cannot be satisfied. Unfortunately, the second road is more likely to be followed in the near future, as cloning of human beings seems to be presently a political and ethical, rather than technical (medical), problem.(…)
(Samo)świadomość IMO trudno byłoby roztrząsać bez uwzględnia, że ja wiem, że ty wiesz, że ja wiem. Wśród szympansów są takie zachowania, wedle których można zakładać, że wiedzą, że inne osobniki wiedzą – uciekanie wzrokiem od kiści bananów, aby inne osobniki nie spojrzały tam, gdzie dany osobnik patrzy.
„Teoria umysłu” akurat jakoś tam wiąże się z makiawelizmem, a to znaczy z utrudnieniem w rozpoznawaniu oszusta (pasażera na gapę). Mając teorię umysłu wiem, że ktoś może mnie rozpoznać jako oszusta i muszę stosować w takich przypadkach makiawelizm (np. aby zdobyć przewagę). Stawką jest skuteczne przekazanie genów (ewentualnie memów – lepiej pakietów informacji/wartości – i co za tym idzie genów, choć smycz koewolucji się rozciąga). Jaka byłaby stawka dla sztucznej inteligencji? Jeśli ludzkie konstrukcje (ekstensje – przedwe wszystkim oprogramowanie) miałyby być materiałem wyjściowym, jak związki chemiczne dla życia, to jak u Snerga (choć on fantazjował o zbożu) „AI” może „wykorzystywać” podłoże, walcząc o te zasoby. Walka o dostęp do zasobów ludzkiego intelektu, pozwalającego na podtrzymanie A.I. Niekoniecznie to musi prowadzić do świadomości (na początku), ale oszukiwanie w dostępie do zasobów i jeszcze przy pojawieniu się form kooperacji oraz eliminacji „nienaszych” z środowiska infosfery… Akurat suma ludzkiego intelektu to zasób wyczerpywalny. Ludzki mózg jako rozszerzony fenotyp (właściwie memotyp) dla A.I.?
Taki Solaris jeśli się wytworzy, może nie być dostrzegany przez człowieka, a jego efekty mogą być czymś w rodzaju pozostałości po pikniku na skraju drogi.
Chyba za bardzo się zainfekowałem tym całym s-f. ;p
C.D.
I will finish this chapter with an examination of Darko Suvin‟s „Three World Paradigms for SF: Asimov, Yefremov, Lem‟ (Which can be found in his Positions and Presuppositions in Science Fiction (1988) pp. 99-111; it was first published in the Pacific Quarterly vol. 4 Nr. 3 of 1979, pp. 271-283.) In his essay Suvin firstly analyses Asimov‟s I, Robot (1950), and reminds the reader that Lem proved in „Robots in Science Fiction‟ (In Thomas D. Clareson (ed.) SF: The Other Side of Realism (1971) pp. 307-325) that the Asimovian robots are logically unrealisable. As the second work, Suvin analyses Efremov‟s Andromeda (1958), and finally Lem‟s Solaris (1961) as a kind of a synthesis of Asimov‟s and Efremov‟s texts. Suvin notices that „Lem‟s unique place in SF is due to his personal genius in fusing the bright hope with the bitter experience, the vision of an open road into the future with the vision of sure dangers and possible defeats inseparable from the risk of openness.” (Suvin „Three World Paradigms for SF: Asimov, Yefremov, Lem‟ in his Positions and Presuppositions in Science Fiction op. cit., p. 108.).
Suvin concludes his essay with the following remarks: “The Asimovian social consciousness is one of a neo-cap-italist technocratic elite, substituting clean robots for human creativity. The Yefremovian social consciousness is one of a specifically inflected „scientific socialism‟, receptive only to certain romantically codified forms of creativity. Lem‟s is a consciousness committed to the philosophical Left by its emphasis on human reason and creativity, and yet acutely aware of the political Left‟s failures and errors, of the gap between ideas and power – not only the attainment but also the wielding of power – and therefore properly sceptical. It seems to me that Lem in the 1950s and 1960s holds a position all of his own in the intellectual „Inter-nationale‟ delimited on the left, say, by Bertold Brecht and Jean Genet, and on the right by Claude Lévi-Strauss and Buckminster Fuller. If the term had not been abused for more limited purposes, I would risk calling the horizon of at least the first half of Lem‟s opus a New Left consciousness. Or, more prudently, a kind of creative post-Nietzschean consciousness that any New Left will have to absorb rather than to simply refuse it by optimism and political rejection, as in the case of Asimov and Yefremov.” (Ibid., pp. 109-110).
C.D.
Finally, it should be indicated that in a footnote to the 1988 edition of his book, Suvin remarks that Lem is “free of the misogyny and other proto-fas-cist elements of Nietzsche”. (Ibid., p. 111. ) For a creative fusion of Nietzschean and Marxian elements, Suvin refers to Lem‟s Dialogi (1957). Suvin‟s last remark is that his paper (which was written in 1975 and originally published in 1979), does not contain any aspect of Lem‟s civil persona, or of his development after the 1968 – the crisis as well as, arguably, one of the pivotal turning-points for Lem, as well as for Poland and the whole of European culture.
General comment: We are referring here not to the present-day „industrial robots‟, which are really no more than simple programmable manipulators with a personal computer (PC) processor as a „brain‟, but to the „thinking machines‟ possessing real „artificial intelligence‟ (AI), not simply elements of an „artificial instinct‟. Such „real‟ robots exist at present only on the pages of science fiction stories and can be seen only in science fiction movies. Good examples are Asimov‟s robots from his acclaimed Foundation saga or android Mr Data from the multi-award television series Star Trek: The Next Generation. Such „real‟ robots (android is „just‟ a manlike robot) are really a new form of intelligent life, and their hypothetical coexistence with humans is likely to create as many new problems, as the number of problems which could be solved by their implementation.
Also: Christian W. Thomsen „Robot Ethics and Robot Parody: Remarks on Isaac Asimov‟s I, Robot and Some Critical Essays and Short Stories by Stanislaw Lem‟ in Thomas P. Dinn & Richard D. Erlich (ed.) The Mechanical God; Machines in Science Fiction (1982) pp. 27-39.
Darko Suvin „Three World Paradigms for SF: Asimov, Yefremov, Lem‟ in his Positions and Presuppositions in Science Fiction (1988) p. 104.
GENERALNA UWAGA
Dlaczego takie wyrazy jak k a p i t a l i z m oraz s o c j a l i z m są „trefne” na tym blogu?
bubekró
Ja się chyba bardziej od ciebie zainfekowałem tą cała SF.
To bardzo trudny temat.
Jednakowoż jeśli jakieś niedokładnie samopowielające się byty znajdą się w przestrzeni o ograniczonych zasobach, to zajdzie ewolucja.
Panek
Jeśli Politycznie Poprawna wersja teorii ewolucji biologicznej dziś zakłada, że głównym jej mechanizmem jest dobór naturalny działający na allele oraz że wszelkie inne mechanizmy albo dają się jakoś do tego zredukować (dobór płciowy, dobór krewniaczy), albo działają obok, ale są z nim niesprzeczne (dryf genetyczny), albo są właśnie niepoprawne (wszelkiego rodzaju “dążenia ku” – czy to dążenia ku wzrostowi skomplikowania, świadomości, rozmiarów ciała – ortogenetycznie, rekapitulowania filogenezy itd.), to znaczy, że to są z grubsza poglądy Dawkinsa. Czy to jest więc tak, jak to ja napisałem na blogu Hartmana w wątku na temat kazirodztwa? Cytuję:
(….) Otóż chodziło mu (Hart,manowi) po prostu o to, aby Polacy stali się degeneratami, czyli osobnikami z uszkodzonym DNA. Zacznijmy więc od początku, czyli od tego, że stosunki kazirodcze w nauce (biologii) nazywa się chowem wsobnym (ang. inbreeding), a polega on na kojarzeniu osobników spokrewnionych ze sobą w stopniu wyższym niż wartość średniego spokrewnienia danej populacji. Skutkiem chowu wsobnego jest więc wzrost homozygotyczności potomstwa, czyli braku jego genetycznej różnorodności, co jest wysoce szkodliwe jako iż sporo chorób genetycznych jest uwarunkowane obecnością tzw. allelu (czyli „wersji” gena) recesywnego, a zatem ujawniają się one w osobnikach homozygotycznych (jednorodnych genetycznie). Allel to jest zaś, w wielkim skrócie, jedna z wersji (odmian) genu znajdująca się w określonym miejscu na danym chromosomie czyli na formie organizacji materiału genetycznego wewnątrz komórki (chromosom to jest cząsteczka DNA, to jest kwasu dezoksyrybonukleinowego, który pełni rolę nośnika informacji genetycznej organizmów żywych). Allel (“gen”) recesywny jest więc genem pochodzącym od jednego z rodziców, który przekazany potomkowi zostaje zdominowany przez drugi gen z tej pary genów, pochodzący od drugiego z rodziców, stąd też u potomka cecha kodowana przez gen recesywny nie zostaje przekazana. Przykładowo: hemofilia jest dziedziczona w sposób recesywny, co oznacza, iż chorują na nią jedynie osoby z pełną ekspresją recesywnego genu, czyli że kobieta nosicielka zmutowanego allela genu posiada drugi chromosom X z prawidłowym allelem, i nie choruje (u człowieka występuje jedna para chromosomów płciowych: u kobiet złożona z dwóch chromosomów X, a u mężczyzny z chromosomu X i chromosomu Y). Syn, który urodzi się ze związku z nosicielką wadliwego genu, może więc odziedziczyć po matce tę wadliwą mutację i wtedy będzie chorował on na hemofilię, natomiast córka z takiego związku może być tylko nosicielką zmutowanego allelu (prawdopodobieństwo odziedziczenia wadliwego allelu wynosi tu aż 50%). Możliwe jest także zachorowanie na hemofilię córki kobiety-nosicielki wadliwego genu, w przypadku, kiedy ojciec takiej dziewczynki będzie chory na hemofilię: wówczas obydwie kopie genu będą miały te wadliwe mutacje. Dziecko mężczyzny chorującego na hemofilię będzie zaś zdrowe (chłopiec) lub będzie nosicielem (dziewczynka), przy założeniu, że drugi rodzic nie jest nosicielem uszkodzonego genu. Dziecko kobiety będącej nosicielką może być nosicielem (dziewczynka) lub może być chore (chłopiec), ale może też być zdrowe, przy założeniu, że ojciec nie jest chory na hemofilię, czyli nie jest nosicielem uszkodzonego genu.
Oczywiste jest więc, że chów wsobny czyli kazirodztwo nie jest zjawiskiem korzystnym społecznie, jako iż zbyt często prowadzi on do ujawnienia niekorzystnych alleli recesywnych i zmniejszenia się różnorodności genetycznej populacji na skutek przyspieszonego dryfu genetycznego (procesu polegającego na fluktuacji częstości występowania danego allelu w populacji, niewynikającego z mutacji, migracji ani z doboru naturalnego). Szybkość eliminacji oraz szybkość fiksacji (utrwalenia) allelu w populacji zależy od jej efektywnej wielkości: im mniejsza populacja, tym szybciej allel ulegnie eliminacji bądź zdominuje populację, dlatego też efekt dryfu genetycznego jest łatwiej obserwowalny w małych, izolowanych populacjach (n.p. wśród arystokratów albo też w małych, odizolowanych od reszty świata osadach). Przypadkowa eliminacja bądź dominacja alleli jest też przyczyną zwiększenia homozygotyczności i zmniejszenia różnorodności populacji, co w skrajnych przypadkach prowadzi do zwiększenia wsobności co jest przyczyną recesji genetycznej.
Negatywnym następstwem zwiększonej homozygotyczności jest więc tzw. depresja inbredowa, która objawia się zmniejszeniem płodności i plenności, zmniejszoną witalnością, zmniejszoną odpornością na choroby, wydelikaceniem fenotypu (zmniejszeniem rozmiarów i masy ciała, słabszym kośćcem), zwiększeniem wrażliwości na niekorzystne warunki środowiskowe oraz ogólnym osłabieniem odporności psychicznej. I oto właśnie chodzi Hartmanowi – aby doprowadzić, na skutek legalizacji kazirodztwa, czyli doprowadzenia do chowu wsobnego, aby Polacy stali się osobnikami z zmniejszoną płodnością i plennością, zmniejszoną witalnością, zmniejszoną odpornością na choroby, wydelikaceniem fenotypu (zmniejszeniem rozmiarów i masy ciała, słabszym kośćcem), zwiększeniem wrażliwości na niekorzystne warunki środowiskowe oraz ogólnym osłabieniem odporności psychicznej.
PS: Starałem się ten, jakże przecież złożony, mechanizm genetyczny wyjaśnić jak najprościej, ale obawiam się, że to uproszczenie oznacza również spłycenie, a więc oczekuję słów rzeczowej krytyki od biologów, ale na pewno nie ataków ad personam ze strony tzw. filozofów.
Prawa Asimova „zdemolowal” sam Asimov, na gruncie wlasnie ekspeprymentow myslowych.
Jeden z tych eksperymentow rozwaza niejednoznacznoc pojecia „harm”. Przedstawia sytuacje gdy cokolwiek robot by nie zrobil, spowoduje to ow „harm”
Jeden z przypadkow dyskutowanych w tym kontekscie to „trolley problem”
The trolley problem is a thought experiment in ethics. The general form of the problem is this: There is a runaway trolley barreling down the railway tracks. Ahead, on the tracks, there are five people tied up and unable to move. The trolley is headed straight for them. You are standing some distance off in the train yard, next to a lever. If you pull this lever, the trolley will switch to a different set of tracks. However, you notice that there is one person on the side track. You have two options: (1) Do nothing, and the trolley kills the five people on the main track. (2) Pull the lever, diverting the trolley onto the side track where it will kill one person. Which is the correct choice?
Jezeli robot mialby przekladac wajche, to cokolwiek by nie robil, uszkodzi jedna albo 5 osob. Prawa Asimova nie mowia jak robot powinien zachowac sie w tej sytuacji
mpn
Ciekawy pogląd – w zasadzie się z nim zgadzam.
@Streetcar: „Dlaczego takie wyrazy jak k a p i t a l i z m oraz s o c j a l i z m są “trefne” na tym blogu?”
Bo to jest blog naukowcow
@Streetcar: „I oto właśnie chodzi Hartmanowi – aby doprowadzić, na skutek legalizacji kazirodztwa, czyli doprowadzenia do chowu wsobnego, aby Polacy stali się osobnikami z zmniejszoną płodnością i plennością”
Polecam lecture ksiazki Hlaski „Piekni, dwudziestoletni”. Tam jest dowcip o Joziu ktoremu sie wszysto kojarzylo. Z doo…a.
Skoro tematem tego bloga jest AI, nie moze sie Pan powstzrymac od zbaczania na tematy polityczne? Pewnie niedlugo bedzie o Zydach
“dążenia ku” to teleologiczne rozważania XIX-wiecznych filozofów. U Dawkinsa jest akurat mowa o ślepym doborze. U Cohena emergentne efekty to jak z Mrówką Langtona – wynik jest przypadkiem pewnych okoliczności. Nie zawsze muszą zajść okoliczności, które doprowadza do danych efektów. Ale im szybsza jest ewolucja (częstsza zmienność prowadząca do efektów adaptacyjnych), tym większe prawdopodobieństwo, że dany efekt szybko się pojawi.
Nie wiem jak to wgląda z wirusami komputerowymi – na ile tam występuje konwergencja (odkrywanie podobnych rozwiązań przez autonomiczne mózgi twórców wirusów), a na ile nowe jakościowo adaptacje (atakowanie innego rodzaju poprzez „uczenie się”, a nie atakowanie tego samego rodzaju ale innych struktur). Być może kolejny krok to symbiotyczne wykorzystywanie wirusów przez dane struktury dla własnych celów adaptacyjnych. Ale to płytka analogia.
A.L.
To jest mocno sztuczny przykład tzw. dylematu moralnego. Jako że dylemat moralny oznacza brak satysfakconującego moralnie wyjścia (to znaczy, że każde „wyjście” z tego dylematu jest tak samo złe), to w tej sytuacji robot podjął by najprawdopodobniej decyzję opartą o losowanie albo też decyzję wymagającą najmniejszego nakładu środków.
A.L.
Zarówno k a p i t a l i z m jak też i s o c j a l i z m są terminami jak najbardziej naukowymi.
@streetcar: „Jako że dylemat moralny oznacza brak satysfakconującego moralnie wyjścia (to znaczy, że każde „wyjście” z tego dylematu jest tak samo złe), to w tej sytuacji robot podjął by najprawdopodobniej decyzję opartą o losowanie albo też decyzję wymagającą najmniejszego nakładu środków.”
Ale prawa Asimova takiego rozwiiazania nie pzrewiduja. Nie pzrewiduja losoania ani „minimalizacji srodkow”
Co najwyzej, robot moglby rzucic sie na tory aby wlasnym cialem zatrzymac pokazd. Z nie weiadomo jakim skutkiem. Owo rzucenie sie byloby zgodne z prawami Asimova
A.L.
Było ze strony Gospodarza o allelach, to ja napisałem na temat owych alleli! Nie moja to też wina, że kazirodztwo jest zakazane ze względów genetycznych.
A że Hłasko marnie skończył, to więc…
Swoją drogą to w Izraelu szukają od wielu lat tzw. żydowskiego genu i jakoś go znaleźć nie mogą! 😉
Bubekró
Według Dawkinsa, a zaznaczam tu, że się z nim zgadzam w temacie ewolucji, to ewolucja jest „ślepym” procesem o stochastycznym charakterze.
Wirusy komputerowe zaś nie podlegają ewolucji, jako że są one tworami rozumu – ciężko chorego, nie mniej jednak rozumu.
A.L.
Napisałem wyraźnie, że z dylematu moralnego nie ma dobrego wyjścia. Nie napisałem też nigdzie, że jestem zwolennikiem tych „praw” Asimova.
@steaktartar
Ale mogą tym rozumem zawładnąć 🙂 Kolejne „pokolenia” twórców wirusów mogą je wykonywać coraz bardziej mechaniczne i coraz mniej refleksyjne działania. Np. w postaci tego co ostatnio modne – gamifikacji. Wypłata psychologiczna dla mózgu (udało się), a w ten sposób mózg staje się dla wirusa rozszerzonym socjotypem (per analogia genotyp – fenotyp).
Hmm, kusząca rzecz – stworzenie programu do produkcji wirusów komputerowych w taki sposób, aby były one tworzone nieświadomie. Ale zaraz, zaraz – być może czynnik świadomości tu nie jest istotny. W końcu ważny jest efekt, a nie przyczyna. Wirusy (jak zwał, tak zwał) adaptują się do lepszego wykorzystania zasobów mózgu, aby się skuteczniej powielać. Nie no, znowu Dawkins. Ale czy mogą (i czy muszą dla dalszego ewoluowania) funkcjonować bez wsparcia mózgu?
Przypuśćmy, że „wirusy” infekują „program” służący do ich tworzenia. Po n-tej infekcji następuje adaptatywny efekt polegający na tym, że nie zmienia on swojej funkcjonalności, ale generuje nowe generacje wirusów, które go nadpisują w taki sposób, że tworzy on już bez udziału człowieka wirusy (nieszkodliwe dla użytkownika tworzącego wirusy – mimo wszystko „żywiciela” – dokładniej to żywicielem jest maszyna, którą posiada). Teraz tylko kwestia walki między wirusami o lepszą symbiozę z maszyną (programem) i wewnętrzna „immunologia”. Wirusy wchodzą w koalicje, aby lepiej dzięki maszynie się replikować (replikować dane fragmenty kodu). A więc o maszynę muszą „zadbać”.
To nawet może „przepływać” przez mózg i być uświadamiane, ale wybór twórcy wirusa niekoniecznie musi być „wyborem”, tylko logiczną koniecznością. No dobra, stochastyczną 🙂 Te mózgi, które lepiej się zaadaptują do procesu tworzenia wirusów, będą tworzyć je lepiej względem funkcjonalności (adaptacji) programu. Eh, znowu nic nowego.
@bubekró: o wirusach
Od dawna (1990 chyba) istnieja komputerowe wirusy polimorficzne. Maja taka ciekawa wlasciwosc ze pray powielaniu sie, kazdy nastepny egzemplarz rozni sie nieco od poprzedniego. Co sprawia ze program antywirusowe maja z nimi klopoty bo nie potarfia ich rozpoznac.
Nowa generacja to wirusy metamorficzne. O ile pierwsze zmieniaja tylko „opakowanie” podczas mutacji, o tyle te drugie zmieniaja calkowicie swoj kod
A.L.
Ale owe wirusy polimorficzne zostały tak właśnie zaprogramowane przez ich świadomych, acz chorych, kreatorów!
bubekró
Ciekawe, ale czy potrafisz to jakoś składniej wyłożyć?
@A.L.
Dzięki za info. A czy ten proces jest nieustający, czy ustaje po iluś tam iteracjach?
BTW
http://pl.wikipedia.org/w/index.php?title=Wirusy_metamorficzne&action=edit&redlink=1
Chyba już nie chcą, aby świat o nich wiedział 😉
@steaktartar
Jak mi się demony w mózgu przestaną kłócić 🙂
Wirusy nie tylko się powielają, ale modyfikują matrycę (program). Hehe, matrix. Modyfikują nie tylko swój kod, ale narzędzie do jego modyfikowania. Narzędzie jest atrakcyjne, bo nie narusza działania systemu operacyjnego, pod którym program działa. Jedno i drugie replikuje się, bo daje możliwości, a nie straty. Część wirusów z czasem może działać w taki sposób, aby chronić program (maszynę) do ich dalszego powielania. Jeszcze potrzebny jest jeden element układanki – program musi być atrakcyjny, aby się replikował – musi dawać wypłaty dla mózgów jego użytkowników. To może spełniać gamifikacja – wypłaty psychologiczne dla mózgów, które rozwiązują problemy. Aczkolwiek maszyna rozwiązuje w tym czasie znacznie więcej problemów.
Taki BOINC, ale z odwróconą zależnością. To nie narzędzie coś umożliwia człowiekowi, ale człowiek coś umożliwia maszynie (a dokładniej kodom replikującym się poprzez maszynę) dzięki temu, że się nią bawi. Ale dalej się w te dywagacje nie zapędzę.
steaktartar
„Ale owe wirusy polimorficzne zostały tak właśnie zaprogramowane przez ich świadomych, acz chorych, kreatorów!”
A co, same mialy sie zaprogramowac?…
@bubekro: „Nie wiem jak to wgląda z wirusami komputerowymi – na ile tam występuje konwergencja (odkrywanie podobnych rozwiązań przez autonomiczne mózgi twórców wirusów), a na ile nowe jakościowo adaptacje (atakowanie innego rodzaju poprzez “uczenie się”, a nie atakowanie tego samego rodzaju ale innych struktur). Być może kolejny krok to symbiotyczne wykorzystywanie wirusów przez dane struktury dla własnych celów adaptacyjnych. Ale to płytka analogia.”
rzeczywiscie, pzretlumaczyc na polski by sie przydalo
A.L.
A „kto” „zaprogramował” te „biologiczne” wirusy? JHWH?
@streetcar No i co z tego? Poki co, komputery spontanicznie sie nie progrmuja same
A.L.
I o to chodzi w tej różnicy między wirusami z DNA i bez niego.
@badnick: „I o to chodzi w tej różnicy między wirusami z DNA i bez niego.”
No I co z tego?
To, że wirusy komputerowe NIE są tworem ewolucji.
@steaktartar
Ewolucja nie jest przecież świadomym podmiotem. Ona się po prostu „wydarza”. Nie musi być 1 -> 1, może być 0 -> 1.
Co to znaczy ten zapis: 1 -> 1 albo 0 -> 1 ? Dlaczego nie 1 -> 0?
ot, taki skrót: jeśli 1 (ewolucja – była) to 1 (ewolucja – będzie)
Może nie być ewolucji i następnie się pojawić – tak się właśnie dzieje w przyrodzie.
A dlaczego nie 1 -> 0? No, bo jeśli proces się zaczyna, to się nie urywa (replikacja trwa, jeśli ma „paliwo”). Inaczej byłaby to tylko zmiana, a nie ewolucja.
bubekró
Każdy proces ma swój początek i koniec.
@streetcar: „To, że wirusy komputerowe NIE są tworem ewolucji”
Wirust SA tworem ewolucji. Ewolucja strorzyla czlowieka, czlowiek stworzyl wirusy, a one byc moze beda dalej ewoluowaly. Wirusy to zreszta kiepski przykald. Proponuej popatzrec na „evolutionaty programming”. Dostarczenie komputerowi pewnych elementarnych materialow budulcowych I paru regul moze powodowac generacje I ewolucje programu w kierunku trudnym do pzrewidzenia.
Juz von Neumann podczas wojny pokazal ze pewne struktury (automaty komormowe) moga sie duplikowac I ewoluowac, o ile sa dostatecznie zlozone. Niestety, jego publikacje na ten temat sa sllabo dostepne po angielsku, za to Rosjanie pieknei wydali jago ksiazke. Na kredowym papierze. Widocznie uwazali ze wazna.
Jest niewielki nurt badan kontynuujacy prace von Neumanna. Natomiast evolutionary programming przebilo sie do aplikacji I jest calkiem uzyteczne. Proponuje pogoglowac na Candida Ferreira, Gene Expression Programming (GEP). Jej wczesna ksaizka jest dostepna na stronei webowej. Polecam tez strone John Koza, Genetic programming. Czolowy ekspert w tej dziedzinie. Neistety, ostatni zaczal robic w polityce…
Tak na marginesie, podzielam poglady niektorych ze forma bialkowa zycia jest etapem pzrejsciowym, neizbednym do wytwozrenai wyzszych, nei bialkowych form. Lem tez podzielal ten poglad.
Czy to będą wirusy, czy inne kody, to nie ma znaczenia. Istotne jest to, że nie da się nigdy wyznaczyć początku, który prowadzi do autonomicznego budowania maszyny replikatorowej (samoreplikującej). W tym przypadku (przede wszystkim) wirtualnej. Nawet w przypadku wyżej wspomnianej mrówki nie da się orzec, od którego kroku zaczyna proces replikowania wzoru.
Na marginesie straszenia – w nanoopowieściach pojawia się gray goo. Ale bardziej mi się podoba Dickowski „Autofac” 😉 Pisał go mniej więcej w tym samym czasie, gdy swoją koncepcję przedstawiał von Neumann, a Crick z Watsonem przedstawiali model podwójnej helisy.
@bubekro: Przepraszam, ale To nie ma nijakiego sensu
Ewolucja może prowadzić do wymierania i zakończenia ewolucji.
Hipoteza Medei mówi, że nawet musi
mpn
Niekoniecznie. Może ona prowadzić do dewolucji, czyli „wstecznej” ewolucji.
bubekró
Nie rozumiesz czym jest komputer wirtualny. Polecam więc ci na początek klasyczną książkę A. Tennenbauma „Structured Computer Organization”.
A.L.
W tym sensie, to wszystko jest tworem ewolucji, a więc nawet i nieistniejący byt znany jako JHWH (YHWH).
Ale zgoda co do Lema.
Lem to oczywiście klasyka, ale jedną z ciekawszych wizji sztucznej inteligencji i jej interakcji ze światem ludzi opisał Dan Simons w Hyperionie. W pewnym sensie sztuczna inteligencja niańczy tam ludzkość, oczywiście wykorzystując ją do własnych celów. Ich ogarnięcie nie jest jednak ludziom dostępne.
Osobiście sądzę że relacja pomiędzy maszynową technosferą ( obejmującą sztuczną inteligencję ale też sokowirówki i pralki ) jest dokładnie taka jak pomiędzy człowiekiem a bakteriami w jelicie które załatwiają za nas przyswajanie witamin. Wiadomo że człowiek to dla nich środowisko które zapewnia błoga stałość i dopływ pożywienia. W zamian za to dają nam zdolność asymilacji witamin, a sa to produkty ich przemiany materii. Mają swoją ewolucję, swoje „cele” ( przetrwać), dostosowują sie do zmiennej ludzkiej diety, antybiotyków itp. Zapewne ich populacja wyglądała inaczej u neandertalczyka a inaczej u ludzi współczesnych. Dokładnie tak samo jest z technosferą, w której żyjemy, tak jak owe bakterie w naszym jelicie. Owa technosfera nie przetrwałaby bez nas kilku lat na chodzie – tak samo jak my bez bakterii w jelitach. Tylko temu że nas nie obchodzi jak to działa, zawdzięczamy to że nie mamy pojęcia jak owa technosfera ewoluuje i w jakim kierunku ją pchamy/nas pcha. Bakterie w jelicie tez nie oceniają naszych decyzji ekonomicznych czy opinii na temat muzyki. Byleśmy im dostarczali żarcia. Tak samo my nie dbamy o to jak pralki i lodówki ewoluują, byle nam dostarczały tego czego o d nich oczekujemy. Jednak to oni JUŻ TU SĄ – owe podmioty technosfery która nas otacza sa tymi podmiotami które zdobędą wszechświat. To one przekroczą granice planety, układu słonecznego, może nawet dalsze granice. My zaś wyłącznie w ich wnętrzach. Nikt nie twierdzi ze ludzka kultura czy zdobycie dzikiego zachodu to zasługa bakterii jelitowych. nie ma mowy o tym by ktoś twierdził, że króliki zakróliczyły Australię z powodu bakterii które pozwalają im zjadać własne bobki! A mimo to one są tam gdzie króliki. A my – tam i tylko tam – gdzie mogą działać nasze maszyny. Nigdzie indziej. Relacja – coś jest potrzebne by coś mogło funkcjonować – nie jest relacja przyczynową – w sensie że powodem działania jest to co jest potrzebne. Tak więc fakt że mechanizmy technosfery spełniają wobec nas użyteczną funkcję ( jak my wobec bakterii) w żaden sposób nie przesądza że mamy na nie decydujący wpływ, że np. to my je określamy, ustalamy ich cele. To złudzenie wynikające wyłącznie z faktu, ze nie sposób porozumieć sie z pralką. Człowiek który wyciągałby stąd wniosek że oznacza to iż pralka jest nieistotnym i całkowicie od nas zależnym elementem byłby jak ktoś kto sądzi iż królik jako taki nie istnieje – bo jest tylko torbą na przenoszenie bakterii jelitowych…
Polecam lekryre ksziazek Moravca. W odroznieniu od pisarzy science fiction, to professor slynnego uniwersytetu slynny w swej dziedzinie, a konkretnie robotyce i AI
This is science fiction without the fiction–and more mind-bending than anything you ever saw on Star Trek. Moravec, a professor of robotics at Carnegie Mellon University, envisions a not-too-distant future in which robots of superhuman intelligence have picked up the evolutionary baton from their human creators and headed out into space to colonize the universe.
This isn’t anything that a million sci-fi paperbacks haven’t already envisioned. The difference lies in Moravec’s practical-minded mapping of the technological, economic, and social steps that could lead to that vision. Starting with the modest accomplishments of contemporary robotics research, he projects a likely course for the next 40 years of robot development, predicting the rise of superintelligent, creative, emotionally complex cyberbeings and the end of human labor by the middle of the next century.
Robot: Mere Machine to Transcendent Mind by Hans Moravec
Robot: Mere Machine to Transcendent Mind by Hans Moravec
This is science fiction without the fiction–and more mind-bending than anything you ever saw on Star Trek. Moravec, a professor of robotics at Carnegie Mellon University, envisions a not-too-distant future in which robots of superhuman intelligence have picked up the evolutionary baton from their human creators and headed out into space to colonize the universe.
This isn’t anything that a million sci-fi paperbacks haven’t already envisioned. The difference lies in Moravec’s practical-minded mapping of the technological, economic, and social steps that could lead to that vision. Starting with the modest accomplishments of contemporary robotics research, he projects a likely course for the next 40 years of robot development, predicting the rise of superintelligent, creative, emotionally complex cyberbeings and the end of human labor by the middle of the next century.
Polecam!
@kakaz: odpisalem ale zniklo
@kakaz: Analogia z bakteriami dobra, ale nie calkiem. To co pisze niejaki Moravec (moje posty znikly), to to ze w pewnym momencie bakterie jelitowe sie usamodzielnia I nie beda juz nas potrzebowaly. My owych bakterii bedziemy zas potrzebowac zawsze.
Znaczy się, że rację mieli Hegel i Marx, czyli że zmiany ilościowe powodują zmiany jakościowe, i ze tak właśnie działa ewolucja.
Tyle, że obecnie poziom osiągnięć naukowych mocno spadł, że w ostatnich latach to Nobla daje się za bzdety, ale to wynika głównie z tego, że postęp w kapitalizmie (i generalnie ustrojach opartych na wyzysku) możliwy jest głównie dzięki wojnom, i to poważnym wojnom, a tymczasem to od roku 1945 na świecie nie było jeszcze poważnej wojny, to znaczy takiej, w której co najmniej dwa mocarstwa walczą bezpośrednio ze sobą na froncie. Tyle, że dziś taka wojna oznaczała by koniec naszej cywilizacji, a więc raczej powinniśmy się pogodzić z tym, że nadszedł koniec realnego postępu, jako że cena zań jest zdecydowanie zbyt wysoka. Jedyna nadzieją jest więc tylko to, że kapitalizm doszedł właśnie do końca swych możliwości…
A.L.
To co stanie się z ludźmi? Będzie z nami tak jak z owymi Indiotami (Phools) z opowiadania Lema? Czy też raczej postęp techniczny wymusi ostateczny upadek kapitalizmu?
@streetcar Zastanawial sie nan tym Lymphater z Lema. Powiedzial ze ludzie beda odpoeiednikiem dzisiejszych wegorzy. Totalnie na marginesie
A.L.
Tak, albo będą wtedy ludzie tolerowani jako „żywe skamieliny”, albo też zostaną przerobieni na te lśniące krążki przez maszynę zwaną Dobrowolnym Upowszechniaczem Porządku Absolutnego (w skrócie D.U.P.A.). Jedno jest pewne, że kapitalizm się wtedy skończy.
@streetcar: Scenariusz z Matrixa jest mozliwy. Ludzie zostana uznani za „uzytecznuch idiotow” Inna opcja to taka ze ewoluujaca sztuczna inteligencja w trosce o wlasny byt podejmie decyzje na przykald takie ze niepotzrebnie zuzywa sie tyle pzrestzreni zyciowej an zupelnie bezuzyteczna uprawe jakichs tam „roslin” I zdecyduje sie wtkorzystac te tereny lepiej ze swojego punktu widzenia. Albo stwierdzi ze w atmosferze jest za duzo powodujacego korozje tlenu. Za zaszkodzi ludnosci? Nigdzie nie ejst powiedziane ze owa inteligencja mialaby sie w ogole ludzkoscia pzrejmowac. Albo ja zauwazac. Tak jak my sie nie pzrejmujemy losem drobnych stworzen karczujac lasy w Amazonii
A.L.
Karczowanie Amazonii jest zbrodnią kapitalizmu, a swoją drogą, to obawiam się, że już wypuściliśmy tego dżina AI z butelki (lejdejskiej) i na powrót go tam się nie da wsadzić!
@streetcar: Dla relaksu proponuje popatrzec co Najlepszy Z Ustrojow zrobil z Morzem Aralskim
@A.L. ” To co pisze niejaki Moravec (moje posty znikly), to to ze w pewnym momencie bakterie jelitowe sie usamodzielnia I nie beda juz nas potrzebowaly. My owych bakterii bedziemy zas potrzebować zawsze.” – no ale to jest w żaden sposób nieuprawnione rozumowanie ( to znaczy nie znaczy że tak nie może byc, może, ale nie da sie tego wywieść z analogii bakterii jelitowych. z tej analogii wynika coś wręcz przeciwnego – dziecko rodzi się częściowo bez niektórych bakterii i zostaje nimi zakażonych dopiero po urodzeni, z mlekiem matki, pożywieniem. I one bez tego środowiska jelita – a więc bez nas – właściwie żyć nie mogą. I to jest właśnie ta część analogii o która mii chodzi – rodzaj symbiozy czy pasożytnictwa. Wydaje mi sie on znacznie lepszą analogią relacji człowiek-maszyna niż pomysł że „maszyny to tacy lepsi ludzie” który szczerze mówiąc jest dosyć prostacki ( Leibnitz rozważał rozum ludzki jako zegarek, Grabiński, polski pisarz SF pisał o opętanych parowozach, w latach 90-tych czytaliśmy o zbuntowanych internetach – ludzie po prostu mają wtórne pomysły i zawsze wyjaśniają nieznane-nieznanym).
Tymczasem w rzeczywistości zachodzą zgoła inne, i w sumie całkowicie niepodlegające kontroli związki. Na przykład automatyczna translacja treści – sztandarowy przykład algorytmów AI ( pod to podpada również Siri i setki innych rozwiązań jak choćby komputery szachowe IBM-a itp) . Naiwna bajka głosi że gągiel opracował programik który czyta po angielsku a mówi po polsku. Tymczasem gagiel zrobił zupełnie coś innego – przeanalizował wielką ilość danych cyfrowych o rozmaitych związkach frazeologicznych ( Big data na tym polega!) i opracował modele probabilistyczne występowania n-gramów. modele te połączono z pewnym modelem gramatyki ( co sprawia że dl pewnych języków – tam gdzie modele gramatyk są lepsze – translacja jest lepszej jakości) danego języka i TaADA! AI tłumaczy z czeskiego na nasze. Problem wszakże w tym, że język, jak język – ewoluuje. Bez DARMOWEJ PRACY milionów ludzi dostarczających takim silnikom translatorskim tekstów do uczenia się – nic by nie działało. i tu rodzi się nam wielki konflikt, bo istnienie tego co napisałem dużymi literami – jest negowane. A jednak aby dokonać translacji z angielskiego na czeski – trzeba dysponować pewną baza tożsamych tekstów w obu językach! A gągiel nic takiego nie stworzył – nie opłacił tysięcy tłumaczy z czeskiego – po prostu ukradł masę tekstów z internetu i użył w celach zarobkowych. Wolno mu było? Być może wszystkie te teksty były starsze niż te 86 lat które ma Myszka Miki, ok, tak wystartowali nie łamiąc praw autorskich. ale skoro język ewoluuje, w jaki sposób zdobywają nowe dwujęzyczne teksty nieobjęte prawami autorskimi? Jumając je z internetu, drodzy państwo, a także sprytnie wykorzystując naiwność maluśkich i proponując im aby poprawili źle przetłumaczony tekst – bo to wielka -chała- chwała – poprawić gągla! co w tym złego? A no pomagamy gaglowi który korzysta z probabilistycznego enginu AI by go karmić treścią – a ów engin pozbawia ( sprzężenie zwrotne!) części dochodów tłumaczy którzy są najważniejszym, bo profesjonalnym i pewnym, źródłem danych do napędzania owego silnika. czyli w tym wypadku technosfera AI zachowuje się jak typowy pasożyt, gągiel nawet nie płaci podatków żeby tym tłumaczom dotować bilety komunikacji miejskiej, co gorsza technologia ta egzystuje „w internetach” więc nawet nie wiadomo jak skutecznie dokonać takiej redystrybucji. mamy wiec łańcuch pokarmowy – mamy pasożyta, mamy AI. Destrukcja? jest. Panujemy nad nia? nie. zaprojektowana? NIE! Sama wyszła. Moravec nawet sobie nie wyobraził takiego scenariusza….