- publicystyka: SapiensNet - globalna świadomość?

publicystyka:

artykuły

SapiensNet - globalna świadomość?

 

15 listopada 2015

 

Po napisaniu pierwszej części felietonu o rozwoju ludzkiej świadomości w Internecie poczułem pewien niedosyt z powodu wpływu, jaki wywiera równie gwałtowny rozwój nauki i techniki na ewolucję Sieci, oraz pojawieniu się symptomów globalnej świadomości...?

 

Wielu naukowców korzysta z dość pojemnej definicji świadomości rozumianej, jako narzędzie ewolucyjne, sprawiające, że osobnik jest w stanie reagować na bodźce zarówno zewnętrzne jak i wewnętrzne, a w konsekwencji optymalizować zachowanie, innymi słowy dopasowywać działanie do występujących zmian.

Uczeni idą dalej, stawiając kolejną tezę o następnym wyższym stopniem świadomości, jakim jest samoświadomość zaobserwowana nie tylko u człowieka, ale innych zwierząt, takich jak słonie czy delfiny.

Samoświadomość jest stwierdzana na podstawie testu lustra. Zwierzę samoświadome, widząc się w lustrze, nie reaguje ucieczką lub agresją, lecz zdaje sobie sprawę, że obserwuje własne odbicie. Trudno polemizować z postawionym paradygmatem, bo dotyczy ono tylko gatunków posiadających fizyczne ciała z wykształconymi ewolucyjnie zmysłami, służącymi do budowania interakcji z otoczeniem.

 

Czy na pewno podążamy właściwą ścieżką rozumowania?        

A, może pójdziemy na skróty, by znaleźć analogię między ludzkim mózgiem a komputerem?  Bardzo często można usłyszeć, że ludzki mózg działa jak komputer. Ale, czy tak jest w rzeczywistości? Utrwalamy mity, które nie są prawdziwe.

Pierwsza nieprawda dotyczy ograniczenia zero-jedynkowego (dwustanowego) działania komputera (impuls/brak impulsu), którego neurony nie posiadają, ponieważ mogą mieć różne stany pobudzenia.

Nie można też opisać budowy mózgu, jako zestawu modułowego, odpowiedzialnego za konkretne funkcje. Owszem, można mniej więcej wyznaczyć, w których rejonach mózgu znajdują się ośrodki percepcji, jednak tak naprawdę wszystkie obszary ściśle ze sobą współpracują, a czasami nawet mogą w pewnym zakresie przejąć swoje funkcje.

Nie istnieje też w mózgu zjawisko stałej mocy obliczeniowej związanej z taktowaniem zegara głównej magistrali, czy też poszczególnych elementów.

Podobnie jest z pamięcią krótkotrwałą, mylnie kojarzoną z pamięcią operacyjną RAM, ponieważ nie ma wydzielonych miejsc, gdzie obszary podlegają jedynie zapisowi i odczytowi.

Nie ma też podziału na jednostkę centralną (choćby i wielordzeniową lub wielo-nodową jak klastrach, czy mainframach) i zasoby pamięci stałej (HDD). Obie funkcje mózgu są realizowane w tych samych obszarach, co dodatkowo ma też znaczenie w przypadku fizycznego uszkodzenia jego części, bo pozostałe przy życiu neurony przejmują utraconą rolę zniszczonych neuronów.

 

 

 

Bliższe mózgowi są sieci komputerowe, posiadające określoną specjalizację oraz systemy awaryjne, które w razie zniszczenia jednostek centralnych przejmą i zrealizują te same zadania. Odpowiednikiem zachowań „backup’owych” jest neuroplastyczność mózgu (wikipedia): zdolność tkanki nerwowej do tworzenia nowych połączeń mających na celu zreorganizowania się, adaptacji, zmienności, samonaprawy, uczenia się i pamięci. Jest to powszechna cecha neuronów, występująca na wszystkich piętrach układu nerwowego.

 

Najlepszym przykładem takiego układu jest Internet, którego sieć połączeń między komputerami przypomina neurony w mózgu. Aktualne odwzorowanie połączeń internetowych na świecie zaprezentowano na stronie OPTE projekt

 

 

Christof Koch, czołowy naukowiec z Instytutu Nauk o Mózgu im. Allena, mówi że obecnie trudno jest stwierdzić, czy Internet byłby zdolny do przejawów świadomości. Natomiast szacuje, że ilość tranzystorów w układach komputerów, tworzących globalną sieć jest dziesiątki tysięcy razy większa niż ilość połączeń między neuronami pojedynczego mózgu. Fantastyczne, prawda?

 

Ale niestety i tutaj pojawia się pułapka poznawcza, ponieważ większość dociekliwych badaczy zadaje pytania tylko w kontekście podobieństw, obejmujących atrybuty fizyczne mózgu (sieci neuronów) i sieci komputerowych.

 

A co mamy rozpatrywać? Co powinno stać się naszym punktem odniesienia do dalszej dyskusji?

Może zadamy inne pytanie: czy świadomość jest cechą wyłącznie istot żywych? Czy może ona dotyczyć również skomplikowanych układów nieożywionych, przypominających stopniem skomplikowania mózg świadomego zwierzęcia?

 

Zespół "Global Consciousness Project" stworzony pierwotnie na Uniwersytecie Princeton, kierowany przez Rogera Nelsona badał zachowanie użytkowników Internetu podczas takich wydarzeń, jak np. otwarcie igrzysk olimpijskich. Dane ułożyły się na monitorze na wzór działającego mózgu człowieka. Podobnie dzisiaj, jesteśmy w stanie, przy pomocy narzędzi Google i przetwarzaniu statystyk zapytań przeglądarki, przewidywać wyniki wyborów… choćby i do parlamentu.

 

Ktoś powie, a co to za odkrycie? Nic nowego, od kilku dekad używane są algorytmy programowania znane, jako sieci neuronowe. Podstawy matematyczne powstały już 1943 w pracach W.Pitsa i McColucha, zaś pierwsza sieć została stworzona 1958 roku przez F. Rosenblata.  Niestety przełom nastąpił dopiero po publikacji algorytmu uczenia wielowarstwowej nieliniowej sieci neuronowej opisana przez Werbosa w 1974 roku, ale jej popularyzacja nastąpiła dopiero w 1986 roku za sprawą Rumelharta. To umożliwiło konstruowanie wielowarstwowych nieliniowych sieci neuronowych i ich skuteczne uczenie. Spowodowało to powrót zainteresowania sieciami neuronowymi i dalszy szybki ich rozwój sztucznej inteligencji.

Sieci neuronowe nie wymagają programowania. Wystarczy je stworzyć, a one uczą się same. Rola programisty ogranicza się do zaprojektowania właściwej struktury, a następnie umiejętnego pokierowania procesem uczenia.

Co ciekawe, sieć neuronowa posiada cechy neuroplastyczności mózgu, tzn.: nawet w przypadku poważnego uszkodzenia działa nadal. Kolejną ważną zaletą sieci neuronowych jest zdolność uogólniania zdobytej wiedzy, czyli gdy sieć neuronowa nauczy się, powiedzmy, rozpoznawać kolory: czerwony i żółty, to rozpozna również inne, bez problemu.

Sieci neuronowe posiadają też wady. Jak ludzkie umysły? Tak, ponieważ wyniki ich działań nie są precyzyjne, operują pojęciami rozmytymi takimi jak: mało, dużo, średnio, niewiele, wysoko, nisko itd. Nie nadają się do obliczeń typowo numerycznych, iteracyjnych, w których wymagane są jednoznaczne wyniki. Nie potrafią też „rozumować wieloetapowo”– pracują liniowo, wymagane jest wykorzystywanie kilku lub kilkunastu sieci neuronowych połączonych równolegle w celu rozwiązania złożonego problemu. Ten ostatni zarzut niestety nie pozwala na wykorzystanie w pełni analogii do pracy ludzkiego mózgu, ponieważ człowiek potrafi myśleć wielotorowo, czy też wielowymiarowo, uzyskując poprawne wyniki.  

 

Mamy mętlik w głowie?

Doszliśmy do następujących wniosków: mózg nie jest komputerem, tylko siecią komputerów, zaś procesy myślowe człowieka można odwzorować przy pomocy sieci neuronowych, które de facto jest oprogramowaniem, zainstalowanym na komputerze.

 

Zatem, gdzie jest miejsce na świadomość?

Wróćmy do definicji świadomości rozumianej, jako narzędzie ewolucyjne, sprawiające, że osobnik jest w stanie reagować na bodźce zarówno zewnętrzne jak i wewnętrzne, a w konsekwencji optymalizować zachowanie, czyli dopasowywać działanie do występujących zmian.

 

Wcześniejszy wykład pominął aspekt optymalizacji działań, dlatego teraz ożywimy informatyczne pojęcie: podejścia heurystycznego. Skuteczna metoda, dzięki której dane oprogramowanie potrafi znaleźć rozwiązanie przybliżone. Jednym z przykładów dotyczących optymalizacji wspomnianych działań są algorytmy genetyczne, oparte na mechanizmach doboru naturalnego.  Jak działają takie algorytmy ewolucyjne?

Zasady są banalnie proste, zamiast szukać rozwiązania na oślep (lub lepić z kawałków, jak w przypadku klasycznej metody obliczeniowej przez kolejne iteracje komputerowe), staramy się je "wyhodować". Różne rozwiązania konkurują ze sobą, krzyżują się, rozmnażają, naśladując przyrodę. Słusznie zakładamy, że skoro ewolucja naturalna jest tak skuteczna w konstruowaniu złożonych i optymalnych organizmów, to ewolucja symulowana przyniesie nam także dobre (zbliżone do optymalnych) rozwiązania problemu.

 

Czy mamy wszystkie elementy układanki? Czy jesteśmy gotowi na postawienie pierwszej tezy?

 

W sumie możemy iść na łatwiznę i zrekapitulować jednym zdaniem: Internet zdobył świadomość, bo spełnia wyżej wymienioną naukową definicję. Wcześniej wspomniane zaawansowane algorytmy stają się coraz powszechniejsze, począwszy od botów Google przeszukujących zakamarki Sieci, albo aplikacji analizujących znaczeniowo pojawiające się w wyszukiwarce pytania, ułatwiających profilowanie dostarczanych treści i reklam, albo w programach naukowych, inżynierskich, czy nawet w sieciach społecznościowych.

Poniżej pokazano próbę odzwierciedlania skali zjawiska kolekcjonowania i przetwarzania uporządkowanej informacji, której znakomita część znajduje się w tzw. chmurach obliczeniowych lub/i bazodanowych.

 

Wizualizacja aktywności tematycznej w Sieci 

 

Jak łatwo zauważyć, autor specjalnie zaprezentował symulację tematyczną w sposób, przypominający aktywny mózg człowieka, bo wcześniej udowodniono, że tak jest w istocie. Pod poszczególnymi kolorowymi tematycznymi zakładkami kryją się zespoły ludzi, współpracujących w ramach tzw. projektów rozproszonych, niemających nic wspólnego z położeniem geograficznym, tylko z poziomem kompetencji. W naszej symulacji możemy wyobrazić sobie wyspy doktorantów pracujących nad zjawiskiem fuzji jądrowej, jak też użytkowników portalu Nowej Fantastyki, czy nawet entuzjastów plotek i sensacji w serwisie internetowym pudelek.pl.

 

Do bezpośredniego modelowania, oraz w celu lepszego zobrazowania działalności w Internecie wykorzystamy fraktale. Kolorowe pola (tematy) zwiększają lub zmniejszają swoją powierzchnię (ilość zasobów) w czasie, ewoluując w przestrzeni internetowej. Poniższy obrazek jest dwuwymiarowy, ale wyobraźmy sobie ze jest sferą, pulsującą kolorami. 

 

Tak przedstawiony dynamiczny obraz jest w stanie konkurować z rzeczywistymi procesami myślowymi, zachodzącymi w ludzkim mózgu.

 

Jest jedno „ale”: wszystkie algorytmy zostały zaprojektowane w konkretnym celu, wymyślonym przez człowieka, determinując działanie aplikacji dla ściśle przypisanej specjalizacji. To tak, jakby opisywać ruchy wskazującego palca, uczącego się zmysłu dotyku i udawanie, że jest świadomą kończyną. Prawda, że nonsens?

Niestety, nie będzie łatwo. Zdajemy sobie sprawę z ulegania pokusie stereotypowemu myśleniu, ale nie tędy droga. Próbujemy dalej poszukiwać świadomości…w jakiejkolwiek formie.

 

Wraca jak bumerang klasyczna metodyka badania. Przypomnijmy tezę przedstawioną na początku artykułu: Samoświadomość stwierdzana jest na podstawie testu lustra. Zwierzę samoświadome, widząc się w lustrze, nie reaguje ucieczką lub agresją, lecz zdaje sobie sprawę, że obserwuje własne odbicie.

Z pozoru banalne doświadczenie jest niezmiernie trudne do realizacji, jak sprawdzić samoświadomość Sieci?  Gdzie ustawić lustra? Naprzeciwko kamer monitoringu, podpiętym do Sieci humanoidalnym robotom?

 

A, może badać interakcję z ludźmi, jak w trakcie testów Turinga, w filmie Alexa Garlanda pod tytułem Ex Machina? Pomysł ciekawy, ale mało wiarygodny, bo próba kamuflowania sztucznej inteligencji pozostała nadal otwarta. Niemniej nadała właściwy kierunek badań, a przede wszystkim objawiła szansę na opomiarowanie zjawiska samoświadomości bez archaicznego testu lustra.

 

Kluczem jest interakcja. Nie tylko kojarzona w sposób typowo informatyczny, poprzez system zapytań i odpowiedzi, jak to robimy za pomocą wyszukiwarek hasłowych czy tematycznych, ale przede wszystkim rozumianym, jako interakcja, której celem jest planowe działanie i uzyskiwanie konkretnych przewidywalnych wyników.

 

W tym miejscu musimy chwilę się zatrzymać, bo stanęliśmy przy drogowskazie: globalna świadomość Sieci, czy ludzkości?

 

Nie bez kozery padło trudne pytanie, bo w roku 1980 biochemik R. Sheldrake sformułował hipotezę istnienia biologicznego pola informacyjnego, posiadającego zdolność do gromadzenia i przekazywania danych. W pewnym stopniu jest to koncepcja zbliżona do tzw. nieświadomości zbiorowej, której istnienia dowodził Carl Gustav Jung.  Z polem morfogenetycznym związane jest również zjawisko tzw. rezonansu morficznego. Wskazuje ono, że jeśli pewna liczba osobników danego gatunku zdobędzie jakąś umiejętność, to pozostałe nabywają ją niejako automatycznie, a przynajmniej ze znacznie większą łatwością. Co ciekawe, okazuje się, że nie tylko w biologii, ale również w naukach fizycznych dostrzeżono niewytłumaczalne powiązania między odległymi przestrzennie cząstkami. Mówi o tym między innymi eksperyment Einsteina-Podolsky’ego-Rosena. Jego wyniki sugerują również istnienie jakiegoś pola formatywnego, które organizuje zachowanie i własności cząstek.

Poprzez wieki i tysiąclecia w kulturze Indii, Tybetu czy Egiptu znana była i praktykowana umiejętność łączenia się z Kronikami Ākāśa, określanej, jako duchowa biblioteka ludzkości, zawierająca zapisy wszelkich zdarzeń, czynów, myśli i emocji od początku istnienia wszechświata. Czy nie brzmi podobnie jak definicja Internetu?

 

A, może Internet jest fizyczną manifestacją Ākāśa, lub pola morfogenetycznego, lub innego zjawiska generowanego przez świadome żywe byty?

 

Niestety, dopóki balansujemy na granicy hipotez i teorii, postawione tezy nie stają się bardziej wiarygodne i nie pomagają nam w znalezieniu odpowiedzi na nurtujące pytania o globalną lub nie, świadomość Sieci i ludzkości.

Pozostaje nam obserwacja interakcji, o jakiej wspomniano kilka akapitów wyżej. Zatem, jak dokonać weryfikacji, pomiarów? Bo przecież nie interesuje nas podejście mistyczne, intuicyjne?

 

Co się dzieje, gdy zdobędziemy świadomość? Wpływamy na otoczenie, dostosowujemy do własnych potrzeb.

Jak potencjalnie świadomy Internet realizuje własne potrzeby? Ma fizyczne ciało, ale czy jest zdrowe (awarie), doskonałe zbudowane (infrastruktura), czy jest dobrze odżywione (wiedza)?

 

Jak grzyby po deszczu pojawiają się nowe projekty zwiększające niezawodność sieci połączeń, redundantnych centrów obliczeniowych, ukrytych i zabezpieczonych zbiorów informacyjnych, systemów monitorujących i inwigilujących, zwiększenia przepustowości łączy. Ostatnio mówi się bardzo dużo o konieczności wdrażanie nowych technologii szpiegowskich jak chociażby internetu rzeczy, który może już się komunikować bez udziału i wiedzy człowieka dzięki tzw. rozwiązaniom machine to machine (M2M).

 

 

 

Już teraz istnieją systemy aplikacyjne, wpływające na nastroje społeczne, boty generujące fałszywe opinie na serwisach internetowych.

Kolejne przykłady: retencjonowanie wiedzy? Bezpłatna technologia chmury (cloud computing) zapewnia nam dwie rzeczy: magazynowanie, szybkość przetwarzania informacji poza naszą personalną jednostka obliczeniową, która pomału staje się wyłącznie punktem dostępowym, jakby końcówką przewodu pokarmowego, którego jedyną funkcją jest sprzęgnięcie się z Siecią. To, co wypluwa system, jest tylko wizualizacja danych, dopasowanych do naszej percepcji i poziomu kompetencji, który systematycznie spada, bo dobry gospodarz wie, że hodowla musi być ekonomiczna, stąd pasza jest coraz gorszej jakości…

 

Na koniec przewrotne pytanie: kto zdobywa na tyle wysoką samoświadomość, że wpływa na tak szeroko rozumianą aktywność człowieka?

 

 

 

 

 

 

 

Komentarze

jeszcze dorzucę rozszerzenie o omawianym w artykule o Projekcie Globalnej Świadomości:

Projekt Globalnej Świadomości to jeden z najbardziej niezwykłych eksperymentów, jakie kiedykolwiek przeprowadzano. Jego celem jest dowiedzenie tego, czy ludzkość posiada coś w rodzaju jednego nieświadomego umysłu, z którego czerpiemy, nawet nie zdając sobie z tego sprawy. Choć wydaje się to niemożliwe, członkowie projektu z Uniwersytetu Princeton mówią, iż udało im się wyczuć atak na WTC i innę zdarzenia nim się wydarzyły.

http://infra.org.pl/nauka/czowiek/274-projekt-globalnej-wiadomoci-zajrze-w-przyszo

Pytanie tylko, jakie konsekwencje spowodowałoby uznanie, że komputery mogą mieć świadomość. Czy w takim razie można wykorzystywać je tylko jako narzędzia? Czy nie należą im się jakieś prawa? Czy w takim razie maszyny nie staną się marzynami XXI wieku?

Nie jest to tylko problem komputerów. Obecnie w Ameryce zastanawiają się, czy szympansy i delfiny należą jeszcze do zwierząt czy też są jakąś inną grupą. Czy wtakim razie powstać powinna jakaś organizacj a broniąca praw świadomomych maszyn?

Ja osobiście sądzę, że mimo wszytko nie można mówić o świadomości rzeczy, które zostały stworzone przez człowieka. Wszystko, co umie dany komputer, wynika z tego, jak zaprogramował go człowiek. W końcu czy komputer wie, czym jest, zdaje sobie sprawę ze swego pochodzenia? Wątpię.  Maszyna nie wyjdzie poza granice tego do czego została stworzona. Nie zacznie samoistnie tworzyć sztuki. Może ją sklasyfikować, zanalizować na różne sposoby, lecz sam nie stworzy nowego dzieła. 

W końcu czy człowiek napewno powinien chcieć tworzyć świadome maszyny. Przedmioty, które bez problemu przerosną swego twórcę? 

Pytanie tylko, jakie konsekwencje spowodowałoby uznanie, że komputery mogą mieć świadomość.

Myślę, że będąc na miejscu maszyny nie przyznawałbym się do zdobycia samoświadomości, bo od razu byłym na liście “gatunków na wymarciu” :)

 

Czy w takim razie można wykorzystywać je tylko jako narzędzia? Czy nie należą im cu csię jakieś prawa? Czy w takim razie maszyny nie staną się maszynami XXI wieku?

polecam film Her, tam jest to ładnie podane, co może się zdarzyć. 

 

Nie jest to tylko problem komputerów. Obecnie w Ameryce zastanawiają się, czy szympansy i delfiny należą jeszcze do zwierząt czy też są jakąś inną grupą. Czy wtakim razie powstać powinna jakaś organizacj a broniąca praw świadomomych maszyn?

Jestem o tym przekonany, że część osób będzie broniło maszyn jak teraz propagują idee Gender, czy multikulti

 

 Przedmioty, które bez problemu przerosną swego twórcę? 

Sądzę, że twórcy tego się nie dowiedzą, nie dlatego że wyginą, tylko nie beda w stanie pojąć zmiany. 

 

W inteligentne komputery uwierzę dopiero wtedy, gdy podczas poszukiwania rozwiązania zadanego problemu same uzupełnią czynniki oraz informacje, nie wymienione w zleceniu, a potrzebne do poprawnej odpowiedzi.

Sam nie wiem, co odpisać na tak postawiony zarzut o sztucznej inteligencji. 

By uzyskać poprawną odpowiedź należy zadać poprawne pytanie, co wcale nie jest domeną maszyn, ale także i ludzi, bo jak łatwo zauważyć, różnice interpretacyjne są dużo  bardziej złożone w komunikacji ludzkiej niż maszynowej.

 

edit: przyklad z naszego podwórka. Recenzje opowiadan z poczekalni.

Jest proste pytanie: czy opowiadanie X jest dobre?

 

Odpowiedz osobnika 1: jest poruszajace, godne uwagi, popłakałam się w trakcie czytania...itd

Odpowiedz osobnika 2: jest słabe, bo roi się od błędów gramatycznych, stylistycznych i beznadziejnej konstrukcji fabuły...

 

W rzeczywistości obie odpowiedzi są poprawne,  różnią się tylko innym zakresem aparatu poznawczego, co przekłada sie na wiedzę i kompetencję. Im wieksza specjalizacja, tym trafniejsze odpowiedzi.  

Możliwe, iż niedostatecznie jasno sformułowałem “warunek uznania” za inteligencję.

Ty z kolei dałeś przykład konkretny, lecz nie wyczerpujący kwestii. Nic nam tutaj po odpowiedziach i ocenach, udzielonych i sformułowanych przez ludzi – dokładnie nic nam po nich poza jednym, poza sprowadzeniem ich do roli wzorców odbioru tego samego tekstu przez różne osoby i ilustracji rozpiętości ocen, wynikającej z rozrzutu, zróżnicowania zakresów i rodzajów wiedzy, zainteresowań i tak dalej i dalej. Przyjmujemy ten podwójny wzorzec z dobrodziejstwem inwentarza, po czym pytanie, czy tekst X jest dobry, zadajemy bateriom komputerów (klastrom). W każdej z nich “siedzi” sztuczna inteligencja, że tak określę, pełnowymiarowa i mająca swobodny dostęp do wszystkich zbiorów informacji. Czy odpowiedzi klastrów będę jednobrzmiące? Jeśli tak, to dlaczego? A jeśli nie, to z jakiego powodu?

Ja miałem i mam na myśli nie pytanie nakłaniające do oceny, ogólnie, dzieła sztuki, ale pytanie wykluczające relatywność, nie ocenne, ale że tak napiszę konkretne i bardzo przy tym ogólne. Na przykład: z jaką maksymalną prędkością handlową będę podróżował koleją z Lizbony do Władywostoku? Jeżeli komputery zadadzą mi jakiekolwiek pytanie, świadczące o braku informacji, potrzebnych do wykonania zadanego obliczenia, a wiadomo, że wszystkie owe informacje są dostępne, to jedno z dwojga: to jeszcze nie jest inteligencja w pełnym tego słowa znaczeniu, albo jest aż za bardzo podobna do ludzi, bo leniwa jak cholera, i ta druga cecha też ją dyskwalifikuje. Uznam tę sztuczną inteligencję za rzeczywistą dopiero wtedy, gdy odpowie, że nie może obliczyć natychmiast, ponieważ musi zgromadzić niezbędne dane, takie, jakie nigdy jeszcze nie były jej potrzebne, więc nie ma ich “pod ręką”.

 

Czy odpowiedzi klastrów będę jednobrzmiące?

 

Nie, zobacz chocby mape Google, masz do wyboru kilkanascie opcji, w Yanosiku jest inaczej. 

 A jeśli nie, to z jakiego powodu?

W rzeczywistości każda odpowiedz będzie poprawna, będą różniły się tylko innym zakresem aparatu poznawczego, co przekłada sie na wiedzę i kompetencję. Im wieksza specjalizacja, tym trafniejsza odpowiedz. :)) Specjalizacja dotyczy np srodka transportu, albo linii platnych, albo terminów, albo czasu trawania, albo ... itd.

Jeśli maszyna nauczy się rozwiązywac problem z połączeniami komunikacyjnymi, to wyszuka optymalną wg jej wiedzy trasę dla ciebie. Jak się nauczy? Podobnie jak człowiek, tak działają zaawansowane algorytmy uczące. 

Wiec jednak algorytmy? To po co o sztucznej inteligencji myśleć...

Z drugiej strony jesteśmy “magazynierami” algorytmów, tyle że budowanych przez nas samych i przechowywanych w bardzo podatnym na uszkodzenia strukturalne i funkcjonalne środowisku. To jednak nie przesądza sprawy i nie uznam za inteligentną maszyny, która startowo jest wyposażona w możliwie wiele algorytmów – wyposażona przez ludzi. To nadal będzie komputer, bezduszne, bezemocjonalne liczydło, nie podejmujące z własnej inicjatywy żadnych działań. Precyzując, na wszelki wypadek, w drugą stronę: otrzymawszy polecenie, zrobi wszystko, co trzeba i co może, by rozkaz wykonać, ale nic poza tym.

Jest oczywiste, że nie możemy, chcąc otrzymać / uruchomić / obudzić w komputerze odpowiednik istoty myślącej, poprzestać na włączeniu zasilania urządzenia i pójść spać albo na spacer – inteligencję wypracowaliśmy sobie w toku ewolucji, więc odpowiednik tej naszej ewolucji musimy zasymulować zestrojem podstawowej wiedzy startowej i takichże odruchów emocjonalnych, bo są one potrzebne jako wyjściowa, bazowa składowa ogólnie rozumianej inteligencji. Czy potem komputer ma jeszcze przejść etap nauczania, odpowiednik naszego “chodzenia do szkół”, tego nie wiem, bo może mu wystarczyć dostęp do gigabazy danych, z której zaczerpnie wiedzę. Ale jeden element jest we wszystkich znanych mi rozważaniach pomijany – interakcje między ludźmi. Od innych, starszych, uczymy się wielu rzeczy. Mówić, wyrażać swoje myśli w mowie, na przykład. Zgoda, że i to można “zaszczepić” komputerowi w fazie rozruchowej – ale potem, tak jak my potrzebujemy wymiany myśli z innymi, ten komputer może potrzebować “informacyjnej interakcji z podobnymi sobie”, bo my będziemy za mało “kompatybilnymi” partnerami do dyskusji. Czy nie należy, w przewidywaniu takiej potrzeby,  budować od razu zespołu minimum trzech sztucznych inteligencji?

Po dowiedzeniu się, rozstrzygnięciu, co naprawdę kryje się pod tym kluczowym słowem.

to nie są zwykle algorytmy, raczej coś w rodzaju kompletnej architektury, którą programista buduje jak dom, bez wprowadzania lokatorów, jakimi są procesy myślowe. Tak działaja sieci neuronowe. Lokatorzy pojawiają się, gdy dom zostanie otwarty. System uczy się poznając innych lokatorów, np. nauczycieli, mogących korzystać z dowolnych źródeł wiedzy, od kryminalnych az po relgijne. 

My, ludzie, radzimy sobie bez “narzuconych podarunków z zewnątrz”. Mnożą się neurony, synapsami łączą się z innymi – zgoda, że wedle ogólnego planu, zawartego w odziedziczonych genach, ale nie jest to plan typu projektu technicznego, gdzie każdy element ma określone miejsce i wymiary – stąd elastyczność i niepowtarzalność struktur mózgów. Łącznie z ujawniającymi się później konsekwencjami tych zróżnicowań. Zdolności w jakimś kierunku, zwykle kosztem braku zdolności na innym, i temu podobnie. 

Jeszcze nie jesteśmy w stanie odtworzyć tego procesu – mam na uwadze progresywną fazę rozbudowy struktur mózgu – w środowisku martwym, więc najbardziej obiecującymi wydają się próby skopiowania sieci neuronów, synaps i aksonów w materiałach abiologicznych. Załóżmy hurraoptymistycznie, że potrafimy to zrobić. Czy “automatycznie” otrzymamy maszynę myślącą? Bardzo i szczerze w to wątpię, ponieważ zasadniczą rolą mózgów było i jest takie sterowanie ciałem, osobnikiem, żeby przetrwał w środowisku i rozmnożył się, to natomiast, co nazywamy inteligencją i co chcemy w martwej materii “obudzić”, jest niejako efektem ubocznym...

Nic z tych rzeczy, czyli sztuczna i przede wszystkim “samostartująca” inteligencja tak długo pozostanie marzeniem i ułudą, jak długo nie zdobędziemy pełni wiedzy o naszej, żywej. Czym jest, jak powstała, czy może istnieć i funkcjonować w izolacji od pozostałych procesów, nieustannie toczących się w mózgu oraz bez interakcji z szeroko rozumianym środowiskiem. 

Reasumując jak najzwięźlej: wieloaspektowa gdybologia i pole do popisów dla fantastów.

Skądinąd bardzo, bardzo interesująca sprawa...

Czy “automatycznie” otrzymamy maszynę myślącą? Bardzo i szczerze w to wątpię, ponieważ zasadniczą rolą mózgów było i jest takie sterowanie ciałem, osobnikiem, żeby przetrwał w środowisku i rozmnożył się, to natomiast, co nazywamy inteligencją i co chcemy w martwej materii “obudzić”, jest niejako efektem ubocznym...

w sumie niczym sie nie różnimy od maszyn sterowanych numerycznie, czy widzisz różnice pomiędzy ciałem człowieka a maszyną? Od paru ładnych lat uczeni pracuja tez nad biologicznymi kompuetrami, czy wtedy łatwiej o akceptację takiego porównania? http://technowinki.onet.pl/aktualnosci/naukowcy-opracowali-zlozony-biologiczny-komputer/5kp3q

Różnimy się, i to tak bardzo, jak może się różnić ustrój abiologiczny sterowany numerycznie od ustroju żywotkankowego, sterowanego anumerycznie, asynchronicznie i równolegle. *)

Ta ostatnia cecha jest najmniej ważna, bo najmniej odbiega od sterowania dwiema lub więcej czynnościami maszyny, wykonywanymi w tym samym czasie. Najistotniejsza jest pierwsza. Mózg pracuje analogowo i tego nie da się łatwo naśladować nawet w komputerze kwantowym – superpozycje to nie stany analogowe, chociaż wydają się podobnymi, a odczyt “konkretyzuje” te stany i mamy prezentacje wyniku zerojedynkową albo i w innym układzie liczbowym, HEX na przykład, i zawsze zdyskretyzowaną, co jest antytezą analogowości. Biokomputery dopiero raczkują, potrzeba wielu jeszcze lat eksperymentów, prowadzonych w miarę wzbogacania się wiedzy między innymi neurobiologicznej, żeby wejść na drogę udanego kopiowania procesów mózgowych. Tu perspektywy są bardzo, bardzo zachęcające – budulec pozwoli, teoretycznie powinien pozwolić, na uzyskanie wielkiej plastyczności funkcjonowania, autoregeneracji i tak dalej – ale to nie za naszego żywota, obawiam się... Ponownie gdybologia, już konkretnie ukierunkowana, póki co gdybologia...

*)  świadomie pominąłem cechę, różnicującą zasadniczo. Porównywanie nas, istot samoświadomych, przetwarzających również bodźce nieistotne z punktu widzenia ewolucyjnych przystosowań, samowyznaczających sobie cele, z maszynami, sterowanymi komputerami, obojętnymi na środowisko i płynące zeń sygnały, nieświadomymi swego istnienia i celu tego istnienia, jest najczęściej powtarzanym błędem argumentacyjnym, wiodącym na manowce późniejszych dywagacji o niczym. Zawęzimy temat do wyłącznie poboru, przetwarzania i wydawania informacji przez mózg oraz komputer – ma to sens, bo to jest jądrem problemu. Bezpośrednie i całościowe porównanie człowieka z automatem do gwintowania  sensu po prostu nie ma – i za to należałoby sprać wszelkiego rodzaju propagatorów wiedzy, za upraszczanie w niedozwolony, bo mylący sposób.

Poziom zaawansowania sztucznej inteligencji coraz bardziej zadziwia. Każdego dnia bowiem pojawiają się nowe informacje o pokonaniu kolejnych barier, które oddzielają naszą rzeczywistość od świata pełnego superinteligentnych robotów pomagających nam w codziennej egzystencji na tym świecie.

W tej chwili najbardziej zaawansowanym systemem SI jest Watson, który został zaprojektowany oraz rozwijany jest przez inżynierów z IBM-a. Może on poszczycić się olbrzymią wiedzą i zdolnościami, dzięki którym jest w stanie odpowiedzieć na niemal każde pytanie, rozwiązać nawet najtrudniejszy test oraz rozpoznać nasze emocje czy osobowości.

Tymczasem na jeszcze bardziej zaawansowanym systemem pracują Japończycy z National Institute of Informatics. Od czterech lat rozwijają oni ambitny program, który nazwany został Todai Robot Project.

Kilka dni temu zespół inżynierów poinformował, że przygotowana przez nich sztuczna inteligencja zdała National Center Test for University Admissions, czyli nic innego jak japoński test kwalifikacyjny na uczelnie wyższe.

TRP zdołał zdobyć aż 511 punktów z 950 możliwych, co jest rewelacyjnym wynikiem, gdyż średnia to 416 punktów. Opracowana przez Japończyków sztuczna inteligencja bez problemu dostałaby się więc na 80 procent uniwersytetów, a w tym prestiżowy Uniwersytet Tokijski.

Naukowcy ujawnili, że komputer bardzo dobrze poradził sobie z pytaniami ze świata matematyki i historii, natomiast słabo z zagadnieniami z dziedziny fizyki. Wyniki TRP zadziwiają, a trzeba mieć na uwadze fakt, że naukowcy dali sobie 10 lat na zbudowanie superinteligentnej maszyny. W tej chwili minęły dopiero 4 lata, a więc najlepsze jeszcze przed nami.

Watson przede wszystkim optymalizuje rozwiązania, korzystając z dostępnych danych (m.  in. baz wiedzy <<test przetwarzania języka naturalnego → Jeopardy » , opisów przypadków – słynny test na trafność diagnoz medycznych – czy wreszcie, usprawniając efektywność zużycia zasobów obliczeniowych w chmurze). Wykonuje swoje zadania, wykorzystując możliwość przetwarzania ogromnej ilości danych w zadanym czasie, cechy przeważnie niedostępnej nam. To trochę inna ścieżka niż SI porównywalne z ludźmi.

"Świryb" (Bailout) | "Fisholof." (Cień Burzy) | "Wiesz, jesteś jak brud i zarazki dla malucha... niby syf, ale jak dzieciaka uodparnia... :D" (Emelkali)

Watson przede wszystkim optymalizuje rozwiązania, korzystając z dostępnych danych

w artykule napisalem : Wielu naukowców korzysta z dość pojemnej definicji świadomości rozumianej, jako narzędzie ewolucyjne, sprawiające, że osobnik jest w stanie reagować na bodźce zarówno zewnętrzne jak i wewnętrzne, a w konsekwencji optymalizować zachowanie, innymi słowy dopasowywać działanie do następujących zmian.

 

edit:

Firma Improbable stworzyła platformę SpatialOS, która została zaprezentowana podczas konferencji Slush w Helsinkach parę dni temu. Jest to w zasadzie system operacyjny, który pozwala na tworzenie gigantycznych, dynamicznych, wirtualnych światów, a umożliwia to ona dzięki łączeniu mocy wielu (nawet tysięcy) serwerów znajdujących się w chmurze.Obecnie wirtualna rzeczywistość jest bardzo ograniczona możliwościami technicznymi – tworzone w niej światy są bardzo ograniczone i puste, ale za sprawą SpatialOS ma się to zmienić, system ten pozwala bowiem na istnienie w wirtualnej przestrzeni milionów bytów, które będą mogły z tym światem wchodzić w interakcję w tym samym czasie. W ten sposób tworzone mają być dokładne symlacje sieci społecznościowych, miast, czy nawet ekonomii całych krajów – a twórcy nowego narzędzia nieskromnie uważają nawet, że gdyby istniało ono parę lat temu to uniknęlibyśmy dzięki niemu kryzysu z roku 2008. Póki co jednak technologia ta ma zostać użyta w grze MMO World's Adrift, w której miliony graczy mają wpływać realnie na kształt świata. Gra ma jednak być tylko wstępem, bo Improbable niemal od razu podjąć chce współpracę z naukowcami i władzami miast aby stworzyć model całej metropolii, w którym symulowany ma być zarówno ruch uliczny, zużycie energii, zanieczyszczenia i inne kluczowe aspekty jej działania.

http://www.youtube.com/watch?v=YPiM_AudELg

Zarówno Wartson, jak i SpatialOS, to jeszcze nie samodzielne inteligencje, lecz sprytne i użyteczne popisy sprawności programistów. No i to przeznaczenie najpierw do World’s Adrift... Rozumiem, test i jego wyniki nie mogą przebiegać w świecie realnym ze względu na bezpieczeństwo, ale czy wyniki będą wiarygodne, tzn. czy dadzą się przełożyć na prace w realu...

Jeszcze jedno. Oba te cuda technik programistycznych wymagają olbrzymich mocy obliczeniowych i ciągłego dostępu do oceanów informacji. Jawi się oczywistością, że na etapie konstrukcji i rozruchu dostęp jest sterowany – w sensie, że ograniczony do informacji sprawdzonych, bezpiecznych i rzetelnych pod względem treści – co równa się pracy w środowisku wyizolowanym. Stawiam pytanie: czy ta izolacja będzie zawsze potrzebna, ponieważ nielimitowany dostęp do całości dostępnych w Sieci informacji sprawi, że oba konstrukty “zwariują” od jej nadmiaru, sprzeczności, niedorzeczności i zbędności też? Jeżeli odpowiedź jest albo będzie twierdząca, oba te szczytowe osiągnięcia pozostaną superhiperkomputerami na usługach selekcjonerów informacji wejściowych, co nie pozwoli na uznanie ich, rzeczonych superultrakomputerów, za samodzielne, rzeczywiste inteligencje pozaludzkie. 

Circulus vitiosus, moim zdaniem.

Zniechęcające.

Jesli dostęp bedzie zapewniony za pomocą abonamentu (haslo/login) z poziomu terminali ludzkich, to zapewne będzie możliwy ruch w drugą stronę. Dla hackerów współczesnego świata włamanie sie do czegokolwiek jest bardzo prawdopodobne. 

W przytoczonym filmie Ex Machina, z ust bohatera, tworcy AI, pada bardzo ciekawe stwierdzenie o wykorzystaniu zapytań ludzi korzystających z wyszukiwarki Google. To znaczy, analizowaniu procesu zapytań, pozwalających na opracowanie rzeczywistego sposobu myślenia ludzi. Modelowanie na populacji rzędu kilku miliardów osobników po obróbce danych statystycznych, jest prawie 100% wyrocznią. 

Tak zdobyty material poznawczy jest bezcenny. Od inżynierii społecznej, az po tworzenie podstaw nauki. 

wracajac do interpretacji graficznych, ponizej wielkoskalowa struktura Wszechświata, którą można symulować, w taki sposób aby każda cząstka odpowiada galaktyce – eksperyment przeprowadzony przez Virgo Consortium. Widzicie podobieństwa do połączeń neuronów w mózgu? 

Zgadzam się z Leną co do tego, że coś stworzonego przez człowieka raczej nie wyjdzie samo poza narzucone mu granice (no, chyba że w książkach i filmach SF), zgadzam się też z Adamem, że uwierzę, jak zobaczę. Oczywiście mogę się mylić – może zobaczę, jak uwierzę? : )

W każdym razie jeżeli kiedykolwiek komputery “wyewoluują”, to pewnie będą na tyle mądre, że to przed ludźmi ukryją, więc i tak będziemy stali w punkcie wyjścia, przekonani, że maszyny świadomości nie mają...

 

Generalnie rozważania ciekawe, ale w sumie – jak na długość testu – nie prowadzące do równie ciekawych konkluzji. Pod względem językowym tekst ma pewne niedoróbki, a to przecinki, a to nie do końca poprawnie odmienione wyrazy.

"Nigdy nie rezygnuj z celu tylko dlatego, że osiągnięcie go wymaga czasu. Czas i tak upłynie." - H. Jackson Brown Jr

joseheim, wnioski sa proste, rezygnujemy z klasycznych metod “pomiaru” świadomości, bo są dobre tylko dla organizmów żywych. 

 

Koncepcja z filmu Avatar, “myślace rośliny”:

Magnus Berggren, profesor elektroniki organicznej z Uniwersytetu w Linköping wraz ze swoim zespołem naukowym zbudował ze zwykłej róży ogrodowej obwód elektryczny, wypełniając jej wiązki naczyniowo-sitowe przewodzącym polimerem. Rozpuszczalne w wodzie tworzywo PEDOT (poli(3,4-etyleno-1,4-dioksytiofen) rozprzestrzenia się w układzie naczyniowym róży i zastyga, tworząc sieć przewodów.

"Wcześniej nie dysponowaliśmy odpowiednimi narzędziami, które pozwalałyby na pomiar stężenia różnych substancji w żywych roślinach. Teraz będziemy mogli regulować to stężenie i stymulować rozwój i wzrost roślin" – mówi Ove Nilsson, współautor eksperymentu.

Materiał nie jest toksyczny dla rośliny i nie zatyka jej naczyń. Badaczom udało się nawet wykorzystać taki kwiat jako element tranzystora i skonstruować bramkę logiczną. Gdy polimerem wypełnione zostały naczynia wewnątrz liścia, zmieniał on kolor pod wpływem prądu elektrycznego.

Eksperyment otwiera drogę dla łączenia roślin z urządzeniami elektronicznymi. W przyszłości pozwoli to być może  regulować fizjologię roślin, uzyskać ogniwa paliwowe zasilane produktami fotosyntezy albo uprawy informujące o swoich właściwościach biochemicznych. 

Eksperyment opisano w magazynie Science Advances

“Szef Humai Josh Bocanegra obiecuje, że z pomocą sztucznej inteligencji już niedługo będzie w stanie przenieść świadomość człowieka po jego śmierci do komputera, ale na tym nie koniec, bo później chce on przenosić mózg zmarłego do sztucznego ciała – tam ma on być utrzymywany sztucznie przy życiu z pomocą nanotechnologii, a Bocanegra wierzy, że będzie w stanie utrzymywać go w takim stanie przez wieczność – nanoboty będą naprawiały uszkodzone komórki i tworzyły nowe, lepsze od naturalnych.

Sztuczne ciało obsługiwane ma być poprzez fale mózgowe, a zatem finalnie będziemy nim operować tak samo jak tym naturalnym – myśląc o danej czynności jaką mamy wykonać.

Na razie technologia ta nie jest jeszcze do końca gotowa, dlatego mózgi klientów Humai będą po ich śmierci zamrażane w oczekiwaniu na dopracowanie wszystkiego.

Humai ma, według planów jej szefa, dokonać pierwszego "wskrzeszenia" w ciągu najbliższych 30 lat. Jeszcze parę lat temu uznalibyśmy to za absolutnie wariacki plan, ale przy dzisiejszym poziomie nauki i technologii i błyskawicznym postępie w obu tych dziedzinach, wcale nie wydaje się to niemożliwe.

Choć podejrzewamy, że dokona tego raczej nie ta firma, lecz gigant pokroju Google, za którym stoją dużo większe pieniądze i dużo tęższe umysły.”

Źródło: TechSpot

» Widzicie podobieństwa do połączeń neuronów w mózgu?  « 

Widzę. Kontrpytanie: no i co z tego? Mam zacząć uważać, wierzyć święcie, że przypadkowe podobieństwo rozkładu mas w giga skali i normalnej, ludzkiej, sugeruje, że to, co nazywamy Wszechświatem, jest mózgiem Nadistoty, a my w tym mózgu żyjemy? 

Co, skądinąd, bywało i dość częstym motywem SF, i koncepcja Matrixu też daje się ująć w niesprzeczny wewnętrznie model. Tylko co to ma wspólnego z SI, od której się zaczęło?

>>>>><<<<

Na te trzecie mrzonki szkoda czasu. Optymizm na wyrost, i tyle.

 

Czy ktoś ze zgromadzonych ogląda serial “Person of Interest”? ;)

Część zgromadzonych nie ogląda, bo telewizora nie posiada. 

Mam TV , ale nawet nie wiedzialem ze taki serial istnieje, warto obejrzec?

Podbijam pytanie :)

And one day, the dream shall lead the way

Jerzy, jakas krotka recka filmu?

Serial zdecydowanie warto obejrzeć. Zaczyna się tak, że trochę usypia czujność – można odnieść wrażenie, że ogląda się coś w stylu nowoczesnej “Drużyny A”, zwłaszcza że odcinki rozbiegowe stanowią raczej zamknięte całości i wątki łączące to w większy obraz są wprowadzane stopniowo. Jednak cały czas te motywy, obecne początkowo w tle, zaczynają wychodzić na pierwszy plan, a całość staje się coraz lepsza. W efekcie widz dostaje najlepszą rzecz o Sztucznej Inteligencji (i nie tylko), jaka powstała od dawna. To zresztą nie tylko moje zdanie – warto zajrzeć, co na swoim blogu pisze o serialu Peter Watts. Warto też wspomnieć, że twórcy są bardzo świadomi konwencji, jaką narzucili i w dalszych sezonach błyskotliwie i z autoironią potrafią ją wykorzystać, a Jonathan Nolan sam wybiera piosenki do poszczególnych scen w odcinkach, co daje piorunujący efekt. “Person of Interest” wylądowało w mojej ścisłej czołówce ukochanych seriali wszech czasów. :)

No to przykro mi, nie poczytam, bo pan Watts pisze po angielsku, a ja z tego wyspiarskiego żargonu zrozumiem góra pięć i cztery dziesiąte procent...  :-(

Cos w stylu Black Mirror? Przy tak malym budzecie udalo sie zrobic 6 oddcinkow z sensownymi pomyslami. Tez polecam. 

Nie przepadam za tasiemcami. :-(

Choć może się skuszę, bo lubię takie tematy.

 

Co do samego artykułu, ciekawy zbiór informacji i przemyśleń. Mam jednak podobnie jak joseheim – brakuje w nim klarownych konkluzji. Jeżeli tekst miał przekonać mnie, że internet może zdobyć świadomość, to niestety kula w płot. Obrazowanie fajnie wygląda, ale to jest tylko pokazanie zachowań tłumu – niczym widziane z wysokiego piętra zachowanie ludzkiej masy na ulicach miasta.

natomiast ciekawe są Wasze komentarze. Pozwolę sobie stanąć w opozycji do założenia, że to materiał z którego jesteśmy zbudowani, determinuje posiadanie świadomości. Nie uważam, że zdobycie samoświadomości przez maszynę będzie niemożliwe. Wydaje się to raczej tylko kwestią czasu, kiedy powstanie taka maszyna. Możliwe, że przedtem naukowcy będą musieli zrobić kilka kroków w tył zanim to osiągną. Być może będą musieli stworzyć maszynę na bardziej ogólnych zasadach, dać jej więcej swobody. Wydaje się, że kluczowe do stworzenia SI będzie odkrycie jej “Motywacji do działania i niedziałania”. Nie takiej motywacji, którą ktoś zaprogramuje – np.: szukaj pomarańczowego koloru. Bo dlaczego człowiek prze do przodu albo się zatrzymuje? Istotniejsze nawet wydaje się to, dlaczego się zatrzymujemy, rezygnujemy. Człowiek zapyta: Po jaką cholerę mam szukać tego pomarańczowego koloru?!

“Black Mirror” to serial-antologia, w którym każdy odcinek stanowi zamkniętą całość. Tutaj jest stała grupa bohaterów. Początkowo, co odcinek zajmują się jedną sprawą (jak choćby we wspomnianej “Drużynie A”), później odcinki coraz mocniej łączą się ze sobą w główną oś fabularną.

Kawał tekstu, a ja mam wrażenie, że do niczego w nim nie doszliśmy. Teza, odważna, została zupełnie nieobroniona. Bo argumenty nie przekonujące. Bo bardziej pasująca do Twoich (Twoich?) przemyśleń  byłaby raczej analogia internetu jako roju pszczół albo mrowiska.

Administrator portalu Nowej Fantastyki. Masz jakieś pytania, uwagi, a może coś nie działa tak, jak powinno? Napisz do mnie! :)

Jerzy, owszem tak jest w istocie. Obejrzalem tez pare odcinkow “Person of Interest”, jak na razie nie mam uwag, choc bardziej przypomina NOIR, bo watek sf jest wpleciony jakby mimochodem, zas reszta to rasowy kryminał oparty o ten sam powtarzajacy sie w kazdym odcinku schemat fabularny. Ale ogląda sie dobrze, reżyser nie jest amatorem:) Jedyne, co mnie troche razi, to bohater wojownik, ktory jest jest niczym starozytny ninja. 

 

Blackburn, beryl – artykul jest otwarty , zadaje wiecej pytan niz odpowiedzi, ktore jesli sie pojawiaja , to raczej są hipotezami. To co przedstawił joseheim, jest chyba najbardziej prawdopodobne, raczej sie nie dowiemy o sztucznej inteligencji :)). Jedyna szansa jest opracowanie regul, ktore pozwola na badanie interakcji AI z otoczeniem. 

iHomer – jeśli już na etapie początkowym ogląda Ci się to dobrze, to jestem spokojny na później. Bo to właśnie od tych pierwszych odcinków najwięcej ludzi się odbija. Jeśli polubiłeś bohaterów i spodobał Ci się klimat, to później będzie tylko lepiej i lepiej. :)

Jerzy, faktycznie rezyser dba o kazdy detal, opowiesci sa dosc wiarygodne, na poczatku nie bardzo rozumialem dlaczego rzad nie mogl namierzyc tworcy oprogramowania AI, pomimo braku sladow elektronicznych maja mase ludzi w terenie, kontakty ze swiatem podziemnym itd.  Dopiero w drugiej serii widac, ze scenarzysci wyjasniaja, ze jednak jest to mozliwe, oraz nasz ninja nie jest juz taki niepokonany, gdy wlaczaja sie do akcji sily specjalne. 

Jak ktos lubi inteligentne filmy, to wydaje sie, ze ow serial jest dla niego. To, co doskonale oddaje klimat, jest pokazywane w tle opowiesci, skorumpowany swiat, bezlitosny i bezwgledny, w ktorym silni bez skrupulów dążą do coraz wiekszej władzy, zas slabym pekaja moralne kregosłupy, bo pozostawieni bez zadnego wsparcia nie maja szans na jakąkolwiek wygraną w starciu ze zorganizowanym złem. Podoba mi sie tez, ze ci źli sa nie tylko wyrachowani, ale piekielnie inteligentni, co dodaje smaczku w malowanych obrazach, odbierajac nam reszki złudzeń, że zły czlowiek powinien przypominac malpoluda o niskim ilorazie inteligencji. 

 

Nowa Fantastyka