- Hydepark: Midjourney

Hydepark:

inne

Midjourney

Dziś zadałem botowi Midjourney pytanie “o życie, wszechświat i całą resztę”.

Nie odpowiedział “42”

 

Co myślicie o wykorzystywaniu tej technologii do ilustracji książek i opowiadań?

Komentarze

obserwuj

Yuck. 

Dawid zapytał przed chwilą na SB o grafomanię. Dla mnie te generowane przez SI prace są grafomanią własnie. Są puste, mechaniczne, zimne i kłamliwe. A najgorsze w tym wszystkim jest to, że czasem naprawdę mi się podobają. 

A tak na serio – tak produkowane obrazy z pewnością zaleją infosferę. Będą wszędzie tam, gdzie wystarczy dać “cokolwiek” na temat. 

Jeśli tak ogromny sukces odniosły banki stockowych zdjęć, bo one wystarczą do zbudowania masowego przekazu, tu będzie podobnie. 

SI nie zastąpi ludzi.

No nie, po prostu. Chyba, że zaraz przyjdzie Verus i mi wytłumaczy postępy w tej technologii, ale na ten moment wiem tyle, że robot nie może myśleć abstrakcyjnie.

Trudno nazwać obrazki SI grafomanią, bo SI nie ma talentu, SI nie myśli (w znaczeniu ludzkim), SI nie tworzy – bo SI odtwarza. W tym przypadku programy takie jak Midjourney, Dall-E 2 czy inne bazują na tym, co już istnieje, i ewentualnie tworzą z tego mieszanki.

Jak już się przeanalizuje kilka z takich obrazów to widać, że pochodzą od SI. Mają jednak swoje ograniczenia. 

Samo istnienie takiej technologii zapewne wynika w dużej mierze z cen za grafiki, jak zwykle zresztą (podobnie pewnie jak było z pracą w fabrykach i innych miejscach, które można było zastąpić maszynami). 

Ale czy SI w pełni wyprze artystów?

No nie.

Bo wciąż nie powstało wszystko. Bo SI ma ograniczenia, chociażby w dokładnym odwzorowaniu wyglądu człowieka czy innej, nawet abstrakcyjnej postaci.

Fajna zabawka do przerzucenia swoich wyobrażeń np. swojego opowiadania do pliku graficznego. Ja, jako osoba nieszczególnie obdarowana talentem rysowniczym, cenię sobie możliwość ustawienia na tapetę bogini Najmy z uniwersum Koraklionu.

Ale z drugiej strony jak potrzebowałem concept artu Epillicusa z Baśniowców, to skorzystałem z pracy rzemieślnika.

 

Quidquid Latine dictum sit, altum videtur.

BC – z grafomanią chodzi mi o to, że (dla mnie, może źle definiuję) grafomania to podróba prawdziwej twórczości. Pozoranctwo. Skupianie się na formie i wywieraniu wrażenia tylko po to żeby zasłonić brak pomysłu lub jego wtórność. I dla mnie te grafiki to takie “podróby”. Może to być ładne, może być efekt “wow”, ale jest puste. 

Z pewnością w tych grafikach nie ma tych, powiedzmy, fragmentów duszy, które autor pozostawia w dziele, to prawda. 

Quidquid Latine dictum sit, altum videtur.

SI nie zastąpi ludzi

Ludzie sami ustąpią :>

 

 

Poczułam się wezwana. :D

BC ma rację – SI nie może myśleć w ogóle, a co dopiero abstrakcyjnie. Ostatnio jednak Wilk zwrócił mi w rozmowie uwagę na to samo, o czym mówi Łosiot – że nie zawsze potrzebny jest artysta i nowość. Do zastosowania w tworzeniu grafik odtwórczych, opatrujących proste informacje czy teksty copywritingowe, SI zdaje – i zdawać będzie coraz lepiej – egzaminy.

Nadal jednak jest to pozoranctwo, że pozwolę sobie pożyczyć słowo. Nie ze względu na odczucia, bo widziałam trochę grafik stworzonych przez Midjourney czy Dall-E 2 i niektóre są wręcz nieodróżnialne od dzieł człowieka. Pozoranctwo bierze się z rzeczy czysto technicznych – pod spodem są tylko modele komputerowe, wyuczone na istniejących obrazach i ich opisach. Tyle.

Uważam więc, że te wszystkie SI to fajne zabawki i fajna pomoc w momencie, w którym sztuka nie jest potrzebna. Ale nie jest to sztuka i tyle. Nie ma za nią intencji, nie ma celu, nie ma emocji. Więcej tych rzeczy niosą ze sobą opisy używane do generowania obrazów, niż same obrazy. Co zatem jest za Midjourney i podobnymi? Komputery, tona materiału wykorzystanego do uczenia SI i niemało statystyki. :D

Ponoć robię tu za moderację, więc w razie potrzeby - pisz śmiało. Nie gryzę, najwyżej napuszczę na Ciebie Lucyfera, choć Księżniczki należy bać się bardziej.

Bardzo mi blisko do podejścia Verus! :-) Zostawiam wąskie marginesy, tak mam i to chyba już ze mną pozostanie do końca życia. ;-) Trening na bazach danych i naprawdę fajna pomoc!

Dzisiaj podrzucono mi info o komórkach reagujących, no dobrze – na neuronach grających w Ponga. Okejka. Ciekawe, lecz bardziej interesuje mnie jakie firmy dostarczają procesory do telefonów, komputerów i lokalizacja ich fabryk. 

Logika zaprowadzi cię z punktu A do punktu B. Wyobraźnia zaprowadzi cię wszędzie. A.E.

Oczywiście, że SI nie zastąpi prawdziwej sztuki, ale też nie demonizowałabym całego pomysłu.  Sama trochę tworzyłam w DALL-E mini i oglądałam twory w innych programach. Nawet te bardzo zaawansowane nie są jeszcze doskonałe, zwłaszcza w kwestii anatomii.

“Nie myśli”, “Nie jest kreatywne”,  “puste”, “mechaniczne”, “grafomania”... hm, a jaki jest flamaster lub ołówek? Przecież to jest narzędzie, jak każde inne. Próbowałem zilustrować  opowiadanie “Dzionle” i kombinowałem, aż wyszło co chciałem. 

 

Jeśli to jest “bezmyślnie”, “niekreatywne”,  “puste”, “mechaniczne” albo jest  “grafomanią”, to tylko moja wina, a nie narzędzia, którego użyłem.

lck

Ja sama myślałam dawać do mojego projektu wattpadowego miniaturki na początku każdego rozdziału wygenerowane przez SI. Zadawanie komputerowi odpowiednich pytań to też sztuka.

Nie zrozumcie mnie źle – nie chcę demonizować SI. Mówię jedynie, że to narzędzie, nic ponad to. :D

 

lechckol, dlatego właśnie napisałam, że bardziej sztuką są same opisy, bo za nimi stoi intencja. Nie porównywałabym jednak zaawansowanych algorytmów do ołówka. Różnica jest podstawowa: ołówek nie dokłada nic od siebie. Nie “pamięta” swoich poprzednich rysunków. A SI ma je zapisane, są w bazie. SI bez bazy jest bezużyteczne, a ołówek, cóż, dalej w pełni funkcjonalny.

Ponoć robię tu za moderację, więc w razie potrzeby - pisz śmiało. Nie gryzę, najwyżej napuszczę na Ciebie Lucyfera, choć Księżniczki należy bać się bardziej.

Ach, no i związku z tym to, co tworzysz ołówkiem jest w pełni oryginałem (pomińmy sytuacje przerysowywania obrazków, proszę), a to co tworzysz za pomocą SI jest swego rodzaju odtwórstwem.

Ponoć robię tu za moderację, więc w razie potrzeby - pisz śmiało. Nie gryzę, najwyżej napuszczę na Ciebie Lucyfera, choć Księżniczki należy bać się bardziej.

A czy tego samego nie można powiedzieć o artyście, jeśli po poważnym uszkodzeniu mózgu nie będzie mógł tworzyć?

A co w takim razie z grafikami wykonanymi w całości przez człowieka w Photoshopie czy GiMPie też nie mają duszy?

Pytanie, Ajzan, czy wybierasz z dostępnego, określonego zbioru czy nie. Jasne, statystyka tutaj daje radę, ale moim zdaniem – nie.

Logika zaprowadzi cię z punktu A do punktu B. Wyobraźnia zaprowadzi cię wszędzie. A.E.

nie zawsze potrzebny jest artysta i nowość

Co więcej – dominujące zastosowanie tworzy trend. Fajnie to widać w rzeczach tworzonych przez ludzi:

→ Remake’i filmów i seriali są przez wytwórnie uważane za bezpieczniejsze finansowo (nawet jeśli w praktyce różnie bywa).

→ Zbiory opowiadań są z założenia uważane za “niesprzedające się” (nawet jeśli pewnie parę mocnych nazwisk mogłoby coś w tym temacie zmienić).

Itd. Nawet jeśli wcześniej trend był inny, to coś dominującego zmienia kierunek całego rynku.

 

Asylum, ja generalnie do nowinek technicznych i popularnych rzeczy podchodzę z większym lub mniejszym zaciekawieniem w zależności od tematu.  Rzadko, jeśli w ogóle zmuszają mnie one do przemyśleń nad tym, gdzie zmierza ludzkość i że komputery są coraz większą częścią naszego życia.

Dla mnie SI generujące obrazy na podstawie haseł jest właśnie czymś ciekawym. Jako artystka ze średnimi zdolnościami, nieadekwatnymi do wyobrażanych obrazów,  czasem marzyłam o czymś podobnym. Jednocześnie też widzę źródła potencjalnych problemów, jeśli generatory SI zadomowią się na dobre, np. że zapotrzebowanie na artystów-grafików na rynku pracy może zmaleć,

Jeśli chodzi o SI do robienia grafiki, to ja tematem zainteresowałem się, kiedy postanowiłem zilustrować moją piosenkę jakimś ładnym obrazkiem. Ostatecznie tego nie zrobiłem, bo a) miałem wątpliwości co do praw autorskich; b) kurczę, jakoś jednak nie przemawia do mnie ten pomysł. Pomijam fakt, że nie jestem wielkim entuzjastą rozwijania sztucznej inteligencji, ale chodzi o to, że według mnie powierzenie jakiejś stricte twórczej pracy bezdusznej maszynie to cios w istotę kreatywności. Poniekąd podporządkowanie działalności artystycznej schematom i algorytmom.

 

I jeszcze dwie kwestie:

– To jakiś czas temu było głośne:

https://antyweb.pl/sztuczna-inteligencja-konkurs-sztuk-pieknych

Tu też jestem raczej na nie, bo tak to każdy może zrobić. Sure, fajnie, że każdy może sobie wygenerować taki obrazek, nawet będąc kompletnym, przepraszam za wyrażenie, graficznym zerem, ale wystawianie takich prac na równi z dziełami ,,tradycyjnych” artystów jest IMO nieuczciwe wobec tych ostatnich. No bo jak tu porównać obraz, w który włożono tyle i tyle czasu z takim, który powstał poprzez wpisanie dwóch zdań do komputera?  

 

– Ostatnio na Instagramie sporą popularność zyskują twórcy(?) publikujący fotorealistyczne portrety postaci literackich wygenerowane przez SI na podstawie opisu z książki. I prawie każdy znaleziony przeze mnie artykuł na ten temat zaczyna się od słów: ,,Zastanawialiście się, jak by wyglądały postaci z X w prawdziwym życiu?...”. Dla mnie jaranie się czymś takim jest trochę dziwne, bo kiedy czytam o kimś, to... wyobrażam go sobie. I już. 

,,Nie jestem szalony. Mama mnie zbadała."

bo tak to każdy może zrobić

Podobnie może powiedzieć kowal artystyczny o drukarce 3D, ale tak jak model do druku 3D trzeba przygotować, tak i uzyskanie “bardziej pro” obrazu lub wideo z AI wymaga nie tylko znajomości promptów, ale też odpowiedniego ich ułożenia.

Ajzan, nie dziwię się, bo jest okropnie ciekawe i pomoc ogromna. :-)Taka realna! Sama to robię, próbuję śledzić, choć łatwe nie jest. Zgadzam się, że komputery wyznaczają w coraz większym stopniu tryb naszego życia, lecz zdaje mi się to rodzajem fake-u w perspektywie lat, bo sam postęp budowany tylko na tym jest cholernie kruchy.

Logika zaprowadzi cię z punktu A do punktu B. Wyobraźnia zaprowadzi cię wszędzie. A.E.

Z perspektywy osób piszących uważam, że korzystanie z ilustracji automatycznych to trochę ucztowanie na nieszczęściu grafików. Załóżmy, że graficy nie są już potrzebni i powinni sobie znaleźć bardziej pożyteczne zajęcie niż próbę zastępowania doskonałej maszyny. Ale co dalej?

Przyjdzie czas na piszących. Wyobraźmy sobie odwrotną sytuację, w której graficy generują tekst do swoich dzieł. Jak się podoba? :)

 

Jako ludzie mamy wybór.

Pierwsza opcja. Oddawać coraz więcej maszynom, samemu zajmując pozycję biologicznego pojemnika na bioodpady, który sprawia tylko kłopot.

Druga opcja. Możemy też starać się zachować naszą wytwórczość, nawet jeśli nie dorówna tej maszynowej.

 

Człowiek po wymyśleniu wszystkiego co go wyręczy, będzie musiał cofnąć się do jakiegoś skansenu, żeby uzasadnić swój sens. Takie tematy już przez literaturę się przebijały, choćby w Nowym Wspaniałym Świecie. Jednak tam jeszcze człowiek był potrzebny, u nas może nie będzie.

Moim zdaniem, reszta będzie mieleniem tego, co już było bez odniesienia do przyszłości. I ponownie, moim zdaniem rację ma i wspomaganie, kiedyś suwaki, kalkulatory oraz smartfon. :-)

Logika zaprowadzi cię z punktu A do punktu B. Wyobraźnia zaprowadzi cię wszędzie. A.E.

Przyjdzie czas na piszących

Otóż GPT-3 było opublikowane wcześniej niż DALL-E 2 ;-) 

 

lechckrol, własiciwe, to przepraszam. Wrzuciłem z rozpędu ogólną opinię, która, po dłuższym zastanowieniu, jest wobec tego, co zaprezentowałeś, krzywdząca. Bo o ile będę uparcie trwał w przekonaniu, że generalnie, tak powstające obrazy to podróba i pseudotwórczy pustostan, to w Twoim (i zapewne wielu innych) przypadku wcale nie musi tak być. Te obrazy są elementem większego procesu, ilustracją do tekstu, mają z założenia tworzyć z nim pewną całość. Trochę traci na znaczeniu to, jak powstały, pewnie niekoniecznie powinienem je traktować jako osobne dzieła.

Pochodzę z rodziny rysowniczo-malarskiej. Sam się w tym kierunku nie rozwinąłem, ale obcuję z ludzmi utalentowanymi. Ściany w moim domu rodzinnym obwieszone są pięknymi płótnami, a moja siostra rysuje tak, że z zazdrości skrycie mam chęć połamać jej wszystkie... ołówki. 

Dlatego nie mieści mi się w głowie nazywanie SI narzędziem w kontekście tworzenia obrazów. Dlatego wolę nazywać to generowaniem, produkcją – byle brzmiało technicznie i różniło się od “rysowanie”, “malowanie”, “tworzenie” i tak dalej. 

Napisanie instrukcji i użycie cyfrowych prefabrykatów do tworzenia obrazów trudno mi nazwać sztuką. To tylko konwersja, przetwarzanie i – na końcu – całkiem ciekawy efekt pozbawiony niuansu, indywidualności i kunsztu. W mojej opinii nie masz takiej kontroli nad SI, jak nad ołówkiem i trudno jest mi zrównywać ze sobą te narzędzia. To pewnie na dłuższą dyskusję. 

Ale – jeszce raz przepraszam. Twoje ilustracje są bardzo ciekawe i na pewno w kompozycji z tekstem ma to sens jako kreacja. I poczułem się zachęcony do przeczytania “Dzionli”. 

Widzę, że wygenerowała się spora dyskusja. Co zastanawiające, właście na inny temat niż zmierzałem. Chodziło mi o kwestię wykorzystania rozwiązań takich jaki Midjournej czy DALL-E do generowania grafik na potrzeby komercyjne (ilustracje książek). Ale zamiast tego pojawił się problem generalnej oceny i akceptacji AI na “tak zwanym przykładzie”. To tej kwestii wrócę jeszcze na końcu.

 

Tak się złożyło, że zajmuję się AI zawodowo. Programuję systemy wykorzystujące te technologie i – chciał, nie chciał – orientuję się w ich “bebechach”. Nie wchodząc w detale, sieci neuronowe są bardzo zaawansowanymi maszynami statystycznymi i w tym co robią jest zero kreatywności. Na nasze zapytania otrzymujemy “uśredniony” obraz danego tematu. Jeśli taki system nakarmimy odpowiednio dużą ilością danych, to pojawia się archetypiczna wizja tematu, tak jak ją widzi ludzkość (jeśli mam, naprawdę dużo, dużo, dużo danych). Efektem ubocznym takiej konstrukcji jest niezdolność stworzenie przez te systemy czegoś co wykracza poza to, co zostało do systemu wprowadzone. To co możemy robić, i co bardzo ładnie wygląda na Midjourney czy DALL-E, to mieszać stereotypowe elementy w niestereotypowych kombinacjach. Robiąc to system się nie ogranicza. Nie wie, że “to” nie łączy się “tamtym” i tworzy intrygujące, inspirujące obrazy. I tu pojawia się problem: czy to jest kreatywność? 

No cóż, to zależy jak sobie tę kreatywność zdefiniujemy.  Picasso, któremu trudno odmówić kreatywności, powiedział: “dobrzy artyści kopiują, wielcy kradną”. Uważam, że w tym rozumieniu Midjourney czy DALL-E są narzędziem kreatywności. Wielcy artyści kopiowali nawzajem swoje style, rozwijając je dalej. I to samo robi użytkownik poszukując opisów, które wygenerują ich wizję w postaci graficznej. Midjourney, DALL-E i im podobne są nowym rodzajem narzędzia, które – tak czy inaczej – obsługuje człowiek. Nietypowym. Niecodziennym. I dlatego patrzymy na nie inaczej niż ołówek czy aerograf. 

Obszarem w którym systemy to nie dają sobie zupełnie rady, to tworzenie całkowicie nowych rzeczy. Przykładowo, poproście któryś z nich aby stworzył obraz “kobiety z trzema oczami”. Nie stworzy. Powstają mniej lub bardziej udane portrety kobiet z... dwoma oczami. Dlaczego? Ponieważ bardzo mało jest zdjęć trójokich kobiet, na których AI mógłby się nauczyć jak to wygląda. I tu pojawia się wyższość człowieka. Każdy, nawet “uzdolniony inaczej” grafik, wymyśli i narysuje, jak wygląda kobieta o trzech oczach. Nie wiem, czy będzie miała, trzecie oko na czole, pośrodku między dwoma normalnymi, czy na serdecznym placu (nie napisałem, że oczy mają być na twarzy). To jest inny rodzaj kreatywności, który najwyraźniej – i dla nas na szczęście – nie działa według zasad statystycznych.

 

Kończąc, chciałbym wszystkim powyżej podziękować za wypowiedzi. Muszę się przyznać, że wywołałem tę dyskusję szukając lepszego zrozumienia pewnych kwestii AI do webinaru “AI Advertising – jak bardzo sztuczna inteligencja zmieni świat reklamy? Pierwsze polskie badania nad wykorzystaniem AI w procesie kreacji zdjęć reklamowych i poziomu ich społecznej akceptacji”, który odbędzie się w najbliższą sobotę pomiędzy 18:00 a 19:00 i w którym będę miał okazję powiedzieć kilka słów. Wasze opinie są dla mnie nad wyraz pomocne i dowiedziałem się dużo więcej, niż się spodziewałem. Bardzo, bardzo dziękuję!

 

lck

Chodziło mi o kwestię wykorzystania rozwiązań takich jaki Midjournej czy DALL-E do generowania grafik na potrzeby komercyjne (ilustracje książek)

Przy aktualnym stanie prawnym część wydawnictw nie zdecyduje się na to, ze względu na kwestie prawne. Ale inne sięgną bardzo chętnie, choćby i z darmowego, dostępnego do zainstalowania na własnym komputerze, Stable Fussion (lub którejś z jego modyfikacji).

Ale już część z serwisów internetowych robi to hurtowo. Niedoskonałości? No są, ale np. na miniaturce zdjęcia talerza z warzywami i owocami przeciętny internauta nie wychwyci, że coś się nie zgadza. Albo wychwyci i pomyśli “a jakieś to dziwne” i i tak zostanie na serwisie.

...najlepsza kampania promująca webinar ever!

Zapisany!

Tak, w opisie do wygenerowania (prompcie, zwał jak zwał) może się znajdować sedno tej kreatywności, której brakuje samemu AI.

 

Bardzo spodobał mi się wynik tego opisu:

I saw Inanna. And there she was, standing amidst the golden fields. And her home, the most saint temple in all Lands of Enlil, stood high above all the earth and humans. And I knew that she came here to bless our crops. She came to help us.

 

Niby nic takiego, niby zwykły akapit czegośtam, ale widać, że Midjourney nie potrzebuje tylko surowych opisów (np. młody mężczyzna, noc, tajemnicze miasto etc. etc.), ale radzi sobie z bardziej abstrakcyjnymi tekstami. 

 

Quidquid Latine dictum sit, altum videtur.

Ciekawostka: już są pierwsze analizy na ile z opisu/promptu można zrobić atak prompt injection na program generujący (informatycy zrozumieją).

A radzić sobie z opisami takie aplikacje muszą, bo w mniejszym lub większym stopniu bazują na wcześniejszych technologiach NLP (w sensie przetwarzania języka naturalnego, a nie tego coachingowego czegoś z tym samym skrótem).

 

BC – trochę szok, przyznam.

Wilku – zgooglowałem temat i rozbolała mnie głowa. 

Ty się ciesz, ze póki co AI nie przygotowuje recept na ból głowy :V 

AI jest już z powodzeniem używane w tzw drug discovery...

@Łosiot Dwie pieczenie na jednym ogniu ;-)

lck

@BarbarianCataphract

“Quidquid Latine dictum sit, altum videtur.” by MidJourney :-)

 

Mądrze wygląda?

;-)

lck

Proponuję przy okazji mały eksperyment: rzućcie na powyższe obrazki zaklęcie “Google Lens”. 

@Ajzan

Challenge accepted. Na szybko “Cyberpunk city, Painted by Claude Monet --v 3”

lck

Świetne! Do używania tego SI trzeba się zapisać, prawda? Caiyon jest darmowy i ogólnie dostępny, stąd taka a nie inna jakość.

Na Twitterze też jest profil publikujący rezultaty dziwnych haseł w stylu “Posiedzenie Rady Ministrów na zapleczu wiejskiego sklepu”.

Edit: Znalazłam taki filmik: https://www.youtube.com/watch?v=SkqjqN4FWSU

@Ajzan Zdaje się, że 30 obrazków jest za darmo, ale to się szybko wyczerpuje. Wykupiłem sobie abonament i wtedy też działa szybciej i generuje większe pliki – zależy co komu potrzeba :-)

lck

Ja mam kilka delikatnie spóźnionych uwag, ale pozwolę sobie je i tak wypowiedzieć. :D

A co w takim razie z grafikami wykonanymi w całości przez człowieka w Photoshopie czy GiMPie też nie mają duszy?

Ajzan, Photoshop czy GiMP stoi w tym wypadku tam, gdzie ołówek. Nie tam, gdzie sztuczna inteligencja.

Widzę, że już lechckrol wyjaśnił nieco dokładniej to, co ja próbowałam przekazać, czyli kwestię tego, że sztuczna inteligencja uczy się na istniejących obrazach i choćby ją kroili, to nie wypluje nam nic całkowicie nowego.

Dodam tylko, że tak, SI z pewnością zastąpi ludzi na niektórych polach – nie bez kozery mnóstwo artykułów naukowych w temacie zaczyna się od wariacji stwierdzenia “świat jest pełen danych”. Prawda jest taka, że potrzebujemy, aby coś pomogło nam je wszystkie procesować.

Ale SI nie zastąpi sztuki, nie zastąpi zrozumienia tematu. Nieważne, jak byśmy się zachwycali Midjourney czy GPT-3, na razie nie zapowiada się, aby miały być “samodzielne” – to znaczy, dalej potrzebny będzie człowiek, który zweryfikuje tekst, ulepszy grafikę.

A co do tego osławionego konkursu, który wygrało SI, chyba warto zaznaczyć, że owszem, pierwotny obraz był wygenerowany przez SI, ale potem jakiś człowiek usiadł z programem graficznym i go dopracował.

Ponoć robię tu za moderację, więc w razie potrzeby - pisz śmiało. Nie gryzę, najwyżej napuszczę na Ciebie Lucyfera, choć Księżniczki należy bać się bardziej.

Ach, i też pozwolę sobie się pochwalić moimi eksperymentami z Midjourney – trochę bawiłam się w rozgryzanie, jak ono analizuje zapytania, więc mam tego całkiem sporo. Bardzo mi się spodobało to, na co już zwrócił uwagę Barb, czyli że opis może być czasami całkiem prozatorski, a niekoniecznie suchy.

 

Tutaj na przykład efekt wklejenia jako zapytania cytatu znalezionego na Pintereście: “i don't want to look like princess, i want to look like a formerly evil queen who reluctantly redeemed herself for the side of good”.

 

A tutaj nieco bardziej konkretny opis, który wykorzystałam do zrobienia portretu swojej postaci do RPG-a: “old professor of archeology, female, interward period, lovecraftian”.

 

 

I efekt eksperymentów z abstrakcją: “fire-breathing hippo, he is standing on the moon made from cheese, galaxy at the background”. Niezbyt zgodne z opisem, co pokazuje brak zrozumienia SI, ale obrazek i tak przypadł mi do gustu.

 

 

I mały eksperyment z totalną abstrakcją, tym razem w Dall-E: “The god of all stories in form of the cat, in the matter of all things, digital art”.

 

 

Jak macie jakieś fajne efekty swoich eksperymentów, to też podrzućcie. Czy ktoś uważa, że to kreatywność, czy nie, myślę, że efekty bywają zwyczajnie ciekawe. :D

 

Ponoć robię tu za moderację, więc w razie potrzeby - pisz śmiało. Nie gryzę, najwyżej napuszczę na Ciebie Lucyfera, choć Księżniczki należy bać się bardziej.

Dziękuję za linka, Wilku. ^^

Na próbę wygenerowałam kilka portretów bohaterki jednego z moich opek z myślą wykorzystania, któregoś do wattpadowej okładki.

1:

2:

3:

$:

6:

7:

8:

9:

lechcrkol – dzięki za info o webinarze – było ciekawie!

@Łosiot Cała przyjemność po mojej stronie!

lck

Nie wchodząc w detale, sieci neuronowe są bardzo zaawansowanymi maszynami statystycznymi i w tym co robią jest zero kreatywności. Na nasze zapytania otrzymujemy “uśredniony” obraz danego tematu. Jeśli taki system nakarmimy odpowiednio dużą ilością danych, to pojawia się archetypiczna wizja tematu, tak jak ją widzi ludzkość (jeśli mam, naprawdę dużo, dużo, dużo danych). Efektem ubocznym takiej konstrukcji jest niezdolność stworzenie przez te systemy czegoś co wykracza poza to, co zostało do systemu wprowadzone.

 

Lechu, owszem, wynik jest determinowany datasetem, ale nie jest do końca przewidywalny. Dlatego mowa o uśrednieniu jest jednak chyba zbyt dużym uproszczeniem, bo gdyby tak było, wynik konkretnego zapytania byłby niemal identyczny. 

Co do zarzutu o wtórność i operowanie w z góry założonych “widełkach” – po pierwsze, z komercyjnego punktu widzenia jest to zaleta, bo ludzie “lubią tylko znane piosenki”, a po drugie – skąd przekonanie, że nasz własny mózg działa w bardzo odległy sposób? :D

Ja dla odmiany trochę grafikowałem, bawiłem się w digital painting i znam kilka osób z polskiej sceny CG. Ujmę to tak: w “twórczości” którą widujecie na okładkach czy jako concept arty z gier jest tyle kreatywności, co kot napłakał. Obecnie duża część grafiki jest tworzona na bazie podmalowywanych modeli 3d z posera i tego typu wynalazków, albo miksowania zdjęć ze stocków + przeróbki materiału w photoshopie. Ale to nie jest coś, co pojawiło się wraz z technologią. Od niepamiętnych czasów malarze czy rysownicy uczyli się, naśladując mistrzów – czym to się niby różni od tresowania sieci neuronalnej? 

Bycie twórczym jest przereklamowane. Przereklamowana jest też wiara w naszą twórczość, jako ludzkich jednostek. Jesteśmy bardzo ograniczeni przez naszą zmysłowość, ale zbyt pyszni, żeby to przyznać. 

Ja wierzę w to, że obecne SI są dopiero początkiem pewnego procesu. Ich sposób działania wydaje się może dość prymitywny i bezmyślny, ale to dlatego, że jestesmy niezaangażowani emocjonalnie w ocenę tego procesu, tak jak w ocenę własnego procesu myślowego ;)

Nasza pisarska twórczość jest również w dużym stopniu efektem tresury sieci neuronalnych, które potworzyły się nam wewnątrz czaszki. I też mamy poważny problem z podskoczeniem powyżej intelektualnego pępka. Chcecie dowodu? Popatrzcie, o czym ludzie piszą. Elfy, krasnoludy, loty w gwiazdy, zapętlanie tych samych schematów w kryminałach, romansach, nawet przemyślenia i wnioski są do siebie podobne. 

 Dlaczego obecnie ludzie tak mało piszą o problemach technologicznych, które pojawiły się w kilku/kilkunastu latach, a 90% “twórczości pisarskiej” wije się wokół klisz literackich sprzed wielu dekad? Bo te drugie poznaliśmy bardzo dobrze, nakarmilismy nasze sieci odpowiednim zestawem danych. 

Nauka rwie do przodu, ale twórczość dostała zadyszki i ma problem by ją dogonić. I nie dlatego, że twórcy są zbyt głupi,  by te problemy zrozumieć, ale trudno wytycza się nowe szlaki. Łatwiej naśladować ;D

Zdaję sobie sprawę z ograniczeń tych nowych technologii, ale uważam, że mogę świetnie wypełnić zapotrzebowanie na sztukę naśladowczą, prostą, profanum pod strzechy. 

A na prawdziwie myślące i twórcze maszyny jeszcze przyjdzie czas. Tylko wtedy przyjdzie też czas na nasz gatunek :P

W tym temacie jestem zupełnym laikiem i dopiero dowiedziałam się, że coś takiego istnieje przy opowiadaniu na konkurs Mumii Mistrz i Małgorzata. Musze jednak przyznać, że mnie te prace (nieraz jednak całkiem abstrakcyjne) bardzo się podobają, zwłaszcza że ja jednak nie potrafię odróżnić obrazu stworzonego przez człowieka a sztuczną inteligencję. A że nie umiem również zbytnio rysować, taka forma bardzo kusi i chyba jej spróbuję smiley. I choć rozumiem, że to opiera się na algorytmach, a artysta wkłada w to duszę, to jednak trochę skłaniam się ku poglądowi lechckrol, że dużo zależy od tego co wpisze się w opis, więc to nie jest zupełnie “sztuczne”.

 

PS. Piękne ilustracje wstawiliście w wątku smiley 

W końcu jeden rozsądny głos w tej dyskusji, Silverze. Oszczędziłeś mi dużo czasu.

Zdaję sobie sprawę z ograniczeń tych nowych technologii,

Tu dodałbym słowo bieżących przed ograniczeń.

 

A z tym się nie zgadzam:

Tylko wtedy przyjdzie też czas na nasz gatunek :P

Możesz rozwinąć myśl?

 

Możesz rozwinąć myśl?

 

Nie wiem czy mam teraz czas i warunki, żeby zrobić to dostatecznie satysfakcjonująco.

W sumie jest to jedna z najważniejszych kwestii jakie rysują się przed naszą planetą w przyszłości.

W bardzo ogólnych ramach, sądzę, że mamy przed soba kolejny etap ewolucji. 

Przyjmując, to co działo się na początku historii naszej planety, czyli z początku ewolucja na poziomie biochemicznym, potem bardzo długi okres, gdy na Ziemi panowały beztlenowce i napełniały rezerwuary tlenu, potem ich gwałtowne przepełnienie, katastrofa tlenowa, wymieranie bioty beztlenowej i gwałtowna ekspansja życia tlenowego -ten etap był kluczowy, bo otwarł możliwości energetyczne do pojawienia się skomplikowanych wielokomórkowców, a poprzez długotrwałą ewolucję, także inteligencji i świadomości.

Problem jednak jest taki, że jako istoty biologiczne, tlenowce oparte na białku, możemy obecnie wyczerpywać możliwości zawarte w tej  formie istnienia. Nasz mózg ukształtował się raczej na zasadzie minimalistycznej, budowa taka, by osiągać rezultaty wystarczające przy mozliwie małym nakładzie środków. A mimo to, wcale nie jest łatwo taki mózg wyżywić. 

Możliwość wejścia na kolejne etapy rozwojowe może wiązać się ze zmianą formy. Widzę kilka potencjalnych ścieżek rozwoju, np.:

– cyborgizacja umysłu, dołączanie do sieci biologicznej napędzanych zewnętrznie sieci neuronalnych, znacznie poszerzających możliwości intelektualne

– stworzenie całkowicie nowego bytu, SI, który nie będzie ograniczony kaloriami z pokarmu

– na dalszym etapie połączenie wszystkich odrębnych bytów świadomych w świadomość planetarną.

 

Do tej pory nasz rozwój determinowała ewolucja Darwinowska. To jest dość powolny mechanizm, dzięki świadomej ingerencji będzie można znacząco przyspieszyć rozwój biologiczny, biomechaniczny, albo w jakichś stanach pomiędzy nimi. To włączenie inteligencji w mechanizmy ewolucyjne spowoduje pojawienie się bytów, które według mnie nie będzie już można nazwać ludźmi. Jakiś posthumanizm, nie jest do końca jasne, w którą stronę pójdzie ten rozwój, ale dla bytów świadomych, ukształtowanych przez selekcję naturalną, raczej nie będzie już miejsca. Są niewydajne i niepotrzebne. Może rozwój będzie następował na bazie inżynierii genetycznej, może na bazie rozwoju sieci neuronalnych, może jakieś hybrydy – nie wiem, nie jestem wróżką. Ale wiem, że świat jest tak skonstruowany, że liczy się efektywność, osobniki lepiej dostosowane wypierają te gorsze. Tu też mechanizmów jest wiele.

To może odbywać się nawet na warstwie społecznej. Na przykład:

Wchodzimy w etap, gdzie nowo stworzone świadome jednostki osiągają poziom zbliżony, a z czasem lepszy niż ludzki umysł. Istnieje bardzo poważny dylemat etyczny, bo ludzkość prędzej czy później będzie musiała zaakceptować ich status prawny, równy człowiekowi. W momencie gdy myślące maszyny uzyskają prawa obywatelskie, będą mogły brać udział w podejmowaniu decyzji na poziomie państwowym, a także włączać do struktur władzy inne maszyny myślące. Prawdopodobnie ich ewolucja będzie o wiele szybsza niż standardowego homo sapiens, będą miały większą “soft power”, może nawet część ludzi będzie na nie głosować. Z czasem przerosną nas tak, w tym liczebnie, że przestaniemy mieć cokolwiek do powiedzenia. Może nawet demokratycznie odbiorą nam z czasem prawa wyborcze, bo stwierdzą, że jesteśmy zbyt głupi, żeby brać udział  w procesie podejmowania decyzji? ;)

Swoją drogą, na tym etapie może to już byc szczera prawda...

Mówiąc o gatunku, miałem na myśli osobniki “niemodyfikowane”. Dla takich ludzi nie będzie już miejsca ani ekonomicznie, ani społecznie – nie będą konkurencyjni na żadnym z pól. Może przez jakiś czas będziemy stanowić coś w rodzaju rzymskiego plebsu...

Jak już też wspomniałem – moim zdaniem to generalnie zmierza do stworzenia jednej, ewoluującej, nieśmiertelnej, świadomej istoty. 

Śmiertelność i reprodukcja były potrzebne na etapie życia biologicznego, bo wypracowane mechanizmy nie umożliwiały głębokiej ewolucji i adaptacji w ramach jednego organizmu. W momencie, gdy będzie możliwa samoprzebudowa i samonaprawa, na bazie inteligentniej adaptacji do warunków, oba te zjawiska przestaną być potrzebne. 

Co do podziału na odrębne jednostki – po pierwsze chodzi tu o ograniczenia w możliwości zapewnienia energii, po drugie – możliwość selekcji osobników gorzej dostosowanych. Na etapie ewolucji mechanicznej – odpada, nie jest konieczne.

Imho – nasza przyszłość to Solaris.

 

@silver_advent Cześć, z wielkim zainteresowaniem przeczytałem Twoją opinię. W kilku kwestiach się zgadamy, w innych nie – co myślę, jest bardzo dobre. 

mowa o uśrednieniu jest jednak chyba zbyt dużym uproszczeniem, bo gdyby tak było, wynik konkretnego zapytania byłby niemal identyczny

I jest identyczny. Jeśli w międzyczasie nie będziemy uczyć sieci, nie zmienimy programu ani inicjujących liczb losowych, które zazwyczaj wrzuca się do systemu właśnie, aby uniknąć powtarzalności, wyniki będą identyczne.

 z komercyjnego punktu widzenia jest to zaleta, bo ludzie “lubią tylko znane piosenki”

Pozwól, odwołam się do swojego doświadczenia zawodowego – 20 lat pracy reklamie (zanim zająłem się IT). Najlepsze i najbardziej znane kampanie, jaki zrobiłem w życiu były właśnie przełamaniem stereotypów – marki Łaciate i MIllennium (stworzenie konceptów komunikacji, reklam, nazw, opakowania/konceptu wystroju wnętrz oraz kampanii wprowadzających) czy reklama proszku Vizir “Snowhite”, która została totalnie skrytykowana podczas badaniach focus group jako – właśnie – “odmienna, dziwna, inna...”, a na rynku przyniosła nadzwyczajne rezultaty biznesowa. Odmienność przyciąga uwagę. Odmienność wywołuje emocje. Ale nie wystarczy być “innym” aby odnieść sukces.

 

Skąd przekonanie, że nasz własny mózg działa w bardzo odległy sposób? (...) Bycie twórczym jest przereklamowane. Przereklamowana jest też wiara w naszą twórczość, jako ludzkich jednostek. Jesteśmy bardzo ograniczeni przez naszą zmysłowość.

Być może nie napisałem tego jednoznacznie. Uważam, że nasz mózg składa się z sieci neuronowych. Ale uważam, że mamy na wyposażeniu kilka takich rodzajów, o których się informatykom nie śniło. Midjourney, DALL-E, itp. wykorzystują sieci przeciwstawne (GAN), które kilka lat temu – o ile dobrze pamiętam  – rozpropagowała Nvidia, a w fenomenalny sposób wykorzystano w programie AlphGo, aby pokonać człowiek w grze w Go. Ten system, z racji swojej budowy nie może wyjść poza wyuczony zbiór danych. Może te dane łączyć  w niezwykły sposób (fascynujące obrazki), ale nie jest w stanie kreować treści, które nie są oparte wcześniej wprowadzone do systemu. Człowiek potrafi i niemal na pewno wykorzystujemy do tego jakiś rodzaj sieci nieuronowych – na raze jednak nie wiemy jaka jest ich struktura ani działanie. Zapewne dzięki nim powstają najwspanialsze, najciekawsze ultrakreatywne działa. Niestety – zgadzam się z Tobą – takich dzieł jest mało, a większość kreacji ma wtórny charakter.

 

I tu przechodzimy do dalszej części tego co napisałeś – Twoje poglądy dotyczące transhumanizmu, są bardzo zbliżone  do głoszonych przez Reya Kurzweila w książce “Singularity” (nie wiem, czy ją czytałeś bo nigdzie się do tej pozycji nie odwołujesz, ale jeśli nie to gorąco zachęcam). W tym zakresie zgadzamy się w 100%. I mówiąc prawdę, trochę nie mogę się tego doczekać :-)

 

Jeszcze raz dzięki za materiał do przemyśleń.

 

PS

Wizja “Singulairty” wg Midjurney

 

 

 

lck

I jest identyczny. Jeśli w międzyczasie nie będziemy uczyć sieci, nie zmienimy programu ani inicjujących liczb losowych, które zazwyczaj wrzuca się do systemu właśnie, aby uniknąć powtarzalności, wyniki będą identyczne.

 

Rozumiem, czyli to jest generowane na podstawie seeda... Wybacz, jestem administratorem systemów i moja wiedza na te tematy jest bardzo ogólna :) Przy okazji, nie spodziewałem się, że midjourney ma swojego githuba – przejrzę w wolnym czasie :)

Z drugiej strony – jest w tym co napisałem w postach wyżej trochę mojego “chciejstwa”. Od ósmego roku życia mam komputer – moją miłość, chyba na swój sposób odwzajemnioną – śledziłem rozwój “ośmiobitowców”, potem “szesnastobitowców” i w przeciwieństwie do wielu młodych ludzi miałem naoczną przyjemność obserwować jak potworne, wręcz miażdżące postępy dokonują się w tej dziedzinie.

Oczywiście – mam świadomość, że droga przed nami jest bardzo daleka. Uważam za całkiem prawdopodobne, że brakuje nam jeszcze “cegiełek”, żeby osiągnąć sukces – może np. rozwoju komputerów kwantowych, bo chyba qbitom będzie bliżej do naszych neuronów niż bitom...

Nie wiem też, jak daleko zaszedł w rozwijaniu swojego LaMDA Google, ale myślę, że raczej trzeba patrzeć na ręce najlepszym, a nie krytykować na podstawie jakichś opensourcowych podróbek, tak jak to się czasem już zdarzało na forum :P

Moja reakcja była nieco zbyt emocjonalna, wiem, że to jeszcze nie ten moment. Ale myślę, że tym razem postęp jest widoczny gołym okiem, to są może “Kroki w nieznane” ale azymut jest właściwy. I należy poważnie rozważać, że prędzej czy później trafimy do celu.

Mam wrażenie, że to co obecnie jest budowane, w swojej strukturze bardziej przypomina grupy neuronów odpowiedzialnych za rozpoznawanie kształtów, albo jakieś fragmenty kory wzrokowej. Brakuje logiki i decyzyjności – ale gdy ta zostanie zbudowana i inkorporowana w ten system, to ujrzymy rzeczy wielkie... I przerażające zarazem.

Chociaż się boję, z drugiej strony chciałbym tego dożyć – bo jest całkiem prawdopodobne, że dzięki naszym młodszym, bystrzejszym braciom poznamy wiele odpowiedzi,na pytania, które ludzkość stawiała sobie od wieków. 

Bawiłem się też zabawką od NVIDII – programem Canvas do tworzenia krajobrazów. Jeśli ta technologia będzie rozbudowywana, każdy będzie mógł wkrótce poczuć się Salvadorem Dali :D

 

I tu przechodzimy do dalszej części tego co napisałeś – Twoje poglądy dotyczące transhumanizmu, są bardzo zbliżone  do głoszonych przez Reya Kurzweila w książce “Singularity” (nie wiem, czy ją czytałeś bo nigdzie się do tej pozycji nie odwołujesz, ale jeśli nie to gorąco zachęcam). W tym zakresie zgadzamy się w 100%. I mówiąc prawdę, trochę nie mogę się tego doczekać :-)

 

Nie czytałem, ale dzięki za “polecajkę”. Zapowiada się zacnie :)

Lechckrol, zgadza się, odmienność dobrze sprawdza się w reklamie, bo przyciąga uwagę, ale tylko na chwilę. Podobnie ma się to w sztuce, i w muzyce, ale to nie jest coś, z czym się identyfikujesz, choć w sztuce wiele rzeczy do nas przemawia, na tyle, że się z tym identyfikujemy, ale raczej na stopie “podoba się”, i trzeba by zdefiniować odmienność, z odmiennością nic wspólnie nie budujesz. To tak na marginesie i jednocześnie słowem wstępu do wypowiedzi Silvera.

Silver, po Twoim ostatnim zdaniu myślałem, że będę polemizował. Trochę spodziewałem się wywodu w kierunku Skynetu z Terminatora czy też Matrixa, podkreślam – trochę. Z tym co napisałeś w 100% się zgadzam.

Widzę kilka potencjalnych ścieżek rozwoju, np.:

– cyborgizacja umysłu, dołączanie do sieci biologicznej napędzanych zewnętrznie sieci neuronalnych, znacznie poszerzających możliwości intelektualne

– stworzenie całkowicie nowego bytu, SI, który nie będzie ograniczony kaloriami z pokarmu

– na dalszym etapie połączenie wszystkich odrębnych bytów świadomych w świadomość planetarną.

Ja nie widzę kilku potencjalnych ścieżek, a właśnie drogę ludzkości w etapach, jakie wymieniłeś. Z tym, że nie spodziewam się “stworzenia całkowicie nowego bytu SI”, jako wybuchu supernowej, a raczej rozwoju AI w kierunku nieuchronnej samodzielności. Tylko w tym samym czasie człowiek też będzie się rozwijał, etapowo rezygnując/pozbywając się biologicznego ciała. Granica połączenia zatrze się i rozłoży w czasie. To znaczy nie da się postawić jednoznacznej daty, kiedy to nastąpiło. Tak jak nie sposób znaleźć małpę, która pierwsza zlazła z drzewa.

Scenariusz warstwy społecznej mnie nie przekonuje. Zostawmy to filmowcom, bardziej do nich pasuje.

Mówiąc o gatunku, miałem na myśli osobniki “niemodyfikowane”. Dla takich ludzi nie będzie już miejsca ani ekonomicznie, ani społecznie – nie będą konkurencyjni na żadnym z pól. Może przez jakiś czas będziemy stanowić coś w rodzaju rzymskiego plebsu...

Też się zgadzam, będą sobie żyć, aż w końcu umrze gdzieś we wszechświecie ostatni biologiczny człowiek. Być może nawet na Ziemi.

Chociaż się boję, z drugiej strony chciałbym tego dożyć

Oj, to według mnie mało prawdopodobne. Jesteś zbyt dużym optymistą.

 

Lechckrol, ja też dziękuje za polecajkę, skorzystam.

 

Jak na razie wszystkim odmianom AI do samodzielności brakuje przekroczenia bariery światła. Naśladowanie/dublowanie warstw w sieciach  neuronalnych nijak nie przypomina działania mózgu człowieka. Inspiracja popłynęła z biologii, zgoda. Porównać efektywność można. Zachłystnąć się wytworami tworzonymi w mgnieniu oka nisko kosztowo również. Dla mnie rzecz pozostaje kolejną dziedziną do uregulowania jakkolwiek praw autorskich  jak w mixsie muzycznym. Na zgrubnym poziomie wyobrażamy sobie przebiegające w nas procesy, lecz poziom jest tak bardzo przestrzelony, że przychodzi mi do głowy porównanie z liczydłem, na którym przesuwało się paciorki.

Nijak, nie wygląda na to, aby cyborgizacja umysłu doprowadziła do wzrostu możliwości intelektualnych (najpierw trzeba byłoby zdefiniować, czym jest intelekt, inteligencja, a pierwej pewnie świadomość – lata świetlne i jak na razie leży jeszcze dalej niż horyzont zdarzeń). Chyba, że rozmawiamy o szybkości realizowania przez człowieka sparametryzowanych zadań w określonych narzuconych mu sytuacjach, rodzaju dostosowania się do konkretnej ramy rzeczywistości. Ilość nie przechodzi w jakość, a tym bardziej w cel.

Z kolei połączenie bytów nie wydaje mi się jakkolwiek możliwe przez most AI, bo po co ten most. xd

Logika zaprowadzi cię z punktu A do punktu B. Wyobraźnia zaprowadzi cię wszędzie. A.E.

Cieszę się, Asylum, że przeszłaś na ciemną stronę mocy. ;) Zgadzamy się więc, że to nieuniknione. Tyle, że Silver chciałby, aby stało się to za 80 lat, a Asylum mówi, że potrzeba 300 000 lat. Wiedza, a bardziej logika, gdyż naukowcem nie jestem, podpowiada mi, że będzie to gdzieś pomiędzy. Porzućmy to jednak na chwilę, a skupmy się na czymś bliżej.

Człowiek usilnie pracuje nad tym, by zapanować nad swoim biologicznym ciałem. Odzierając to z wszelkiej estetyki i sprowadzając do nauki – by móc je po prostu naprawić. A patrząc na rozwój genetyki, to nie będzie finalnie próba naprawy już chorego ciała, ale zapobieganie chorowaniu w ogóle. I to jest pierwszy etap do powyższej dyskusji, a który nieuchronnie nastąpi, i wcale nie w takiej kosmicznej przyszłości. Podpowiada mi to rozsądek i logika. Bo gdyby uchwycić to w liczbach. Ilu ludzi na świecie zajmuje się medycyną? W tych wszystkich szpitalach, klinikach, laboratoriach, koncernach farmaceutycznych? Będą tego setki milionów? Myślę, że tak. Zobaczcie więc, jak “duże siły” skupiliśmy na biologicznym przetrwaniu ciała, aby mógł przetrwać mózg, umysł. 

Znacznie mniejsze siły, licząc na “sztuki”, nie wchodzę tu w wątki finansowe, zaangażowanych jest w ekplorację kosmosu. Owszem, pewnie Musk z NASA, czy ktoś tam jeszcze poleci na Marsa. Ale to na tyle, przynajmniej przed dłuższy czas. Tu znowu logika podpowiada mi, że będzie jak ze zdobyciem Księżyca. A później długo, długo nic. Bo lot na Marsa, a przemieszczanie się między gwiazdami oddalonymi od siebie o lata świetlne, to zupełnie inna bajka. Człowiek rzuci duże siły w ekplorację kosmosu gdy zapanuje nad biologicznym ciałem. To znaczy nie będzie się juz bał niespodziewanych chorób i śmierci. To znaczy przedwczesnej śmierci, związanej z chorobą itp. Nie śmierci w ogóle.

I tu moje pytanie. Czy człowiekowi uda się pozbyć biologicznego ciała przed podróżami kosmicznymi (z możliwością osiedlania się w kosmosie), czy stanie sie to jeszcze na Ziemi, czy już po? Bo to determinuje rozwój człowieka, czy nadal będzie jeden, wspólny, czy pójdzie kilkutorowo, w przypadku wcześniejszej ekploracji. 

Jakie jest wasze zdanie?

 

Darconie, w poruszonym przez Ciebie wątku ważna będzie definicja “eksploracji kosmosu”. Upraszczając – powinniśmy najpierw zdecydować, czy mówimy o eksploracji w rozumieniu osobistych wizyt człowieka, czy za pośrednictwem robotów. 

Ograniczenia biologiczne od samego poczatku komplikują i podnoszą koszt każdego przedsięwzięcia w kosmosie, w którym ma bezpośrednio uczestniczyć człowiek. Stąd ogromny jednak w ostatnich latach postęp w eksploracji kosmosu robotami. Sukcesów misji bezzałogowych różnego typu jest od groma na mnie chyba największe wrażenie robi misja sondy Hayabusa) a to dopiero początek, bo kosmos to dane, zasoby i tak dalej, czyli pieniądz. 

Próbując odpowiedzieć na Twoje pytanie – człowiek raczej będzie musiał się pozbyć biologicznego ciała (albo bardzo je zmienić, why not?) przez podróżami kosmicznymi i już to z powodzeniem robi. To łatwiejsza droga. 

Nie przychodzi mi nawet w tej chwili do głowy powód, dla którego (oprócz ekscentrycznych projektów, marzeń fanów SF i scenariuszy katastroficznych) człowiek miałby w kosmos lecieć, ponosząc przy tym ogromne koszty. Owszem, powstają bazy na Księżycu i mają tam zamieszkać ludzie, ale to jest jak wyjście z domu do ogródka, a obezność tam człowieka to wcale nie główny cel zakładania tych baz. 

Wracając na moment do (od)twórczego AI, które potrafi generować dziś te “piękne” grafiki, a niedługo całe wirtualne światy – jak ktoś będzie sobie chciał coś poeksplorować kosmos to pewnie raczej używając tago typu narzędzi. 

Nie przychodzi mi nawet w tej chwili do głowy powód, dla którego (oprócz ekscentrycznych projektów, marzeń fanów SF i scenariuszy katastroficznych) człowiek miałby w kosmos lecieć,

A czy to nie jest wystarczający powód?

 

 

A czy to nie jest wystarczający powód?

 

Istnieją znacznie tańsze sposoby na poradzenie sobie z problemem przeludnienia, niż wysłanie nadwyżkowego miliarda ludzi w kosmos. 

 

Przeludnienie w ogóle jest zjawiskiem co najmniej dyskusyjnym. Można na nie spojrzeć jako na prosty problem i zamknać temat stwierdzeniem, że ludzi jest po prostu za dużo.

Ale mozna także zwrócić uwagę na to, jak ogromny potencjał tkwi w zwiększeniu efektywności wykorzystania zasobów. W kwesti przeludnienia polecam lekturę o Overpopulation Myth.

 

Według różnych oparcowań, Ziemia jest w stanie dzwignąć znacznie większą populację niż obecnie, wszystko zalezy od tego, jak się zorganizujemy. Choć, kto wie, może zrównoważony rozwój jest trudniejszy niż latanie w kosmos?

 

Wydaje mi się, że w najbliższym czasie bardziej realne niż wyslanie nadwyżki populacji w kosmos, będzie umiejętne zagospodarowanie nadwyżki produkowanej żywności (około 1/3 się marnuje co roku). 

 

Albo zagospodarowanie nadwyżki populacji jako żywność :P

Ale ja się z Tobą zgadzam, to nie jest problem na najbliższy czas i wiem, że sa teraz tańsze sposoby. Jednak objętość i pojemność Ziemi to liczba skończona, a populacja ludności to liczba rosnąca, kiedyś równowaga zostanie przekroczona. Matematyka podpowiada mi, że trzeba będzie kiedyś w ten kosmos ruszyć. I tego okresu dotyczy moje pytanie.

Przeludnienie może rozwiązać się samo i to w brutalny sposób...

Ale eksploracja układu słonecznego może przynieść całkiem wymierne korzyści w postaci dostępu do potencjalnych surowców. Tyle że na obecną chwilę niezbędne nakłady znacznie przekraczają potencjalne zyski. Kto wie – może kiedyś?

Za to podróże międzygwiezdne to na obecnym etapie wiedzy kompletna mrzonka, potrzebne są niewyobrażalne ilości energii, a odłegłości do pokonania – wręcz absurdalne. Nie ma chyba nawet podstaw teoretycznych, co mogłoby napędzać taki pojazd... 

 

Czy z webinaru “AI Advertising“ jest jakieś nagranie, które można by odsłuchać?

Za to podróże międzygwiezdne to na obecnym etapie wiedzy kompletna mrzonka, potrzebne są niewyobrażalne ilości energii, a odłegłości do pokonania – wręcz absurdalne. Nie ma chyba nawet podstaw teoretycznych, co mogłoby napędzać taki pojazd... 

No nie, Silverze, to akurat proste, trzeba zapytać twórców Star Treka. :) A na poważnie, to powyższe grozi tym:

Przeludnienie może rozwiązać się samo i to w brutalny sposób...

Nie można tego całkowicie wykluczyć.

Dlatego, to co pisałeś wyżej, a co niektórym wydaje się niedorzeczne, może być jedynym, racjonalnym kierunkiem.

 

Przeszłam na ciemną stronę kilka lat temu. xd Spróbuję krótko wyjaśnić, skąd się u mnie bierze aż tak zdecydowana opinia.

Najpierw pomyślmy o hardwarze biologicznym (mózg) i krzemowym. Nie nadają się do zbudowania funkcjonalnego i harmonijnego połączenia tak, aby optymalizowało działanie powstałej struktury, jej możliwości, niezależnie od tego, jak ją sobie zdefiniujemy. Tak na gorąco, czy będzie to np. kreatywność, jakość pracy układu, podejmowanie decyzji, w ogóle wszystkie procesy przetwarzania, pamięci, wyboru. Możliwe wydają się jedynie podmianki na samych wejściach do układu biologicznego – "końcówkach" np. bardziej czułe zmysły, zwiększenie siły fizycznej lub, tak jak napisał Darcon, leczenie czy przedłużanie życia organizmu poprzez wymiany zużywających się organów. Wejście może być ewentualnie portem "edge processor" (procesorem "brzegowym" jak w naszych telefonach, ipadach, lapkach czy innych urządzeniach xd) do wprowadzenia końcowego wyniku istniejącego i wypracowanego gdzie indziej modelu. Prawdziwa maszyna "ucząca się" znajduje się w naprawdę potężnym centrum obliczeniowym z high-endowymi procesorami powstałymi tylko na potrzeby wytrenowania konkretnej AI na ogromnej bazie danych w oparciu o tensory (w przypadku GPU3 już chyba ok. 170 mld parametrów) wypracowującą model pozwalający na wygenerowanie próbki tekstu łudząco podobnej do stworzonych przez człowieka czy zdjęcia, które zrobione smartfonem potrafi być w 90% lepsze niż to, wykonane za pomocą mega obiektywów i "obrobione" przez człowieka (są wyjątki. np. zdjęcia astrofizyczne czy ptaki). Pytanie, czy łudząco podobny do człowieka oznacza tożsamy (tekst/wypowiedź/obraz stworzony na bazie historycznej)?

Gdy myślimy o softwarze deep learningu jest podobnie, tj. niekompatybilny z człowieczym, wciąż analogowy (pomimo wag), bliższy rozpoznawaniu i zmysłom niż procesom ludzkiego uczenia się i rozwoju, pamięci, rozwiązywaniu problemów i życiu. Wyniki zachwycają – my tak nie potrafimy, lecz to nic nie znaczy. Świetne narzędzia do rozmaitych zastosowań przez człowieka w różnych sytuacjach, nigdy zamiast niego. Mogą być jakby lepszym wzrokiem, dłuższą ręką itd itp.

 

Prawdziwa zabawa zaczyna się, gdy zerkniemy we wnętrza naszych maszynek, na których niektórzy z nas grają – NVIDIA albo RADEON (AMD). W ogóle przełom głębokiego uczenia rozpoczął się dzięki wykorzystaniu kart graficznych (2012) do trenowania GPU. Rynek głównych producentów i projektantów (rozróżnienie, bo czasami jest to rozłączne) jest mini. Na scenie kilku graczy ze świata zachodniego. Mnie najbardziej fascynuje ASML i ich "drukarki" do litografii, rzeźbienia ultrafioletem w krzemie procesorów (holenderski holding, genealogia od Philipsa i Zeissa). Jest absolutnym monopolistą, wszyscy giganci tam się zaopatrują. ASML zszedł do poziomu trzech nanometrów (naprawdę blisko granicy atomowej). Ponoć w przyszłym roku taki procesor ma być w telefonie Apple. Ups, poszłam w dygresję. ;-(

 

W każdym razie połączenie hard czy soft człowieka i współczesnego AI (nawet gdyby rozwinąć technologię) nie wydaje mi się możliwe. Potrzebne są przełomy, a ich nie dokona AI. Czy zrobi to człowiek wykorzystujący narzędzia? Chyba musiałoby dojść do przełomu zupełnie innego rodzaju – zmiana społecznych celów. Oj, skończę, bo... nie skończę.

 

Ciekawa rozważania! :-) Aż mi się chce wrócić do pisania, kiedy Was czytam. ^^

Logika zaprowadzi cię z punktu A do punktu B. Wyobraźnia zaprowadzi cię wszędzie. A.E.

W każdym razie połączenie hard czy soft człowieka i współczesnego AI (nawet gdyby rozwinąć technologię) nie wydaje mi się możliwe.

 

Jakby troszkę się odsunąć i spojrzeć nieco inaczej, to istnieją już hybrydy ludzi i maszyn.

Na przykład – firmy. A nawet państwa. 

Większość korporacji i nowoczesnych zakładów produkcyjnych padłaby trupem, gdyby wyrwać im “wszczepki”, jakimi są systemy ERP i MRP, bazy danych i narzędzia buiness intelligence, analityka danych i tak dalej (to wszystko bardzo często wspierane technologią SI). Już teraz żaden człowiek ani zespół ludzi nie jest w stanie wejść na poziom przetwarzania, jaki zapewniają maszyny. Podobnie jest w nauce i medycynie. I w wielu innych dziedzinach.

Pewnie uznacie, że to trochę na siłę, ale te generatory to grafik to też kolejna “wszczepka’. Pal licho interfejs – piszemy prompt, mówimy, a może pomyślimy tylko – ta technologia robi coś za nas. Bez niej obrazek by nie powstał. Zostałby prompt, intencja tylko. 

 

Zmierzam do tego, że nie trzeba wspawać Kowalskiemu gniazdka i modułu Bluetooth. Ludzkość zrobiła to już sobie w skali makro używając technologii i entuzjastycznie wspierając proces jej alienacji. Myslę, że w tym sensie możemy mówić o trwałym połączeniu człowieka ze środowiskiem cyfrowym. TYlko że bez kabelka. 

 

Co to może oznaczać w rozważanich futurologicznych? Tyle tylko, że obok wspomianych wyzej scenariuszy (w skrócie: kurzewilowska “osobliwość” i lovelockowski nowacen) jest jeszcze taki, w którym ludzka cywilizacja buduje modele funkcjonowania wykorzystujące technologię, o ktorych nam się jeszcze nie śniło. Fukuyama odszczekał Koniec Historii właśnie dlatego, że nie uwzględnił rozwoju technologicznego. Demokracja w obecnej formie przestaje się sprawdzac, internet wniósł komunikacje społęczną na zupełnie nowy poziom. Pojawiły się nowe ryzyka, ale także nowe szanse. 

Chiny budują nowy model zarządzania społeczeństwem właśnie w oparciu o technologię. Znowu – hybryda. Kto wie, może powstanie kiedyś model na tyle zoptymalizowany, że przetrwa w długiej perspektywie?

 

 

Już teraz żaden człowiek ani zespół ludzi nie jest w stanie wejść na poziom przetwarzania, jaki zapewniają maszyny. Podobnie jest w nauce i medycynie. I w wielu innych dziedzinach.

 

To akurat człowiek jest sobie wrogiem – tworzy procedury nie związane z rzeczywistością albo traktuje je bardzo wybiórczo. Słomiany zapał, lenistwo, “nie ten dzień” czy niechęć do powtarzalnych zadań i tym podobne. Generalnie to człowiek – jeśli nie jest fascynatem tematu – potrzebuje przysłowiowego palca w tyłku, żeby pracował efektywnie i był ogólnie mówiąc zadowolony i zmotywowany. Jednakże to człowiek lepiej realizuje się w zadaniach wymagających abstrakcyjnego myślenia dotykających wielu równoległych tematów i dziedzin. Po to mamy automaty i bazy danych – odpoczniemy tak samo jak te konie, które zastąpiono traktorami:)

 

Chiny budują nowy model zarządzania społeczeństwem właśnie w oparciu o technologię.

Jak to znajomy chińczyk powiedział – pożyjemy, zobaczymy, przeżyjemy (jak wszystko). W zasadzie to dość ciekawie zwrócił uwagę, że jako Polacy musimy do wszystkiego (dla zasady) stawać okoniem. Oni wyznają zasadę utrzymywania się na powierzchni i ignorowania rządu i wszystkich “udoskonaleń”. Raz wiatr zawieję w tę stronę, raz w inną, ale oni sobie dryfują na powierzchni. Bo idee czy systemy się zmieniają. I to jak sinusoida. Na razie jesteśmy na krzywej rosnącej – “AUTOMATYZUJMY WSZYSTKO". Nastąpi przesycenie tematem, osiągniemy masę krytyczną irytacji nad AI, po czym znów pojawi się trend “powrotu do podstaw” i większej kontroli człowieka nad procesami. Ot, krąg życia.

 

Zresztą, przeceniacie Midjourney i wszystkie inne modele uczenia maszynowego. Może i zdarzy się takiemu namalować coś efekciarskiego. Ale obecne modele podejmują się jednego zadania. Generalizacji. Na podstawie podanych przykładów uczą się (lepiej lub gorzej) łączyć fragmenty podanych próbek do zamierzonego przez twórcę modelu wyniku. Tu nie ma krzty inteligencji, raczej twórcze wykorzystanie istniejących danych.:)

W sensie, model i może ładnie posklejał piksele, ale w życiu nie odpowie Ci dlaczego pomarańcza jest pomarańczowa.

 

btw, podpieram powyższy doświadczeniem i niejako przesyceniem tym tematem. Zbieram się do pisania rozprawy doktorskiej o wykorzystaniu ML w telekomunikacji i mam tej “sztucznej” i “inteligencji” serdecznie dość :D

Nie wcho­dząc w de­ta­le, sieci neu­ro­no­we są bar­dzo za­awan­so­wa­ny­mi ma­szy­na­mi sta­ty­stycz­ny­mi i w tym co robią jest zero kre­atyw­no­ści

A mózg biologiczny to jakaś magia, czy układ neuronów?

 

No, uważałbym z uznaniem mózgu tylko za układ neronów. Wokół mózgu wyrósł nam cały biologiczny plecak, w którym chodzimy i żyjemy. ;)

Nie no, jasne, ale chodziło mi o to, że zwierzęta są de facto czymś w rodzaju biokomputera. A do komputera nie-bio też możesz dołożyć jakiś “rodzaj plecaka”. Oczywiście osobną kwestią sa uwarunkowania tego, co i jak może zewnętrznie wpływać na stan hardware’u.

Ja jeszcze w kwestii mózgu.

Znacie, a może nie? Są hipotezy (stoi za nimi m.in. Roger Penrose, więc że tak powiem sroce spod ogona nie wypadły), że na funkcjonowanie mózgu mogą wpływać zjawiska kwantowe. Upraszczając (tak muszę, żeby samemu to ogarnąć) – w neuronach są takie śmieszne małe rurki (mikrotubule), no i one, te rurki, są tak małe, że dotyczy ich już skala kwantowa właśnie. Z tego Penrose i jego kolega (wzięty anestezjolog) wnioskują, że zjawiska kwantowe mogą w jakiś sposób kształtować naszą świadomość. 

Zainteresowanym polecam eksplorację w internecie hasła “quantum consciousness” i “quantum mind”. 

 

Świat kwantowy jest intrygujący choć w pewien sposób złośliwy. Choćby przez zasadę nieoznaczoności – choć i to ma swoje plusy. Jeśli faktycznie "myślimy kwantowo" (na bardzo podstawowyw poziomie), wówczas takich myśli nie da się podsłuchać bez informowania o tym samego mózgu (obserwacja ustala pewien stan kubitu). Ed: z drugiej strony myślenie o sobie per "suma stanów nieokreślonych" jest i piękne (poetycko) i jednocześnie okrutne :D

O, stn, szybko wspaniale wyjaśnił. :-)

Dodam tylko kilka słów z obszaru kognitywistyki. Gdy mowa o obliczeniowej teorii umysłu, zwykło się pisać/myśleć o komputerowej metaforze umysłu. Metafora zrobiła zawrotną karierę i ciągle jest żywa, pozostając mętną. Gdyby spytać o kryteria, którymi posługujemy się porównując komputer i mózg nie jesteśmy w stanie takich podać i przysłowiowo odróżnić biurka od kruka.  

Na modele obliczeniowe umysłu możemy popatrzeć jak na proces poznawczy, dokładniej, przetwarzania informacji podczas wykonywania określonych zadań: realizacja obliczeń w przyrodzie, idealizacje, symulacje (wejście, obróbka, wyjście, dokładność i poziom błędów, cele poszczególnych etapów, ich zachodzenie w czasie, równolegle bądź nie, impulsowe i jeszcze wiele innych). Zauważcie, że mówimy tutaj tylko o idei/schemacie przebiegu samego procesu, a nie o elementach realizujących konkretne funkcje. Podejmuje się więc próby zbadania samego mechanizmu odpowiedzialnego za wycinkową operację poznawczą przy naprawdę dużym uproszczeniu. Inaczej nie można – paradoks Beniniego (nie da rady złożonego wyjaśniać równie złożonym). Kiedyś żartowałam z siebie, że moja pisanina podpada pod ten paradoks, co jest naturalnie brednią, gdyż odpowiada za to brak warsztatu i wystarczającej wyobraźni. xd

Czy mózg człowieka realizuje operacje przetwarzania informacji, czy rozwiązujemy problemy, wnioskujemy. Tak. Czy przetwarzanie przebiega u nas jak w smartfonie czy w sieciach uczenia głębokiego? Nie. Może, więc chociaż częściowo, niektóre kawałki? Też nie. Dlaczego?

Umysł człowiek (najprościej, nie wdając się w filozofowanie) to trzy sfery A,B,C (afektywna, behawioralna i kognitywna). Złożone zadania, decydujące o przeżyciu możemy realizować również bez przetwarzania info, tj. wystarczy określona budowa narządów (w tym przypadku uszu) i możliwość oddziaływania ze środowiskiem, np. klasyczne już świerszcze (bioroboty, Barbara Webb, chyba z dziesięć lat temu). Samiczka świerszcza wybiera swojego ukochanego, szukając tego, który najpiękniej śpiewa, ponieważ posiada dwie pary uszu (na głowie i na kończynach połączonych pałeczką) o określonej charakterystyce. Biorobot modelujący działał bez pudła. ;-)

 

Multidyscyplinarnie próbuje się stworzyć symulacje, modele obliczeniowe, które pokrywałyby się z wynikami badań neurobiologicznych i psychologicznych przy ściśle określonych zadaniach i w bardzo wyimkowych procesach. 

 

Łosiocie, owszem kwantowa teoria jest pociągająca, lecz a/ od kilku lat wszystko już zaczyna być "kwantowe" :D, b/ przeczyłoby stabilizacji materii w wersji makro i nie tylko. Z tymi mikrotubulami Penrose próbuje jakoś zbliżyć się do problemu świadomości i szukać neuronalnych korelatów. Dwa z Copernicusa (3 minutowe i art. z przekroju)

trudny-i-latwy-problem-swiadomosci

neuronalny-korelat-swiadomosci

nauka/skandal-swiadomosci-steve-paulson

Logika zaprowadzi cię z punktu A do punktu B. Wyobraźnia zaprowadzi cię wszędzie. A.E.

Asylum, dzięki. Zmierzę się z tym contentem, choć wyczuwam poważne wyzwanie ;)

Łooooooł!!!!

 

Zadałem z pozoru proste pytanie o wykorzystnie cyforwego narzędzia do ilustorwania publikacji, a widzę, że dyskusja objęła kwestie świadomości, ewoloucji, posthumanizmu, inteligencji, zjawisk kwatnowych w proceach myśleni, ekspansji kosmicznej... i wielu innych. Fascynujące.

 

Jestem w trakcie pisania książki SF o AI (może opublikuję kawałek na NF), więc z wielkim zinateresowaniem czytałem Wasze przemyślenia. Nie mogę powiedzieć, że zgdzam się z wszystkimi. ani też, że wszystko zrozumiałem. Tak, czy inaczej – zrobiło się ciekawie :-)

 

W związku z powyższym, założę kolejny wątek o AI – pewnie będzie jeszcze fajniej.

 

@Koala75 – czekam na nagranie. Jak tylko dostanę to udostępnię.

lck

Ja twory w SI wykorzystałam do okładki i ilustracji do mojego wattpadowego (po)tworka.  Wcześniej wymagały jednak odrobinę przeróbek, aby dobrze się prezentowały.

@Ajzan Widziałem :-)

Ciekawe ile ludzi się zorientowało.

lck

Wiedziony ciekawością wypróbowałem Midjourney i niestety w moim przypadku program poległ na całej linii. Opisywałem mu na bardzo różne sposoby pewną scenkę i w najlepszym przypadku otrzymywałem portrety, a w najgorszym – jakieś dziwne, abstrakcyjne kształty niepodobne absolutnie do niczego. I tak wyszło lepiej niż w przypadku DALL-E mini, który wyrzucał mi głównie pokraczne, zdeformowane postacie jak z koszmaru.

"Moim ulubionym piłkarzem jest Cristiano Ronaldo. On walczył w III wojnie światowej i zginął, a teraz gra w reprezentacji Polski". Antek, 6 l.

@Bolly Zdradzisz, co chciałeś osiągnąć i jak brzmiały komendy dla bota?

lck

W takich generatorach najlepiej próbować wygenerować ten sam prompt wiele razy i wybrać ten najlepszy. Ale to też może od specyficzności opisu. Jedne rozumie o wiele lepiej niż drugie.

@Ajzan Midjourney (i inne sieci neuronowe, w szczególności GAN) rozumieją te rzeczy, które znają (na których je uczono). Im więcej jest obrazków danego typu (treści), tym łatwiej jest coś uzyskać. Można stworzyć obrazy łącząc to co znane w nieszablonowy sposób. Jeśli jednak próbujemy wykreować coś naprawdę nowego, to raczej się nie uda.

Tutaj, w części “Style pages” ściągawka. 

lck

@Bolly Zdradzisz, co chciałeś osiągnąć i jak brzmiały komendy dla bota?

Nie zdradzę, bo chodzi o scenkę, na której opiera się pomysł na moje nowe opowiadanie. Ale była to scenka w gruncie rzeczy dość prosta, którą każdy z nas bez trudu umiałby sobie wyobrazić. Same konkrety, żadnych abstrakcyjnych idei. Próbowałem na pierdyliard różnych sposobów, wklepując to bardziej szczegółowe, kilkuzdaniowe, to bardziej zwięzłe opisy, używałem zdań prostych, jak i złożonych, i nie otrzymałem nic, co choćby w wielkim przybliżeniu odpowiadałoby mojemu zamysłowi. Dodam, że mojej angielszczyźnie nie mam nic do zarzucenia.

"Moim ulubionym piłkarzem jest Cristiano Ronaldo. On walczył w III wojnie światowej i zginął, a teraz gra w reprezentacji Polski". Antek, 6 l.

A jak ten bot radzi sobie z nietypowymi rozwiązaniami? Przykładowo: rzymscy legioniści, tańczący rave techno na gigantycznym żółtym serze?

Czy możemy już wrzucić opowiadanie z forum do jakiegoś narzędzia i uzyskać z tego kilkuminutowe nagranie wideo?

 

 

Nowa Fantastyka