tag:blogger.com,1999:blog-17277012479335154712024-03-19T09:48:05.618+01:00 MagnetarTechProjectTo projekt „Open Source” który dzięki odtworzeniu znanej w starożytności a dotychczas nieobecnej wiedzy i technologii, pozwoli na pozyskanie każdej ilości zasobów i energii spoza Ziemi, dla rozwoju zrównoważonej interplanetarnej cywilizacji. Bez destrukcji środowiska, balastu kryminogennego systemu, zacofanego prawa, ubóstwa, wojen i przemocy. Z futurystycznym poziomem życia jak przystało na interplanetarną cywilizację. Zapraszam inwestorów, technologów, inżynierów, organizatorów i pasjonatów.#magnetartechprojecthttp://www.blogger.com/profile/00116426320285930090noreply@blogger.comBlogger32125tag:blogger.com,1999:blog-1727701247933515471.post-869188711555035482023-05-03T22:57:00.005+02:002023-05-12T00:09:11.680+02:00„Miłość jest Bogiem”. Wzruszający list Alberta Einsteina do córki<p> </p><br /><br /><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhIeLjef_I1HCdG_9tBS3hnTTjlqAHij_eJJT1Z7VOugnb0sb2w58Qvwi6Myor9XNFEgg3_Jem81tHv3bmV7BLEcDUavU5hxbggcKMe9FPtGXYYDwwg3QmiVLpiQRDGaCf_7IFJqYa2f2PdlHCZsiSPAHdGdmBjnRL7ksomqNVkdzow7oRfuj6KSHY1/s637/FB_IMG_1558369376912.jpg" style="margin-left: 1em; margin-right: 1em;"><img border="0" data-original-height="637" data-original-width="474" height="640" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhIeLjef_I1HCdG_9tBS3hnTTjlqAHij_eJJT1Z7VOugnb0sb2w58Qvwi6Myor9XNFEgg3_Jem81tHv3bmV7BLEcDUavU5hxbggcKMe9FPtGXYYDwwg3QmiVLpiQRDGaCf_7IFJqYa2f2PdlHCZsiSPAHdGdmBjnRL7ksomqNVkdzow7oRfuj6KSHY1/w476-h640/FB_IMG_1558369376912.jpg" width="476" /></a></div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><div class="separator" style="clear: both; text-align: center;"><br /></div><br />Pod koniec lat osiemdziesiątych ubiegłego wieku, Lieserl, córka sławnego geniusza, przekazała Uniwersytetowi Hebrajskiemu 1400 listów napisanych przez Einsteina z zastrzeżeniem, aby nie publikować ich treści dopóki nie minie 20 lat od jego śmierci. Oto jeden z nich, napisany do Lieserl Einstein.<br /><br />"Kiedy przedstawiłem teorię względności, niewielu ją zrozumiało. To, co teraz napiszę również spotka się z brakiem zrozumienia.<br /><br />Proszę cię, abyś strzegła tych listów tak długo jak to konieczne. Przez lata, dekady, aż społeczeństwo będzie na tyle rozwinięte, aby przyjąć to, co wyjaśniam poniżej.<br /><br />Istnieje niezwykle potężna siła, dla której, jak dotąd, nauka nie znalazła oficjalnego wytłumaczenia. Owa siła ma wpływ na wszystkie inne i stoi ponad zjawiskami działającymi we wszechświecie. Do tej pory nie została jeszcze przez nas rozpoznana.<br /><br />Tą uniwersalną siłą jest MIŁOŚĆ.<br /><br />Naukowcy, szukając jednolitej teorii wszechświata, zapomnieli o najpotężniejszej, niewidzialnej sile.<br /><br />Miłość jest Światłem, bo oświetla tych, którzy ją dają i przyjmują.<br /><br />Miłość jest grawitacją, ponieważ sprawia, że ludzie czują się przyciągani do innych.<br /><br />Miłość jest mocą, ponieważ pomnaża to, co w nas najlepsze i nie pozwala ludzkości zginąć w ślepym egoizmie.<br /><br />Miłość rozwija i ujawnia.<br /><br />Dla Miłości żyjemy i umieramy.<div><br />Miłość jest Bogiem, a Bóg jest Miłością.<br /><br />Ta siła wyjaśnia wszystko i nadaje życiu znaczenie. To czynnik, który zbyt długo ignorowaliśmy, być może dlatego, że boimy się miłości. Może dlatego, że nie podlega woli człowieka.<br /><br />Aby uczynić miłość widzialną, zrobiłem prostą zmianę w moim najsłynniejszym równaniu.<br /><br />Jeżeli zamiast E = mc2, przyjmiemy że energia potrzebna do uzdrowienia świata, może być otrzymana poprzez miłość pomnożoną przez podniesioną do kwadratu prędkość światła, dojdziemy do wniosku, że miłość jest najbardziej potężną siłą jak istnieje. Dlatego, że nie ma żadnych ograniczeń.<br /><br />Po tym jak ludzkość poniosła klęskę, chcąc wykorzystać i kontrolować inne siły wszechświata, co obróciło się przeciwko nam, konieczne jest, abyśmy karmili siebie innym rodzajem energii…<br /><br />Jeśli chcemy, aby nasz gatunek przetrwał, jeśli mamy znaleźć sens w życiu, jeśli chcemy ocalić świat i każdą istotę, która go zamieszkuje, miłość jest jedyną odpowiedzią.<br /><br />Może nie jesteśmy jeszcze gotowi, aby stworzyć bombę miłości, wystarczająco potężną, aby całkowicie zniszczyć nienawiść, egoizm i chciwość, które dewastują naszą planetę. Jednak, każdy człowiek nosi w sobie mały, lecz potężny generator miłości, którego energia czeka na uwolnienie.<br /><br />Gdy nauczymy się dawać i przyjmować tę uniwersalną energię, moja kochana Lieserl, potwierdzimy, że miłość pokonuje wszystko, jest w stanie wszystko przeniknąć, bo jest kwintesencją życia. Głęboko żałuję, że nie byłem w stanie wyrazić tego, co jest w moim sercu, które cicho bije dla ciebie przez całe moje życie. Być może za późno na przeprosiny, ale ponieważ czas jest rzeczą względną, muszę ci powiedzieć, że kocham cię i dzięki tobie dotarłem do ostatecznej odpowiedzi!<br /><br />Twój ojciec Albert Einstein".</div></div><div class="blogger-post-footer">„Analfabetami XXI wieku nie będą ci, którzy nie umieją pisać ani czytać, lecz ci, co nie potrafią oduczyć się wierutnych kłamstw, w które nauczono ich wierzyć i nie potrafią szukać ukrytej wiedzy, którą nauczono ich odrzucać”</div>#magnetartechprojecthttp://www.blogger.com/profile/00116426320285930090noreply@blogger.com0tag:blogger.com,1999:blog-1727701247933515471.post-15645547971064001782023-02-08T19:24:00.130+01:002023-09-27T01:38:25.347+02:00Prąd elektryczny <p> </p><p><br /></p><p><br /></p><p><br /></p><p><br /></p><br /><div><div>Co to jest prąd elektryczny? W jakim kierunku płynie prąd? Czym jest umowny kierunek prądu? Czy prąd stały może płynąć w dwóch kierunkach jednocześnie? Czy ktoś pomylił kierunki?<br />Będąc dzieckiem znalazłem w domu starą komunistyczną książkę traktującą o podstawach elektroniki. Autor porównywał w niej napięcie i prąd elektryczny do płynącej wody. To tam pierwszy raz przeczytałem, że prąd płynie od plusa do minusa. <br />Kiedy nastały czasy Internetu, okazało się, że prąd zaczął płynąć odwrotnie, a z tym kierunkiem plus-minus to tylko taka ogólnoświatowa umowa, której wszyscy się teraz trzymamy. O co chodzi?</div></div><div>Najbardziej zastanawiała mnie jednak kwestia- skoro znamy rzeczywisty ruch prądu w przewodach, to po co nam ta cała „umowa”? Dlaczego po prostu tego nie zmienimy, upraszczając przy okazji całe zagadnienie? </div><div>Twórcą całego tego zamieszania był Amerykanin Beniamin Franklin – człowiek znany z tego, że chciał za pomocą latawca ściągnąć na ziemię elektryczność. Twierdził on, że błyskawice nie są oznaką "gniewu bogów", a jedynie nieco większymi i groźniejszymi iskrami elektrycznymi. Dla potwierdzenia swych słów postanowił wypuścić w trakcie burzy latawiec i z jego pomocą złapać nieco ,,iskier” do słoika.</div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /><p style="border: 0px; box-sizing: border-box; font-stretch: inherit; font-variant-east-asian: inherit; font-variant-numeric: inherit; line-height: inherit; margin: 1.5em auto; max-width: 800px; outline: 0px; padding: 0px 20px; vertical-align: baseline;"><span style="font-family: inherit;"><span style="background-color: white; border-color: initial; border-image: initial; border-style: initial; font-stretch: inherit; font-style: inherit; font-variant: inherit; font-weight: inherit; height: auto; line-height: inherit; margin-left: auto; margin-right: auto; outline-color: initial; outline-style: initial;"><img alt="Franklin puszcza latawiec" class="wp-image-2399" height="545" loading="lazy" sizes="(max-width: 960px) 100vw, 960px" src="https://teoriaelektryki.pl/wp-content/uploads/2018/11/Franklin-eksperyment-z-latawcem.jpg" srcset="https://teoriaelektryki.pl/wp-content/uploads/2018/11/Franklin-eksperyment-z-latawcem.jpg 960w, https://teoriaelektryki.pl/wp-content/uploads/2018/11/Franklin-eksperyment-z-latawcem-600x341.jpg 600w, https://teoriaelektryki.pl/wp-content/uploads/2018/11/Franklin-eksperyment-z-latawcem-300x170.jpg 300w, https://teoriaelektryki.pl/wp-content/uploads/2018/11/Franklin-eksperyment-z-latawcem-768x436.jpg 768w" style="border: 0px; box-sizing: border-box; display: block; font-family: inherit; font-stretch: inherit; font-style: inherit; font-variant: inherit; font-weight: inherit; height: auto; line-height: inherit; margin: 0px auto; max-width: 100%; outline: 0px; padding: 0px; vertical-align: bottom;" width="960" /></span></span></p><span> </span><span> </span>Franklin z synem puszczają latawiec, próbując złapać elektryczność do "słoika". Podobne próby łapania piorunów przeprowadzałem ze starszym bratem w nieco późniejszym dzieciństwie :) </div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div>Historia tego szalonego eksperymentu od samego początku budziła wiele kontrowersji, dzieląc świat nauki nad dwa obozy. Część badaczy twierdziła że do wspomnianego łapania błyskawic nigdy nie doszło. Inni nie widzą powodu, by tak rzetelny naukowiec jak Benjamin Franklin miał kłamać. </div><div>Koniec końców całe to zamieszanie doprowadziło do wynalezienia piorunochronu – urządzenia, które do dziś uratowało życie milionom ludzi i które bez niezwykłego wizjonerstwa Franklina najpewniej długo by jeszcze nie powstało. Oczywiście koncepcja łapania błyskawic nie była ostatnim słowem Amerykanina w kwestii elektryczności, ani też ostatnim wywołanym przez niego sporem.</div><div>Niedługo potem Franklin wraz ze swoim zespołem wysnuł teorię, jakoby elektryczność miała dwie natury, które nazwali ładunkiem dodatnim (+) i ujemnym (-). Co ważne, w tamtych czasach (około 1750) nie znano jeszcze cząstek elementarnych, dlatego elektryczność porównywano do wody. I wcale nie była to taka niedorzeczna teoria co postaram się wykazać.</div><div><br /></div><div>Jeśli dany obiekt posiadał dużo elektryczności to stawał się dodatnio naładowany. Z kolei niedobór elektryczności stanowił ładunek ujemny. Według Franklina, zbliżając do siebie dwa przeciwnie naładowane obiekty, "płyn elektryczny" naturalnie spływał od ładunku dodatniego do ładunku ujemnego, niczym wodospad. Teoria ta miała sens, a do tego potwierdzały ją liczne eksperymenty niezależnych naukowców.<br />Przez kolejne lata rozwój badań nad elektrycznością nabrał skali i tempa kuli śniegowej. Odkrywano sposoby na przesyłanie elektryczności przewodami, opisano zjawisko elektromagnetyzmu i stworzono nowe urządzenia elektryczne takie jak bateria czy żarówka. Ludzie coraz lepiej rozumieli elektryczność, a teoria "elektrycznego płynu" przestała temu rozumieniu odpowiadać. </div><div>Po około 150 latach, kiedy to (rzekomo) odkryto elektron jako najmniejszą cząstkę obdarzoną ładunkiem, stało się to dowodem (czytaj "nauka przyjęła") że:</div><div><br /></div><div>elektryczność to nie żaden płyn, a fizyczne cząstki, które "niosą ze sobą ładunek".</div><div><br />ładunek ujemny nie jest ,,niedoborem płynu elektrycznego”, a nadmiarem elektronów.</div><div><br />ładunek dodatni nie jest ,,nadmiarem płynu elektrycznego”, a niedoborem elektronów.</div><div><br />Nauka oficjalna twierdzi że zbliżając do siebie dwa przeciwnie naładowane obiekty, elektrony przeskakują z obiektu ujemnie naładowanego na obiekt dodatnio naładowany-czyli że elektryczność płynie odwrotnie niż zakładał Franklin. To tak jakby woda zaczęła nagle płynąć pod górę a Ziemia nie miała niskiego potencjału lecz najwyższy! Albo gdy w hipermarkecie dotykasz metalowej poręczy to elektrony biegną z poręczy do Ciebie. Czyżby??</div><div><br />Dawniejsi fizycy a raczej alchemicy ze szkoły eteru nie byli zadowoleni, gdy usłyszeli, że tysiące wcześniejszych publikacji nagle okrzyknięto błędnym założeniem. Też bym nie był. Z jednej strony przepisanie wszystkiego na nowo było niemożliwe, ale niestety po rzekomym odkryciu elektronu przyjęto że kierunek ,,od plusa do minusa” jest tym właściwym i trzeba było to odwrócić.<br /><br />Gdyby nawet rzekome elektrony płynęły od minusa do plusa, to przecież i tak nikt nie jest w stanie tych pojedynczych cząstek dostrzec bezpośrednio. Więc wyrok nie zapadł. Zwykła żarówka również świeci tak samo dobrze, bez względu na to jak podłączymy ją do baterii. Czy jest zatem w ogóle sens wywracać co chwilę świat nauki do góry nogami? </div><div><br /></div><div>Może umówimy się po prostu, że elektryczność płynie tak jak obserwujemy podczas burzy? Z bieguna dodatniego do ujemnego. Z punktu o większym ciśnieniu/ nagromadzeniu fotonotwórczego płynu dawniej zwanego "eterem", do punktu o nieco mniejszym ciśnieniu czyli w tym wypadku Ziemi.<br /><br />Rzekoma pomyłka Franklina była głównym powodem, dla którego 300 lat później musimy się uczyć o dwóch różnych kierunkach prądu i do dziś nie ma konkretnego wyjasnienia z czym mamy do czynienia.<br /><br />Opisując historię Franklina, ani razu nie użyłem określenia ,,prąd elektryczny”? Jest tak dlatego, że w jego czasach pojęcie to nie istniało i do odkrycia „ruchliwości ładunków” potrzeba było kolejnych 50 lat wytężonej pracy "najgenialniejszych umysłów wszechczasów" choć jak się okazuje nie uczynili tego bez błędów. </div><div>Na początku XIX wieku za sprawą zupełnie nowej dziedziny nauki zwanej elektrochemią wytworzono ciągły przepływu ładunku elektrycznego, ale też zasiano ziarno zwątpienia wśród fanów słusznej początkowej teorii elektryczności płynącej od plusa do minusa, co dziś moglibyśmy określić mianem teorii spiskowej.<br /><br />Chemiczna produkcja ładunku jest prosta. Zanurzenie dwóch różnych metalowych płytek w roztworze kwasu powodowało przepływ elektryczności między nimi. Natura tego zjawiska była jednak nieznana do momentu, aż Michael Faraday postanowił przyjrzeć się jej dokładnie. W trakcie eksperymentu zauważył on, że jedna z płytek dosłownie rozpuszcza się na jego oczach, podczas gdy na drugiej pojawia się metaliczny osad. Przepływający ładunek powodował przepływ materii, a Faraday wydedukował, że skoro płytki wykonane były z dwóch różnych metali, to w roztworze musiał nastąpić przepływ dwóch różnych ładunków jednocześnie – ujemnego i dodatniego, nazwanych przez niego jonami. I oczywiście było to założenie...błędne.</div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /><img height="640" src="https://teoriaelektryki.pl/wp-content/uploads/2018/11/Michael-Faraday-767x1024.jpg" width="479" /></div><div>Michael Faraday</div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /><br />To tylko procesy chemiczne odkryte przez Faradaya działały w dwóch przeciwnych kierunkach i niosły ze sobą atomy materii. Natomiast mimo że wtedy wydawało mu się inaczej, prąd elektryczny dalej ma tylko jeden kierunek. Od większej ilości fotonów zgromadzonych na orbitalach atomów, do ilości mniejszej czyli znowu wracamy do punktu wyjścia. Cała materia powstała ze światła podczas silnych procesów elektrycznych jakie zachodzą w przestrzeni kosmicznej wypełnionej eterem. Różnica ciśnienia w fotonotwórczej przestrzeni albo zagęszczonej substancji pochodzącej od niej, czyli materii.</div><div>Z początku myślano, że ,,elektryczność dynamiczna” to zupełnie coś innego niż ,,elektryczność statyczna” i obie te dziedziny traktowano oddzielnie. Kolejne lata przyniosły jeszcze więcej odkryć i wynikających z nich zagadek. Badając przepływ tak zwanego ładunku w przewodach, zaczęto zauważać związek między wytworzonym napięciem, wymiarami przewodu, a temperaturą do jakiej się on nagrzewa. Powstała idea rezystancji, dzięki której możliwe było określenie ilości płynącej elektryczności. Z kolei pewien duński fizyk, Hans Christian Ørsted, zauważył, że elektryczność płynąca w przewodzie zaburza działanie kompasu – tak narodziła się kolejna, zupełnie nowa gałąź nauk elektrycznych – elektromagnetyzm. Elektryczność (fotony/eter) płynąca w przewodzie zaburza działanie kompasu tylko dlatego że ten ruch wywołuje różnicę ciśnień i MECHANICZNY (!) nacisk na otoczenie zewnętrzne przewodu.</div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /><img src="https://teoriaelektryki.pl/wp-content/uploads/2018/11/kompas-w-polu-magnetycznym-przewodnika.jpg" /></div><div><br /></div><div>Przepływ prądu odkształca wskazówkę kompasu dlatego że fotonowe pole elektromagnetyczne wykonuje prostopadły ruch wirowy wkoło przewodnika. Im wyższe jest napięcie tym mniej prostopadły jest ruch tego pola elektromagnetycznego, tudzież płynu fotonotwórczego obecnego wkoło przewodnika, do płaszczyzny przekroju tego przewodnika.</div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br />Każde kolejne odkrycie wymagało stworzenia nowych równań matematycznych, wzorów odpowiednich do zależności między różnymi wielkościami elektrycznymi. Powstały Prawa Joule’a, Ohm’a, Kirchhoff’a oraz indukcji elektromagnetycznej. W pewnym momencie na świecie istniały 4 zupełnie odrębne systemy jednostek elektrycznych jak i pomniejszych wielkości zupełnie niepasujących do niczego. Aby się w tym wszystkim nie pogubić, trzeba było całość ujednolicić.<br /><br />W latach 1881 – 1904 odbyło się kilka międzynarodowych kongresów elektrycznych IEC (ang. International Electrical Congress), na których ustanowiono szereg wspólnych jednostek elektromagnetycznych, takich jak om, wolt, farad czy kulomb. W tym właśnie okresie powstała oficjalna, obowiązująca do dzisiaj definicja prądu elektrycznego.<br /><br />Po "odkryciu" tzw. elektronu oraz jonów ustalono, że elektryczność składa się z małych, pojedynczych "ładunków". Oraz że rzekome elektrony płyną w przewodach od minusa do plusa, a jony w roztworach płyną w obu kierunkach i są obdarzone ładunkiem o tej samej wartości. Przez to niezbyt szczęśliwe wyjasnienie, wszystkie te zjawiska połączono jednym wspólnym określeniem: uporządkowanym przepływem "ładunku elektrycznego", czyli inaczej prądem elektrycznym.<br /><br />Jednostką prądu elektrycznego został amper (A), a urządzenia do mierzenia prądu nazwano amperomierzami. Pierwszy amperomierz był skonstruowany tak że w roztworze azotanu srebra zanurzano srebrną płytkę. Pod wpływem płynącego prądu srebro wytrącało się z roztworu i osiadało na płytce. Po zważeniu płytki przed i po, naukowcy określili, że jeden amper prądu równy jest osadzaniu się 0,001118 gramów srebra na sekundę. Definicja ta wraz z biegiem lat uległa zmianie i dziś za jeden amper uznaje się przepływ ładunku i wartości jednego kulomba (C) w czasie jednej sekundy.</div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /><img height="640" src="https://teoriaelektryki.pl/wp-content/uploads/2018/11/amperomierz-srebrowy-683x1024.jpg" width="427" /></div><div>Pierwszy amperomierz wykorzystujący osadzanie się srebra <br /><br /><br /><br /><br /><br /><br /><br /><br />Warto zauważyć że choć fizycy sporo wiedzieli wówczas o prądzie i potrafili go mierzyć, to wciąż nie byli i nie są w stanie zaobserwować pojedynczych ładunków, ani dokładnego toru ich ruchu. Jedyne co widzieli, to następstwa płynącego prądu, takie jak wzrost temperatury przewodu, spadek napięcia na oporniku, zmiana pola magnetycznego, czy wspomniane osadzanie się srebra na płytce. W tym kontekście rodzaj płynącego ładunku i jego kierunek nie miał najmniejszego znaczenia. Dwa kulomby na sekundę w postaci elektronów płynących od minusa do plusa dają taki sam efekt, jak jeden kulomb jonów dodatnich i jeden kulomb jonów ujemnych płynących w przeciwnych kierunkach. Po co zatem za każdym razem to rozróżniać? Nie prościej byłoby przyjąć sobie jeden znak i jeden kierunek umowny, by wszystko stało się prostsze?<br /><br /><br /><br /><br /><br /><br /><br /><br /></div><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEj0ICSuU7tkO8yPSLbCJvqfvi5nkrskz9Yt9oSXGyaivtwEA84ogfsTvX21Zj-FpAxf6xEk4S_HkruJfAEQRD1dEj4HwU3pQStSVmysy_KcXcOjfFvG6-pEoCLtB2letXROPEjj8bgyrFtNPS9ZClNGwSWvvtUnwMJBbjhF6gErdnPDlqW-x_NHRIdq/s318/pobrane.png" style="margin-left: 1em; margin-right: 1em;"><img border="0" data-original-height="159" data-original-width="318" height="320" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEj0ICSuU7tkO8yPSLbCJvqfvi5nkrskz9Yt9oSXGyaivtwEA84ogfsTvX21Zj-FpAxf6xEk4S_HkruJfAEQRD1dEj4HwU3pQStSVmysy_KcXcOjfFvG6-pEoCLtB2letXROPEjj8bgyrFtNPS9ZClNGwSWvvtUnwMJBbjhF6gErdnPDlqW-x_NHRIdq/w640-h320/pobrane.png" width="640" /></a></div><br /><div><br /></div><div>Prąd o wartości 2 A i kierunku a) umownym b) elektronowym c) jonowym.</div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /><br />Jeśli przyjmiemy, że zadaniem prądu elektrycznego jest niesienie energii, to każdy z trzech widocznych na obrazku przypadków da dokładnie ten sam efekt. Czy zatem rzeczywisty kierunek ładunków w ogóle ma jakieś znaczenie? <br /><br />Rozwój techniki i produkcji sprawił, że elektryczność powoli opuszczała zacisza laboratoriów i zaczęła trafiać do naszych domów. Komercjalizacja prądu elektrycznego wymagała ujednolicenia zasad, przepisów i uproszczenia założeń. Pojawiły się elektrownie, instalacje elektryczne i zaawansowane urządzenia elektroniki. Powstały zawody elektryka i elektronika. Prąd w obecnej nietrafionej koncepcji, musiał być zrozumiały dla każdego, aby elektrycy nie musieli uczyć się wektorowej definicji gęstości prądu, ani zastanawiać się za każdym razem nad rozkładem i ciągłością ładunku. Dzięki stworzeniu umownego kierunku prądu mogli oni w codziennej pracy wykorzystywać kilka prostych i uniwersalnych wzorów, a trudniejsze kwestie mające na celu rozwój elektryki zostawić fizykom i naukowcom. Prosty przykład: Zaprojektowanie tranzystora bez dogłębnej wiedzy fizycznej jest dziś niemożliwe. Natomiast korzystanie z niego wymaga już znajomości jedynie kilku prostych reguł.<br /><br />Mimo wszystko tak jak rzeczywisty ruch ładunków był zagadką 300 lat temu, tak i teraz fizyka w pełni nie pojmuje zarówno zjawiska ruchu ładunku elektrycznego jak i powiązanej z nim istoty działania pola elektromagnetycznego ze względu na omyłkę co do elektronów i ogólnie błędną koncepcję budowy całego atomu a w szczególności jądra atomowego. </div><div><br /></div><div>Z przykrością dla całych latami pieszczonych dziedzin naukowych zajmujących się wnętrzem atomu, ustaliłem na podstawie czystych danych naukowych to o czym już we wcześniejszych postach delikatnie sygnalizowałem, że przedmiotowe elektrony są wyłącznie elektromagnetycznymi sferami a w zasadzie wirami różnego kształtu, zwanymi potocznie orbitalami, które przywiązane do PLAZMOWEGO jednorodnego jądra są w różnym stopniu wypełnione ....fotonami !!!</div><div>Czy weźmiemy pod uwagę pole elektromagnetyczne czy też prąd elektryczny, oba zjawiska są oparte o ruch fotonów w materii co nazywamy prądem elektrycznym oraz ruch fotonów przestrzeni co nazywamy polem elektromagnetycznym, czego do dziś nie ustalono gdyż wmawia się nam że w przestrzeni kosmicznej jest próżnia, jednocześnie mówiąc o znikomym wpływie pola magnetycznego Słońca na ziemską magnetosferę i zjawiska pogodowe na Ziemi, czy magnetosfery pozostałych planet. Wszędzie mamy cząsteczki, tyle że różnych średnic i potencjałów elektromagnetycznych. W czym niby miałaby się ta zlożona pomoc z fotonów magnetosfera tworzyć i oddziaływać jeśli nie w fotonowym kosmicznym środowisku? Skąd tyle nielogiczności i ignorancji dla natury u naukowców? Głupota czy chęć zatajenia prawdy?</div><div><br />Skupmy się jednak na oficjalnych naukowych określeniach tworzących definicję ładunku elektrycznego.<br />Ładunki elektryczne: cząstki, które potrafią wytwarzać pole elektryczne. Prąd tworzyć mogą zarówno ładunki dodatnie (protony, jony dodatnie), jak i ujemne (elektrony, jony ujemne) .<br /><br /><br /><br /><br /><br /><br /><br /><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEi3ubZLVACmqE60X7CvBhomQaOwHBJCpzC93x8pAgGCnsr_cIwPgoYgAXOmbhEXvOszbORJwthFOGatNTkF1rtqd6dpOmAvmx3qAmNhCGYJKWuT4ByGYvxIZC2qdf2jxnPHha833o-CN8uScg9PWV85xY7EVaCyj0ESNow306RW1kZld4aiLPUg3gfZ/s1920/1Fnbbd5wVP7bJ0D4JudBPN00YGGYIa4N.png" style="margin-left: 1em; margin-right: 1em; text-align: center;"><img border="0" data-original-height="911" data-original-width="1920" height="304" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEi3ubZLVACmqE60X7CvBhomQaOwHBJCpzC93x8pAgGCnsr_cIwPgoYgAXOmbhEXvOszbORJwthFOGatNTkF1rtqd6dpOmAvmx3qAmNhCGYJKWuT4ByGYvxIZC2qdf2jxnPHha833o-CN8uScg9PWV85xY7EVaCyj0ESNow306RW1kZld4aiLPUg3gfZ/w640-h304/1Fnbbd5wVP7bJ0D4JudBPN00YGGYIa4N.png" width="640" /></a><br /><br />Atom sodu tracąc całą zewnętrzną powłokę "1e" traci faktycznie 1 orbital "p" w którym mamy 2 rzekome "elektrony" czyli 1 pełny walencyjny wir fotonowy. <br /><br /><br /><br /><br /><br /> <br /><br />Wiadomo z teorii kinetyczno molekularnej fizyki że wszystkie atomy i cząsteczki w naszym otoczeniu są w nieustannym różnorodnym ruchu i z tym się zgadzam. </div><div>Prąd elektryczny wg fizyki pojawia się jednak dopiero wtedy, gdy w tym ruchu zostanie wyróżniony jakiś kierunek, preferujący poruszanie się w jakąś stronę. Wyróżnienie kierunku w ruchu ładunków odbywa się poprzez "przyłożenie" pola elektrycznego. Po przyłożeniu pola elektrycznego, na ładunki zaczyna działać siła elektryczna – na ładunki dodatnie siła o zwrocie zgodnym z kierunkiem pola, a na ładunki ujemne siła o zwrocie przeciwnym. I dopiero takie uporządkowane - w jednym kierunku - przesuwanie się ładunków tworzy prąd elektryczny. Tu też się zgodzę.<br />Ciekawe jest jednak, jakim sposobem oficjalnie wyjaśniany "prąd" w postaci wspomnianych powyżej jonów czy też sporadycznie występujących elektronów, miałby przenikać przez czysto metaliczne przewody łączące dany układ elektryczny gdyby miał to być jednocześnie budulec materii? </div><div>Tak zwane "wolne elektrony" których garść dorzucono do zjawisk i procesów elektrycznych mają tłumaczyć wszelkie nieprzewidywalne lub niewyjaśnialne w świetle teorii fizyki, gwałtowne i niebezpieczne zachowania prądu elektrycznego jak przykładowo pilot pioruna w czasie burzy? Niestety, elektrony nie dość że nigdy nie były wolne to nigdy nie istniały. To fotony zawsze wyrównują wszelkie różnice potencjału. Opisywane własności elektronu pomylono po częsci z wlasnościami całego orbitala lub jego części w postaci chmury fotonowej. Stad przekonanie o dualnej naturze zarowno elektronu jak i fotonu. Dualne jest niestety tylko rozumowanie gdy spojrzy sie na sprawę z dwoch skrajnych frontow, nie próbując połaczyć tego w ujęciu holistycznym.</div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><a href="#"><img border="0" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiZmQstLoHMN5JkLXZaaHScnIIVLtApXJ_OEhknXy4zFc-oClUQvSR56BE_Bmd3IvPy0ahyNQUsb3IZOPZ8J-4doXzg5AqJ_ex3DFMN6mYO6h8K0hghUIW-0sUMPJxLNgTn2RvIDH_QjVw/w400-h304/foton.PNG" /></a></div><div><br /></div><div>Emisja i absorbcja fotonu. Więc czy tzw. elektron emituje lub absorbuje fotony, czy faktycznie robi to po prostu orbital zbudowany z fotonów???</div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><div>Gdy orbital elektronowy "opada" niżej, wtedy emituje fotony a gdy się pojawia, pobiera je z otoczenia. Tak jakby doładowanie orbitala czy inne pozyskanie energii było spowodowane wychwyceniem fotonów z monolitu fotonogennej przestrzeni poprzez ruch. </div><div><i><br /></i></div><div><b style="font-style: italic;">Elektrony = fotony</b>. Logiczne?</div></div><div><br /></div><div>Właściwie wszystkie doświadczenia naukowe dotyczące badań właściwości atomu, opierają się na wybiciu lub wbiciu cząsteczek różnej "masy", wielkości i własności do i z wnętrza atomu za pomocą prądu elektrycznego. Do tego fizyka tłumacząc jakiekolwiek procesy subatomowe zawsze odwołuje się do wyrażeń typu "emisja fotonu uwolniła elektron", "elektrony opadające na niższą powłokę wygenerowały falę świetlną", "<a href="https://zpe.gov.pl/a/przeczytaj/DHCNhkUhL">foton zamienił się w elektron</a>", "proton naładowany dodatnio", "elektron naładowany ujemnie" lub w przypadku rzekomej antymaterii na odwrót, nie wyjaśniając w obrazowy sposób, jak to wszystko działa. Jeden obraz podobno wart jest więcej niż milion słów. Problem w tym że naukowcy tego obrazu sami nie znają.<br />Mówi się że elektron jest naładowany ujemnie... czyli co u licha ??? - skoro to on miał zawsze odpowiadać za przeniesienie ładunku elektrycznego. Dalej nie jest jasne czym jest ten magiczny ładunek. Po prostu zjawia się ładunek i niby przenosi się za pomocą minusa do plusa??? Czy ktoś próbuje robić nam od 300 lat wodę z mózgu? Nie wspominając że powstały też jeszcze takie kuriozalne wyrażenia jak prąd elektronowy i <a href="https://zapytajfizyka.fuw.edu.pl/pytania/prad-dziurowy/">prąd dziurowy</a>. Mnie obecny "porządek" w dalszym ciągu nie przekonuje.<br />Nauka powinna starannie dookreślić czym jest w swej istocie ten tak zwany "ładunek" elektryczny. </div><div>Bez tego nie zrobi kroku skoro w razie próby dokładnego wyjaśnienia istoty działania natury, materii, energii i jakichkolwiek innych zjawisk odnośnie atomu i wszystkiego co się w większej skali z niego wywodzi, ostatecznie odwołuje się do zjawiska elektryczności którego nawet nie bardzo rozumie. Dla łatwiejszego zrozumienia tego zjawiska w szkole zawodowej w dalszym ciągu porównuje się prąd elektryczny do płynącego strumienia wody. I słusznie, bo gdy teoria jest grubo niedopracowana, poznamy to zawsze po znacznym jej skomplikowaniu. </div><div>Z rysunku poniżej, wynika że w obu przypadkach jest to przepływ cząsteczek powstający ze względu na niedobór ilościowy w jednym z odcinków obwodu hydraulicznego czy też elektrycznego względem pozostałej cześci obwodu.<br /><br /><br /><br /><br /><br /><br /> <br /><br /><a href="#"><img border="0" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhESIHmjHrCb2DKl72VVtai1ZZGhw0wAZ9oqiQR3eyVpeyD5V1d022tVFc-s6yr7v4B-vz0Kygn0SF5FetoVAJgj9jOIXCNqTnoqdrSNAuXFrSF_w8ZkdnpzMWMyEMTOPs4jxsugqKvBmA/w640-h610/rys4.jpg" /></a><br /><br />W górnej części jest przerwa w obu obwodach, z lewej hydrauliczny, z prawej elektryczny, w górnej obwód otwarty, w dolnej zamknięty.<br /><br /><br /><br /><br /><br /><br /><br /><br />Chcę więc zasugerować z resztą zgodnie z naukowym obowiązkiem maksymalizowania uproszczeń (Brzytwa Ockhama) który jest fundamentem- nadrzędnym testerem solidności pracy fizyków i innych naukowców, że to Franklin miał rację i analogiczne procesy przepływu energii występują zarówno w ciałach stałych, cieczach, gazach, jak w plazmie, czy "atmosferze" Wszechświata, jak nazywam próżnię- dotychczasowo jeszcze rzekomo pustą przestrzeń. Jest to w każdym z tych przypadków powtórzę jeszcze raz: <b>RÓŻNICA CIŚNIEŃ</b> i nic ponad to. </div><div>W świetle tego oto twierdzenia, obecnie w nauce wszystko stoi na głowie ale pozwoli nam to logicznie ogarnąć cały problem aby nie stać, nie dreptać w miejscu a <b>REALNIE </b>i<b> </b>sprawnie<b> TWORZYĆ TECHNOLOGIĘ</b>. Bo o technologię chodzi. To ona pozwala nam żyć godniej niż przed wiekami. </div><div>Czy to gdy trzeba będzie zrozumieć własności światła, pola elektromagnetycznego zmiennego bąź stałego, grawitacji, ciepła czy w końcu prądu elektrycznego, aż do zjawisk wewnątrzatomowych. Sprawcami tych oddziaływań są wyłacznie i na zawsze fotony jako wiry w płynie nazwijmy go przestrzenio-, energo- i materio-twórczym, wypełniającym cały Wszechświat. <br />Oficjalnie prąd elektryczny biegnie rzekomo z prędkością światła, około 300 tysięcy kilometrów na sekundę w od tej pory rzekomej oczywiście próżni, natomiast w przewodach prędkość ta jest rzekomo jak mówi nauka około połowę mniejsza. </div><div>Tak nie jest. Prąd elektryczny będący ruchem wynikającym z różnicy ciśnień fotonów w fotonogennej strukturze materialnej bądź przestrzennej Wszechświata jako źródła prądu, korzystając z orbitali atomowych jako fotonowego przewodnika i wzbudzającym się w ich pobliżu w postaci pola elektromagnetycznego, biegnie do punktu o niższym potencjale. </div><div>Także w zjawisku nadprzewodnictwa. Zjawisko nadprzewodnictwa objawia się w wysokiej lub niskiej temperaturze oraz wysokim i prawdopodobnie też niskim ciśnieniu, jako ogólnie rzecz biorąc zmiana fizycznych parametrów, wyrywając lokalne fotony z fotonotwórczej płynopodobnej przestrzeni, zdolne powstawać wszędzie w przestrzeni kosmicznej podczas jakiejkolwiek zmiany czyli wyrwania ze stanu statyki do ruchu, a opisywane oficjalnie jako rzekome "wolne elektrony". Wolne elektrony nie istnieją. Do tej pory funkcjonuje też infantylna struktura budowy atomu o sporadycznie występujących elektronach za pomocą której nie da się wyjaśnić ani szybkości ani mocy zjawisk zachodzących w szeroko pojętej wielkoskalowej naturze zjawisk elektrycznych.</div><div class="separator" style="clear: both; text-align: center;"><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEj71aOSPQJW4H_QCpHLjiWZ7MMbDRxDP1-yddHAH2wqCPBgnPDKX6fC4kRc1aZ4KLvEMdiXUNlYB3q6pjXz4ZE3e9BEiX9bFWjAhA26VOSROEESnNk9_8bYU21qXxSXiBm_hi5IhelvYP11-37VFa6GebYH-rLpvuXrgmapfDurDg8Mf5i6KKBTPvni/s1024/atom-rteci-1024x778.png" style="margin-left: 1em; margin-right: 1em;"><img border="0" data-original-height="778" data-original-width="1024" height="304" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEj71aOSPQJW4H_QCpHLjiWZ7MMbDRxDP1-yddHAH2wqCPBgnPDKX6fC4kRc1aZ4KLvEMdiXUNlYB3q6pjXz4ZE3e9BEiX9bFWjAhA26VOSROEESnNk9_8bYU21qXxSXiBm_hi5IhelvYP11-37VFa6GebYH-rLpvuXrgmapfDurDg8Mf5i6KKBTPvni/w400-h304/atom-rteci-1024x778.png" width="400" /></a></div><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><br /></div>Rtęć<div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgz04QEzTmFLg7KTdYXqyPA4ppQPbY3ndvnjBsuBxEbFxOoLvSy55sE4OuPP14OVQJ3j-tDMhap1VFdYtR02vsJuM8BnZM8yixZdWBw6TjEo_Fl5FFXi0-MM33opvkKDxpL03J0hRbCzS_EUw1nyEVtRk7ujuuIq6zpD1JONvvHH9RKCs0T7nZYYboW/s1920/2fPuhXZMaEzbCAAWFf92T5ffRpIKANdL.png" style="margin-left: 1em; margin-right: 1em;"><img border="0" data-original-height="1376" data-original-width="1920" height="458" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgz04QEzTmFLg7KTdYXqyPA4ppQPbY3ndvnjBsuBxEbFxOoLvSy55sE4OuPP14OVQJ3j-tDMhap1VFdYtR02vsJuM8BnZM8yixZdWBw6TjEo_Fl5FFXi0-MM33opvkKDxpL03J0hRbCzS_EUw1nyEVtRk7ujuuIq6zpD1JONvvHH9RKCs0T7nZYYboW/w640-h458/2fPuhXZMaEzbCAAWFf92T5ffRpIKANdL.png" width="640" /></a></div>Miedź</div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /><div><br /></div><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiCU4w2cWTyNy1Vx2oQheBr1D_tQD5DKVElJ2EMlsaoS7PQBmIh6QJPH0bmp0RZVCpoJCA7jIbk8JJdskTgJ6pjE66jdjpna-6k3dzXUbiEKENvH33cztJe2m2RaKPleLfBdi-xuIjeWcDkNwChXBlrKTPMqpdLQZBR6FJglzv47uYLwoueo8IytKkv/s700/gold-700-198719294.jpg" style="margin-left: 1em; margin-right: 1em;"><img border="0" data-original-height="700" data-original-width="650" height="400" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiCU4w2cWTyNy1Vx2oQheBr1D_tQD5DKVElJ2EMlsaoS7PQBmIh6QJPH0bmp0RZVCpoJCA7jIbk8JJdskTgJ6pjE66jdjpna-6k3dzXUbiEKENvH33cztJe2m2RaKPleLfBdi-xuIjeWcDkNwChXBlrKTPMqpdLQZBR6FJglzv47uYLwoueo8IytKkv/w371-h400/gold-700-198719294.jpg" width="371" /></a></div>Złoto</div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEi84rWV8RpJZzh0IqWjNPfS0kO8B6AbT-3F0VAmf1yuobLY6kaUv35-L8PCNFXKXdI02jDoyvVy6jx4MaiKGLk5t_o8AoGu97bogu63wbjgwm4wg4CRtu6Y3oc5KMUOpbyj5xfJfElfOBTuRXVoXYaKr4ty7o79CvbgIZOaCYPBaVN_mF18uV-kMH4G/s225/pobrane.jpg" style="margin-left: 1em; margin-right: 1em;"><img border="0" data-original-height="224" data-original-width="225" height="398" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEi84rWV8RpJZzh0IqWjNPfS0kO8B6AbT-3F0VAmf1yuobLY6kaUv35-L8PCNFXKXdI02jDoyvVy6jx4MaiKGLk5t_o8AoGu97bogu63wbjgwm4wg4CRtu6Y3oc5KMUOpbyj5xfJfElfOBTuRXVoXYaKr4ty7o79CvbgIZOaCYPBaVN_mF18uV-kMH4G/w400-h398/pobrane.jpg" width="400" /></a></div>Platyna</div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiXHZpsI_qRpo-yK-0aJQqdnSPUD8j_gr-PhWs5-8SRWc0E7gY8vMrSWE8qWJmnDeQO7YDAL-3_2nScSN3LLFWM19KtEKLWXVE9nbay4z98i2s5VghcnsqLaeoYsDD5zt4j3S677AybP8Vz7FtYjBUmsEW9oadd1PP748FETEKCQky1frtYA6sSIZp-/s695/Fotolia_91896263_S.jpg" style="margin-left: 1em; margin-right: 1em;"><img border="0" data-original-height="690" data-original-width="695" height="318" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiXHZpsI_qRpo-yK-0aJQqdnSPUD8j_gr-PhWs5-8SRWc0E7gY8vMrSWE8qWJmnDeQO7YDAL-3_2nScSN3LLFWM19KtEKLWXVE9nbay4z98i2s5VghcnsqLaeoYsDD5zt4j3S677AybP8Vz7FtYjBUmsEW9oadd1PP748FETEKCQky1frtYA6sSIZp-/s320/Fotolia_91896263_S.jpg" width="320" /></a></div><br /><div>Srebro</div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /><div><br /></div><div><br /></div><div><br /></div>Oficjalne modele atomu widoczne powyżej to jedynie uproszczone przedstawienie modelu trójwymiarowego, co próbował uchwycić z mizernym skutkiem w swojej pracy Niels Bohr – jeden z ojców teorii atomowej. </div><div>W swoim modelu protony, neutrony i elektrony traktuje on jak pojedyncze cząsteczki, które teoretycznie da się policzyć, zważyć i zmierzyć ich prędkość poruszania się. Jest to struktura na wzór miniaturki modelu Układu Słonecznego. Niestety model ten sprawdzał się jedynie w atomach o niewielkiej liczbie cząstek. Problemem nie był opis jądra atomowego mimo że również mija się z prawdą jak samochody na podwójnej ciągłej, ponieważ jądro atomu jest u podstaw faktycznie dipolem lub gdy złożony - wielopolem elektromagnetycznym który łącczy w sobie sferyczne bądź zdecentralizowane stożki wirów orbitali atomowych. </div>Wyzwanie stanowią też do dziś "elektrony"(orbitale), które nie do końca zachowują się tak, jak początkowo zakładano. <br /><br /><br /><br /><br /><br /><br /><br /><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhFeb3EnRvMxRTN5wh_HlgZhXltpGmLtHdkclTB1x6W9ne4DvHGCwMmp5sLrBUp5P4hv744mvk3BjgYU83lBAcpZlTgFinP7g25dMB5HVK3MP8TB6y3QgU8hqAYwFesb4igiUw1roQTfXuYuuM5uQjcNCIUHlYi7BnJscO8dFravYRObTRI2WagPmi4/s318/D3C.PNG"><img border="0" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhFeb3EnRvMxRTN5wh_HlgZhXltpGmLtHdkclTB1x6W9ne4DvHGCwMmp5sLrBUp5P4hv744mvk3BjgYU83lBAcpZlTgFinP7g25dMB5HVK3MP8TB6y3QgU8hqAYwFesb4igiUw1roQTfXuYuuM5uQjcNCIUHlYi7BnJscO8dFravYRObTRI2WagPmi4/w194-h200/D3C.PNG" /></a><br /><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiUa1FpVUossQtzagQgzaviLaHb-_GCCrsxj14OWjfukedl7Zh0LxK755gi7ajYaPZiyVCy1EQX-mGopmyOY05DDp6RqDkVM4PISpB6A0H_RIk7768vna8ZWcsHcSpq_1wba6wtGqIAGUTZyf2z53Y38VfnRxifSnH6DUdTqpLeNKCVCEHPxZrZGbj1/s388/D4C.PNG"><img border="0" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiUa1FpVUossQtzagQgzaviLaHb-_GCCrsxj14OWjfukedl7Zh0LxK755gi7ajYaPZiyVCy1EQX-mGopmyOY05DDp6RqDkVM4PISpB6A0H_RIk7768vna8ZWcsHcSpq_1wba6wtGqIAGUTZyf2z53Y38VfnRxifSnH6DUdTqpLeNKCVCEHPxZrZGbj1/w164-h200/D4C.PNG" /></a><br /><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjtiy9QAQYq7_39QGnjcWIJHFchc4pik3lu3hoTj3TRUcluMuF462zX6N8lqZQdDmsWnu1T0rvV2V5wV65mahF6Hgs8HeBjZ_gwFt2PNMR7K-p75QTuXmnT2gptMZ5A8qNDOWBl1RmSMiuW65sqV7SidoUOI8zkxTHs4zJ1glinlEEnAXTvOCk1Ap6d/s348/D5C.PNG"><img border="0" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjtiy9QAQYq7_39QGnjcWIJHFchc4pik3lu3hoTj3TRUcluMuF462zX6N8lqZQdDmsWnu1T0rvV2V5wV65mahF6Hgs8HeBjZ_gwFt2PNMR7K-p75QTuXmnT2gptMZ5A8qNDOWBl1RmSMiuW65sqV7SidoUOI8zkxTHs4zJ1glinlEEnAXTvOCk1Ap6d/w183-h200/D5C.PNG" /></a><br /><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgHXAri3kxh3-T6RqHUsxQ564Vk8xFvyjoYX1gc8xHyDlScEQTWh6vWLzmu-7Rb51Gddf2hbQEngxqBfrxA83gSzFt2hznPa75sa15Bs6lvW5gwOlAAEZO7sx1hihS3LiksdRUcil5FIv4SHO6cAV4pSDuFuilTVCzz8ns0Ir3gddd_qcFwAOXjRO5l/s347/D6C.PNG"><img border="0" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgHXAri3kxh3-T6RqHUsxQ564Vk8xFvyjoYX1gc8xHyDlScEQTWh6vWLzmu-7Rb51Gddf2hbQEngxqBfrxA83gSzFt2hznPa75sa15Bs6lvW5gwOlAAEZO7sx1hihS3LiksdRUcil5FIv4SHO6cAV4pSDuFuilTVCzz8ns0Ir3gddd_qcFwAOXjRO5l/w182-h200/D6C.PNG" /></a><br /><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiIJgYOcwCQoWIpttPCcBCiBLfLKAUyQATVCLI-JBrzip13Rv_HBtPTRqCecKPahd3GpZijyTet7DmIlF70jUh2AJ1d22vpp48MeQ9Et3Er1snJyVY5YW4C5PNszMliy4IdO9iw4Zzk3M8vGWcsnSZD1q-rMT8xHTEDRW_Pur9mI4fpdLgvHZ4WColk/s341/F4C.PNG"><img border="0" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiIJgYOcwCQoWIpttPCcBCiBLfLKAUyQATVCLI-JBrzip13Rv_HBtPTRqCecKPahd3GpZijyTet7DmIlF70jUh2AJ1d22vpp48MeQ9Et3Er1snJyVY5YW4C5PNszMliy4IdO9iw4Zzk3M8vGWcsnSZD1q-rMT8xHTEDRW_Pur9mI4fpdLgvHZ4WColk/w190-h200/F4C.PNG" /></a><br /><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiOJevUnMLHAAcxew2Ynhb0BqFPQ6Op5zYFNRfknTSsXdMnAwMppyT_HkCs18jI_YgVlF8s3gceCjo7T2lUolOLicn8CU2qfWOgc0xFugCPjeYDzvdyErtHb7e1abCqTfcyB_jcjkjxrDvX0xR9zH_PXitdTccQKNBoiIytH41E2PCzGolvBX3M2bJi/s351/F5C.PNG"><img border="0" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiOJevUnMLHAAcxew2Ynhb0BqFPQ6Op5zYFNRfknTSsXdMnAwMppyT_HkCs18jI_YgVlF8s3gceCjo7T2lUolOLicn8CU2qfWOgc0xFugCPjeYDzvdyErtHb7e1abCqTfcyB_jcjkjxrDvX0xR9zH_PXitdTccQKNBoiIytH41E2PCzGolvBX3M2bJi/w182-h200/F5C.PNG" /></a> <br />Porównaj przykładowo modele 3D bardzo złożonych atomów pierwiastków a zwłaszcza <br />ciekawe orbitale w kształcie ringu, widoczne powyżej, które krążą same dla siebie i z niczym nigdy się nie wiążą...<br /><br /><br /><br /><div class="separator" style="clear: both; text-align: center;"><br /></div><br /><div><br /></div><div><br /></div><div>Fizycy byli w stanie określić ich liczbę, ale nie mogli jednocześnie zaobserwować gdzie w danej chwili się znajdują i jak szybko się poruszają. Aby zaradzić powyższym kwestiom, model ten zastąpiono modelem kwantowym, zaproponowanym przez Erwina Schrödingera. Głównym jego postulatem był fakt, że "elektron" tylko w pewnych sytuacjach zachowuje się jak cząstka, w innych zaś musimy traktować go jak falę, taką jak np.... światło. Chodzi tutaj przede wszystkim oto, że rzekomo dualna natura elektronu... </div><div><br /></div><div>(brzmi znajomo? Vide - dualna natura fotonu- fizycy strzelają w akceleratorach i w innych doświadczeniach fotonowymi wirami, myśląc że strzelają pojedynczymi elektronnami) </div><div><br /></div><div>...sprawia, iż fizycy musieli pogodzić się z domniemanym faktem, że elektron jest nieprzewidywalny. Jego stan fizyka może określić jedynie z pewnym prawdopodobieństwem, co przez niezrozumienie jego natury zaowocowało powstaniem kolejnego zupełnie zbędnego bytu, tak ukochanego przez chaotyczny i mało logiczny ludzki umysł (podobnie jak w polityce czy też jak odłamy w religiach) jakim jest dziedzina nauki zywana <b>fizyką kwantową.</b></div><div>Problem z budową atomu leży w tym że za tzw. elektron uznano cały orbital atomowy i emitując w jakichkolwiek doświadczeniach "elektrony", faktycznie emituje się sfery złożone z <b>FOTONÓW</b>. Każdy z orbitali atomowych złożony jest z rzekomych 2 elektronów. Gdybyś chciał od teraz faktycznie obliczyć ilość orbitali danego pierwiastka, wystarczy że podzielisz jego liczbę atomową przez 2. Faktycznie jednak każdy orbital posiada dwa poziomy energetyczne (niski-LOW i wysoki- HIGH) które pozwalają błędnie uznawać w dalszym ciągu elektrony jako realnie istniejące cząstki. To są tylko i wyłącznie pola elektromagnetyczne tworzone przez wirujące wkoło plazmowego centrum atomu <b>FOTONY</b>. Czy to w centrycznie rozmieszczonych sferach orbitali "S" czy w stożkowych tornadopodobnych orbitalach "P", "D", "F" czy też pozostałych w kształcie wspomnianego niewalencyjnego torusa/ringu.</div><div><br /></div><div>(WYJAŚNIAJĄC DOKŁADNIE NATURĘ POWSTAWANIA POLA MAGNETYCZNEGO MAMY ODPOWIEDZI NA KAŻĄ MECHANIKĘ JAKIEGOKOLWIEK ZJAWISKA ZARÓWNO W FOTONOGENNEJ SUBSTANCJI TWORZĄCEJ PRZESTRZENMŃ KOSMICZNĄ JAK I W MATERII KTÓRA Z JEJ ZAGĘSZCZENIA POWSTAŁA)</div><div> </div><div>Na powyższych kilku modelach obecne są niepełne orbitale fotonowe, wszystkie są przewodnikami jednak można stwierdzić że im mniej jest orbitali tym lepsze posiadają przewodnictwo ponieważ czerpią z fotonotwóczego otoczenia w którym potencjalnie znajdować się mogą fotony pośredniczące przy innych oddziaływaniach i o różnym poziomie energii.<br /><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /><br /><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjZzYgAOrzFRV_X3Hwy3tX17IZsEvfrrImtDuEtaaJvUGlt8-yoQx9z5tydYo2jtKIqWFJwQHLd3_4f5ZDkgdz5hQmlIbV3pTvujeDGEkCjACyFGRAhXotMc17h3AFkYnRkTzJv0NwY9p-m2bvvJoM1wi_8MoNpeehPM9mc2BTm-6ZpdOxbL95Eiqe5/s1500/28HeCyVBQxXv7c91mt0oJhkXlCnDsYFw.jpg"><img border="0" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjZzYgAOrzFRV_X3Hwy3tX17IZsEvfrrImtDuEtaaJvUGlt8-yoQx9z5tydYo2jtKIqWFJwQHLd3_4f5ZDkgdz5hQmlIbV3pTvujeDGEkCjACyFGRAhXotMc17h3AFkYnRkTzJv0NwY9p-m2bvvJoM1wi_8MoNpeehPM9mc2BTm-6ZpdOxbL95Eiqe5/w640-h248/28HeCyVBQxXv7c91mt0oJhkXlCnDsYFw.jpg" /></a><br /><br />Fizycy - widzimy tu dwie lawiny - (rzekomo) jedna z nich elektronowa a druga fotonowa, zarejestrowane na zdjęciu z pęcherzykowej komory ksenonowej...<br />Ja - a może jednak oba widoczne poziome strumienie to strumienie tych samych cząsteczek... eteru...</div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div>Patrząc pod kątem czysto elektrotechnicznym, nie może istnieć w naturze idea według której elektrony mają ładunek ujemny a protony dodatni gdy wyobrazimy sobie dwustopniowy układ zasilania. Jest to tylko pozorny dualizm. Przyjmijmy że mamy obwód o trzech napięciach 0 V, 12 V i 24 V. Gdzie teraz jest ładunek dodatni a gdzie ujemny jeśli to jest jeden obwód o dwóch punktach zasilania?? Nie ma opcji aby protony przenosiły jakiś dodatni potencjał bo protony z poziomu 12 V musiałyby być elektronami wobec poziomu 24V. Jest to idiotyczna niedopracowana idea potencjału, robiąca ludziom wodę z mózgu. Nie mówiąc o czymś takim jak "prąd dziurowy" idący podobno naprzeciw prądowi "elektronowemu"- nieco bardziej zrozumiałemu. </div><div>Tak wiec atom posiada potencjał elektryczny, dodatni wewnątrz a ujemny na zewnątrz...tylko dlatego że jest w ruchu obrotowym - żyroskopowym który wywołuje różnicę ciśnień utrzymującą cały wielosferyczny układ atomu w stabilności. Więc atom istnieje nie dlatego że ma immanentny, "przyspawany" ładunek ujemny do elektronu albo dodatni do protonu. Tzw. proton to również sfera zbudowana z fotonów o silnym ruchu wirowym, im bliżej dipolowego, magnetycznego bo plazmowego centrum znajduje się dany orbital, powstały jako zbitka pierwszych wirów fotonowych w "materiozymal" - początek materii. Atomy zaś, to fraktalna eskalacja własności fotonu. Ładunek elektryczny to jest skutek różnic ciśnienia podczas RUCHU WIROWEGO atomu spowodowanego polem magnetycznym, nie cecha jego składników! Wystające ze sferycznej struktury atomu wiązania - stożkowe orbitale, u swego szczytu mają wlot jak mikro tornada i to nimi pod wplywem podcisnienia tam panujacego wiążą się z innymi atomami. PODCIŚNIENIEM! O czym szerzej będzie w poście o chemii.</div><div><br /></div><div>Jak się po woli z czasem okaże, doczesna fizyka dosłownie NIE MA POJĘCIA o prawdziwej strukturze całego Wszechświata czy atomu i siłach tam działających i to trzeba jasno powiedzieć a przez to niezrozumienie czy też brak wglądu w naturę zjawisk kosmicznych, nie może mieć także kompletnego pojęcia o elektrycznych i pochodnych od nich procesach. A co za tym idzie - być skuteczna w wielu dziedzinach technologicznych. Wszystkie domniemania opierają się o pierwsze wyniki eksperymentów odkrycia elektronu, protonu i neutronu i <b>ZAŁOŻONE (NIESTETY BŁĘDNE)</b> podobieństwo struktury ATOMU do budowy Układu Słonecznego ...zamiast do galaktyki spiralnej gdzie nie mamy kilku kulek planet a jest obecny cały kosmiczny nierozróżnialny "szum" gwiazdowej materii. To samo zjawisko złożonej gry pól elektromagnetycznych rozgrywa się wewnątrz atomów na orbitalach.</div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div class="separator" style="clear: both; text-align: center;"><br /></div><br /><div> </div><div><br /></div><div><br /></div><div><br /></div><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjEQqy8hIrKoxrxu6ruMiAil-skNUXdXbLmKVPKAYbg1MRMhAtPn3ITNRJDddzzx3F-voJSVrUGUUyXpawWRF8QFH6e-NuUcMq5mo1LUy4B5NDJysqDhseGvYfoz4kQcZO9gWWqvQCvSRyxo5-hdbTadNOQUBM8vbowomSCfMCCCtCgX7XIDQqiwPAh/s1920/Screenshot_20200209-105044_YouTube.jpg" style="margin-left: 1em; margin-right: 1em;"><img border="0" data-original-height="1080" data-original-width="1920" height="225" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjEQqy8hIrKoxrxu6ruMiAil-skNUXdXbLmKVPKAYbg1MRMhAtPn3ITNRJDddzzx3F-voJSVrUGUUyXpawWRF8QFH6e-NuUcMq5mo1LUy4B5NDJysqDhseGvYfoz4kQcZO9gWWqvQCvSRyxo5-hdbTadNOQUBM8vbowomSCfMCCCtCgX7XIDQqiwPAh/w400-h225/Screenshot_20200209-105044_YouTube.jpg" width="400" /></a></div><br /><div><br /></div><div>Pole elektromagnetyczne powstaje zawsze wkoło jakiegokolwiek przewodnika a przewodzić choćby szczątkowo, potrafią także izolatory.</div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgVdr84TJhMPNxRxpGl6ZWtXAP-Q7skiVfutyEuqVL84-SbViVx-Lkzb7tClxokvo83nppRTMYErFcdfXVkIav8g2IT99Yk_O4bRpjmmU0N3wbn5hK7twUpngem8IPQWzydBphpc8j63cNoS-uf499HWLEI98v4Ev8TphH-98AT-GLeG-tqC170kIjg/s1280/Screenshot_20171106-230415.png" style="margin-left: 1em; margin-right: 1em;"><img border="0" data-original-height="1280" data-original-width="720" height="640" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgVdr84TJhMPNxRxpGl6ZWtXAP-Q7skiVfutyEuqVL84-SbViVx-Lkzb7tClxokvo83nppRTMYErFcdfXVkIav8g2IT99Yk_O4bRpjmmU0N3wbn5hK7twUpngem8IPQWzydBphpc8j63cNoS-uf499HWLEI98v4Ev8TphH-98AT-GLeG-tqC170kIjg/w360-h640/Screenshot_20171106-230415.png" width="360" /></a></div><br /><div>Kolejne w szeregu orbitale atomowe pierwiastków obserwowane pod mikroskopem elektronowym. Co widzimy teraz na zdjęciu gdy weźmiemy pod uwagę że pole elektromagnetyczne także zbudowane jest ze światła?? Ciemne przestrzenie to fotony w stanie statycznym lub starożytny eter. Jak wolisz.</div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEi9nSWaFhPN4AiJqq6ywSOexXCUiPzMQ-yU79YziuJ4sno9K7kZYbOmjiBMh17Y-MN8Z7aCFqC1MWrb0Ue3oRNWspA-h5eKmvidA3FKA6QwW6jWbs2nSBJUZCCLlA4mqooNyccVy5_ZN2FDcfkqcPGu4XMaSR-712zR3Or-9nZsgEuw6PWk0JM8Nv98/s548/orbitale.jpg" style="margin-left: 1em; margin-right: 1em;"><img border="0" data-original-height="391" data-original-width="548" height="456" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEi9nSWaFhPN4AiJqq6ywSOexXCUiPzMQ-yU79YziuJ4sno9K7kZYbOmjiBMh17Y-MN8Z7aCFqC1MWrb0Ue3oRNWspA-h5eKmvidA3FKA6QwW6jWbs2nSBJUZCCLlA4mqooNyccVy5_ZN2FDcfkqcPGu4XMaSR-712zR3Or-9nZsgEuw6PWk0JM8Nv98/w640-h456/orbitale.jpg" width="640" /></a></div>Wszystkie znane typy orbitali przedstawione w swoim naturalnym trójwymiarowym kształcie. W każdym orbitalu naukowcy widzą tylko jeden lub dwa elektrony, podczas gdy są tam tylko dwa stany wypełnienia fotonami. Stan niski-nie doładowany i stan wysoki- doładowany tak że staje się nie wiążący - niewalencyjny.<div class="separator" style="clear: both; text-align: center;"><br /></div><br /><div><br /><div class="separator" style="clear: both; text-align: center;"><br /></div></div><div class="separator" style="clear: both; text-align: center;"><br /></div><br /><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div>Struktury elektromagnetyczne widoczne wewnątrz pierwiastków pod mikroskopem elektronowym, określam w postaci: </div><div><br /></div><div>fotonowych dość łagodnych w działaniu elektromagnetycznych wirów sferycznych (s) gromadzących się wokół dipoloidalnego elektromagnetycznego jądra atomu zmontowanego jako podstawowy materialny zbitek fotonów w wysokiej temperaturze, napięciu i ciśnieniu w wyniku działania wysokoenergetycznych kosmicznych prądów elektrycznych, oraz elektromagnetycznych mikrotornad (p, d, f) których centrum wiru zostaje zamontowane blisko centrum jądra atomu wskutek działania wspomnianych kosmicznych oddziaływań elektrycznych. </div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEh7IehvrcnQYs-X1jVpxurHCyfanXH6bBCgPMj8kxTroCJ8w1DPL5V5GQVsvt4ruUAeEIGiovZgRIE5BDTi_BBfOoqQySABn8mjXJrpDSXuz-yE20CQrcuBhmZOF4aRdEriq94zLz_GgcZJ3jbaR1Sbbt_kyUX8hE_3S5qHUZQHUE0tTm4WaL_AQAw2/s871/struktura-metali.jpg" style="margin-left: 1em; margin-right: 1em;"><img border="0" data-original-height="502" data-original-width="871" height="368" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEh7IehvrcnQYs-X1jVpxurHCyfanXH6bBCgPMj8kxTroCJ8w1DPL5V5GQVsvt4ruUAeEIGiovZgRIE5BDTi_BBfOoqQySABn8mjXJrpDSXuz-yE20CQrcuBhmZOF4aRdEriq94zLz_GgcZJ3jbaR1Sbbt_kyUX8hE_3S5qHUZQHUE0tTm4WaL_AQAw2/w640-h368/struktura-metali.jpg" width="640" /></a></div><br /><div> Struktury geometryczne metali: cynk, magnez, kadm, srebro, miedź, aluminium, żelazo,wolfram, chrom. Im gęściej upakowana struktura międzyatomowa metalu, tym lepsze przewodnictwo.</div><div><br /></div><div><br /></div><div><br /></div><div>Przewodnik elektryczny jest metalicznym pierwiastkiem umieszczonym w strukturze fotonowej Wszechświata w którym podczas przepływu prądu wraz z fotonami orbitali, może przemieszczać się także fotonowy płyn zawarty pomiędzy atomami. </div><div>Dlatego też prąd stały nie jest tak skuteczny jak przemienny, ponieważ fotony są o wiele łatwiej przechwytywane czyli gubione ze strumienia po drodze między orbitalami w postaci oporu elektrycznego (straty na ciepło i elektromagnetyzm jako mechaniczną siłę tworzoną z wzbudzanych fotonów) który jest dużo większy w prądzie stałym niż w przypadku wyrywających fotony z orbitali, naskórkowych i super-indukcyjnych dla pola elektromagnetycznego, właściwości prądu przemiennego.</div><div><br /></div><div>Przez znaczne niezrozumienie zjawiska elektryczności, potem widzimy takie stwierdzenia uchodzące za mądre w świetle nauki jak to :</div><div>"Wolne elektrony, po wprawieniu w ruch tworzą tzw. prąd elektronowy. Napotkać go możemy w liniach wysokiego napięcia jak i wszystkich przewodach ukrytych w naszym domu. Dlaczego akurat tam? Otóż przewody elektryczne wykonane są z metali, które wypełnione są ogromnymi ilościami wolnych elektronów (to one nadają charakterystyczny, metaliczny połysk) <br /><br />lub artykuły takie jak ten:<br /><br /><br /><a href="https://naukawpolsce.pl/aktualnosci/news%2C79350%2Cpolacy-w-science-pokazali-jak-fotony-upodobnic-do-elektronow.html">Polacy-w-science-pokazali-jak-fotony-upodobnic-do-elektronow</a>.<br /><br /><br /><br />Nie musielibyśmy niczego upodabniać gdyby nie błędy w teoriach naukowych, ponieważ elektrony jako po prostu orbitale atomowe SĄ faktycznie w całości zbudowane z fotonów. <br />Błyszcząca powierzchnia metali zaś, spowodowana jest tym że na walencyjnych powłokach metali obecne są wirujące wkoło osi orbitala fotony, które działają dosłownie jak lustro dla padającego nań światła. Możemy przyjąć więc że każda substancja złożona z gęsto upakowanych atomów o nisko naładowanych fotonami orbitalach będzie zachowywać się jak lustro. </div><div><br /></div><div>Przeprowadźmy teraz eksperyment myślowy który pozwoli lepiej zrozumieć naturę prądu elektrycznego. </div><div>Załóżmy że dysponujemy miedzianym przewodnikiem o długości 150 milionów kilometrów czyli przybliżonej odległości Ziemia - Słońce którą światło pokonuje w czasie ok. 8 minut. </div><div>W jakim czasie prześlemy tym przewodnikiem stały prąd elektryczny?</div><div>NIGDY... Energię pożre rezystancja.</div><div>A przemienny?</div><div>Poprawna odpowiedź brzmi ...</div><div>Praktycznie OD RAZU! </div><div>Tak. Szybciej niż fala świetlna. Jeśli będzie to nadprzewodnik- Zero sekund.</div><div>Dlaczego prędkość fali świetlnej nie ma porównania do prędkości prądu elektrycznego zmiennego? Ponieważ przesył energii świetlnej musi wzbudzić falę w fotonotwórczym środowisku kosmosu BEZ PRZEWODNIKA. Powstające w fotonogeneracyjnym środowisku fotony, muszą przekazać energię jedne drugim na całym odcinku przesyłu. Dlatego taka fala zawsze będzie opóźniona za energią zwaną elektryczną, którą transmitujemy przy użyciu przykładowo metalu czy półprzewodnika.</div><div>Przesył prądu elektrycznego w przewodniku, możemy porównać do przesyłu wody w fabrycznie perforowanym wężu ogrodowym. Zasilanie jednostronne o stałym kierunku będzie mieć bardzo słabe ciśnienie już po kilku metrach, natomiast zasilanie obustronne o zmiennym kierunku będzie mieć stałe ciśnienie w każdym punkcie tak zasilanego węża.</div><div>Oczywiście w przypadku przewodnika elektrycznycznego, im wyższa będzie częstotliwość prądu tym wydajniejszy i bardziej bezstratny będzie obwód elektryczny, co nie jest możliwe do realizacji w obwodzie prądu stałego.</div><div>Prąd elektryczny przemienny zawsze będzie w porównaniu wielokrotnie bardziej korzystny ponieważ tak jak w obwodzie prądu stałego wszystkie elementy potrzebne do przesłania energii są zawsze obecne i gotowe do przesyłu ale w obwodzie przemiennym są one dodatkowo stale wzbudzane na całej długości obwodu elektrycznego ze względu na zmienny kierunek przepływu prądu wyszarpujący fotony z możliwie każdego punktu w przekroju zarówno przewodnika jak i pola elektromagnetycznego obecnego wokół niego. W przypadku pola elektromagnetycznego dokładnie tak samo jak ma to miejsce w obwodach elektronicznych gdzie indukcyjność jest chwilowym magazynem energii elektrycznej.</div><div>To proste doświadczenie myślowe obrazuje najlepiej z jakim zjawiskiem mamy do czynienia.</div><div>Na koniec definicja dla nośnika każdego znanego nam tu już nośnika energii. Prądu elektrycznego, pola grawitacyjnego, pola elektromagnetycznego stałego i zmiennego (w tym światła). Jak wynika z powyższego wywodu, w gruncie rzeczy działanie atomu oparte jest o siły elektryczne tak samo jak wszystkie inne procesy w całym makroświecie. Wystarczy przytoczyć efekt jaki zachodzi w trakcie wybuchu bomby atomowej. Cały materiał wraz z okolicznym potrafi zamienić się w energię. Czyli w co? Oczywiście w fotony... </div><div><br /></div><div>"<b>Foton jako nośnik energii jest zaburzeniem statyki eterycznej fotonogeneracyjnej struktury przestrzeni kosmicznej, wynikającym z pojawienia się w niej różnicy ciśnienia samego eteru, poruszającego się obiektu materialnego albo drgania tej struktury spowodowanego polem elektromagnetycznym wywołanym obecnością przewodnika elektrycznego.</b>"</div><div><br /></div><div>Oto podstawa i fundament na potrzeby konstrukcji maszyn i urządzeń dla budowy żródeł bezpłatnej energii elektrycznej.</div><div><br /></div><div><br /></div><div><br /></div><div><br /><br /></div></div></div><div class="blogger-post-footer">„Analfabetami XXI wieku nie będą ci, którzy nie umieją pisać ani czytać, lecz ci, co nie potrafią oduczyć się wierutnych kłamstw, w które nauczono ich wierzyć i nie potrafią szukać ukrytej wiedzy, którą nauczono ich odrzucać”</div>#magnetartechprojecthttp://www.blogger.com/profile/00116426320285930090noreply@blogger.com0tag:blogger.com,1999:blog-1727701247933515471.post-66270006603399501612022-12-19T21:21:00.003+01:002023-02-25T19:21:43.037+01:00Walter Russel<br /><br /> WALTER RUSSELL<br /><br /><br /><img src="https://walterrussellpl.files.wordpress.com/2014/09/walter-russell-230x3001.jpg?w=756" /><br /><br />"Wszystko, co wydarza się gdziekolwiek, wydarza się wszędzie" – Walter Russell<br /><br /><br />Dr Walter Bowman Russell (1871-1963) – „człowiek renesansu”, „Leonardo da Vinci XX wieku”, amerykański artysta muzyk, kompozytor, malarz, grafik, rzeźbiarz, architekt, a także trener biznesu, naukowiec i mistyk. Urodził się 19 maja 1871 roku w Bostonie. Karierę artystyczną rozpoczął w wieku 13 lat jako organista. Przez 12 lat pracował na stanowisku doradcy biznesowego w IBM. Pełnił funkcję redaktora graficznego nowojorskiego tygodnika, a także korespondenta wojennego podczas wojny amerykańsko-hiszpańskiej. Przez 7 lat był prezesem Towarzystwa Sztuk i Nauk w Nowym Jorku.<br /><br />Nie zdobył żadnego formalnego wykształcenia. Edukację przerwał w szkole podstawowej. Od 7 roku życia regularnie doświadczał mistycznego oświecenia, dzięki któremu – jak twierdził – posiadł całą możliwą i dostępną dla każdego wiedzę. (Też mam taki wgląd od 7 roku życia)<div><br /></div><div>Treść najważniejszej iluminacji spisał pod tytułem Divine Iliad (Boska Iliada). Żeby przekazać ją światu, samodzielnie studiował nauki przyrodnicze: fizykę, astronomię i chemię. W 1921 roku stworzył własne układy okresowe pierwiastków, na których zamieścił dwa nieznane pierwiastki: uridium i urium – oficjalnie odkryto je wiele lat później i nazwano inaczej: neptun i pluton.<br /><br />Dzięki swoim pracom artystycznym zdobył szerokie uznanie i posiadał wielu przyjaciół wśród najwybitniejszych ludzi epoki. Był doradcą prezydenta Stanów Zjednoczonych Dwighta Eisenhowera, rzeźbiarzem Thomasa Edisona, znał Theodora Roosevelta, z którym dzielił pasję jeździecką, Nikolę Teslę i wielu wybitnych naukowców, artystów i kompozytorów takich jak Ignacy Paderewski, czy George Gershwin. Był członkiem Hiszpańskiej Akademii Sztuk Pięknych i Literatury w Toledo. Jego obrazy wielokrotnie prezentowano i nagradzano w kraju i za granicą, w tym obraz zatytułowany Might of The Ages (Potęga wieków), ukończony w 1900 roku.<br /><br />Sformułował spójną i praktyczną teorię kosmologiczną, którą zaprezentował oficjalnie w 1953 roku w rozprawie naukowej wysyłanej do największych uczelni i gazet na świecie. Russelliańską Naukę wykładał wraz żoną Lao w założonym przez siebie i działającym do dziś University of Science and Philosophy (Uniwersytet Nauki i Filozofii) w Swannanoa w stanie Virginia. W 1941 roku, w uznaniu naukowych odkryć, American Academy Of Sciences (Amerykańska Akademia Nauk) przyznała Walterowi Russellowi tytuł doktora.<br /><br />Swoje koncepcje filozoficzne i naukowe przedstawił w książkach: „The Universal One” (1926), „The Secret of Light” (1947), „The Message of the Divine Iliad” (1949), „A New Concept of the Universe” (1953).<br /><br />Jest bohaterem książki G. Clarka pt. „Człowiek, który poznał tajemnice wszechświata” wydanej w Polsce przez Wydawnictwo Medium w 2008 roku.</div><div class="blogger-post-footer">„Analfabetami XXI wieku nie będą ci, którzy nie umieją pisać ani czytać, lecz ci, co nie potrafią oduczyć się wierutnych kłamstw, w które nauczono ich wierzyć i nie potrafią szukać ukrytej wiedzy, którą nauczono ich odrzucać”</div>#magnetartechprojecthttp://www.blogger.com/profile/00116426320285930090noreply@blogger.com1tag:blogger.com,1999:blog-1727701247933515471.post-16561849576938071002022-12-11T20:47:00.090+01:002023-02-27T11:40:12.899+01:00Dziwne właściwości mojego mózgu<div class="separator"><br /></div><p> </p><p><br /></p><p><br /></p><p><br /></p><div class="separator" style="clear: both; text-align: center;"><br /></div><br /><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgzcWvfcFTcGhJltvhZ-YxbyDHt2pOnublK3FDDyhlVfUMAsOvq3XKqniX9pdjbMlt5fnv6LqtnzbSnXWZMrm_qLZFWxYluoLRkjFdMAXYt3D5w17VyBV_PaWmKFuXBjTO25lJYYTRnC7h9JQPxAT1BFUtxEtDn6VEmW2Zp-6BQhqqjSoHofJ2ffbVw/s480/242443074_238343998241354_3889284989070557779_n.jpg" style="margin-left: 1em; margin-right: 1em;"><img border="0" data-original-height="477" data-original-width="480" height="636" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgzcWvfcFTcGhJltvhZ-YxbyDHt2pOnublK3FDDyhlVfUMAsOvq3XKqniX9pdjbMlt5fnv6LqtnzbSnXWZMrm_qLZFWxYluoLRkjFdMAXYt3D5w17VyBV_PaWmKFuXBjTO25lJYYTRnC7h9JQPxAT1BFUtxEtDn6VEmW2Zp-6BQhqqjSoHofJ2ffbVw/w640-h636/242443074_238343998241354_3889284989070557779_n.jpg" width="640" /></a></div><br /><p><br /></p><p><br /></p><div>Zawsze byłem nieco wolniejszy od innych ludzi. Sprzyja to filozoficznemu podejściu do życia. W sumie dokąd się wszyscy tak spieszą skoro jak widzimy na załączonym orazku, cała cywilizacja może tego bezmyślnego pośpiechu nie przetrwać? Kapitalizm przyspiesza rozwój ale co nagle to po diable. Nie lepiej było wprowadzić wolniejszy ale oszczędny rozwój komunistyczny? Ostatecznie jeśli cywilizacja ma być wielką rodziną - nie swoim własnym wrogiem- to właśnie komunizm (ale zasobowy) jest rozwiązaniem na przyszłość. Brak władzy i pieniądza. Żadnej antropomorficznej władzy na górze takiego systemu. Wyłacznie najwyższa moralność i kompletny brak rywalizacji naprzeciw współpracy. Inaczej to koniec. </div><div><br /></div><div>Urodziłem się... dziwnie a po latach dotarło do mnie że nie był to przypadek. Moja mama została pobita w czasie ciąży więc w wyniku okręcenia pępowiną poznałem ból zanim się urodziłem a przy porodzie nie płakałem co wydawało się położnym podejrzane. W takich sytuacjach przewiduje się problemy ze słuchem. Nos wciśnięty do czaszki zmieniając nieco jej kształt, pokazał się dopiero po kilku miesiącach ale krzywa przegroda nosowa spowodowała że jama nosowa z lewej strony nie dotleniała mózgu poprzez mniejszy przepływ powietrza. Od początku miałem problemy z koncentracją. Tak zwany ojciec darł się z powodu problemów które sprawiało mi nawet zawiązanie sznurówek od butów. Łatwo się kocha dzieci nie sprawiające problemów w tym szkolnych a nikogo nie interesuje skąd te ewentualne problemy wynikają. Nienawidzę dorosłych za ich zarozumiałość w swojej głupocie i niedopracowanych ideologiach życia. Psują tym umysłowym szuwaksem swoje ale także inne dzieci. Do szydery i niszczenia innych w tej tragicznej cywilizacji potencjalnie każdy człowiek jest pierwszy. Za wyjątkiem wysoko wrażliwych empatów których jest około 25 % w społeczeństwie- to są dla mnie ludzie prawdziwie dojrzali. O nich tu nie mówię. W szkole podstawowej gdzie trafiłem rok wcześniej ponieważ biegle czytałem "Trybunę Ludu" i inne gazety, ujawniły się jeszcze większe problemy z koncentracją z powodu jeszcze większej ilości stresu wywołanej zmianą środowiska. Tempo nauki które nabyłem w domu przy pomocy rok starszego brata, zapadło się pod ziemię. Ciekawe jest to że wymyśliliśmy nawet swój własny, prosty język który był niezrozumiały dla rodziców. Wujek który był górnikiem ale nie miał syna, chciał mnie przysposobić i wykształcić. Jednak mama się nie zgodziła. Pewnie byłbym dziś wykształconym ale szablonowym żeby nie powiedzieć systemowym człowiekiem. Żołnieżem Matrixa. Sąsiedzi i szkolni koledzy nazywali mnie i rodzinę bezbożnikami i antychrystami ponieważ za sprawą mojej matki nie widziano nas zbyt długo w kościele. Nie dotrwałem nawet do komunii. To mama zainteresowała mnie i moje rodzeństwo sprawami ostatecznymi i wielkimi których odzwierciedlenia nie widziałem w społeczeństwie, kościele ani nauce. Nie była lubiana przez sąsiadów bo wyprzedzała ich wiedzą o lata świetlne jak na tamte jeszcze komunistyczne czasy. Była nie rozumiana przez prostych ludzi ze wsi, dlatego przemocowy ale prosty typ w osobie mojego pseudo ojca, był dla nich tym lepszym człowiekiem. Ogólnie zrozumiałem że ludzie tylko bredzą o dobru człowieka a nikt nie chce tego "wykonać" w praktyce. Ze jest to demagogia. Tak jak wprowadzamy przykładowo zmiany w diecie i musimy się ich świadomie trzymać siłą woli, tak samo można wprowadzić szlachetnie zmiany w charakterze. Zacząć pilnować wypowiadanych słów, pilnować swoich nawykowo nieszlachetnych czynów aby je z odruchów przekształcić w nawyki. Ale to się nazywa "-wyjmij ten kij z dupy!" Nie, nie wyjmę bo za bardzo mi zależy na tym aby jak najmniej przypominać obecnego wulgarnego człowieka. Nie wiem czy mam jakiś kosmiczny honor nie z tej planety ale wiem że ludziom nie chce się już być ludźmi. Bo tak wygodniej...</div><div><br /></div><div>Podobnie jak Einstein byłem fatalnie złym uczniem, zwłaszcza z matematyki i fizyki w której ciekawił mnie najbardziej dział astrofizyki. Tak w domu jak i w szkole odczułem kim jest człowiek. Nazywano mnie ufoludkiem ponieważ z pełnym przekonaniem twierdziłem że kosmici istnieją.</div><div>Z powodu mojej alienacji środowiskowej oprócz blisko zerowej aktywności w szkole gdzie doświadczałem głównie przemocy fizycznej, także od nauczycieli, uciekałem z lekcji w tym religii (odczuwałem fałsz- widzę przemoc a mówią mi o dobroci człowieka) choć Biblię przeczytałem "od dechy do dechy", unikałem też lekcji fizyki. Bazowałem od dziecka na wyobraźni. Lubiłem w nią uciekać przed stresem. Życiowo znacznie się odrealniłem. Nie miałem kolegów a co dopiero przyjaciół a o innych rzeczach icsprawach nawet nie wspomnę. Towarzysko wystarczała mi rodzina albo raczej nie miałem wyboru. Poznając świat i życie nie mogłem liczyć na pytania do ojca co chyba jest zrozumiałe. Po prostu bałem się tego człowieka i unikałem go co prowadziło do groteskowych sytuacji gdy weźmiemy pod uwagę fakt że wszystko działo się w zasadzie pod jednym dachem. Stąd rozumiem że czasem urzędy ingerują w sytuacje rodzinne i bywa że często bez zdania racji zabierają dziecko. Ale czy rodzice są dorośli do tworzenia dzieci?? Często w swoim zachowaniu są większymi dziećmi niż ich dzieci. </div><div>Szkoła mnie przerastała. Materiał był dla mnie mdły, męczący i nudny do tego stopnia że przy mojej przypadłości, zasypiałem na lekcji, co pewnego razu było powodem że nauczycielka zamiast się zainteresować co jest dziecku, odśpiewała z resztą dzieci w klasie "stary niedźwiedź mocno śpi" nie interesując się co faktycznie jest powodem mojego notorycznego braku energii bo zdarzało się to często. Dziecko karmione głównie pasztetem lub pomidorem zaciśniętym między dwoma rozmoczonymi kawałkami nieodżywczego białego chleba, też nie będzie fruwało jak motyl, nawet gdyby było zdrowe. Nie o takie odżywianie dzieci tu chodzi drodzy przyszli lub obecni rodzice. Podejrzewano mnie w przychodni o wodogłowie ponieważ miałem za dużą głowę jak na dziecko w tym, wieku a ja uważam, że przyczyną zmęczenia oprócz mojej niejako wrodzonej przypadłości, był stres w domu oraz żywienie które nie wystarczało na potrzeby mojego organizmu- zwłaszcza mózgu. Bo oczywiście nie mam żadnego wodogłowia tylko większy mózg. Mózg który działał od zawsze podobnie jak mózg delfina z tym że delfin potrafi spać i czuwać naprzemiennie obiema półkulami mózgu a ja tylko lewą. Lewa półkula pracuje na falach Theta i Delta co jest równoznaczne ze stanem oscylującym gdzieś pomiędzy hipnozą, medytacją i snem a w połączeniu z półkulą prawą jednocześnie jestem na falach Alfa lub Beta. Wystarczy że zamknę oczy i mogę SPAĆ I NIE SPAĆ jednocześnie... dlatego też nigdy nie zrobiłem prawa jazdy bo przy jakimkolwiek stresie gubię koncentrację a przy większym zmęczeniu mógłbym po prostu zasnąć za kierownicą co oczywiście zdarza się innym ale mnie zdarzałoby się prawdopodobnie o wiele częściej. Lewa półkula potrafi działać usypiająco na prawą. Nawet potrafi działać uspokajająco czy usypiająco na inne osoby, jak z czasem zaobserwowałem. Inne osoby również gubią w mojej obecności koncentrację i popełniają więcej błędów. Okazywały to czasem mniej lub bardziej świadomą niechęcią do mojej osoby. Impulsy elektromagnetyczne wysyłane z lewej pułkuli mają poziom napięcia trzykrotnie silniejszy niż impulsy normalnie pracującego mózgu. Gdyby nie ta w porównaniu do komputera, niskoczęstotliwościowa praca mojego przyrodzonego procesora, nigdy zapewne niczego nie przemyslałbym tak dokładnie jak oopisałem tu na blogu. Choć oczywiście nie uważam tego za jakiś szczyt ludzkich możliwości.</div><div>Poznając świat nie znajdowałem odpowiedzi wśród koncepcji naukowych czy teologicznych na moje rodzące się ciągle nowe wątpliwości i pytania. Tak się złożyło że z całej rodziny tylko ja kontynuuję te... krótko mówiąc oderwane od życia zainteresowania, zwłaszcza że pod wpływem toksycznego "związku" z narcyzem, moja intelektualna mama zmarła. Nigdy nie poznałem bliżej kobiety o podobnych zainteresowaniach mimo że się starałem. Może też dlatego że pod względem medycznym funkcjonuję jako upośledzony umysłowo i w tradycyjnym życiu ledwo się odnajduję, co samoistnie zepchnęło mnie w tą niszową dziedzinę. Nie dało się nie zauważyć że kobiety nie widzą niczego szczególnego w mężczyznach takich jak ja. Mój mózg po stronie lewej półkuli mózgowej działa w dalszym ciągu na falach pomiędzy Delta i Theta. Tylko prawa strona działa na "dorosłych" falach Alfa i Beta do których w procesie dojrzewania zmierza tak zwany zdrowy ludzki mózg. Wygląda to tak jakbym utknął pomiędzy światem dziecka a dorosłego, zamurowany pomiędzy dzieciństwem a dorosłością jak żyd pomiędzy ścianami przedwojennej kamienicy.</div><div><br /></div><div>Dla ojca oczywiście do dzisiaj jestem debilem bo uciekałem się w nastoletnim wieku do medytacji a w rozumowaniu do ezoteryki i myślenia powiązanego ze światem metafizycznym, uważanym jako nierealny... a przecież w surowym świecie obecnej "dżungli cywilizacyjnej" nie powinienem tak się zachowywać. To go najbardziej bolało. Że ma syna "filozofa" który buja z głową w chmurach zamiast trzymać się realnego życia i że byłem manualnie o niebo bardziej uzdolniony niż on sam. Przez mikroskopową dokładność. W wieku 7 lat zajmowałem się już majsterkowaniem, naprawiałem mechaniczne zegarki. Mama kupiła mi lutownicę na "ruskim targu" a pózniej prosty niemiecki teleskop astronomiczny. </div><div>Jako dzieci stroniliśmy od zwyczajnych ludzi razem z matką w przeciwieństwie do ojca. Od niego zapożyczyłem zdolności manualne w których z resztą okazałem się lepszy, czego mi potem zazdrościł i kiedy mógł wyśmiewał potknięcia. To doprowadziło mnie do obsesji perfekcjonizmu technicznego. Poza czytaniem książek (bo co można robić na wsi zwłaszcza zimą?) lubiłem też kartonowe modelarstwo dlatego zorganizowałem sobie kąt na strychu w którym się chowałem, ponieważ w toksycznej domowej atmosferze to pozwalało mi się wyciszyć i skupić. Później ten kąt samodzielnie przerobiłem na zamykany warsztacik ale ojciec mi go ostatecznie porąbał nie mogąc znaleźć swoich wierteł. Bo miał burdel choć wymagał od innych porządku mimo że nie przygotował na to miejsca. Typowy narcyz. Zpowodu naszej mizernej przystosowalności społecznej (a może swojej bo wywoływał w dzieciach strach) czyli nieprzyswajalności pewnej ogólnej obecnej w społeczeństwie prymitywnej formy kultury (której ja nie akceptowałem- być może wzorując się na matce), nie przyznawał się do nas i był wobec nas psychofizycznie toksyczny- łagodnie mówiąc. Zniechęcał do patrzenia w gwiazdy, wyśmiewając chętnie zainteresowania i młodzieńczą nieporadność. Mówił że chleba szukać mamy pod nogami. Był typowym niedojrzałym człowiekiem - idealnym dla systemu- zniszczyć za odmienność, nacieszyć ego czyjąś ułomnością. Tysiące takich systemowych ludzi spotkałem i nadal spotykam w życiu a teraz też w internecie. </div><div>Z "socjalu" też nie korzystał mimo że jakoś szczególnie nie radził sobie finansowo bo dzieci miał notorycznie niedożywione, nie mówiąc o wykształceniu, co w ciągłym stresie i awanturach jest, moim zdaniem, niemożliwe. Tak to jest gdy dzieci mają dzieci.</div><div><br /></div><div> Dodatek "500+" rodzice powinni otrzymywać dopiero po kursie bezprzemocowego i odpowiedzialnego, świadomego rodzica aby wychowywać dzieci bez przemocy. Nie jako własne rzeczy a żywe odrębne istoty czyli z SZACUNKIEM należnym jak dla dorosłego bo w przeciwnym razie zostaną czyimiś katami bądż ofiarami przemocy. Nie będzie wtedy sytuacji "taki spokojny był a zabił" i tym podobnych.</div><div><br /></div><div>Ja mimo wszystko z uporem maniaka do dziś uważam że "chleba" znajdziemy o wiele więcej na orbicie i innych planetach aby wydobyć go w formie zasobów złóż kopalnych i przywieźć na Ziemię by nie było więcej powodów do przemocy i wojen. I ta myśl była jak na dziecko którym wtedy byłem, dojrzalsza niż typowe myśli które zaprzątają umysły ludzi tzw. "dorosłych". </div><div>Nienawidziłem przemocy od dziecka. Zarówno ze względu na jej PEŁNY wymiar w domu "rodzinnym" jak i na własny introwertyczny charakter i późniejsze obserwacje świata który niewiele się różnił i niewiele różni nadal od mojego domu "rodzinnego".</div><div>W dzieciństwie rodzice nazywali mnie "porządkiewiczem" ponieważ nie zabierałem się do niczego poważnego gdy nie miałem porządku w danym miejscu, czy też klarownej koncepcji tego co mam zrobić. Miałem problemy z koncentracją od urodzenia, do tego żyłem w codziennym stresie jaki oferował mi "domu rodzinny". Nie wiem do końca skąd mi się to wzięło ale w efekcie kontynuacją tego zachowania jest mój obecny "remanent" w nauce. Abstrahując -gdyby nie łamano psychiki dzieciom w procesie wychowania a prawdziwie rozwijano, z dzieci wyrastałyby geniusze a my, mogę dać głowę, dawno spacerowalibyśmy po planetach Proximy Centauri. Albo dalej...</div><div><div>Już jako dziecko czy nastolatek byłem chłopcem zamkniętym w sobie, (charakterologicznie tzw. logik "<a href="https://www.16personalities.com/intp-personality" target="_blank">INTP</a>") i to te właśnie te wielkie kosmiczne i ostateczne sprawy zaprzątały na co dzień mój umysł. Tym bardziej że otaczające mnie zdarzenia z życia codziennego, odczuwałem jako co najmniej toksyczne jeśli chodzi o kontakty międzyludzkie, biologicznie trywialne i nielogiczne jeśli chodzi o kontakty tzw. męsko damskie. </div><div><div>Chyba że mówimy o obserwacjach astronomicznych, to co innego. Od dzieciństwa fascynował mnie Księżyc. Miałem wtedy jako kilkuletnie dziecko nawracające sny. Szczególnie jeden z nich. Działo się to to nocą. Najpierw czułem strach spoglądając spomiędzy drzew nocą na Księżyc który jakby upadał na Ziemię, lecz w dalszej części snu pojąłem że to ja się do niego zbliżam. Potem była ciemność i niepewność w czasie... lotu. Na końcu snu widziałem powierzchnię Księżyca łagodnie i jednostajnie obracającą się w okrągłym wizjerze statku z którego nań spoglądałem. Czułem wtedy spokój. </div><div>Miałem wtedy też sny o wojnie i upadku cywilizacji. Widziałem szybkobieżne czołgi które przez równe pionowe szczeliny na przedzie pancerza, jakby z megafonu, wydawały paraliżującym niskim głosem komunikaty do okolicznych mieszkańców o nie stawianiu oporu, albo też widziałem maszyny lotnicze i kosmiczne które strzelały do ludności a niebo było pełne ciemnych chmur między którymi widziałem tornada i skierowane w dół czerwone bąble jakby gotującej się wody, widoczne aż po horyzont. </div></div></div><p>Z powodu niewielkiej różnicy w funkcjonowaniu mózgu względem innych ludzi moja alienacja społeczna się z czasem pogłębiała. Wobec blisko zerowej aktywności w szkole gdzie doświadczałem głównie przemocy fizycznej, także od nauczycieli, unikałem lekcji w tym religii, choć Biblię przeczytałem "od dechy do dechy". Odczuwałem fałsz- widzę przemoc a uczą mnie o wartościach humanistycznych i dobroci człowieka. Nie rozumiałem też lekcji fizyki, uciekając we własny świat marzeń. Nieco ciekawsza była "Astronomia Popularna" AStefana Piotrowskiego z 1990 roku, którą też przeczytałem "od dechy do dechy" jednak naukowy opis Wszechświata wydał mi się równie niezrozumiały co nieintuicyjny koncept religijny osobowego Boga. </p><p>Zrozumiałem po latach że ludzie tylko bredzą o dobru człowieka, pieszcząc swoje ego tym że jeśli o czymś ważnym mówią, jest tak jakby tego dokonali a nikt nie chce tego "wykonać" w praktyce choć każdy proponuje to komuś innemu. Choć jest to banalnie proste o ile posiada i ćwiczy się mięsień silnej woli aby nie popaść w nałogową prokrastynację która jest dla mnie kolejną chorobą cywilizacyjną wynikającą ze sposobu funkcjonowania całego systemu.</p><p> Tak jak wprowadzamy przykładowo zmiany w diecie, z podobnym uporem można wprowadzić szlachetnie zmiany we własnym charakterze. Zacząć pilnować wypowiadanych słów, pilnować swoich nawykowo nieszlachetnych czynów mimo że nazywają to chodzeniem z kijem w 4 literach. Drobne zmiany przejdą w gesty, gesty w nawyki a nawyki w charakter. Ludziom nie chce się już dziś być ludźmi. Bo tak wygodniej...a życie z czasem samo w sobie jest przecież męczące to po co sobie dokładać czegoś, czego od nas nikt nie wymaga, w tym prawo i władza?</p><p>Całe życie byłem wyśmiewany przez co mniej empatycznych członków społeczeństwa za to że mój mózg bardzo często się zawieszał i mylił. Dlatego pod kątem społecznym życie jawi mi się jako pasmo... gównianej sraczki. Mówię zwłaszcza o kontaktach z ludźmi - podobno zdrowymi. Wszelkiej maści chorzy psychicznie nigdy mi nic złego nie zrobili. Przykładowo ci z zespołem Downa, niemi, głusi, ślepi, czy inaczej upośledzeni. Nikt nie ma pojęcia jak się taki człowiek męczy społecznie gdy nie jest oficjalnie zakwalifikowany jako chory i z braku wyjścia musi wtedy symulować zdrowego. </p><p>Dlatego uważam że takie społeczeństwo jak mamy obecnie, to jest schorowane społeczeństwo. Schorowane na przemoc społeczeństwo z jego schorowaną przemocową technologią. Na militaria idą miliardy. Na astronautykę o wiele mniej. Dlatego nie lubię całej tej cywilizacji. A może nawet nienawidzę? Ponieważ potrafię wyobrazić sobie że gdzieś indziej funkconują dużo piękniejsze bo inteligentniejsze i jednocześnie MĄDRZEJSZE formy cywilizacji. Bo sama inteligencja nie gwarantuje sukcesu. Przeciwnie. Może nawet zagwarantować autodestrukcję.Gdy choroba jest fizyczna, tu nie ma problemu. Gdy psychiczna ale wyraźna, też go nie ma. Problem pojawia się gdy człowiek wygląda na zdrowego ale nikt nie widzi (a często on sam) jak funkcjonuje jego mózg. Dopiero gdy spadł mi ZE STRESU poziom hormonów po 30-tce, co nieco zaczęło się zmieniać na lepsze. Musiałem się zestarzeć aby zacząć żyć w tym chorym społeczeństwie tworzonym przez chore zasady. Myślałem że jestem humanistą bo byłem przekonany że matematyka jest próbnikiem logicznego myślenia a wybitnie z nią sobie nie radziłem , nie rozumiejąc po co w niej litery skoro mamy coś obliczyć. Okazało się że mój mózg jest o wiele bardziej logiczny niż mi się wydawało. Jednak przekonanie wyniesione z dzieciństwa o tym że ja nie mogę się do niczego nadawać, skutecznie powstrzymywało mnie przed publikowaniem w filmowy, werbalny czy pisemny sposób, czegokolwiek ze spraw dotyczących wiedzy o Wszechświecie którą się zajmowałem i próbuję przedstawić na tym blogu. </p><p>Wszystko o czym piszę i proponuję jest bardzo proste ale ponieważ umysł lubi komplikować, musisz podczas definiowania sprawdzać gdzie spaceruje Twój umysł. Kontroluj go. Wobec tego powiedzenie "bądź sobą" uważam za durne bo w ten sposób nigdzie nie dojdziesz, zostaniesz tam gdzie jesteś. Do mężczyzn: chcesz być odkrywcą? Nie możesz być z kobietą, ponieważ one generalnie ściągają mężczyzn swoimi oczekiwaniami z powrotem na Ziemię, pchając w materializm do "jaskini". Koncentrują uwagę zachowawczo na sobie, na życiu teraźniejszym, na przetrwaniu gatunku więc nie zależy im na inwestycjach w rozwój technologii a nie wolno też Ci się na niej nie koncentrować, nie dawać atencji bo odejdzie. Dlatego też powodzenie u kobiet ma przede wszystkim góra mięśni i gala boksu zawodowego. A my musimy W KOSMOS! I my to wiemy. Czas nagli. Czym coraz bardziej się ostatnio pasjonują mężczyźni widać to w internecie. Technologią.... Dość już tych instynktów, wojen i rywalizacji. To zmęczy każdego co bardziej inteligentnego. W tym sensie kreowany nowy mężczyzna bezprzemocowy czy gej, ma sens. W dalekich kosmicznych podróżach potrzebna jest wyłącznie logika i współdziałanie dla osiągnięcia celu. W jaskiniach niech mieszkają małpy a kobietom polecam zainteresować się możliwościami wynikającymi z odkrywania przestrzeni kosmicznej a także polecam więcej filmów science fiction aby potem tym zainspirować swoje dzieci. Bo co nam przybędzie po większej ilości dzieci, skoro z powodu braku kosmicznej technologii, pójdą na wojnę bić się o wyłącznie ziemskie zasoby??? To tak pod rozwagę. </p><p>Jestem umysłem logicznym. Podobno logicy są dumni ze swoich unikalnych perspektyw i intelektu. Mimo że nie zmienią cywilizacji w pojedynkę, zastanawiają się nad tajemnicami Wszechświata – co może wyjaśniać, dlaczego niektórzy z najbardziej wpływowych filozofów i naukowców wszechczasów byli logikami. Ten typ osobowości jest rzadki, ale dzięki swojej kreatywności i pomysłowości logicy wyróżniają się z tłumu. Zwłaszcza introwertycy i wysokowrażliwi . Podejrzewam że Nikola Tesla mógł być takim człowiekiem, sądząc po trudnym życiorysie. Logicy często gubią się w myślach – co nie jest czymś złym. Osoby o tym typie osobowości rzadko kiedy przestają myśleć. Od chwili przebudzenia ich umysły buzują pomysłami, pytaniami i spostrzeżeniami jak u dzieci. Czasami mogą nawet prowadzić pełnoprawne debaty we własnych głowach co często jest ośmieszane lub nazywane schizofrenią. Pomysłowe i ciekawe osobowości logików mogą odkryć niekończącą się fascynację działaniem własnego umysłu. Z zewnątrz może wydawać się, że logicy żyją w niekończących się marzeniach. Mają reputację zamyślonych, oderwanych i nieco powściągliwych. To znaczy, dopóki nie spróbują wydrenować całej swojej mentalnej energii w danej chwili lub osobie w pobliżu, co może być trochę niewygodne dla wszystkich. Ale niezależnie od tego, w jakim trybie się znajdują, logicy są introwertykami i mają tendencję do zmęczenia intensywnymi kontaktami towarzyskimi. </p>Ale błędem byłoby sądzić, że logicy są nieprzyjaźni lub spięci. Kiedy łączą się z kimś, kto może dopasować się do ich mentalnej energii, te osobowości absolutnie się rozjaśniają, przeskakując od jednej myśli do drugiej. Niewiele rzeczy dodaje im energii, jak możliwość wymiany pomysłów lub ożywionej debaty z inną ciekawą prawdy, dociekliwą duszą, choć takich dusz jest niewiele co ujawniła zaplanowana "demia" .<br /><br />Zestaw badań lekarskich które niedawno zrobiłem, który potwierdza powyższe zachowania logików i pokazuje, że niejako naturalnie, mam inne możliwości umysłowe niż człowiek standardowo przyjęty za zdrowego. Nie wiem jeszcze tylko jakie, choć to co tu na blogu przedstawiam może być pewnego rodzaju zaświadczeniem. Bo w końcu dlaczego na to nie wpadli naukowcy o zdrowych i wyuczonych mózgownicach?? Co bym mógł osiągnąć gdyby kiedyś stać mnie było na studia astronautyczne i astrofizyczne a dziś na urządzenie do neurofeedbacku???<div><br /><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div>EEG:</div><div><br /></div><div> <br /><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjMrWgTCZrpr9zi012bb3gal10OypDg6Bj7ttNO0s5allSp3GQ4NMCSfK8IsNscZzDzLLfa4U1hRa3r_qOXT1XdP77_vCr7F0jZtglHCTE9484D9Qw9mtKooliDgi_QQ2S9AnLyjTP91oWuKJwlt3ilDtgeCJDEfKvWPyLOUapd9Q7lkXfz46LRwGcu/s1631/Scang%C5%82owy.jpg"><img border="0" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjMrWgTCZrpr9zi012bb3gal10OypDg6Bj7ttNO0s5allSp3GQ4NMCSfK8IsNscZzDzLLfa4U1hRa3r_qOXT1XdP77_vCr7F0jZtglHCTE9484D9Qw9mtKooliDgi_QQ2S9AnLyjTP91oWuKJwlt3ilDtgeCJDEfKvWPyLOUapd9Q7lkXfz46LRwGcu/w640-h398/Scang%C5%82owy.jpg" /></a><br /><br /><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div>Rezonans:<br /><br /><br /><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEj2eprtOA3tPdaa1bA0N3I04YpPNyOlkc272uZhn1rwkW_UgoJbr72p-Ry3rfUf5qqtjjIvbQU7CRfRPvknUdkDQEgIDSrJ_X-axbS394HiGFJ_Qbg1XVQ55spUwNxAxmWyo20HhGYrc0FMZonrC6Es8b7GnqD5efv6_ZxgqHOzsrFixV2ivdllHTsX/s1622/3a.jpg"><img border="0" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEj2eprtOA3tPdaa1bA0N3I04YpPNyOlkc272uZhn1rwkW_UgoJbr72p-Ry3rfUf5qqtjjIvbQU7CRfRPvknUdkDQEgIDSrJ_X-axbS394HiGFJ_Qbg1XVQ55spUwNxAxmWyo20HhGYrc0FMZonrC6Es8b7GnqD5efv6_ZxgqHOzsrFixV2ivdllHTsX/w640-h418/3a.jpg" /></a><br /><br /><br /><br /><br /><br /><br /><br />Symbol mcV= μV- mikrowolt. Poprawnie fale mózgowe powinny oscylować w zakresie około 50 mcV<br />Każda z fal w określonych warunkach jest prawidłowa, w innych może być niekorzystna. Na podobnej zasadzie co biegi w samochodzie – każdy bieg jest prawidłowy tylko przy danej prędkości. W samochodzie uczymy się, jak dostosowywać biegi do prędkości, a także szybko i płynnie je zmieniać. Elastyczny i wydajny mózg umie szybko zmieniać zakresy częstotliwości fal w zależności od wymaganego zadania. Typowym pasmom częstotliwości odpowiadają określone stany psychiczne. Przyjrzyjmy się zakresom fal po kolei.<br /><br />Fale mózgowe (patrz. też <a href="https://pl.wikipedia.org/wiki/Elektroencefalografia">EEG</a>) – cykle aktywności bioelektrycznej <a href="https://pl.wikipedia.org/wiki/M%C3%B3zgowie_cz%C5%82owieka">mózgu</a>, rejestrowane za pomocą aparatury <a href="https://pl.wikipedia.org/wiki/Elektroencefalografia">elektroencefalograficznej</a>. Charakterystycznym częstotliwościom fal mózgowych, oznaczanym za pomocą nazw liter <a href="https://pl.wikipedia.org/wiki/Alfabet_grecki">alfabetu greckiego</a> odpowiadają w dużym stopniu stany <a href="https://pl.wikipedia.org/wiki/%C5%9Awiadomo%C5%9B%C4%87">świadomości</a> człowieka.</div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /><br /><br /><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjh_kbQR3vCxGs_Qdj0sNWm_lP-2U2ePnLY4-oB1qk1ozcViItuZ_GTah9asbG6gl7g2Ss5vL1WHWwxjX9YVJ39tPk4mTMxr4uqgDB3z06NVB9ZhaNBCjV72Qxo18jnjOe9wyQMXoupWYl7QxEw6l-Rkj8eeZKxVgXWSOy_jWTxzsElGpHDf2Q6A0na/s765/Zrzut%20ekranu%202022-12-15%20225427.png" style="margin-left: 1em; margin-right: 1em; text-align: center;"><img border="0" data-original-height="765" data-original-width="686" height="640" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjh_kbQR3vCxGs_Qdj0sNWm_lP-2U2ePnLY4-oB1qk1ozcViItuZ_GTah9asbG6gl7g2Ss5vL1WHWwxjX9YVJ39tPk4mTMxr4uqgDB3z06NVB9ZhaNBCjV72Qxo18jnjOe9wyQMXoupWYl7QxEw6l-Rkj8eeZKxVgXWSOy_jWTxzsElGpHDf2Q6A0na/w574-h640/Zrzut%20ekranu%202022-12-15%20225427.png" width="574" /></a><br /><br /><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div>Fale mózgowe odnotowywane są na wielu różnych częstotliwościach. Jedne z nich są wolniejsze, a inne szybsze. Zostały zidentyfikowane i nazwane na podstawie ich prędkości i częstotliwości, w której występują. <br /><br /><br />FALE GAMMA – CO O NICH WIEMY?<br /><br /><br />Fale gamma (<40 Hz) – są najszybszymi falami mózgowymi i dotyczą jednoczesnego przetwarzania informacji z różnych obszarów mózgu. Umysł musi być cichy, aby uzyskać dostęp do fal gamma. Aktywność tej częstotliwości odnotowujemy w stanach odczuwania miłości i altruizmu. Sposób jej generowania przez mózg pozostaje tajemnicą. Spekuluje się, że rytmy gamma modulują postrzeganie i świadomość oraz że większa obecność fal gamma odnosi się do rozszerzonej świadomości i duchowości.<br />Fale gamma są najsłabiej poznaną grupą fal mózgowych. Są też jedyną grupą częstotliwości znalezioną w każdej części mózgu. Związane są z obróbką informacji skojarzeniowych. Ich występowanie zauważono również w stanach skrajnych emocji i przeżyć.<br />Ze względu na słabą wiedzę na temat tej częstotliwości, nie włącza się jej jeszcze do treningów neurofeedbacku. Cały czas jej działanie jest przedmiotem badań naukowców i lekarzy w wielu ośrodkach na świecie. Fale gamma sprzyjają tworzeniu się skojarzeń i innym procesom poznawczym. To od nich w dużej mierze zależy styl uczenia się oraz zdolność do przyswajania nowych informacji.<br />Domniemuje się, że rytm gamma ma związek ze świadomością percepcyjną (dotyczącą wrażeń zmysłowych i ich postrzegania) oraz związany jest z tzw. wiązaniem jakości sensorycznych, tj. integracją poszczególnych modalności zmysłowych (tj. <a href="https://pl.wikipedia.org/wiki/Dotyk">dotyk</a>, <a href="https://pl.wikipedia.org/wiki/S%C5%82uch">słuch</a>, <a href="https://pl.wikipedia.org/wiki/Smak_(fizjologia)">smak</a>, <a href="https://pl.wikipedia.org/wiki/Wzrok">wzrok</a>, <a href="https://pl.wikipedia.org/wiki/Zapach">zapach</a>) w jeden spostrzegany obiekt (np. widzimy i słyszymy mówiącą do nas osobę jako spójną całość).<br />Rytm gamma towarzyszy działaniu i funkcjom motorycznym. Ośrodki mózgowe biorące udział w wyobrażaniu ruchu komunikują się ze sobą w określonej kolejności, a potem dopiero pojawia się "błysk" aktywności gamma w ośrodku mózgowym zawiadującym wykonaniem ruchu. Osobiście uważam że to jest normalny stan pracy mózgu kosmitów którym mogą się posługiwać w telepatii, telekinezie i "teledekinezie" (nazwa własna) czyli blokada ruchu innych osób lub rzeczy.<br /><br /> FALE BETA, CZYLI SKUPIENIE<br /><br />Fale Beta (13–40 Hz) – zakres tej częstotliwości odnotowywany jest podczas stanu aktywnego działania, czuwania i czujności. Wzrasta podczas logicznego myślenia, gdy uwaga skierowana jest na zadania poznawcze i świat zewnętrzny. <br />Zakres fal Beta to najczęstszy stan naszego umysłu. Człowiek jest wtedy przytomny, skupiony na odbieraniu bodźców zewnętrznych za pomocą swoich pięciu zmysłów: wzroku, słuchu, dotyku, smaku i węchu. Czytając ten tekst, znajdujesz się prawdopodobnie w tym stanie. W tym paśmie przeżywamy wszystkie emocje (radość, gniew, strach, zdziwienie, ciekawość). Sprzyja ono inspirującej energii i działaniu, charakteryzują logiczne, analityczne, intelektualne myślenie i werbalną komunikację.<br />Ze względu na bardzo szeroki zakres, fale beta podzielono na trzy podzakresy, które funkcjonują jako osobne fale mające odmienny, często przeciwstawny wpływ na różne sfery ludzkiej psychiki.<br /><br /><br />Fale Beta SMR (13-15 Hz) charakterystyczne są dla stanów:<br />• koncentracji uwagi, wzmożonej aktywności umysłowej i czujności• wiązanych z problemami z koncentracją uwagi w przypadku niskiej amplitudy tej fali<br />• dobrej odporności na stres<br />• odpowiednia ilość fali SMR, zwiększa odporność na drgawki w przypadku epilepsji<br />• zbyt wysoki poziom fali SMR prowadzi do odczuwania nadmiernego skupienia, co prowadzi do poczucia stresu i napięcia<br />• zbyt niski oznacza problemy z utrzymaniem uwagi w dłuższym czasie, zwiększa podatność na stres, wiąże się z wyczerpaniem psychofizycznym. </div><div><br /></div><div>Rytm sensoryczny SMR obserwowany jest w paśmie sensorycznym kory mózgowej. Jest to fala o wrzecionowatym przebiegu. Określa stan czujności, ale bez napięcia mięśni. Jest stanem, w którym uzyskuje się wysoką koncentrację. Zaniżona amplituda tej fali może wskazywać na problemy z utrzymaniem zogniskowanej uwagi. Jesteśmy wtedy bardziej skoncentrowani i polepsza się nasza zdolność uwagi. Ciekawe jest to, że fala ta jest hamowana przez ruch, unieruchomienie ciała może powodować wzrost fal SMR.<br /><br />Towarzyszy przede wszystkim odbieraniu świata poprzez wszystkie pięć zmysłów: wzrok, słuch, smak, węch, dotyk. Odpowiada za relaks z zewnętrzną uwagą. Jesteśmy wtedy odprężeni, ale gotowi obserwować świat. Profesor Joel Lubar, specjalista w dziedzinie psychofizjologii i neurologii z Uniwersytetu w Tennesee określa ją jako „ludzkie funkcjonowanie poznawcze i stosunek do otoczenia”. SMR nazywany jest również rytmem sensomotorycznym lub czuciowo-ruchowym. Prawidłowo, wyższa aktywność tej fali powinna być w półkuli niedominującej.<br />Zbyt niski poziom SMR towarzyszy deficytom uwagi. Jest obecny w zaburzeniach ze spektrum autyzmu oraz przy deficytach intelektualnych. Zaobserwowany także w zaburzeniach lękowych i PTSD (syndrom stresu pourazowego). Zbyt wysoki poziom SMR w półkuli dominującej powoduje problemy z koncentracją przy jednoczesnym wzroście pobudzenia ogólnego.<br />Za pomocą neurofeedbacku można wykonywać ćwiczenia polegają na zwiększeniu poziomu emisji SMR w półkuli niedominującej (genetycznie nieprzeważającej) przy jednoczesnym zmniejszeniu w półkuli dominującej – u większości ludzi dominuje półkula lewa, co przekłada się na praworęczność. Pomaga to w poprawie koncentracji przy jednoczesnym wyciszeniu wewnętrznym.<br />Treningi neurofeedback obejmują również zwiększanie SMR przy takich zaburzeniach jak: depresja, lęki, deficyty uwagi , upośledzenie umysłowe, autyzm. Prawidłowa emisja SMR zmniejsza także zaburzenia związane z funkcjonowaniem społecznym takie jak m.in. Zespół Aspergera.<br /><br />Fale BETA1 (15-18 Hz) charakterystyczne są dla stanów:<br />• bardzo intensywnego skupienia uwagi i koncentracji• logicznego myślenia<br />• panowania nad emocjami<br />• sprawnego funkcjonowania poznawczego<br />• łatwości w nauce<br />• niski poziom fali beta1 prowadzi do problemów z nauką, z koncentracją<br />• za wysoka ilość fali beta sprawia, że odczuwamy pobudzenie, lęk, nie możemy utrzymać uwagi na jednej rzeczy<br /><br />Trening mózgu w oparciu o biofeedback w tym przypadku zwiększa umysłowe zdolności w obszarze uwagi i koncentracji, a także regulowania swoich emocji. Jest szczególnie wskazany dla sportowców i osób występujących publicznie.<br />Emisja fali Beta1 odpowiada intensywnemu i świadomemu wysiłkowi umysłowemu. Im większa częstotliwość, tym większe pobudzenie twórcze i abstrakcyjne myślenie. Jesteśmy świadomi bodźców pochodzących z zewnątrz. Umiemy też panować nad emocjami. Nasza uwaga jest skupiona. Koncentrujemy się na wykonywaniu zadań, rodzą się wtedy nowe pomysły.<br />Niski poziom bety1 towarzyszy deficytom intelektualnym, zaburzeniom koncentracji i uwagi. Zbyt wysoka fala beta w półkuli niedominującej (genetycznie nieprzeważającej) zaburza emisję fali SMR, co w konsekwencji wiąże się z rozchwianiem emocjonalnym i deficytem uwagi.<br /><br />Trening fal Beta jest najczęściej stosowany w neurofeedbacku. Te treningi pomagają przygotować się do egzaminów, zawodów, występów i prezentacji. Umożliwiają grupowanie i analizę informacji. Stosowany jako zwiększanie możliwości intelektualnych i kreatywności. Dla zawodowych sportowców, osób pracujących i podejmujących decyzje pod presją, muzyków, aktorów i wszystkich osób dla których wysokie poziomy koncentracji są kluczem do sukcesu. Trening beta1 zwiększa zdolności umysłowe i podnosi poziom inteligencji (IQ). Tutaj neurony pracują najszybciej i najbardziej efektywnie. Jesteśmy skoncentrowani, a rozwiązania pojawiają się szybko. To najbardziej popularna częstotliwość fal mózgowych w ciągu dnia.<br /><br /><br />Fale BETA2 (powyżej 18-40 Hz) charakterystyczne są dla stanów:<br />• zdenerwowania, ekscytacji a także irytacji• wzmożonej aktywności umysłowej<br />• odpowiedni ilość pozwala osiągnąć tzw. optimal arousal, czyli szczytową wydajność naszego organizmu - możemy pokazać to, co mamy w sobie najlepsze<br />• prawidłowy poziom fali beta2 w mózgu dostarcza organizmowi odpowiednią ilość energii do pracy i działania<br />• zbyt wysoka aktywność beta2 oznacza stres i problemy z osiągnięciem szczytowej wydajności<br />• niski poziom fali beta2 skutkuje brakiem pobudzenia i odczuwania energii, a organizm działa wolno i flegmatycznie</div><div><br />Fala Beta2, towarzyszy nam w trakcie intensywnej pracy umysłowej. Jest jednak falą stresogenną i powoduje uczucie niepokoju. Związana jest ze zwiększonym napięciem emocjonalnym, gdyż jej emisja towarzyszy wydzielaniu adrenaliny odpowiedzialnej za stan gotowości organizmu.<br />Zbyt długie pozostawanie w takim stanie powoduje wysokie zużycie energii czyli obciążenie bioenergetyczne, gdyż duże dawki adrenaliny wpływają toksycznie na organizm. <br />Fale Beta 2 występuje w stanach stresu oraz niepokoju ale też wtedy gdy coś nas ekscytuje. Jest obecna przy depresji i gdy myślimy negatywnie. Nasila się przy tremie i w stanach lękowych.<br />Trening neurofeedback obejmuje zawsze hamowanie fali beta2. Niektóre jej wąskie zakresy odpowiadają za lęki. Inne są hamowane w przypadkach natrętnych negatywnych myśli (tzw. ruminacje). Całe pasmo hamowane jest zawsze w stanach podwyższonego napięcia, stresu, a także we wszystkich zaburzeniach związanych z uwagą i intelektem. ania, irytacji, <br /><br /><br />Fale beta sprzyjają skupieniu oraz przeżywaniu emocji. Pojawiają się podczas działania i są niezbędne dla logicznego myślenia, a także komunikacji z innymi. Fale beta pozwalają nam rozwiązywać problemy, prowadzić samochód oraz odbierać i analizować pochodzące ze świata zewnętrznego bodźce. Jeśli ich poziom jest zbyt niski, stajemy się nadmiernie rozluźnieni, a nasz nastrój spada. <br />Zbyt wiele fal beta może skutkować odczuwaniem lęku oraz stresu. Poziom adrenaliny zaczyna wzrastać już przy częstotliwości powyżej 12Hz i stopniowo podnosi się wraz z ich natężeniem. Skutkiem jej nadmiernego udziału może być podwyższone ciśnienie tętnicze oraz napięcie mięśniowe i odczucie głębokiego stresu.<br />Mała amplituda, zdesynchronizowane – rytm gotowości, charakteryzuje szczególnie zwykłą codzienną aktywność, percepcję zmysłową i pracę umysłową. <br />Czynność fal beta w prawidłowym elektroencefalogramie osoby dorosłej wykonanym typowo w czuwaniu przy zamkniętych oczach dominuje w okolicach czołowo centralnych, w odróżnieniu od czynności alfa, która dominuje w okolicach potylicznych. Czasami czynność beta występuje w sposób rozlany – nie tylko w okolicach czołowych, ale także potylicznych, czyli tam, gdzie fizjologicznie powinien być rytm alfa. <br />Najczęściej ma to miejsce:<br />u osób przyjmujących niektóre leki, np. benzodiazepiny<br />po otwarciu oczu (tzw. reakcja zatrzymania -Rz)<br />w stanach zogniskowanej uwagi<br />w senności, zasypianiu, budzeniu się i <a href="https://pl.wikipedia.org/wiki/Faza_REM">śnie REM</a><br />w nadczynności tarczycy i niektórych innych zaburzeniach endokrynologicznych.<br /><br /> FALE ALFA, CZYLI CZUJNY RELAKS</div><div><br />Fale ALFA (8-12,9 Hz) charakterystyczne są dla stanów:<br />• relaksu, pojawiają się tuż przed zaśnięciem i zaraz po przebudzeniu• głębokiego zamyślenia, zastanawiania się nad czymś w skupieniu<br />• związanych z kreatywnym myśleniem (fale alfa ułatwiają dostęp do obu półkul, co uruchamia wyobraźnię i myślenie oparte o skojarzenia)<br />• dobrego samopoczucia, spokoju, pozytywnego myślenia<br />• niski poziom tej fali prowadzi do nadmiernego fantazjowania, odpływania uwagi, problemów z uwagą typu ADD bez nadruchliwości<br /><br />Ich amplituda wynosi 10–100 μV. Pojawiają się dopiero po trzecim roku życia. Wykorzystywany w technikach szybkiego uczenia się.<br />Trening mózgu za pomocą biofeedbacku w tym przypadku wiąże się z umiejętnością samodzielnego opanowywania stresu i wprowadzania się w stan odprężenia.<br /> Fale Alfa to fale o regularnym, sinusoidalnym kształcie, jest to dominująca częstotliwość przy zamkniętych oczach. Fale alfa o największej amplitudzie rejestrowane są w okolicach potylicznych i ciemieniowych kory mózgowej. Przypisywany jest im stan odpoczynku i relaksu. Obniżoną amplitudę fal alfa odnotowuje się u osób zestresowanych i o podwyższonym stanie niepokoju.<br />Dzięki Alfie jesteśmy bardziej kreatywni. Pozwala nam się odprężyć, ale jednocześnie pozostać czujnym. Fale o tym zakresie są charakterystyczne dla stanu głębokiego relaksu. Fala Alfa pojawia się zaraz po zamknięciu oczu. Oznacza to, że za każdym razem, gdy je zamykasz, choćby na chwilę, twój mózg pracuje na tej częstotliwości. W tym stanie znajdujemy się także zawsze na krótko przed zaśnięciem i zaraz po przebudzeniu, a także czasem w chwilach głębokiego zamyślenia lub skupienia. Pojawiają się też gdy oglądamy telewizję. Fale alfa emitowane są tuż po przebudzeniu się. Towarzyszą głębokiej zadumie i sprzyjają kreatywności. Przynoszą inspirację i wspierają pozytywne myślenie. Podczas stanu Alfa nasza uwaga skupiona jest na tym, co jest wewnątrz nas samych. Mamy wtedy pełny dostęp do obydwu półkul mózgowych, co znacznie wspomaga wizualizację i wyobraźnię. W Alfie zaczynamy uzyskiwać dostęp do bogactwa kreatywności, które znajduje się poniżej naszej świadomości. Charakteryzuje ona wewnętrzne poziomy aktywności umysłowej, spokój, odpoczynek, pozytywne myślenie, inspirację, twórczość. W tym stanie jesteśmy odprężeni, nieruchomi ale nie senni, cisi, świadomi. Wtedy najlepiej się myśli twórczo. To jest miejsce głębokiego odpoczynku, ale niedostateczne dla medytacji. Fale te zanikają w czasie wysiłku tak fizycznego, jak i umysłowego.<br />Nadmierna alfa może powodować zaburzenia koncentracji, co pogarsza wyniki w nauce. Zbyt niska emisja tej fali charakteryzuje obniżony nastrój, depresję. Przy niskiej alfie mamy zaniżoną samoocenę i słabszą motywację. Przy problemach z nauką i w dysfunkcjach związanych z zaburzeniami uwagi w treningach neurofeedback obniża się najczęściej właśnie fale alfa. Treningi zwiększające emisję fali Alfa towarzyszą leczeniu depresji, w obniżonym nastroju, ale także chcąc poprawić kreatywność i motywację. W nadmiarze mogą jednak wywoływać zaburzenia koncentracji. Jeśli natomiast fale alfa emitowane są w zbyt małym stopniu, pojawia się obniżony nastrój, niski poziom motywacji, a nawet depresja. Stymulacja mózgu falami dźwiękowymi może okazać się skuteczna w jej leczeniu.<br /><br />Są efektem synchronicznej i spójnej aktywności elektrycznej <a href="https://pl.wikipedia.org/w/index.php?title=Kom%C3%B3rki_rozrusznikowe&action=edit&redlink=1">komórek rozrusznikowych</a> <a href="https://pl.wikipedia.org/wiki/Wzg%C3%B3rze_(anatomia)">wzgórza</a>. <br />Fale alfa są jednym z rodzajów fal mózgowych, które można wykryć za pomocą <a href="https://pl.wikipedia.org/wiki/Elektroencefalografia">elektroencefalografii</a> (EEG) lub <a href="https://pl.wikipedia.org/wiki/Magnetoencefalografia">magnetoencefalografii</a> (MEG). Stwierdzono, że pochodzą głównie z płatów potylicznych.<br /><br /><br /> Niska Alfa (8–11 Hz) – to zakres fal o częstotliwości poniżej szczytu alfy u badanej osoby, przy oczach zamkniętych. Z wiekiem zostaje zanotowany spadek szczytu częstotliwości tej fali. Wyższa częstotliwość szczytu tej fali występuje u osób bardziej sprawnych poznawczo. To pasmo częstotliwości związane jest z medytacją, z utrzymywanym spokojem i relaksem. Niska alfa podlega wahaniom dobowym i wyższe jej amplitudy możemy odnotować między godziną 11.00 a 15.00. Znaczne zmęczenie osoby badanej może mieć również wpływ na widmo tej fali. <br /><br /><br />Wysoka Alfa (11–12,9 Hz) – częstotliwość ta pojawia się, kiedy zwiększa się stan wysokiej świadomości otoczenia. W tym stanie mózg może szybko a precyzyjnie reagować na zmiany środowiska. Fale o tym paśmie to stan umysłowego i fizycznego spokoju, zwany też stanem „zona”. Umysł skoncentrowany jest na danej chwili „tu i teraz”, Jest to stan kojarzony z wysoką koncentracją i pewnością działania. <br /><br /> FALE THETA – SPOKÓJ I KREATYWNOŚĆ</div><div><br />Fale THETA (4-7,9 Hz) charakterystyczne są dla stanów:<br />• większej części snu</div><div>• głębokiej medytacji i koncentracji<br />• ich prawidłowa ilość pozwala na lepsze zapamiętywanie<br />• pomaga z łatwością osiągnąć stan tzw. FLOW<br />• niski poziom aktywności tej fali prowadzi do wyłączenia uwagi (odpłynięcia) i problemów z koncentracją.</div><div><br />Fale Theta są związane z wydobywaniem informacji z pamięci oraz ze zdolnością kontroli reakcji na bodźce. Przy tej częstotliwości jesteśmy świadomi swojego otoczenia, podczas gdy ciało jest w stanie głębokiego rozluźnienia. Związane są ze świadomą obserwacją otoczenia (jądra wzgórza mózgu). W stanie fal Theta mogą powstawać bardzo kreatywne myśli, inspiracje i wyobrażenia. Ta częstotliwość pomaga w przywoływaniu wspomnień, fantazji i skojarzeń. Natomiast nadmierne ilości tych fal są odnotowywane u osób z zespołem zaburzeń uwagi. <br />Theta „leży” bezpośrednio na progu podświadomości. Towarzyszy nam przez większą część snu. Jest też identyfikowana jako brama do nauki i pamięci. Ich aktywność wzmaga się w trakcie snu lub gdy oddajemy się refleksjom. Sprzyjają wyobraźni i poprawiają zdolność do zapamiętywania. Fale Theta są charakterystyczne dla stanu medytacji. Działają inspirująco i pobudzają kreatywność. Ich odpowiedni poziom wzmaga intuicję. Gdy jest ich jednak zbyt dużo, pojawia się senność i trudności w koncentracji. Fale Theta – związane są z wykonywaniem procesów logicznych, czytaniem, uczeniem się i zapamiętywaniem oraz nawigacją przestrzenną. Fale Theta są najczęściej występującymi falami mózgowymi podczas medytacji, transu, <a href="https://pl.wikipedia.org/wiki/Hipnoza">hipnozy</a>, intensywnego marzenia, intensywnych emocji. Dla niskich zakresów tej częstotliwości tok myśli staje się niespójny i zanikają związki logiczne, co wyraźnie widać na przykładzie myślenia w czasie marzeń sennych.<br /> Te częstotliwości występują podczas głębokiej medytacji. Mamy wtedy dostęp do całej pamięci naszego mózgu. Zwiększając falę Theta w trakcie medytacji, poprawiamy kreatywność, intensyfikujemy proces uczenia się, łagodzimy też stres i budzimy intuicję. Świadomość może wtedy funkcjonować tylko w jednym wymiarze, który charakteryzuje głębsze poziomy koncentracji.<br />Gdy zachowujemy świadomość przy tej częstotliwości fal mózgowych, niekiedy mamy możliwość kontroli fizycznego bólu. Często ludzie w szoku miewają takie „nadprzyrodzone” zdolności, jednak nie potrafią nimi kierować.<br />Z drugiej strony w nieadekwatnych sytuacjach występowanie fal Theta może łączyć się z zaburzeniami czynności wzgórza (część mózgu odpowiedzialna m.in. za wstępną ocenę bodźców zmysłowych i integrację bodźców czuciowych i ruchowych). U większości osób występuje z przewagą w lewej okolicy skroniowej. Jej zwiększony udział wiąże się z zaburzeniami uwagi i mikrouszkodzeniami mózgu.<br />Theta budzi intuicję i inne pozazmysłowe percepcje umiejętności. Niewielki nadmiar thety powoduje kłopoty z koncentracją i uczucie senności. Bardzo duży nadmiar tej fali charakterystyczny jest dla depresji, zamkniętych uszkodzeń głowy oraz epilepsji. Patologiczny nadmiar thety obrazuje śpiączkę (coma) typu theta.<br />Na ogół nadmiar fal Theta (płaty czołowe) powoduje dekoncentracje i problemy w skupieniu uwagi (ADD, ADHD). <br /><br /> FALE DELTA – GŁĘBOKI SEN</div><div><br />Fale DELTA (0,1- 3,9 Hz) charakterystyczne są dla stanów:<br />• głębokiego snu pozbawionego marzeń sennych (3 i 4 stadium snu NREM)• ich optymalna ilość zapewnia sprawne funkcjonowanie mózgu<br />• odpowiednia ilość zapewnia regenerację podczas snu<br />• w komputerowej analizie widma częstotliwości obecna przez całe życie<br />• czynności delta nigdy nie należy wzmacniać, przy niepożądanym wzroście - tłumić<br />• zbyt wysoki poziom fali delta może świadczyć o obrazach patologii w mózgu (urazy po wypadkach, wylewy)<br />• podwyższony poziom charakterystyczny dla osób z upośledzeniem lub z zespołem Aspergera<br />• pojawia się przy intensywnym wysiłku umysłowym<br /><br />Fale Delta są najwolniejszymi ze wszystkich fal mózgowych. Występują podczas głębokiego snu i stanowią ponad 50% rejestrowanej czynności mózgu. Zaobserwowano je również podczas transcendentalnej medytacji. Informacje otrzymane na tym poziomie są zazwyczaj niedostępne na poziomie świadomości. Fale delta dominują w spektrum QEEG u niemowląt do 6 miesiąca życia. Rejestrowane są również przy uszkodzeniach mózgu i w diagnostyce guza mózgu.<br />Fale Delta jest to stan nieświadomości obecny w głębokim, pozbawionym marzeń snu. W paśmie Delta następuje większe uwalnianie hormonu wzrostu, dlatego sen jest bardzo korzystny w okresie dojrzewania. Wtedy obserwuje się redukcję wydzielania kortyzolu, hormonu kory nadnerczy odpowiadającego za stres i proces starzenia się. Zwiększa się także poziom DHEA i melatoniny, które także towarzyszą procesom starzenia się organizmu. To dlatego głęboki sen jest zbawienny dla uzdrawiania i regeneracji.<br />W niektórych przypadkach fale delta są obrazem patologicznym charakteryzującym uszkodzenia mózgu (np. guzy). Wysoka delta towarzyszy zespołom zaburzeń uwagi. Jej hamowanie jest włączane do treningu neurofeedback w przypadkach takich jak ADD i ADHD. Pojawiają się również przy intensywnym wysiłku umysłowym. Jak wynika z badań, niemowlęta oraz małe dzieci produkują je w dużej ilości, lecz wraz z wiekiem poziom tych fal w mózgu spada, co wiąże się z obniżoną zdolnością do wypoczynku. Fale delta mają związek z procesami, które zachodzą w naszym ciele bez udziału świadomości. Należą do nich m.in. trawienie czy regulacja pracy serca. To pasmo sprzyja regeneracji organizmu. Fale delta są też obrazem patologicznym, charakteryzującym uszkodzenia mózgu (np. guzy).<br />Fale delta to fale mózgowe o wysokiej <a href="https://pl.wikipedia.org/wiki/Amplituda">amplitudzie</a> i zazwyczaj wiążą się ze snem wolnofalowym.<br />Występują najczęściej podczas fazy 4 <a href="https://pl.wikipedia.org/wiki/NREM">NREM</a> snu, stanowiąc 50% lub więcej zapisu EEG podczas tej fazy. Ich poziom zmienia się z wiekiem.<br />Analiza EEG noworodków w stanie czuwania wskazuje, że aktywność fal delta jest dominująca. W EEG w stanie czuwania u dzieci w 5 roku życia fale delta nadal występują często.<br />Podczas dorastania aktywność fal delta we śnie wolnofalowym spada. Stwierdzono spadek o 25% pomiędzy 11. a 14. rokiem życia.<br /><b>Duże ilości fal delta nie są powszechne u zdrowych dorosłych w stanie czuwania.</b><br /> Jednakże wykazano w wielu badaniach obecność zwiększonej aktywności delta u dorosłych w stanach zatrucia lub <a href="https://pl.wikipedia.org/wiki/Delirium">delirium</a> oraz u osób ze zdiagnozowaną <a href="https://pl.wikipedia.org/wiki/Demencja">demencją</a> lub <a href="https://pl.wikipedia.org/wiki/Schizofrenia">schizofrenią</a>.<br />Wysoka amplituda – występują w stanie najgłębszego snu, podczas głębokiej <a href="https://pl.wikipedia.org/wiki/Medytacja">medytacji</a>, także u małych dzieci i w przypadku pewnego rodzaju uszkodzeń mózgu (np. <a href="https://pl.wikipedia.org/wiki/Lezja">lezji</a>).<br /><br /><br /><br /><br /><br />Niektóre zaburzenia a fale mózgu:</div><div><br />ADD, ADHD – zwolnienie czynności mózgu, zwłaszcza w rejonach czołowo-centralnych, głównie w lewej półkuli, natomiast w prawej obserwuje się zwiększone pobudzenie; <br />przy ADHD może pojawić się w nadmiar fal szybkich w przednich partiach mózgu, co owocuje zachowaniami impulsywnymi, kompulsywnymi, buntowniczymi.<br />Depresja – zwolnione fale w lewym czole i przyspieszone w czole prawym<br />Trudności w nauce – podwyższony poziomy fal mózgowych Alfa i Theta, a to może powodować dezorganizację czynności mentalnych.<br />Kłopoty z koncentracją i uczucie senności – nadmiar fal Theta i Alfa<br />Otępienie intelektualne i emocjonalne – brak fal Beta<br />Stres – fale Beta 2 (pasmo wysokiej Bety)<br /><br /><br />Badanie EEG – wynik nieprawidłowy. Jeśli podczas badania widoczne są zniekształcenia rytmu lub nawet jego zanik, a do tego występują fale patologiczne (np. theta i delta) i widoczna jest wyraźna asymetria zapisu, wskazuje to na wynik nieprawidłowy.</div><div><br />Badanie EEG – wynik prawidłowy. O wyniku prawidłowym w przypadku badań EEG można mówić wtedy, gdy u osoby w spoczynku, z zamkniętymi oczami, występują przede wszystkim fale alfa w części potylicznej i ciemieniowej mózgu oraz fale beta w przednim fragmencie mózgu. U niektórych, zdrowych pacjentów można także zauważyć czasem fale theta oraz spłaszczenie zapisu, które jest efektem niewielkiej ilości fali alfa oraz jego niskiej amplitudy.<br /><br /><br /><br />STANY PSYCHICZNE I ODPOWIADAJĄCE ZA NIE PASMA CZĘSTOTLIWOŚCI FAL<br /><br />Na stan psychiczny człowieka w znacznej mierze mają wpływ jego myśli, przekonania i nawyki. Myśl może rozpocząć zarówno proces twórczy, jak i destrukcyjny. Przyczynia się do różnego rodzaju stanów emocjonalnych, a w konsekwencji do reakcji fizjologicznych organizmu. Proces ten odzwierciedla się w spektrum QEEG poprzez określony zakres częstotliwości fal jakie pojawiają się w mózgu. Badania pokazały, że wysyłane przez mózg sygnały są związane z wieloma aspektami myślenia, emocji i zachowania.<br />Wnioski z obserwacji fal mózgowych wskazują, że w danym stanie psychicznym w mózgu może dominować jeden rodzaj fali, przy obniżonym poziomie aktywności pozostałych fal. Na przykład u osoby, która jest obecnie w fazie pobudzenia zaobserwujemy zwiększoną aktywność fal mózgowych w paśmie częstotliwości beta przy jednoczesnych występowaniu na poziomie śladowym fal alfa, theta i gamma. Zazwyczaj obserwujemy kombinację fal mózgowych dla różnych stanów świadomości, przez większość czasu widzimy nie tylko jedną kategorię fal mózgowych, ale ich wspólną aktywność razem.<br />Wiedza i wieloletnie owoce pracy naukowców nie tylko umożliwiły nam określenie stanu umysłu w jakim się znajdujemy, ale udowodniono, że mózg ludzki jest plastyczny, co daje nam większy potencjał wpływu na nasz stan umysłu i zmiany go w stany jakie są dla nas pożądane.</div><div><br /></div><div><br /><br />UWAŻNOŚĆ – STAN, W KTÓRYM MÓZG OTWIERA SWOJE UKRYTE ZASOBY<br /><br />Współcześni przedstawiciele oraz promotorzy prastarej sztuki jaką jest praktyka uważności (Mindfulness) żarliwie zachęcają do treningu tej opartej na starożytnych buddyjskich naukach techniki.<br />Co ich tak zachwyciło i przekonało do tej sztuki? Co nam dać mogą te drobne chwile bycia uważnym? Czy opłaca nam się być „tu i teraz”? Co takiego dzieje się w naszym ciele i w naszym umyśle oraz co dzieje się w naszym mózgu, kiedy ćwiczymy regularnie i z pełnym zaangażowaniem stan uwagi? Dlaczego zachodni świat zachwycił się w ostatnich latach uważnością, medytacją, wyciszaniem umysłu?<br />Bycie uważnym jest podróżą w głąb naszego wewnętrznego świata, by uspokoić rozbiegany umysł i nauczyć się bardziej świadomie poruszać w świecie zewnętrznym. Mindfulness określa ten stan, jako szczególny rodzaj uwagi: świadomej, nieosądzającej i skierowanej na bieżącą chwilę - Jon Kabat-Zinn. „Uważność jest cudem – jak mówi tradycja buddyjska – dzięki któremu poznajemy siebie samych. Potrzebujemy spokoju serca i samokontroli, jeśli chcemy, aby nasze wysiłki przynosiły dobre rezultaty” – twierdzi Thich Nhat Hanha, wietnamski mistrz Zen.<br />Rozpoczęcie przygody jaką są ćwiczenia nad intensyfikacją uważności, rozpoczyna stopniowy, ale dynamiczny proces zmian jaki zachodzi w naszym organizmie. Przebieg ten odbywa się na wszystkich jego płaszczyznach, poprzez zmianę biochemii, bioelektrycznej aktywności mózgu do zmian manifestujących się w zachowaniu i postrzeganiu rzeczywistości. Stan świadomej uwagi jest to stan wszechstronnej, zorientowanej na zewnątrz i wewnątrz koncentracji przy wysokim poziomie świadomości otoczenia. Kiedy postanowimy zaznajomić z tym światem swoje ciało i mózg, mamy bardziej wytężoną uwagę i koncentrację, zmniejsza nam się poziom napięcia i lęku. Organizm osiąga wyższy stopień relaksu z jednoczesnym odczuwaniem zwiększonej czujności. Wprowadzając mózg w zakresy częstotliwości przypisane temu stanowi umysłu, uczymy mózg lepiej i szybciej kontrolować swoje nastroje psychiczne oraz reakcje fizjologiczne. Ćwiczymy nasz mózg, by zwiększać jego umiejętność samoregulacji emocji i procesów myślowych. Osoba, która nauczy się podczas ćwiczeń uważności wchodzić w ten stan umysłu, będzie mogła natychmiast stać się świadoma każdej zmiany otoczenia, co daje jej możliwość szybszej i bardziej świadomej reakcji na zewnętrzne i wewnętrzne bodźce. W spektrum QEEG obserwowana jest zwiększona aktywność fal alfa w paśmie częstotliwości 11-13 Hz i SMR (13–15 Hz). Odpowiednie zaangażowanie w praktykowanie ćwiczeń uważności i zachowanie należytej techniki wykonywania ich, nauczy nas błyskawicznie osiągać stan świadomej uwagi oraz umiejętnie z niego wychodzić i przechodzić w inne stany dla nas na ten moment dogodne. Dzięki wykorzystaniu tej metody możemy rozpoznawać wzory swoich fal mózgowych i odpowiednio nimi zarządzać.<br /><br /><br /><br /><br /><br /></div><div class="separator" style="clear: both; text-align: center;"><br /></div><br /></div><div class="blogger-post-footer">„Analfabetami XXI wieku nie będą ci, którzy nie umieją pisać ani czytać, lecz ci, co nie potrafią oduczyć się wierutnych kłamstw, w które nauczono ich wierzyć i nie potrafią szukać ukrytej wiedzy, którą nauczono ich odrzucać”</div>#magnetartechprojecthttp://www.blogger.com/profile/00116426320285930090noreply@blogger.com0tag:blogger.com,1999:blog-1727701247933515471.post-41538330805357289242022-12-02T23:03:00.071+01:002023-06-05T23:07:58.555+02:00Pole elektromagnetyczne <p> </p><p><br /></p><p><br /></p><p><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEj7mu8911AxmTmhLQOHOy329sS0GVO9o4PWPi-T4GTWy7NOl8STnpGQtn8Anf8skmZGBIVdEzm4hV-YHHcG8Z27stqBu2jkOlZhhqqAyhJflTLy8aaP2O9SIUpt34Uz50D87OFHd7tuIxiLEb7TZbvrOqYHgwuEIGS34BEYiiNER8bKu-qJkM3dVO82/s1920/7753eb5085b93b3b62d5a14445655288.jpg" style="margin-left: 1em; margin-right: 1em; text-align: center;"><img border="0" data-original-height="1080" data-original-width="1920" height="360" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEj7mu8911AxmTmhLQOHOy329sS0GVO9o4PWPi-T4GTWy7NOl8STnpGQtn8Anf8skmZGBIVdEzm4hV-YHHcG8Z27stqBu2jkOlZhhqqAyhJflTLy8aaP2O9SIUpt34Uz50D87OFHd7tuIxiLEb7TZbvrOqYHgwuEIGS34BEYiiNER8bKu-qJkM3dVO82/w640-h360/7753eb5085b93b3b62d5a14445655288.jpg" width="640" /></a></p><p><br /></p><div class="separator" style="clear: both; text-align: center;"><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div>Ruch to jedyna siła która istnieje w przestrzeni kosmicznej i wystarcza aby z "fotonowego morza" dawniej zwanego eterem, powstało wszystko co istnieje i to co obserwujemy. Włącznie ze zjawiskiem świadomości ale nie o tym tu będzie. <div>Obserwowalne i mierzalne zjawiska zachodzące pod wpływem ruchu w przestrzeni kosmicznej dzielimy na cztery podstawowe: </div><div><br /></div><div>1. pole trwałe - elektrostatyczne, </div><div>2. pole ruchome - elektromagnetyczne:</div><div>a) jednokierunkowe - stałe które wraz z ruchem obiektu tworzy grawitację, </div><div>b) dwukierunkowe - zmienne i przemienne tworzące antygrawitację,</div><div>3. prąd elektryczny, </div><div>4. fale elektromagnetyczne w tym światło widzialne.</div><div><br /></div><div> Mamy w ten sposób jedną siłę której przyczyny nikt nie zna, podzieloną pomiędzy cztery oddziaływania fizyczne. Dotyczą one zarówno makroświata astrofizycznego jak i tego subatomowego.<br /><br />Nauka i jej poplecznicy zamiast zajmować się płaskoziemcami i innymi szurami, mogliby zająć się swoimi WŁASNYMI niedociągnięciami bo jak to zwykle bywa "przyganiał kocioł garnkowi a sam smoli"... Jeśli to co reprezentuje nauka jest prawdą, dlaczego tak boi się fantazji płaskoziemców? Płaskoziemców i im podobnycch odbieram jako ludzi którzy zachowali umysł dziecka pozwalający im samodzielnie poszukiwać prawdy w przeciwieństwie do pozostałych ludzi uformowanych w rodzaj robotniczego betonu przez system. Pomijając wymiar skutków społecznych niszczenia wolności wypowiedzi w której poniżanie wypowiadającego się powinno być KARALNE, a tymczasem w XXI wieku karane banicją społeczną jest odmienne zdanie i odkrywcze posiadanie wątpliwosci. Dlaczego tylko naukowcom pozwala sie wątpić w ich teorie? Reszta ma kultywować niepisany obowiązek niemego ślepowierstwa? Brakuje tylko jeszcze powrotu do dawnej skutecznej w zamykaniu ust i umysłów, metody palenia na stosie... <div> </div><div>Wmawia się nam że Słońce jako rzekomy reaktor termojądrowy posiada pole elektromagnetyczne, jednak w ząb nie rozumie się ani nie wyjaśnia jak to się dzieje. <a href="https://geekweek.interia.pl/.../news-skad-sie-bierze-pole?fbclid=IwAR05aFK9LXO9QVJEsN8qq3ASWjmbASBYhgAUC52OLrZDrLP5c5PEmlHY2vs">https://geekweek.interia.pl/.../news-skad-sie-bierze-pole</a>... </div><div>Nie ma to jak wylać dziecko z kąpielą aby potem dzwonić po karetkę pogotowia. Ustalanie fizycznych właściwości przestrzeni kosmicznej jest jak rozwiązywanie zadań z wieloma niewiadomymi. </div><div>Otóż aby mogło zaistnieć w przestrzeni kosmicznej pole magnetyczne jako jakakolwiek sprawcza siła fizyczna, nie jest możliwe aby przestrzeń kosmiczna była próżnią!! Oświadczam zdecydowanie że przestrzeń kosmiczna ma własności płynu i jest PEŁNA "zimnych" bo niskoenergetycznych fotonów! Choć to nie jest trafny opis bo posługuję się tu nomenklaturą naukową. W przestrzeni kosmicznej każde pole magnetyczne jest po prostu wyodrębnioną MECHANICZNIE sferą, gdzie obszar złożony ze strumienia fotonów ulega ruchowi odwzorowującemu kształt toroidu wokół materialnego obiektu który to pole wytwarza. Każdy materialny obiekt tworzy to pole poprzez mniej lub bardziej spolaryzowane kierunkowo domeny począwszy już od spinów atomowych. Każdy materiał, pierwiastek i substancja jest zarówno przewodnikiem co izolatorem w odwrotnie proporcjonalnym stosunku. Również fotonotwórcza substancja kosmicznego oceanu jest przewodnikiem ale w najmniejszym stopniu ze wszystkich nieznanych oraz nieuwzględnionych w Tablicy pierwiastków. Trzeba sobie wyobrazić że pole elektromagnetyczne w przestrzeni jest wirem tak jak tornado w powietrzu albo wir we wodzie. Nie ma innej możliwości jeśli ma realnie FIZYCZNIE oddziaływać w kosmosie. Nic wirtualnego o czym mówi nauka nie ma miejsca w przestrzeni kosmicznej! Wirtualne sprawy pozostawmy wewnątrz pamięci trwałej i operacyjnej komputerów i równań matematycznych. Wszystko musi być jak najbardziej realne skoro wywiera wpływ na otoczenie. Czarna dziura jest tym samym zjawiskiem co oko cyklonu czy tornada i powstaje tylko z powodu największej intensywności obrotu pola elektromagnetycznego w centrum galaktycznego wiru, do tego stopnia że mimo niewielkiej ilości materii jak na tak wielkiej średnicy obiekt - tworzy grawitację. Grawitacja jest drugą stroną tego samego zjawiska ruchu tego fotonowego pola. W galaktykach spiralnych, ze względu na ich gabaryty, ruch wirowy pola elektromagnetycznego tak się intensyfikuje że w centrum gdzie substancja fotonotwórcza ma najkrótszy toroidalny odcinek do pokonania, zakłóca zmienną falę światła które także jest wytworem fotonotwórczej przestrzeni jak pole elektromagnetyczne czy grawitacja. To właśnie jest wir "czarnej dziury" z jego prostą właściwością. Żadna to osobliwość a jest to tylko efekt hiperintensywności pola elektromagnetycznego przeskalowanego do średnicy galaktyk spiralnych, w których to gabarytach ujawnia w centrum tę prostą właściwość. Ale tylko w centrum. Resztą galaktyki zawiaduje pole elektromagnetyczne niezintensyfikowane do tego stopnia aby porywać gwiazdy do tego mikroskopijnego wzgledem całej galaktyki wiru... W pewnym stopniu ten efekt zachodzi także na biegunach Ziemi. Kompas tam szaleje... tak samo jak na równiku, gdzie wyrzucany jest w przestrzeń nadmiar fotonów pola / ziemskiej magnetosfery, tworzący efekt orbity geostacjonarnej. Obecność zjawiska orbity geostacjonarnej to efekt akceleracji fotonów/ eteru w płaszczyźnie wirowania pola Ziemi. Znosi on częściowo siłę grawitacji w tej płaszczyźnie. Chyba że mówimy o kwazarach gdzie ta siła jest jeszcze bardziej zintensyfikowana. jednak póki co się nie wypowiem na temat wszystkich efektów fizycznych sposobu działania czarnej dziury w centrum kwazarów - brak danych choć jest to efekt jeszcze silniejszy niż u galaktyk spiralnych. Kwazary to mini glalaktyki wyrzucane ze znanych nam galaktyk spiralnych napędzanycch włóknami plazmowymi. Grawitacja jest również zależna od pola magnetycznego. Tak samo można na nią wpływać światłem, ruchem mechanicznym i polem elektromagnetycznym. Wszystkie zjawiska są przenoszone za pomocą fotonów i zależne tylko od poziomu wzmocnienia tych sił. Mając do dyspozycji dwa magnesy neodymowe, myślisz że oddziałują na siebie z taką siłą przez wzbudzenie sporadycznie występujących fotonów?? Otóż nie! Jest to szybko oddziałujący, niezależny od obecnej wokół materii ale silnie na materię wpływający i poprzez to realny cząsteczkowy żeby nie powiedzieć wręcz GAZOWY, zmasowany i zapętlony ruch fotonów ściśle rozmieszczonych wkoło tych magnesów. Pobudzanych do ruchu poprzez kształt elektromagnetycznego pola nadawany przez liniowo ukierunkowane podczas produkcji, domeny magnetyczne atomów magnesu. W atomowej strukturze magnesów, poza różną kombinacją orbitali atomowych jako wirów elektromagnetycznego pola, niczego więcej nie znajdziemy. Cały stos cząsteczek subatomowych wykrytych przez naukowców można sobie darować aby nie tracić czasu i wrzucić w myślach do kosza tak jak to robimy na komputerze, ponieważ są to cząstki wywodzące się z hybryd powstałych z omawianej tu jednej prostej cząsteczki fotonu który w zasadzie cząstką nie jest. Należy do wszechświatowego "fotooceanu" z którego za pomocą ruchu te cząstki są wyzwalane... lub sami możemy je wyzwalać mechanicznie dla pozyskania energii. Dla tej prostej "antywirtualnej" i nie "zmatematyzowanej" logiki nie są potrzebne drogie zderzacze hadronów które NIGDY nie znajdą wewnątrz atomu niczego więcej poza fotonami. Daję Ci na to słowo honoru. To, że wykryty szereg cząstek wykazuje względem siebie różne właściwości (prędkość, spin, rodzaj ruchu, przyspieszenie, masa, bla, bla etc.) nie znaczy że muszą to być cząstki z odmiennymi własnościami zasadniczymi. </div><div>Aby przykładowo odpowiedzieć na pytanie w którym miejscu Słońca jest tworzone pole magnetyczne, czy może to mieć miejsce blisko powierzchni Słońca lub głęboko we wnętrzu albo na różnych głębokościach gwiazdy, trzeba najpierw rozważyć dlaczego ono się tam indukuje, a nie w którym miejscu.<br />Więc według tego co obecnie wiem o własnościach przestrzeni kosmicznej, indukuje się ono dlatego że Słońce jak prawie każda gwiazda która posiada powierzchnię o metalicznej litosferze, obraca się i porusza (obie składowe ruchu mają wpływ) w polu magnetycznym naszej spiralnej galaktyki jak wirnik silnika wewnatrz stojana. Jest to faktyczna przyczyna powstawania pola E.M. i jest ona zewnętrzna! Inne galaktyki, czyli te nieregularne takiego skutecznego pola nie wytwarzają lub jest to słabe pole elektrostatyczne zdeformowane jak te galaktyki. Głównie mglawice. Pole elektromagnetyczne nazwałbym tu dla zobrazowania elektro-DYNAMICZNYM. Na pole elektromagnetyczne ciała niebieskiego nie ma wpływu jakieś wyszczególnione wewnętrzne "dynamo" tak jak to się wyjaśnia w przypadku Ziemi, a średnia sumaryczna wartoć rezystancji elektrycznej całego przewodnika jakim jest każde bez wyjątku ciało niebieskie.</div><div>Niedorzeczna w tym sensie jest koncepcja nauki że dające realne skutki pole magnetyczne, składa się z fotonów a jednocześnie ma na cokolwiek wpływ w podobno próżniowej przestrzeni...</div><div>Pola elektromagnetyczne począwszy od intergalaktycznych sieci włókien plazmowych, poprzez galaktyki spiralne, gwiazdy i planety a czasem duże księżyce, tworzą się na zasadzie ruchu przewodnika w polu elektromagnetycznym (każdy technik zna to zjawisko z lekcji elektrotechniki) pozamykane mniejsze w większych, analogicznie jak w rosyjskiej matrioszce. Znaczy to że jakakolwiek energia w przestrzeni kosmicznej i technologii zawsze przenoszona jest za pośrednictwem fotonów lub ich bardziej złożonych form w przypadku nośników nieelektrycznych. Nic więcej nie potrzeba. Obojętnie jaki sposób transmisji energii weźmiemy pod uwagę. <br />Nie jest możliwe aby przestrzeń kosmiczna była próżnią!!<br />Przestrzeń kosmiczna MUSI być pełna fotonów, nie ma innego wyjścia! W przeciwnym razie nie byłoby możliwe skuteczne przenoszenie tych wszystkich znanych nam oddziaływań, począwszy od pola elektromagnetycznego, poprzez transmisję światła czy pola magnetycznego aż do prądu elektrycznego którego nośnikiem także są fotony/ eter. . Każde obecne w przestrzeni pole magnetyczne jest sferą gdzie fotony ulegają wzbudzeniu odwzorowując kształt toroidu wokół obiektu który to pole wytwarza swoim ruchem. Pole to "przelewa się" między biegunami jak woda w zbiorniku wodnym gdy wrzucimy samą pompę bez węża do wody. Wtedy to co pompa wyrzuci z wylotu, zaraz ją opłynie trafiając do wlotu. Opór dla toroidalnj formy zachowania się cząstek wody wypływających z pompy stanowi reszta wody w zbiorniku. Analogicznie zachodzi to w hydro, jest też w aero i astrosferze. Nic nie dzieje się w kosmosie WIRTUALNIE i nie ma innej możliwości jeśli ma realnie na cokolwiek oddziaływać.</div><div>Gdzie podziała się logika w nauce? A może jej nie było? Były tylko pieniądze. Granty dla których wszyscy zatańczą ten sam chocholi taniec.</div><div><br /></div>Obecnie dominuje przekonanie, że to metaliczne, wirujące jądro Ziemi (obracające się nieco szybciej niż nasza planeta jako całość) wywołuje efekt dynama a ruchy konwekcyjne na granicy jądra z płaszczem planety generują pole magnetyczne, które daje nam ochronę przed nieprzyjemnościami z kosmosu. Jest to tylko część prawdy i odnosi się do kazdej planety. Efekt dynama nigdy nie zadziałalby w bezfotonowej przestrzeni. Dlatego warto przyjrzeć się bliżej kwestii rozkładu i mechaniki działania pól magnetycznych w Układzie Słonecznym.<br /><br /></div><div>Zacznijmy od Merkurego. Jeszcze sto lat temu sądzono, że Merkurego cechuje obrót synchroniczny (że jest zawsze zwrócony tą samą stroną do Słońca), ale okazało się, że kręci się on wokół własnej osi, choć bardzo wolno. Na każde dwa okrążenia wokół Słońca wykonuje on trzy obroty. Jak wykazały badania Marinera 10 w latach 70, Merkury posiada pole magnetyczne stukrotnie słabsze od Ziemskiego. Przy trwającej dwa ziemskie miesiące dobie to chyba i tak nieźle. Jednakże w tej odległości od Słońca to zbyt mało by utrzymać atmosferę. Gdybyśmy zabrali kompas na Merkurego, to byłyby spore szanse, że mocniej zareaguje na pole magnetyczne gwiazdy niż planety więc do określania naszego polożenia wzgledem siatki merkury - metrycznej byłby tam bezużyteczny.<br /><br />Wenus dla nauki oficjalnej jest wielką zagadką. Praktycznie nie posiada pola magnetycznego. Obraca się bardzo, bardzo powoli (243 dni na 1 obrót) i być może w kierunku odwrotnym do pozostałych planet w układzie słonecznym.</div><div>“Być może” bo wiodąca hipoteza naukowa głosi, że odchylenie jej osi obrotu nie wynosi 2,6 stopnia ale raczej 177,4 stopnia. Uważa się, że zupełnie jak wirujące bąki, planety wychylają na swoich orbitach a Wenus może być tego ekstremalnym przykładem, stojąc na głowie w sensie elektromagnetycznym co może powodować przynajmniej w części jej nagrzewanie. Podobnie jak w źle sparowanych biegunami układach magnetycznych. </div><div><br /></div><div>Kompletnie bzdurne wyjaśnienia są takie, że planetozymale - planetarne zarodki- z których powstały planety mogły zderzyć się ze sobą w taki sposób, że powstały z kolizji obiekt obracał się w przeciwnym kierunku, który podtrzymała powstająca planeta. Kolejne , wręcz niemożliwe wzgledem podstaw astrofizyki mówi, że planeta mogła wpierw zwolnić “normalny” obrót a potem zacząć obracać się w przeciwnym kierunku. Nie wyjaśnia się tylko z jakiego powodu.</div><div><br />Obecnie utrzymuje się że w wypadku Wenus zachodzi proces indukowania magnetosfery przez uderzający w Wenus wiatr słoneczny. Rozpatrzmy to wg. historii starożytnych podań w świetle teorii elektrycznej. Wenus została uwolniona elektromagnetycznie z orbity Saturna i przenosząc tamtejszy ujemny potencjał przywędrowała w okolice Slońca. Zachowuje się od tego czasu do dzisiaj jak... stacjonarna kometa. Stąd w starożytności była mowa o długim i wyraźnym warkoczu. Wręcz płonęła cała powierzchnia planety przez co w starożytnosci porównywano ją do kobiety. Elektrycznie wyglada to tak jakby zbliżyć elektrodę z ujemnym potencjalem do dodatniej elektrody Słońca. Porównajmy to zjawisko do procesu spawania plazmowego. Nie dziwi więc że powierzchnia Wenus wygląda jak stopiony spawaniem kawałek metalopodobnego materiału.</div><div><br />Księżyc i Mars nie posiadają pola magnetycznego. W przypadku Marsa powierzchnia jednej półkuli jest znacznie młodsza. Zniszczona moim zdaniem przez katastrofalną kolizję. Wg Sitchina kolizję Tiamat- dawnej Ziemi i hipotetycznej planety Marduk - obcej planety przechwyconej przez Słońce. Marduk jak głosi znany Epos sumeryjski, pochodził z zewnątrz Układu Słonecznego.</div><div>Moim zdaniem Mars jak każda skalista planeta, jeśli nie ma to nigdy nie mógł mieć pola magnetycznego, dlatego tamtejsze skały nie posiadają magnetycznych “odcisków” takich jakie mierzymy m.in. na dnie ziemskich oceanów. Południowa półkula jednak posiada skały które doświadczyły obecności wyraźnego pola magnetycznego i te odciski mogły być pozostawione właśnie przez Marduka. Rzekomy wulkan Olympus Mons i pozostałe wulkany tarczowe zostały dosłownie "naspawane" przez zbliżenie planety o innym potencjale elektrycznym! <br /><br />Król planet Jowisz jak mitologicznie najważniejszy Zeus, był władcą piorunów i jest również królem pól elektromagnetycznych. Jowisz wg oficjalnych teorii naukowych posiada pole magnetyczne przez to że w jego wnętrzu pod wpływem niewyobrażalnego ciśnienia wodór zyskuje właściwości metalu i to właśnie wirujący “metaliczny wodór” generuje potężne pole magnetyczne. Jednak nie w próżni a w fotonowej przestrzeni. Wtedy i tylko wtedy ma to jakiś sens choć wystarczyło przyjrzeć się tej koncepcji pod kątem elektrycznym o którym piszę i...nie utrudniać. Mimo tego nie bardzo podoba mi się koncepcja metalicznego wodoru, ponieważ ciśnienie podnosi temperaturę a ona współgra z rozprężaniem materii. Wewnątrz ciał niebieskich z tytułu temperatury każdy metal będzie starał się zgubić zdolność dobrego przewodzenia pola magnetycznego. </div><div>Raczej ogólnie każda planeta jest w jakimś sensie elektrycznym przewodnikiem który w polu elektromagnetycznym gwiazdy generuje pole uzależnione swoją siłą od sumy ogólnej własnej przewodności.<br /><br />Jedynym księżycem w układzie słonecznym z własnym polem magnetycznym jest jowiszowy Ganimedes.</div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhzLhJRwtjngJQlUM9dudIw0qj5TPhd1H5W6RtPBdeGIYj6dVor4xqRDLjq__WnS_LY261wGiKQWH1zguqvkzVXU4GRGA4Bfq4b9ZMZ61bNjKFAv-w3o6K0e_z9B-3MTNa6n0preiEvPqOj/s280/Ziemia.gif"><img border="0" height="226" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhzLhJRwtjngJQlUM9dudIw0qj5TPhd1H5W6RtPBdeGIYj6dVor4xqRDLjq__WnS_LY261wGiKQWH1zguqvkzVXU4GRGA4Bfq4b9ZMZ61bNjKFAv-w3o6K0e_z9B-3MTNa6n0preiEvPqOj/w400-h226/Ziemia.gif" width="400" /></a></div><div><br /></div><div>Pole elektromagnetyczne indukuje się z blisko położonego Jowisza wytwarzającego swoje własne pole elektromagnetyczne z pola Słonecznego. Efekt ten jest najwyrażniej widoczny zarówno pomiędzy Jowiszem a Ganimedesem jak i pomiędzy Merkurym a Słońcem choć podejrzewam że to nie wszystkie tego rodzaju zależności w Układzie Słonecznym.</div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div>Cechuje go obrót synchroniczny, przy okresie obiegu wokół Jowisza wynoszącym siedem dni. Tu znowu oficjalnie twierdzi się uparcie że i on ma ciekłe żelazowe jądro.<br /><br />Mało jest danych naukowych co do Urana i Neptuna. W przypadku obu planet pole magnetyczne jest bardzo mocno odchylone względem osi obrotu planety - 59 stopni dla Urana i 47 stopni w przypadku Neptuna (Ziemskie pole magnetyczne jest odchylone od osi obrotu o zaledwie 12 stopni). Bardziej zdumiewa naukowców fakt że centrum pola jest przesunięte względem centrum tych dwóch planet. W przypadku Urana może to być nawet o jedną trzecią jej promienia. Naukowcy zastanawiają się jaki materiał w tych planetach może być cieczą i być dobrym przewodnikiem. W przypadku obu lodowych olbrzymów uważa się że to miażdżona wielkim ciśnieniem woda rozpada się na jony H+ i OH-, które mogą przenosić ładunki elektryczne i generować prąd. Trzeba przyznać że uparci są z tą swoją próżnią która do niczego nie pasuje. Nie ma co...</div><div>Po raz kolejny wciska się efekt dynama, tym razem jednak generowany ponad jądrem.</div><div>Nikt w oficjalnej nauce nie bierze pod uwagę tego że wszechświat ma elektryczną naturę a wszelkie pola elektromagnetyczne biorą swój początek od większych obejmujących je struktur elektromagnetycznych. Moim zdaniem to właśnie Słońce wpływa kształtem i rozkladem sił swojego pola na odbiegajacy od normy rozklad sił elektromotorycznych na dalszych orbitach tamtych planet. Więc Uran i Neptun mogą dostosowywać swoja indukcję pola do miejscowego rozkładu linii sił pola słonecznego. Kształt tego pola schematycznie przedstawilem poniżej:</div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEh5TaFlKSDqRnOSXLpItJ_vl2JV2RN9v4s3TRkt-l2TsGAR86vn99lzW9X09yfi6SwbwVdNbHK71MaeA-xwW6uQKXL5d8gHjJFB6CEpdSaa3BaFu131spMElOc06a6ujNdkJQbDHeyZNz1mMUBwPN0JhEPGNxe6Mmhnpea0AW74Rq9dDxQ2DW3up7Bi/s812/pole-magnetyczne-wokol-przewodnika-z-pradem-1.jpg" style="margin-left: 1em; margin-right: 1em;"><img border="0" data-original-height="812" data-original-width="600" height="640" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEh5TaFlKSDqRnOSXLpItJ_vl2JV2RN9v4s3TRkt-l2TsGAR86vn99lzW9X09yfi6SwbwVdNbHK71MaeA-xwW6uQKXL5d8gHjJFB6CEpdSaa3BaFu131spMElOc06a6ujNdkJQbDHeyZNz1mMUBwPN0JhEPGNxe6Mmhnpea0AW74Rq9dDxQ2DW3up7Bi/w472-h640/pole-magnetyczne-wokol-przewodnika-z-pradem-1.jpg" width="472" /></a></div>Stara i nowa koncepcja pola elektromagnetycznego. W nowej koncepcji już nie jeden a dwa torusy pola elektromagnetycznego zbudowane z krążących fotonów, powodują reakcje przyciągania i odpychania, nie tylko na biegunach ale i na równiku zwane magnetyzmem, co jest jak dotychczas nie wyjaśnionym przez nikogo zjawiskiem natury mimo że pierwszym z zaobserwowanych. Stąd nazwa magnes ma ten sam źródłosłów co magia. <div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div>Więc w Układzie Słonecznym funkcjonowanie i zachowanie pól magnetyczne planet zależy wyłącznie od przewodności danej planety jak i bezpośrednio od siły i kierunku przebiegu linii sił słonecznego pola magnetycznego. Wraz z coraz większą odległością od Słońca pole elektromagnetyczne planety będzie więc coraz bardziej wychylone względem płaszczyzny wirowania pola Słońca. Oczywiście Słoneczna indukcja elektromagnetyczna o czym naukowcy głównego nurtu absolutnie nie wiedzą, ma największy i najbardziej bezpośredni wpływ na warunki panujące na powierzchniach planet położonych blisko Słońca. Z pewnością podczas analizy wszystkich danych naukowych pod wzgledem elektrycznym, osoby zaangażowane dokonają o wiele więcej wniosków. Przedstawiłem tu tylko powierzchowną koncepcję.</div><div><br /></div><div><div>W świetle całego powyższego wywodu, zasadną podstawą terraformingu Marsa byłaby techniczna symulacja indukcji pola magnetycznego. Począwszy od deorbitacji lodowych asteroidów z Pasa Planetoid na powierzchnię Marsa, aby w prosty sposób wraz z koniecznością zapewnienia zasobów wody dla pierwszych osadników, mając na uwadze że woda jest elektrycznym przewodnikiem, zwiększyć jednocześnie zewnętrzną przewodność planety a tym samym sumaryczną przewodność całego przewodnika jakim stałby się Mars dla słonecznego pola elektromagnetycznego. Gdy wartość pola będzie za niska, można na powierzchni planety wykonać z marsjańskiej rudy żelaza, elementy analogiczne przeznaczeniem jak w wirniku silnika elektrycznego i dodatkowo opasać Marsa metalową klatką wzdłuż południków, spinając całość pierścieniami na biegunach. Wzbudzając w konsekwencji lawinowo wzrastające pole elektromagnetyczne - nową marsjanską magnetosferę! Być może siła tego pola nie będzie z początku powalająca ale zawsze lepsze jest cokolwiek konstruktywnego niż detonacja bomby atomowej we wnętrzu planety czy półśrodek polegajacy na rozmieszczeniu sztucznych miejscowych generatorów pola. Rozważania tego dokonałem wyłącznie na podstawie analizy danych naukowych ale... pomyśl sam.</div><div>Śmieszy mnie koncepcja nauki że pole magnetyczne (w tym także Ziemi a jakoś nikt wśrod tęgich wyksztalconych głów tego nie powiązał- nie mam studiów i pochodzę z biednej rodziny w małej wiosce) składa się z fotonów, jednocześnie pole to... znajduje się w pustej przestrzeni... </div><div>Jak można było popełnić taką nielogiczną operację? Ano tylko w oparciu o matematykę, której prawdziwe prawa natury wymykają się i zawsze będą się wymykać w opisach a ona sama ucieka w dzikie nierzecczywiste teorie i wirtualne procesy logiczne nie mające nic wspólnego z procesami i zjawiskami w naturze. Jednak do zrozumienia natury potrzebny jest ZDROWY REALIZM LOGICZNY. Wolę być infantylny społecznie niż infantylny w obserwacji natury jak naukowcy.</div><div><div>Przestrzeń jest zbudowana z niskoenergetycznych fotonów pod ciśnieniem a Ziemia jako przykład jest to kulisty kawałek wirującego przewodnika, indukujący swoim ruchem fotonowy torus pola, który "zakrzywia linie sił pola" (tak, wiem - dezorientujące, wirtualne, naukowe określenie) pomiędzy biegunami, tylko dlatego że pozostała zewnętrzna nieruchoma fotonowa przestrzeń, jest dla ruchu tego pola rodzajem równoważącej to zjawisko analogicznym dla hydraulicznego balansującym ciśnieniem subatomowym fotonotwórczej ŚCIANY OPOROWEJ. Im dalej od centrum pola, tym bardziej ulegający wpływom zewnętrznych pól i wolniejszy jest ruch fotonów i nie są one pojedynczo wystrzeliwane z biegunów czy równika. To cała zwarta nawałnica fotonów o niskiej energii. Tak powstaje pole elektromagnetyczne w całej przestrzeni. W gruncie rzeczy astrofizyka nie jest tak trudna jak się ją maluje. Prawdopodobnie jest to poczynione dla pieniędzy, tak jak to się dzieje w każdej innej instytucji państwowej. Może należy założyć prywatne instytucje naukowe?</div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div class="separator" style="clear: both; text-align: center;"><iframe allowfullscreen='allowfullscreen' webkitallowfullscreen='webkitallowfullscreen' mozallowfullscreen='mozallowfullscreen' width='588' height='633' src='https://www.blogger.com/video.g?token=AD6v5dyml1XfjtzC_PJHIzkBptVABAL9PBp5yRJcpjYZQHpCXisotHv9nRooKquv3BlKyIjclKz64jeTtEoYHSfroA' class='b-hbp-video b-uploaded' frameborder='0'></iframe></div><br /><div><br /></div></div></div></div><div class="blogger-post-footer">„Analfabetami XXI wieku nie będą ci, którzy nie umieją pisać ani czytać, lecz ci, co nie potrafią oduczyć się wierutnych kłamstw, w które nauczono ich wierzyć i nie potrafią szukać ukrytej wiedzy, którą nauczono ich odrzucać”</div>#magnetartechprojecthttp://www.blogger.com/profile/00116426320285930090noreply@blogger.com0tag:blogger.com,1999:blog-1727701247933515471.post-17031273417127641852022-10-28T19:20:00.021+02:002023-02-19T19:16:02.279+01:00Planeta Wenus dawnym księżycem Saturna?<p> </p><p><span color="var(--primary-text)" style="font-family: inherit; font-size: 0.9375rem; white-space: pre-wrap;"><br /></span></p><p></p><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiqy4ET5bc_WUPA79EKwsjR-HmymIQO0byWg0ninm-JxwjRvaapptmryUmCQ3mayNhAMYiqy7bBDVBZTmW2DH2mQI3LA7dbur3kugQvY0fHEaZW6daWHd0qaJhCw-CFLLKyUqW2w7p1rIUmhoWxrtZ-N2nDi1rGDg68gz2z-sApRET77nYkdHLE7TTM/s2000/1093569302_xFazyWenusczylizmienneobliczeGwiazdyWieczornejiJutrzenki8.02_21_05.2020ripokoniunkcji15.06_21.09__Drizzle120....jpg.fd1941160a0fb3feb960924e50c671f7.jpg" style="margin-left: 1em; margin-right: 1em;"><img border="0" data-original-height="656" data-original-width="2000" height="210" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiqy4ET5bc_WUPA79EKwsjR-HmymIQO0byWg0ninm-JxwjRvaapptmryUmCQ3mayNhAMYiqy7bBDVBZTmW2DH2mQI3LA7dbur3kugQvY0fHEaZW6daWHd0qaJhCw-CFLLKyUqW2w7p1rIUmhoWxrtZ-N2nDi1rGDg68gz2z-sApRET77nYkdHLE7TTM/w640-h210/1093569302_xFazyWenusczylizmienneobliczeGwiazdyWieczornejiJutrzenki8.02_21_05.2020ripokoniunkcji15.06_21.09__Drizzle120....jpg.fd1941160a0fb3feb960924e50c671f7.jpg" width="640" /></a></div>Fazy Wenus- taki obraz zobaczymy już przez dobrej jakości lornetkę.<br /><span color="var(--primary-text)" style="font-family: inherit; font-size: 0.9375rem; white-space: pre-wrap;"><br /></span><p></p><p><span color="var(--primary-text)" style="font-family: inherit; font-size: 0.9375rem; white-space: pre-wrap;"><br /></span></p><p><span color="var(--primary-text)" style="font-family: inherit; font-size: 0.9375rem; white-space: pre-wrap;"><br /></span></p><br />Historia przemian na powierzchni Wenus nie ma w sobie żadnej analogii z historią Ziemi i innych planet...<br />W rzeczywistości cała przestrzeń wokół Słońca, jego korona a także przestrzeń otaczająca wszystkie elektromagnetycznie związane ze Słońcem ciała niebieskie, wypełniona jest plazmą. Planety i ich księżyce niosą przez plazmę ładunek elektryczny. Morze plazmy, w którym zanurzony jest Układ słoneczny, rozciąga się do tego miejsca, które nazywamy heliopauzą - gdzie przypuszczalnie znajduje się warstwa podwójna, oddzielająca plazmę słoneczną od plazmy o niższym woltażu, wypełniającej ramię naszej Drogi Mlecznej. To samo z resztą dzieje się z gwiazdami w innych galaktykach... ale wyłącznie takich które sugerują swoim wyglądem ruch obrotowy- spiralnych. Gołe oko ludzkie ciemnych prądów plazmowych zwyczajnie nie widzi. Widać je dopiero gdy znajdziemy się na zewnątrz tych włókien plazmowych. Poruszające się gwiazdy, planety również posiadają tę otoczkę plazmową w większości będącą w postaci włókien elektrycznych w trybie ciemnego prądu. Porównując twór z biologicznie żywym organizmem, przypomina to błonę komórkową.<br /><br />W rozbłyskach słonecznych oraz koronalnych wyrzutach masy (CME), naładowane cząstki są wyrzucane ze Słońca. Wypływ ten stanowi prąd elektryczny tak jak w mniejszej skali wiatr słoneczny. Jaką formę przybierają te prądy w plazmie? Skręcają się.<br />Każda planeta posiada otoczkę plazmową - zjawisko elektryczne dobrze znane niezależnym wypchnietym poza margines naukowcom jak Birkeland. Gdyby jego praca została potraktowana poważnie, nie byloby dziś mowy o Wszechświecie grawitacyjnym, a ELEKTRYCZNYM którego rozmiar i kształt zdeterminowane są przez różnice potencjałów elektrycznych (woltaż) planety i otaczającej plazmy słonecznej wynikające z indukcyjności danej planety i intensywnosci jej ruchu. Ma ona z reguły kształt łzy lub rękawa, zwróconego ostrym końcem od Słońca. <div>Granicą tej otoczki jest warstwa podwójna, oddzielająca plazmę otaczającą planetę, od plazmy słonecznej. Otoczka plazmowa Wenus jest szczególnie długa, prawie dotyka Ziemi, gdy obie planety są w największym zbliżeniu. Ogon plazmowy Jowisza jest w podobnej korelacji z Saturnem. Niedawno astronomowie z NASA odkryli coś, co nazwali sznurowatymi tworami w ogonie Wenus. A jak wiadomo zwlekają z ogłaszaniem tego co odkryli więc radzę iść na przód samodzielnie, nie patrząc na opieszałość NASA, i badać dostępne informacje samodzielnie. </div><div>Takie skręcone włókna przedstawiają dokładnie ścieżki, jakimi podążają "tzw. prądy Birkelanda" w plazmie. W widoczny sposób Wenus podlega wyładowaniu prądu elektrycznego. Warkocze plazmowe wszystkich planet są obecnie w trybie ciemnego prądu. Ale czy zawsze tak było? Starożytni donosili, że Wenus miała ogon i skręcone włosy. Mógł to być ogon plazmowy w trybie żarzenia, a może nawet łuku. <br />Zastanówmy się, jak wyglądałby ogon Wenus widoczny z Ziemi. Średnica jej otoczki plazmowej jest przypuszczalnie dwu lub trzykrotnie większa od średnicy planety - powiedzmy, około 20 000 mil. Ale odległość Ziemi do Wenus podczas największego zbliżenia jest rzędu 26 milionów mil. Więc ogon Wenus jest jakiś tysiąc racy dłuższy, niż szeroki w najgrubszym miejscu. Jest to długi, cienki, skręcony, wężowaty kształt. Jeśli w jakimś czasie w przeszłości ogon Wenus był w stanie żarzenia, musiał być widoczny z Ziemi! Tak opisywali go starożytni, stąd jej warkocz kojarzył Wenus z postacią kobiecą. Nota bene boskość planet wynikała w starożytności z lepszego zrozumienia zjawiska świadomości niż ma to miejsce obecnie, o którym pisałem w poście "Świadomy Wszechświat".<div><br />Gdy planeta jest otoczona przez sferę warstwy podwójnej, jest chroniona przed bezpośrednią interakcją elektryczną z ciałami zewnętrznymi. Dwie naładowane elektrycznie planety, każda otoczona przez taką otoczkę, nie "widziały by się" elektrostatycznie. Aczkolwiek, jeśli ciało posiadające odmienny woltaż spenetruje warstwę podwójną, wchodząc w sferę plazmy otaczającą planetę, mogą nastąpić, i nastąpią, oddziaływania elektryczne. A zatem, jeśli jakieś inne ciało, jak duży meteor (albo asteroida czy kometa) zbliży się dostatecznie do Ziemi, penetrując jej otoczkę plazmową, pomiędzy ciałami wystąpią gwałtowne wyładowania elektryczne. Byłoby, oczywiście, niefortunne, stać w miejscu, gdzie wyładowania te biorą początek- vide "Oko Afryki" czy "Olimpus Mons" na Marsie lub też Io krążący tuż koło Jowisza. Ale same wyładowania mogą zniszczyć intruza i ochronić Ziemię przed katastrofalną kolizją.<div><br /><div>Planety, planetoidy i księżyce powstają na dwa sposoby. Przez elektrostatyczną kondensację pierścienia pyłowego pozostałego po powstaniu gwiazdy i przez przechwycenie sferycznych obiektów pozostałych po wybuchu supernowych, do wewnątrz układu gwiazdowego. Wtedy mamy do czynienia odpowiednio z mineralogią parametaliczną i metaliczną takiego ciała niebieskiego. W czasie powstawania przez kondensację musi pojawić się przewodzący elektrycznie element zapoczątkowujący - tzw. planetozymal. Musi być też materiał który skupi się wkoło niego i zacznie osadzać na powierzchni przyszłej planety. </div><div>Wenus (12100 km średnicy) najprawdopodobniej jest starą siostrą Księżyca Saturna - Tytana (5150 km średnicy). Tytan jako jedyny księżyc Układu Słonecznego posiada bardzo wyraźną gęstą atmosferę. Przy okazji dodam że na Tytanie mamy ciśnienie dokładnie takie jak na Ziemi przed potopem wywołanym "Zderzeniem Swiatów" Velikovskiego ~ 1,5 bara /atmosfery. </div><div>Planeta Wenus przedostając się z orbity Saturna do wewnątrz Układu Słonecznego, jest obecnie w roli dużej komety albo małej gwiazdy. Zależne to jest od parametrów elektromechanicznych danego obiektu. Wenus zachowuje się w tym sensie jak wirnik silnika poruszający się wbrew kierunku pola elektromagnetycznego Układu Słonecznego. W elektrotechnice nazywa się to efektem hamowania polem elektromagnetycznym. Stąd okresy obrotu i obiegu Wenus są tak odmienne wobec innych planet. </div><div>Plazmowy warkocz Wenus i jego gorąca atmosfera, świadczy o przeciwnym ładunku elektrycznym względem Słońca i planet, nie o rzekomym efekcie cieplarnianym. Różnica potencjałów powoduje wzrost ciśnienia - aż 92 atmosfery, 1bar = 1 atmosfera (podobne ciśnienie występuje w oceanach Ziemi na głębokości 700 metrów) i temperatury - 480°C na jej powierzchni podczas kiedy na zbieżnie poruszającym się po orbicie Merkurym położonym znacznie bliżej Słońca nie ma ani takiego ciśnienia, ani podobnej temperatury. Już sam ten fakt wskazuje że musiały powstać lub znależć się na swoich orbitach na dwa odmienne sposoby. Na Wenus należy zwracać uwagę bo gdy skierowany do zewnątrz warkocz plazmowy (obecnie słabo widoczny ale kiedyś świecący jak u typowej komety) zetknie się z magnetosferą Ziemi, może wywołać wzrost napięcia w jonosferze a to się wiąże z możliwością powstania przepięć i zniszczeniem satelitów a także rozregulowaniem zjawisk pogodowych.</div><div><br /><br /><br /><br /><br /></div></div></div></div><div class="blogger-post-footer">„Analfabetami XXI wieku nie będą ci, którzy nie umieją pisać ani czytać, lecz ci, co nie potrafią oduczyć się wierutnych kłamstw, w które nauczono ich wierzyć i nie potrafią szukać ukrytej wiedzy, którą nauczono ich odrzucać”</div>#magnetartechprojecthttp://www.blogger.com/profile/00116426320285930090noreply@blogger.com0tag:blogger.com,1999:blog-1727701247933515471.post-28848637184226743072022-09-15T02:00:00.203+02:002023-04-15T02:03:10.391+02:00Grawitacja i antygrawitacja - rozwiązanie <p> </p><p><br></p><p><br></p><p><br></p><p><br></p><p>Naturę przestrzeni kosmicznej można zrozumieć wprost przy użyciu logiki i wyobraźni albo dookoła za pomocą matematyki. Jak jest łatwiej? To zależy. Jeśli jesteś tzw "ścisłowcem" zostań przy matematyce ale bez grama logiki też tego nie zrobisz. Jeśli potrafisz z uwagą obserwować naturę, wystarczy tylko logika. Analogicznie jakby pisać teksty bez znajomości ortografii znając wygląd słów poprzez czytanie dużej ilości książek i tak samo jak zrozumieć Boga bez pomocy doktryn religijnych. </p><p>Nikt też nie ma prawa stawiać się wyżej nad kimkolwiek jako pośrednik w kwestii prawidłowości myślenia. Nawet a zwłaszcza gdy są to sprawy ostateczne i o generalnym znaczeniu a ostatnio obserwuję wręcz despotyzm w kwestii światopoglądu i wcale nie ze strony tzw. szurów bo oni z natury swojej radosnej twórczości o wiele łatwiej dopuszczają różnorodność poglądów. Ten despotyzm totalitarny obserwuję u ateistów i wszelkich podskakiwaczy pod naukę, którym te szury burzą ich dogmat zastępujący Boga- totalną kosmiczną świadomość, bo nauka i siła ludzkiego umysłu jest wszystkim na czym się opierali i w co wierzyli. To mało świadoma natura ludzka opanowana materialistycznym ego podpowiada takie działanie. Na tym polega zrozumienie wolności wypowiedzi i zajmowanego stanowiska aby nie niszczyć i nie oceniać człowieka za jego odmienne zdanie. W dialogu pomiędzy szurami a ateistami przegrywają ci drudzy w przedbiegach z powodu ewidentnego braku kultury wypowiedzi, co ujawnia się często w pierwszym wymienionym zdaniu, nie mówiąc o poziomie wiedzy ponieważ nie potrafią przytoczyć alternatywnych wyjaśnień danego problemu, postulowanych przez nieco mniej popularnych naukowców. Czy poplecznicy "nauki" mają jakiekolwiek prawo z tytułu czyjegoś odmiennego zdania te osoby poniżać??</p><p>Podobnie jak "szurom" brakuje im argumentów lub ewentualnie powtórzą bezmyślnie jakieś wyuczone formułki lecz wspomagają te "argumenty" kompletnym brakiem kultury i poszanowania rozmówcy. Przykładowo na pytanie jak działa grawitacja pada odpowiedź: "masy się przyciągają". To ciągle nie jest wyjaśnienie procesu! To stwierdzenie faktu i ledwo próba opisu tego procesu. Wskazanie kierunku majaczącego gdzieś w pobliżu prawdy a nie jej WYJAŚNIENIE! </p><p>Wszelkie zdobyte tytuły (przecież je też nadali zwykli omylni ludzie) nie obligują nikogo do zamykania pozostałym ludziom ust i umysłów. I właśnie korzystając z prawa do wolności popełniam tu co krok "bluźnierstwo" wobec zarówno nauki jak i kościoła. Wobec obu tych KOŚCIOŁÓW. Wobec wszystkich dogmatów oprócz dogmatu WOLNOŚCI!!! Odsyłam do innego postu odnośnie tego co osobiście opracowałem z braku alternatyw i uważam za pojęcie wolności i co będzie już zawsze obowiązywało w rozmowie z moją osobą.</p><p>Wracając do tematu należałoby na wstępie doprecyzować, czym różnią się między sobą: </p><p>-nieruchoma przestrzeń wypełniona substancją fotono- lub inaczej energotwórczą zwana dawniej przez rzetelnych badaczy natury - fizyków sprzed 1887 roku ETEREM,</p><p>- pole grawitacyjne- grawitacja, </p><p>-pole elektromagnetyczne stałe, </p><p>-pole elektromagnetyczne zmienne, </p><p>-fala elektromagnetyczna- światło. </p><p>-prąd elektryczny- wyładowanie elektryczne </p><p>-i efekt różnicy cisnień- fala uderzeniowa. </p><p>Tak, fala uderzeniowa powstająca w fotonowej przestrzeni z powodu różnicy ciśnienia także po wybuchu jakiegoś ciała niebieskiego z powodu powstania znacznej ilości pierwiastka promieniotwórczego lub w trakcie wyładowania elektrycznego. Niekoniecznie tylko gwiazdy. </p><p>To wszystkie stany i oddziaływania w kosmosie. Wszystkie te zjawiska powstają WYŁĄCZNIE z powodu różnicy ciśnień składnika przestrzeni zwanego dawniej eterem. To wyłącznie różnica ciśnień powoduje ruch jako zjawisko fizyczne napędzające przemiany wszystkich energii i procesy fizyczne. Także działanie róznicy ciśnień w materii jest spowodowane tym samym i jedynym istniejącym w kosmosie składnikiem.</p><p>Nigdy precyzyjnie nie wyjaśnione przez naukę zjawisko grawitacji, to nie jest magiczna siła z innego wymiaru jak opisuje to przykładowo profesor Jan Pająk, ani też nie jest to fala grawitacyjna jak wydumali to naukowcy. Wszystko co dotyczy naszej rzeczywistości dzieje się tu i teraz w TEJ właśnie rzeczywistości. Włącznie ze zjawiskiem świadomości które też jest wszechobecne i wszechdostępne w TEJ rzeczywistości jako jedna z energii której na razie opisywać nie mam śmiałości.</p><p>Więc grawitacja to jest niewielka, dająca się pokonać nawet dłonią, siła powstająca w wyniku drobnocząsteczkowego „dopowierzchniowego” ruchu substancji wypełniajądcej całą przestrzeń, przenikającej z łatwością wszystkie „bardziej zgęszczone” materialne struktury. Jest to substancja z której powstają wszystkie inne siły we Wszechświecie. Nie istnieje nigdzie w atomach i poza nimi rzekoma pustka wolna od tej substancji. Wszystkie naturalne obiekty kosmiczne bez względu czy są to ciała stałe, ciecze, gazy czy też plazma, wszystkie one podlegają zjawisku grawitacji. Grawitacja jest to ruch kwantogennego (cząsteczkogennego) płynu będącego dosłownie budulcem przestrzeni a w konsekwencji po zagęszczeniu w elektrycznych włóknach plazmowych lub koronach gwiazd, także składnikiem energii i budulcem materii. Wszystko to oczywiście dzięki podstawowej jednej i jedynej substancji która poprzez swoją "pierworodność" ma wpływ na świat widzialny- materialny. </p><p>Inaczej grawitacja to siła powstająca w wyniku nawet minimalnego ruchu "składnika przestrzeni". Ruchu mogącego pojawiać się w dowolnym punkcie przestrzeni kosmicznej, w którym obecna jest materia i nierozerwalne z nią indukowane poprzez ruch materii w polu elektrostatycznym - pole elektromagnetyczne. Grawitacja nie zaistnieje w bezruchu, czy też bez obecności ruchu.</p><p>Oczywiście ruch w przestrzeni pojawia się nie tylko z powodu obecności materii, także z powodu obecności ruchu składnika samej przestrzeni który za pomocą różnicy potencjału w przestrzeni kosmicznej tą materię wytwarza. Wszystko za sprawą następujących po wyładowań elektrycznych po wytworzeniu tej różnicy.</p><p>Materia wywołująca grawitację sama w sobie jest wyłącznie zbiorem RCHOMYCH pól elektromagnetycznych obecnych w atomach w formie wielokierunkowo ustawionych fotonowych wirów zwanych potocznie orbitalalmi a kojarzonych BŁĘDNIE z "spacerującymi" w nich pojedynczymi lub sparowanymi elektronami. Więc co tworzy masę? Na pewno nie bozon Higgsa - jakaś żelazna kulka ukryta na dnie materii? Bez przesady. Jedyna masa jaką mamy do dyspozycji to "płyn" fotonotwórczy obecny pod ciśnieniem w przestrzeni kosmicznej albo fotony uwięzione na orbitalach materii. Przyspieszenie podczas jazdy samochodem również tworzy dodatkową jeszcze większą masę niż pojazd / obiekt pozostający w bezruchu, tylko dlatego że materia wraz z wzrostem prędkości pojazdu przyspiesza coraz większą ilość wspomnianej substancji przestrzennej, co w krytycznym momencie sprawia że obiekt porusza się razem ze składnikiem przestrzeni. Tak jakby nie poruszała się tylko 1 % -owa siatka materii a wraz z 1 % -ową siatką dodatkowo 100 % -owa zawartość składnika przestrzeni. Choć maszyny elektromagnetyczne posługujące się eterem- składnikiem przestrzeni do przepływu pola elektromagnetycznego przez obiekt, pozwalają na całkowite zniesienie masy pomimo przekroczenia wielokrotności prędkości fali świetlnej. Dodatkowo maszyna indukująca energię elektryczną z przestrzeni, pod wpływem własnego ruchu jako twornika, pozwala przy większej prędkości indukować więcej energii. To tak jakby wydajność i moc takiej maszyny zwiększała się wraz z jej predkością. Im szybciej leci pojazd... tym szybciej lecieć może... To jest klucz do lekkości konstrukcji i wręcz bajecznych osiągalnych pędkości maszyn tego typu. Wniosek jest taki że jeśli grawitacja ma wpływ na masę i prędkość to masa i prędkość musi mieć wpływ na WARTOŚĆ grawitacji. Rzeczoną grawitację możemy nazwać ujemnym polem elektrostatycznym a właściwie dynamicznym ze względu na kierunek ruchu zawsze z większego ciśnienia do mniejszego. Jest to część pola elektromagnetycznego czyli ruchu substancji przestrzennej wkoło obiektu lub/i efekt ruchu obiektu w wypełnionej tą substancją przestrzeni. Wobec tego musi występować niedomiar ciśnienia w obiektach materialnych względem przestrzeni który wywołuje ruch i strumień cząsteczek pola grawitacji. Ruch w stronę dodatniego pola elektrostatycznego w naturze nie istnieje i jedynie przestrzeń kosmiczna posiada potencjał "najbardziej" dodatni a pole elektromagnetyczne pojawiające się wokoło obiektów materialnych wytwarza niewielkie podciśnienie które uzupełniane jest ruchem zwanym "grawitacją". W naturze nie ma takiego stanu, jak ładunek ujemny, są tylko wyładowania, nie ma ujemnie naładowanych substancji, materiałów, co więcej, nie ma na to dowodu. Jednak nie znamy źródła ciśnienia dostarczanego "do przestrzeni" która ten potencjał tworzy a bez lotów intergalaktycznych nie ma sensu się wdawać w dyskusje typu: jeśli jest gdzieś kres przestrzeni kosmicznej to co jest poza nim. Jeśli ktoś sugeruje mi istnienie wieloświatów, równie dobrze mogę uznać że to jest ten sam Wszechświat bo zwrot "wszech"- znaczy wszystko i bez sensu się nad tym rozdrabniać. Lepiej skupić się na konkretach jak oswojenie zjawiska grawitacji i antygrawitacji. </p><p>W istocie fizyka unika jak może i nigdzie w naukowych źródłach nie podaje (ja nie znam) holistycznego wyjaśnienia pochodzenia jednocześnie zjawiska świadomości w powiązaniu ze zjawiskiem materi i energii - energomaterii. Teoria Względności i Teoria Strun nie wyjaśniają pochodzenia zjawiska świadomości, źródła informacji i przyczyny porządku we Wszechświecie więc z miejsca tracą dla mnie jakikolwiek istotny sens. </p><p>Ładowanie i rozładowywanie są antynomiami, ponieważ napełnianie i opróżnianie lub sprężanie i rozprężanie są wzajemnymi i odwiecznymi warunkami zasadniczymi natury. Wyłącznie jakaś nieznana nam siła, częstotliwość, ruch którego źródło początkowe nie jest znane, tworząc różnicę ciśnień, wyzwala wszelkie inne pola, wyładowania, promieniowania czy fale. Materia strukturalnie jest to "nastroszona" przestrzeń poprzez "pumeksową" konstrukcję zbudowaną z wiązań atomowych powiązanych polem elektromagnetycznym. "Sieciowa" konstrukcja materii jest zatopiona w cząsteczkogennej przestrzeni.</p><p>To wszechobecne fotonowe środowisko jako tło świata materialnego, przywodzące na myśl strukturę ciekłego kryształu, jest uniwersalnym transmiterem każdej energii i oddziaływania w całej przestrzeni. Nawet zjawisk określanych mianem PSI. Czyli tych wszystkich które oficjalna nauka wmiata pod dywan określając mianem co najmniej paranauki. W tym kontekście także antymateria jest błędem interpretacyjnym tego co pod to zaobserwowane zjawisko "podpisano". Mogą to być cząsteczki odwrotnie reagujące elektrycznie przez przeciwny układ potencjałów ale nie są to jakieś lustrzane cząstki które spowodują kiedykolwiek anihilację. Zjawisko anihilacji nigdy nie zaistniało i nie zaistnieje. To jest logika oparta na dualizmie poznawczym, tak jak logika ładunku jako fizycznych cząstek odpowiadających za "plus" i "minus" ładunku elektrycznego. Nie można stworzyć fotonów przeciwnych własnościami do obecnych a cała reszta materii i cząstek energii z nich się właśnie wywodzi. Nie istnieje nic przeciwstawnego dla cząsteczkowej quasi fotonowej przestrzeni. Mówię quasi fotonowej bo fotony w stanie bardzo niskiej energii są nierejestrowalne i nieodróżnialne od siebie a nawet od zimnego tła kosmosu. Są monolitem stąd problem z wykryciem. W bryle lodu też nie wyodrębnisz kropli wody z powodu bardzo niskiej temperatury. Nie istnieje więc tak zwana "antymateria". Nnatura nie ma potrzeby tworzenia antymaterii więc z jakiego konktetnego powodu miałaby ona istnieć? Dla skomplikowania sobie prostego porządku który w niej panuje? Błąd interpretacji obserwacji i pomiaru zjawiska. </p><p style="margin: 15px 0px 2px;">Myśląc o sile grawitacji często przyjmuje się uogólnienie mówiące, że ma ona jednakową wartość na całej kuli ziemskiej. Jest to założenie oczywiście błędne, gdyż powierzchnia naszej planety nie jest idealnie sferyczna ani tym bardziej jednakowo gęsta w przekroju. Wartości siły grawitacji zmieniają się w zależności od szerokości geograficznej, z którą wiąże się siła odśrodkowa pola elektromagnetycznego Ziemi, która w pobliżu równika siłę grawitacji osłabia a w pobliżu biegunów nieco wzmacnia. Znaczenie ma także przewodność warstw skalnych, czyli na przykład na Mount Everest siła grawitacji powinna być mniejsza niż nad brzegami Morza Martwego.<br><br>Satelity wykorzystane w badaniach wyposażone zostały w wysokoczułe akcelerometry, za pomocą których zmiany wielkości pola grawitacyjnego zostały odnotowane. Jednak ich dokładność wynosiła kilka kilometrów, co nie było dla australijskich naukowców zadowalające. Pomiary satelitarne skonfrontowali więc oni z danymi opisującymi lokalne różnice wysokości terenu. Dzięki temu wyniki zdecydowanie poprawiły się.<br><br>W wyniku powstania mapy wskazano miejsca o największej różnicy wielkości siły grawitacji. Najmniejszą wartość przyspieszenia ziemskiego wykazano na szczycie Huascaran w Andach Peruwiańskich, natomiast największą na powierzchni Oceanu Arktycznego. Efekt tego badania był dla naukowców oczywiście pewnym zaskoczeniem. Jest to szczyt położony w masywie górskim odległym na południe od równika o prawie 1000 kilometrów. Jednak wzrost wartości siły grawitacji jest tutaj większy od jej niwelacji wynikającej z wysokości nad poziomem oceanu czy też miejscowych anomalii. Jeśli więc wpływ na siłę grawitacji ma przewodność gruntu to musi ona być siłą pochodną od zjawisk elektrycznych.</p><p style="margin: 15px 0px 2px;">Przestrzeń dostarcza zjawiska grawitacji dla "ciał niebieskich" poprzez stałe uzupełnienie "niedo-ciśnienia" panującego w miejscu tworzenia pola elektromagnetycznego, odśrodkowym wyrzutem fotonów w płaszczyźnie połączenia dwóch dipoli pola elektromagnetycznego ciał niebieskich i... oczywiście maszyn. Maszyny zawsze będą tylko naśladowały naturę, "nieco" wzmacniając efekty. Człowiek nie może technologią "przeskoczyć" zjawisk natury. Prąd elektryczny jest wysoce naturalnym i ukrytym fundamentalnym zjawiskiem ale jest on i tak TYLKO różnicą ciśnienia które jest MECHANICZNYM zjawiskiem a dokładniej mikro-mechanicznym. Aby wytworzyć grawitację na pokładzie maszyny trzeba wytworzyć silny punktowy w porównaniu z ciałami niebieskimi, sztuczny efekt pola elektromagnetycznego. Aby wytworzyć efekt znikania obiektu z pola widzenia należy z kolei wytworzyć efekt jaki zachodzi w centrum galaktyki, wzmacniając prędkość przepływu fotonów pola elektromagnetycznego do tego stopnia że zaczynamy wywoływać prędkością cząsteczek tego pola efekt zatrzymywania fotonów obrazujących dany obiekt. Dla doprecyzowania tunele czasoprzestrzenne, prędkości pod czy nadprzestrzenne nie istnieją tak samo jak wieloświaty. Powód dla którego tak uważam jest prosty. Zawsze patrz co jest potrzebne naturze- nie Tobie. Jeśli natura czegoś nie potrzebuje, nie uda się tego uruchomić czy wytworzyć człowiekowi. Na co naturze skoki w tunelach czasowych? Gdzie niby ma się ona spieszyć? Kto ma tam skakać? Jedyne co można zdziałać dla transportu astronautycznego to analogicznie to samo co dokonaliśmy dla transportu aeronautycznego lub argonautycznego od którego cały proces się zaczął. Argociecz, Aerogaz i Astrofotofluid. Trzy środowiska podróży. Każde środowisko dla innych pedkości. Pierwsze pokonywane mechanicznie, ostatnie elektromechanicznie.</p><p>Jeśli naukowcy chcą odpowiedzieć na pytanie jak powstał Wszechświat to proszę wyjaśnić skąd wziął się pierwszy ruch w układzie ZAMKNIĘTYM, jakim jest cały Wszechświat. Twierdzę tak na podstawie domyślnego stałego ciśnienia pomiędzy fotonami budującymi przestrzeń, warunkującego stałe w swoich wartościach, równomierne w całej przestrzeni, działanie pola elektromagnetycznego, światła i grawitacji.</p><p>Rozpatrując Wszechświat jako układ inercyjny - energię można wytwarzać w każdym jego punkcie bez dostarczania jej z zewnątrz każdego dowolnie wyodrębnionego miejsca. Każde ciało niebieskie jest motopompą dla pola "magneto-grawitacyjnego". Sposób powstawania grawitacji świetnie pokazują tak zwane czarne dziury wespół z galaktykami jako tarczami indukcyjnymi dla pola elektromagnetycznego galaktyki które wywołuje grawitację jako uzupełnienie ciśnienia w tym polu. Centrum silnego pola elektromagnetycznego niejako "wybudza" z "przestrzennego" uśpienia proto-fotony wyrzucając je w przestrzeń w płaszczyźnie wiru które zastępowane są innymi co opisuje się jako grawitację- tak zwane "grawitony". Galaktyki spiralne z czarnymi dziurami mimo że nie mają zgromadzonej masy w postaci kuli jak planety czy gwiazdy, ich płaska kołowa powierzchnia wystarcza dla powstania o wiele bardziej skondensowanego grawitacyjnego zjawiska.</p><p>Identyczne pole elektromagnetyczne sterujące zjawiskiem grawitacji i przeciwstawiające się jemu, można wytworzyć technicznie w maszynie antygrawitacyjnej o czym niżej. Elektryczność nigdy nie jest oddzielona od magnetyzmu bo tak samo jak każdą inną energię tworzą ją fotony. Jedne uwiezione na orbitalach zwane omyłkowo elektronami a drugie w postaci pola elektromagnetycznego otaczającego dany przewodnik. Nawet gdy dane ciało niebieskie nie posiada tak zwanego mierzalnego pola elektromagnetycznego, nie znaczy to że jego przewodność nie wywołuje indukcji jego pola w polu elektromagnetycznym planety - jak księżyc, gwiazdy- planeta, galaktyki spiralnej- gwiazda. Przestrzeń kosmiczna to jest elektryczny układ naczyń połączonych. Ten prosty fakt naukowcy muszą sobie wbić do głowy na stałe.</p><p>Nie ma czegoś takiego jak podział na ruch elektronów i ruch fotonów jako oddzielnych dwóch zjawisk. To jest to samo zjawisko tyle że przewodniki z powodu ruchu stają się (inteligentnie celowo i słusznie pomyślane) "dziurawe" jak pumeks dla pobudzonych wokół i na ich orbitalach FOTONÓW. </p><p>Przykładowo nadprzewodnictwo w obwodzie elektrycznym powoduje wyrywanie i porywanie w strumień prądu elektrycznego dodatkowych fotonów z fotonotwórczej przestrzeni. Elektryczny Wszechświat jest logiczną konsekwencją dla szeroko pojętej elektryczności która jak wszyscy wiemy, najbardziej się sprawdza w technologii. Prąd elektryczny nie płynie z prędkością światła a zawsze czeka w przewodzie na ruch dodatkowo przyłożonych z zewnątrz do obwodu fotonów. Prąd zmienny wyrywa fotony z orbitali a także przestrzeni wokół przewodu, natomiast prąd stały o wiele gorzej sobie radzi stąd jego wartość ginie już na bardzo krótkich odcinkach. Rozprasza się przez sieciową konstrukcję przewodu który fizycznie jest dosłownie DZIURAWY dla tego rodzaju prądu. Fotony mają gdzie się po drodze na powierzchni obwodu "pogubić".</p><p>Z kolei stałe pole elektromagnetyczne to uporządkowany ruch w kształcie toroidalnej sfery złożonej ze stałego pola "protofotonów", jako ruchu "płynu przestrzeni kosmicznej" zapoczątkowane strumieniem indukcji wewnątrz atomowych <a href="https://pl.wikipedia.org/wiki/Domena_magnetyczna" target="_blank">domen</a> ciał niebieskich, ale nie jest już przestrzennym, nieruchomym płynem grawitacjo-twórczym. Liniowe/ szeregowe spolaryzowanie domen w atomach jak ogniw w baterii, powoduje jednokierunkowy wielokrotnie wzmocniony ruch cząstek w obu torusach pola. Stałe pole elektromagnetyczne wraz ze wzrostem stopniowo wymusza szeregowanie tych domen a proces ten się z czasem lawinowo zapętla. Stałe pole elektromagnetyczne różni się zasadniczo od zmiennego. Nie składem bo to są ciągle dalej fotony a własnościami działania. Zmienne pole magnetyczne o tej samej mocy będzie miało o wiele większy zasięg niż stałe.</p><p>Każde pole magnetyczne jest dwu-torusowe w swej istocie mimo że na pierwszy rzut oka takim się nie wydaje. Prąd elektryczny (fotony) płynący wewnątrz ciał niebieskich jest najbardziej przyspieszony dokładnie w osi wirowania pola magnetycznego i jak każdy strumień prądu elektrycznego bez względu na to czy przepływa przez materialny przewodnik czy izolator (a przepływa przez każdy materiał i tylko charakterystyczna dla danego materiału rezystancja go ogranicza), jest to ruch postępujący-skrętny, akcelerujący najsilniej pole magnetyczne w centrum płaszczyzny styku obu toroidalnych połówek pola, co wystarcza dla wytworzenia siły kontrującej grawitację na orbicie geostacjonarnej. Właśnie z tego powodu w czarnych dziurach - największych wirach powstałych z obrotu pól magnetycznych, obecnych w galaktykach spiralnych i kwazarach, nawet światło ma problemy z zachowaniem swoich częstotliwościowych właściwości. Z tej przyczyny w osi wirowania każdej galaktyki spiralnej zwanej czarną dziurą, nie zobaczymy światła ponieważ siła pola elektromagnetycznego galaktyki tworzy tak wielki ciąg grawitacji jako bardzo silny ruch postępowy do wnętrza tornado-podobnego wiru czarnej dziury, że płyn przestrzenny zwany eterem, nie jest w stanie przekazać tych drgań na dalekie odległości poza miejscowy obszar centrum wiru galaktyki. </p><p>Nadmiar fotonów akcelerowanych w płaszczyźnie prostopadłej do osi pola elektromagnetycznego jest wyrzucany w płaszczyźnie tego pola, co w przypadku Ziemi tworzy orbitę geostacjonarną a w przypadku Układu Słonecznego zapewnia stabilność orbit planetarnych. W przypadku galaktyki zapewnia stabilność orbit gwiazd, ale wszystkie gwiazdy które nie znajdą się w płaszczyźnie galaktyki, wpadają w końcu w wir czarnej dziury.</p><p>Proto- czy quasi- fotonami czy grawitonami nazywam nie wykryte cząstki odpowiedzialne za grawitację czyli łagodny ruch w płynie świadomo-przestrzennym kosmosu. Coś pośredniego między nieruchomą (zimną) przestrzenią a światłem czyli energicznych drgań fotonowych wirów jako cząsteczek światła. Nieruchomą przestrzeń można określić jako obecną z dala od skupisk galaktyk w całkowicie nie oświetlonej przestrzeni do której nie dociera nawet najsłabsze czerwone światło-podczerwień. Więc temperatura KOSMICZNEGO zera bezwzględnego, może być dużo niższa niż się dziś określa. Czy taka "ciekła" przestrzeń może zamarznąć? Dlaczego nikt nie zastanawiał się nad powodem szybkiej utraty temperatury w przestrzeni kosmicznej skoro nie ma w niej cząsteczek?? Skoro fotony przenoszą ciepło to w próżni efekt byłby wręcz izolacyjny z braku nośnika.Tak samo jak ciepło ze Słońca nie powinno dotrzeć do Ziemi w próżniowej przestrzeni. Nawet mimo umieszczonych tam oficjalnie obłoków gazowych jako częściowego jej wypełniacza. Niestety, to tak nie działa. To przestrzeń zamraża ciała materialne, odbierając energię i szybko równoważąc MECHANICZNIE (bo wszystko jest w przestrzeni kosmicznej fundamentalnie MECHANIKĄ) ruch rejestrowany jako temperatura- ciepło- podczerwień. Każda cząsteczka i orbital atomowy jako jej fraktal w istocie jest WIREM. Z kolei tak zwane światło- fotony to wiry zbudowane z omawianej kwantowej substancji tworzącej przestrzeń kosmiczną, zwiększające swoją prędkość obrotową wprost proporcjonalnie do wzrostu częstotliwości fali świetlnej czy jak kto woli elektromagnetycznej. Jest to ruch oczywiście o kierunku zmiennym ze względu na pulsacyjne zmiany ciśnienia pomiędzy kolejnymi falami cząstek, rozchodzącymi się dookólnie w przestrzeni, w przeciwieństwie do pola elektromagnetycznego i grawitacyjnego które w naturze są oddziaływaniami o stałym kierunku ruchu. Nie ma w naturze zmiennego pola elektromagnetycznego wokoło materialnych obiektów ciał stałych i ciekłych. Światło nie przemieszcza się cząsteczkami ciskanymi przez źródło z prędkością 300 000 km/s.<b> To jest tylko prędkość fali</b> powstałej z dookólnie rozchodzących się sfer zbudowanych z drgających naprzemiennie sinusoidalnie zagęszczeń i rozrzedzeń "płynu" przestrzennego . Oto kolejny PIĄTY stan skupienia. </p><p><b>Podsumowując, polu magnetycznemu stałemu bliżej jest poziomem energii i sposobem działania do stałego pola grawitacyjnego niż do fotonów rozumianych przez nas jako fala elektromagnetyczna czy światło które jest bliższe naturą polu elektromagnetycznemu zmiennemu. Co najważniejsze, i będę to powtarzał aby się utwaliło, jest to, że wszystkie wymienione tu zjawiska powstają przy wykorzystaniu TYLKO JEDNEGO i jedynego istniejącego budulca którego źródłem jest kwantowa czyli cząsteczkowa a więc FIZYCZNA (NIE WIRTUALNA!!) struktura przestrzeni kosmicznej, jako proponowanego przeze mnie piątego stanu skupienia. Zbudowana oczywiście z opisanej tu fotonogennej substancji zwanej dawniej starożytnym ETEREM! </b></p><p>Choć moim zdaniem ten stan skupienia powinien stać na pierwszym miejscu, ale biorąc pod uwagę ludzki umysł koncentrujący się ze swej natury na materii jako na najważniejszym...</p><p><br></p><p><br></p><p><br></p><p><br></p><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEisFz7XZw-vtn_HByET-Su4VZxRK9_Ei9ecWpA-NRL1cvlkkR7QeWj1jRciowIMgZJJU8CE6h5WnTiCj23i0HBYZXpL_gA4rJIb7Jwg4JYro-pQSrWMwDCvtl2Bi5jsCGm2wzsWkQAWOuhHxdSaVE7YXPNuXvSfiZaI4K-JD33CUvKfXTOA83eGwV-S/s312/unnamed.gif" style="margin-left: 1em; margin-right: 1em;"><img border="0" data-original-height="235" data-original-width="312" height="482" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEisFz7XZw-vtn_HByET-Su4VZxRK9_Ei9ecWpA-NRL1cvlkkR7QeWj1jRciowIMgZJJU8CE6h5WnTiCj23i0HBYZXpL_gA4rJIb7Jwg4JYro-pQSrWMwDCvtl2Bi5jsCGm2wzsWkQAWOuhHxdSaVE7YXPNuXvSfiZaI4K-JD33CUvKfXTOA83eGwV-S/w640-h482/unnamed.gif" width="640"></a></div><br><p>Animacja obrazująca złożony dookólno-skrośny ruch pojedynczego torusa dwupołówkowego pola magnetycznego. Oczywiście widzimy tu tylko zewnętrzny obrys pola. Faktycznie cała ta bryła podlega strumieniowi pola który im bliżej centrum się znajdujemy, tym bardziej przyspiesza ruch eteru- cząstek przestrzeni. To jest prawdziwa przyczyna tzw. "Siły Coriolisa". W pobliżu ziemskiego równika można też zauważyć że pole magnetyczne ma tak szybki ruch cząstek iż "znosi" on delikatnie masę obiektów a więc hamuje doziemny ruch cząstek strumienia grawitacyjnego. Kto był ten wie o czym mówię. </p><p><br></p><p>Każdy materiał / pierwiastek chemiczny jest w jakimś sensie przewodnikiem. Nawet kształt kuli można rozpatrywać jako kawałek przewodnika elektrycznego. Z tym że indukować się w nim będą nieukierunkowane prądy zwarciowe czy też błądzące (w zależności od rezystancji podłoża) tak jak ma to miejsce na powierzchniach małych gwiazd powstałych jako tzw. sferule po wybuchu supernowych, które pod kątem elektrycznym są naturalną elektrodą lampy z metalową powłoką zewnętrzną. Czyli każde ciało niebieskie w minimalny sposób jak przykładowo nasz Księżyc, czy w sposób znaczny jak Jowisz, po prostu wprawia w ruch za pomocą tych niedoszłych fotonów dostępną pobliską przestrzeń. Ruch jest tym intensywniejszy im bliżej centrum tego pola go rozpatrujemy. Ruch tych nazwijmy quasi-fotonów wystarcza aby przez stałe wzbudzenie polem E.M. przenikając przez materię, wywołać mechaniczną siłę ściągającą ku sobie przykładowe obiekty kosmiczne do danego ciała niebieskiego lub też pojazdu gdy tą siłę się oczywiście zintensyfikuje parametrycznie wokół tego pojazdu. Trzeba zauważyć że grawitacja wzmaga się wraz z obecnością i wzrostem pola magnetycznego. Oto <a href="https://www.space.com/hubble-telescope-double-galaxy-dark-matter-ripple-photo" target="_blank">przykład błędnego rozumowania</a> gdzie tłumaczy się soczewkowanie grawitacyjne jako pofalowanie nieokreślonej strukturalnie przestrzeni, dorzucając jednorożce z ciemnej materii, zamiast domyślić się że coś musi tą przestrzeń szczelnie wypełniać. Dwie masy NIE PRZYCIĄGAJĄ SIĘ bezpośrednio. Podciśnienie powstające w centrum każdej masy w wyniku wyrzutu pola magnetycznego, najsilniejszego w centralnie położonej płaszczyźnie wyznaczanej osią jego do-zewnętrznego ruchu wirowego, przyciąga obecne w przestrzeni jako jej strukturalny budulec- grawitony, które nie tworzą fal grawitacyjnych. Pole magnetyczne w naturze jest wyłącznie stałe i MUSI TAKIE BYĆ aby grawitacja (również stała siła) działała jednokierunkowo. Gdyby grawitacja była falą to zatrzymywałaby ciała nieruchomo w stałym miejscu w takt częstotliwości tego pola. Automatycznie wykrycie fal grawitacyjnych (z zasady fale, obojętnie jakie by nie były, są WYŁĄCZNIE zmienne) jest po prostu pomyłką. Ale to tak celem wyjaśnienia. Gdy każda masa przyciąga "grawitony" (dobra nazwa choć wiemy że chodzi tu o to co nazwałem proto- lub też pre- fotonami) w kierunku swojego środka ciężkości jest to atrakcja trójstronna. Środek ciężkości jednej masy wytwarza minimalne podciśnienie w otoczeniu ciała niebieskiego jako uzupełnienie ilościowe cząstek dla ruchu pola magnetycznego, pociągając za sobą cząstki, nazwijmy modnie "kwantyami pola grawitacyjnego" (tak poważnie to brzmi...choć po polsku niepotrzebnie niezrozumiale) obecne w dalszej przestrzeni, za którymi znajdują się już cząstki przyciągane już bardziej przez przeciwny środek ciężkości czyli drugie ciało niebieskie. </p><p>Przyciąganie pomiędzy przykładowo dwoma ciałami niebieskimi działa w ten sposób, że w pobliżu powierzchni pierwszego ciała możemy opisać jako „niedomiar cząstek/płynu” następnie w połowie odległości pomiędzy dwiema masami "płyn" ten zanim zmniejszy się odległość ciał, znajduje się w równowadze jako chwilowo jeszcze - nieruchomy "łącznik” aby zacząć z powrotem funkcjonować jako „niedomiar ciśnienia kwantowego" w pobliżu powierzchni drugiego ciała; minus - plus - minus. W przypadku gdy interakcji podlega tylko jedno ciało niebieskie z wyraźnym polem magnetycznym i obiekt bez pola magnetycznego jak astronauta, wtedy jest on przyciągany do powierzchni planety będąc w jednostronnym ruchu strumienia płynu/pola grawitacyjnego: minus- plus. Jednak gdy jest to ciało niebieskie praktycznie bez pola magnetycznego jak Księżyc, siła przyciągania będzie równie szczątkowa jak pole magnetyczne: plus - plus. </p><p>Pole magnetyczne będzie obecne wszędzie tam, gdzie jest materia. Również w wirach (bezmasowych) czarnych dziur, jako osiach wirowania galaktyki, gdzie o powstającym strumieniu pola magnetycznego decyduje materia zawarta w całej galaktyce- jest to nierozerwalna całość. Ten skuteczny JEDNOKIERUNKOWY mechanizm wzbudzania pola można zastosować w silnikach antygrawitacyjnych natomiast do zaburzania grawitacyjnego pola zewnętrznego należy zastosować pole zmienne. Maszyny takie jak legendarne "TR 3-B" nie posiadają układu do wytwarzania pola grawitacyjnego na pokładzie. Określiłbym je jako latające mikrofalówki które mogą skutecznie zaburzać swoim mechanizmem funkcje pola grawitacyjnego na zewnątrz pojazdu ale tylko to potrafią. Zatem grawitacja NIE WYSTĘPUJE w tandemie ze zmiennym polem elektromagnetycznym tak jak to ma miejsce w sposób zauważalny bądź śladowy w obecności jakiegokolwiek pola stałego. Jest to po prostu fizycznie niemożliwe. Polem elektromagnetycznym zmiennym możemy za to śmiało i z powodzeniem zaburzać grawitację jako ruch stały. Do uzyskania pola grawitacyjnego na pokładzie statku kosmicznego potrzeba wysokiego napięcia STAŁEGO które wytworzy wzmocnione STAŁE pole magnetyczne. A zatem grawitację można opisać jako drugą, a raczej pierwotną, bardziej ukrytą stronę stałego pola magnetycznego, jako prostej elektromagnetycznej "siły przyciągania" znanej z fizyki klasycznej, której po prostu nikt nie zauważył lub może nie chciał zauważyć ale tą opcję pomińmy. Jestem skłonny przyjąć że zawiódł tu jak zwykle ludzki umysł mimo wielu danych lub... poprzez ich nie uszeregowany nadmiar? Dla rozważań w sztuce antygrawitacji można posługiwać się teorią hydrauliki, aerodynamiki oraz mechaniki płynów. Mechanika płynów jest poddziedziną <a href="https://pl.wikipedia.org/wiki/Mechanika_o%C5%9Brodk%C3%B3w_ci%C4%85g%C5%82ych">mechaniki ośrodków ciągłych</a>. Z punktu widzenia mechaniki, płyn jest substancją, w której nie występuje ścinanie, dlatego płyn w stanie spoczynku przybiera kształt zawierającego go naczynia. Nie ma żadnej różnicy poza wielkością i elastycznością ośrodka cząsteczek pomiędzy tymi wymienionymi ośrodkami ruchu cząstek. Pole elektromagnetyczne jest według nauki zbudowane z fotonów. Więc nie znaczy to że co jakąś losową odległość w tym polu pałęta się foton. To znaczy że cała przestrzeń JEST zbudowana z fotonów które w polu elektromagnetycznym są zapętlone w formę wiru jak tornada, huragany, wiry wodne i co tylko znajdziemy w naturze. Dosłownie cała sfera pola elektromagnetycznego jest częścią przestrzeni wyłączoną z nieruchomej przestrzeni zewnętrznej. Częścią przestrzeni która całym swoim przekrojem cyklicznie przepompowuje się w zakresie obszaru tego pola. Dopiero teraz należy zacząć myśleć czym jest czarna dziura i co można z tym zrobić w technologii.</p><p><br></p><p><br></p><p><br></p><p><br></p><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjcfjojDRT0aFvj0sstLnvYW3AG45gP5zlj3_kdD3ijnFsaDhYzY3rbhtcIWDwG6fuY-lrVm4jTvkgzfT71aIk_6r1gvTTDPiQgKRjWlpNsrrMgMLzTz_dF0ldZDXtpcR57pzWQV1ET5bYBxO6kk9n5_hyu3yEXCSBB7PZKvIinNPtDQXnjx6qTWaYP/s1920/Screenshot_20200209-105044_YouTube.jpg" style="margin-left: 1em; margin-right: 1em;"><img border="0" data-original-height="1080" data-original-width="1920" height="360" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjcfjojDRT0aFvj0sstLnvYW3AG45gP5zlj3_kdD3ijnFsaDhYzY3rbhtcIWDwG6fuY-lrVm4jTvkgzfT71aIk_6r1gvTTDPiQgKRjWlpNsrrMgMLzTz_dF0ldZDXtpcR57pzWQV1ET5bYBxO6kk9n5_hyu3yEXCSBB7PZKvIinNPtDQXnjx6qTWaYP/w640-h360/Screenshot_20200209-105044_YouTube.jpg" width="640"></a></div><br><div class="separator" style="clear: both; text-align: center;"><br></div><div>W płaszczyźnie gdzie na zdjęciu z naniesionym schematem pola magnetycznego widzimy galaktykę, część cząsteczek/ kwantów składowych czy "linii pola" nie powraca do torusa wiru. Wyrzucone akceleracją, pozostają w im dalszej tym bardziej nieruchomej przestrzeni naokoło ciała niebieskiego i to jest właśnie powodem dla którego działa grawitacja jako uzupełnienie dla stałej objętości tego pola. Dlatego też w układzie inercyjnym w skali atomowej, mimo że istnieją tylko dwie uzupełniające się siły- pola magnetycznego i pola grawitacyjnego, nie uwzględniono tego drugiego ze względu na fakt że jest znikomą dla rejestracji siłą choć niewątpliwie w pobliżu materii stale obecną. Myślę że brak pola magnetycznego wykazany w badaniach obiektów układu słonecznego wynika z niedoskonałości przyrządów badawczych. Jednak pole to występuje jako bardzo słabe, wszędzie gdzie rejestrujemy pole grawitacyjne. Problem pomiaru zarówno stałego pola elektromagnetycznego jak grawitacyjnego może wynikać ze zbyt małej prędkości fotonów w ich masowym ruchu względem łatwości rejestracji światła które jest ogólnie drganiem - zakresem fali zmiennej tych fotonów w zasadniczym ruchu miejscowym. Tak jak mało wydajnym jest prąd stały względem zmiennego.</div><div>Natomiast wszystkie inne sposoby przekazu energii względem wyżej wymienionych są toporne patrząc pod kątem materiało-chłonności, odporności na warunki biochemiczne, regulacji i zachowania bezpieczeństwa i to powinno być dla nas znakiem że (fundamentalnie) inteligentna natura jest właśnie elektryczna. </div><div><span style="font-family: inherit;"><br></span></div><div><span style="font-family: inherit;"><br></span></div><div><br></div><div> </div><div><span style="font-family: inherit;"><br></span></div><div><span style="font-family: inherit;"><br></span></div><div><span style="font-family: inherit;"><br></span></div><div><span style="font-family: inherit;"><br></span></div><div><span style="font-family: inherit;"><br></span></div><div><img border="0" height="490" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjQB9pID9idVDWqz9vp5rWXtILpvaAgESFJRE37wFS60HFj6QjlBSgXppBt9qF6l9iYKEl9K-Elw7e-Ve4RbRyz8tCO89s4Exki0NVuKCbSDzXNZkibC6_SGEXVoBBDuhwZsICz5N1f7YY/w640-h490/14458047034976.jpg" width="640"></div><div><span style="font-family: inherit;"><br></span></div><div><span style="font-family: inherit;">Fale grawitacyjne??... Jeszcze nigdzie Ziemianie tyłka nie ruszyliście a twierdzicie dumnie że wszystko rozumiecie??</span></div><div><span style="color: #6fa8dc; font-family: inherit; font-size: large;"><div style="color: black; font-size: medium;"><br></div><div style="color: black; font-size: medium;"><br></div><div style="color: black; font-size: medium;"><br></div><div style="color: black; font-size: medium;"><br></div><div style="color: black; font-size: medium;"><br></div><div style="color: black; font-size: medium;"><br></div><div style="color: black; font-size: medium;"><br></div><div style="color: black; font-size: medium;"><br></div><div style="color: black; font-size: medium;">Fala grawitacyjna jest to kolejny błąd naukowy w oszacowaniu po pierwsze natury ZJAWISKA, po drugie rodzaju promieniowania pod względem laboratoryjnym. Zakładam że wykryto po prostu efekt w którym zachodzi emisja jakiegoś promieniowania elektromagnetycznego. Niech naukowcy sprawdzą przykładowo, czy nie ma takiego efektu po wybuchu supernowej albo bomby atomowej, kiedy większość materiału rozszczepia się na fotony o różnych częstotliwościach które gdzieś w przestrzeni po wytraceniu energii ruchu, muszą znaleźć swoje miejsce w nowej równowadze. Jako składniki przestrzeni. Podejrzewam że również podczas wybuchu takiej bomby, stwierdzono by w pomiarach obecność takich właśnie rzekomo "grawitacyjnych" fal.</div></span></div><div><div>Na rysunku poniżej widzimy schemat pola grawitacyjnego;<br><br><br><br><br><br><br><br><a href="#"><img border="0" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhKMWbh9qPEJpZFwuIp7rvBjdncxPe-Istq5hsSSiHq17I4HU0zyQSlN1A3neeiltAbofepr2C9WGQWJA844zibWdpNtgToe2CMo5YVVBZz_2xMGHglDVZCoVv81rCldSvs-Oy22mIj7_k/s0/Przechwytywanie.PNG"></a><br><br><br>wyrażanego wzorem:<br><a href="#"><img border="0" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjpGzlhukGJrKAUOOw0SGgDc-vGift-U2LGAQQsPgQIfLKmVgLez_JRGLK6wE1zbgtJzROFnLRvCtxEzYG5psFajeYs-QJfilZrHPL4w1Xcr-XhTGB_3kIbWZef2V0Cw7RZsg_AT9AcloE/s0/q.PNG"></a><br><br><br><br><br><br><a href="#"><img border="0" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiv7QOkiM2GxJ7NeBK3UC2aYGoJ-8kxVkRWO5OW7xg_XOOo3ZGuiJ4b0m-5aU51PT7CUxG1OybAN1gyj_P-8_lJ1IXNHavFsPqPRDsmaMGwbltQJRaBoT-9hsK7Rw6Pc3hHnb4KHWBqEmw/s0/g.PNG"></a><br><br><br><br><br><br>Natomiast niżej widzimy schemat pola elektrycznego:<br><br><br><a href="#"><img border="0" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEi4Ji5MYxqAMe8amaWRNxP41Tn8_ro7o84ldDv8yzGr1X-xGg3RjRR8xgfKJ_JrAqY3vgPA7zBa7TYZt-wI1gD-vFtTZxgLemUZXHtgC8AmE11-6ZzheSTiE2xnXyVw8UAqikW103hbEoc/w640-h341/Przechwytyw.PNG"></a><br><br><br>wyrażonego wzorem:<br><br><a href="#"><img border="0" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEidWLxLNhqdjTBU9dq5DBR4j9gMZdmT5Zk13xq2DhUqwQinVD2zz-KR8dU0kQM5z0h4t3RnJ85vVRkLNieJ8Eh7cdu0rUzaXe53prJ6f-BaXqt49qsjV7jQQlcRluYKSGA_I87sBBsHKb0/s0/v.PNG"></a><br><a href="#"><img border="0" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgO-ietzitocCOHcCHtarGKgsGnEa4k9GCRwR0a_jI54i07KjbNSCiRxQ29ua8CE9_wu09sJP-llJ3W7YCUaqYnLAfO80EtJoJkT1kxXKBoxOj9FOQvBSr-2eCi8osy61ffd_Qr8n9PIng/w400-h139/b.PNG"></a><br><br><br>Ze schematu wynika że pole grawitacyjne jest identyczne z ujemnym polem elektrostatycznym.<br>Ze wzorów zaś wynika że różnią się minimalnie. Jednostka kilograma [kg] dla pola grawitacyjnego zastąpiona jest w przypadku pola elektrostatycznego kulombem [C]. To wszystko. W Elektrycznym Wszechświecie także kilogram musi być wartością elektro-pochodną.<br><br><br><br><a href="#"><img border="0" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjGTzqN94_m6yQSLtKYT638Z-cKUu4RIexbKfgjOSMtAmp9iNnFs28BT-rmeKTHHzBOJkXTLA-AK5NdPLccaQBtiH0Emkyiu1QKNe_4ZZ_VoEYm3ouPP2v-9ifVROadfSUcP0SEO2KFUtk/w640-h152/h.PNG"></a><br><br><br>Mamy więc amper na sekundę lub farad na wolt... </div><div><br></div><div>Inaczej mówiąc: </div><div><p>NIE WYSTĄPI BRAK GRAWITACJI TAM, GDZIE JEST OBECNE STAŁE POLE<br><br> ELEKTROMAGNETYCZNE, PONIEWAŻ ILOCZYN INDUKCJI TEGO POLA I PRĘDKOŚCI OBIEKTU W PRZESTRZENI JEST BEZPOŚREDNIM CZYNNIKIEM DEFINIUJĄCYM POZIOM GRAWITACJI TEGO OBIEKTU.<br><br>Tesla, T, nazwa od nazwiska N. Tesli, jest to jednostka indukcji elektromagnetycznej w układzie SI, wyrażająca indukcję jednorodnego pola elektromagnetycznego, w którym na przekrój poprzeczny 1 m2 przypada strumień elektromagnetyczny 1 Wb; </p><p>1 T = 1 Wb/(1 m)² = 1 kg · s–2 · A–1; </p><p>wartość grawitacji G = indukcja elektromagnetyczna B · prędkość obiektu V</p><p>G [m/s²] = B [T] · V [m/s]</p><p>G = 1 kg · s–2 · A–1 · V</p><p>G = B · V</p><p><br>W praktyce będzie to żyroskopowy kondensator/induktor wysokiego napięcia. To wszystko co jest istotne aby budować elektryczne maszyny zdolne do zaburzenia pionowego - powolnego bo w naszym przypadku w porównaniu do 2,5G Jowisza to całe szczęście tylko 1G - ale masywnego ruchu niedoszłych fotonów, zwanego grawitacją i uruchomienia EKONOMICZNYCH lotów kosmicznych oraz taniego transportu powietrznego.</p></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjnNl5IbM9mN4K-6YV-eVYdN5HyuuwSHr0Xt_7Msd-jMjmpigrvUiLCRxS821mgVjGOmTJY0t_eyc4HRom4rOIRzP3t76f2W4YeeSIMHOdDBWhwpMyGTq_VTCI6t__tNi0d_snauMelDd1k-sh2fxbkh844iaoLQ0iyITvpMCp1CK50kEnb38YxeQ4C/s1241/sss.PNG" style="margin-left: 1em; margin-right: 1em;"><img border="0" data-original-height="465" data-original-width="1241" height="240" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjnNl5IbM9mN4K-6YV-eVYdN5HyuuwSHr0Xt_7Msd-jMjmpigrvUiLCRxS821mgVjGOmTJY0t_eyc4HRom4rOIRzP3t76f2W4YeeSIMHOdDBWhwpMyGTq_VTCI6t__tNi0d_snauMelDd1k-sh2fxbkh844iaoLQ0iyITvpMCp1CK50kEnb38YxeQ4C/w640-h240/sss.PNG" width="640"></a></div>Przykładowy projekt samowzbudnego siłownika elektromagnetycznego do przeróbki zwykłego samochodu drogowego na aerosamochód</div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div> </div><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiediuXj6uETXuj1EFyTIUo9q8Ah-M6DYOdOhvRZ9Ibx6ZADiCHMne3Ia--H1674t1kSlCiFHDzJiCFLVki5vBc4bzH1-1OdIrxFoQ_Q1wzdD2EcDYObhleCE2BaJkHLUjF9yZcCNqihjHeE8a6-MSO6NqNuGEN63oqfgbV3LtX4RcWUT_AhNXtgStQ/s380/drugie-zycie-de-lorean.jpg" style="margin-left: 1em; margin-right: 1em;"><img border="0" data-original-height="228" data-original-width="380" height="192" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiediuXj6uETXuj1EFyTIUo9q8Ah-M6DYOdOhvRZ9Ibx6ZADiCHMne3Ia--H1674t1kSlCiFHDzJiCFLVki5vBc4bzH1-1OdIrxFoQ_Q1wzdD2EcDYObhleCE2BaJkHLUjF9yZcCNqihjHeE8a6-MSO6NqNuGEN63oqfgbV3LtX4RcWUT_AhNXtgStQ/w320-h192/drugie-zycie-de-lorean.jpg" width="320"></a></div><br><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiXPec31s12_iB_e56uOeFgw0MCl7MEzJ1ij2cGNHTgDAOWuC_i4ScrnYYEJOowE-dKPzC0YkT-i85t5viynt9xzx5QdUrgy3SQFMDMv3PjungTlRo205nAcRIR6AwfAR0iDzJQN-HpNUNkW_hed0XV_POcDyfYT4PN1vLm6Ycc7b5sTPqU5R4uZfiI/s380/drugie-zycie-de-lorean-03.jpg" style="margin-left: 1em; margin-right: 1em;"><img border="0" data-original-height="228" data-original-width="380" height="192" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiXPec31s12_iB_e56uOeFgw0MCl7MEzJ1ij2cGNHTgDAOWuC_i4ScrnYYEJOowE-dKPzC0YkT-i85t5viynt9xzx5QdUrgy3SQFMDMv3PjungTlRo205nAcRIR6AwfAR0iDzJQN-HpNUNkW_hed0XV_POcDyfYT4PN1vLm6Ycc7b5sTPqU5R4uZfiI/s320/drugie-zycie-de-lorean-03.jpg" width="320"></a></div><br><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgGnBWc_-gG-8k2Bd1RrVzgnu-k9cHtQi6Nt4Q7rSiIHvyWp99OpEMIXl7Wm5ZpIvznlp9ELKaegShD-bybXKRucPrjqORjYrP1eW94Zm7gu76DptNp11yyIw_cI4AVEs1jCobnpe1rrmy0tUk0533S3aYdIxZjBhjZ-tUFIbvqkWl5HOxD8Jgfyq9n/s380/drugie-zycie-de-lorean-04.jpg" style="margin-left: 1em; margin-right: 1em;"><img border="0" data-original-height="228" data-original-width="380" height="192" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgGnBWc_-gG-8k2Bd1RrVzgnu-k9cHtQi6Nt4Q7rSiIHvyWp99OpEMIXl7Wm5ZpIvznlp9ELKaegShD-bybXKRucPrjqORjYrP1eW94Zm7gu76DptNp11yyIw_cI4AVEs1jCobnpe1rrmy0tUk0533S3aYdIxZjBhjZ-tUFIbvqkWl5HOxD8Jgfyq9n/s320/drugie-zycie-de-lorean-04.jpg" width="320"></a></div><br><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div>Opierając się na przykładzie znanego chyba wszystkim czytającym, legendarnego filmowego e DELORYANA marki DMC, wyobraźmy sobie że zamiast kół samochód ma izolowane zarówno kadłub i siłowniki z tworzywa sztucznego, do wewnątrz których na żyroskopowe, magnetyczne wirujące tarcze, doprowadzone zostaje wysokie napięcie. Pojazd taki wykonany w wersji dla lotów pozaatmosferycznych, oprócz obwodu elektrycznego powinien zawierać kabinę ale nie zwykłą sobie kabinę jak na ISS a kabinę normobaryczną i szczelne włazy zamiast tradycyjnych drzwi. Zamierzam wykonać jak "Bóg"- Wszechświat mi pozwoli, taki pojazd w skali 1:1 na podstawie prototypu polskiego Fiata 1100 Coupe.</div><div>W większości (oprócz maszynowych komponentów jak żyro-silniki i zasilacz wysokonapięciowy) wydrukowany DOSŁOWNIE z niechcianego znienawidzonego już plastikowego śmiecia o największej ilości czyli jak wiemy tzw. butelek PET który dziwnie fartownie jest akurat idealnym do tego zastosowania materiałem bo o bardzo wysokiej odporności na wysokie napięcie. </div><div> Uruchomienia takiej technologii aero i astronautycznej w powiązaniu z masową redukcją śmieci a więc globalnym systemem skupu i odzysku plastiku dotyczy cała moja inicjatywa. Pod kątem technicznym jest ona relatywnie prosta w stosunku do potrzebnej teorii, porównując całość do obecnej niewydajnej technologii rakietowej. To tak jakby porównywać samochody elektryczne do spalinowych.</div><div>Oczywiście dopuszczam że goście z innych gwiazd czy galaktyk mają podobną technologię opanowaną perfekcyjnie pod względem wzajemnego doboru kształtu, wymiarów i własności materiałów u nas nieobecnych z prostej przyczyny- żyją oni pod gwiazdami o nazwijmy to "innych możliwościach pierwiastko-twórczych" zależnych od ich średnicy a więc wysokości napięć w atmosferze gwiazdowej, ciśnienia, temperatury która z tego ciśnienia wynika oraz innych fizycznych własności, ale... po prostu od czegoś trzeba zacząć.</div></div><div>Siłownik taki działa poprzez ciągłe zaburzanie pionowego strumienia grawitonów za pomocą ruchu magnetycznych tarcz i wzmacniającym ten efekt wysokim napięciem. Żywa natura "zna" bardzo dobrze ten efekt, który wykorzystują w odpowiednim dla danego gatunku stopniu, owady latające. Np. różnego rodzaju żuki jak ten poniżej:</div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgDmqOOkU3Q_8TGyQQBkdMq44fB3F0yDL-ejYjKuzmigEQGI9lpzDQPeoSD1zIjebLAix4kn8hW7VgPW1FRxG79-_KZy3vGqMYEhlLQ6bNIBGoc8M6ZMNRVWTZdlHnP4QHdoxIraS7JnHnJn_95f4u-4SGBBjcCxgLZTTAbQY6qLQDgxqjWHKD8tpTM/s220/220px-_Oryctes_nasicornis_.jpg" style="margin-left: 1em; margin-right: 1em;"><img border="0" data-original-height="195" data-original-width="220" height="567" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgDmqOOkU3Q_8TGyQQBkdMq44fB3F0yDL-ejYjKuzmigEQGI9lpzDQPeoSD1zIjebLAix4kn8hW7VgPW1FRxG79-_KZy3vGqMYEhlLQ6bNIBGoc8M6ZMNRVWTZdlHnP4QHdoxIraS7JnHnJn_95f4u-4SGBBjcCxgLZTTAbQY6qLQDgxqjWHKD8tpTM/w640-h567/220px-_Oryctes_nasicornis_.jpg" width="640"></a></div><br><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div> Natura jako świadomy płynopodobny myślący fluid taki jak przedstawiony w powieści Lema "Solaris" i wie o sobie samej wszystko co potrzeba. Jeśli w jakiś sposób taki żuk "wie" poprzez "ewolucję" jak tego dokonać to znaczy że natura jest fundamentalnie świadomością która w następnej kolejności realizuje swoje wizje i prawa w rzeczywistym świecie materialnym. Nie istnieje tak zwana ewolucja. Natura wpisuje do materialnej matrycy swoje wizje wprost z przestrzennej świadomości. </div><div><br></div><div>Działanie antygrawitacyjne w tym przypadku wygląda tak że żuk zanim poleci, przed startem szuka suchej powierzchni a docierając do niej trze o podłoże odnóżami ładując się elektrostatycznie. Na powyższym zdjęciu "róg" służy za iskrownik do kontroli poziomu wysokiego napięcia. Gdy jest dostateczne, uruchamia cały "mechanizm startu". Gdy jest zbyt mokro, podróżuje ...na piechotę. Chyba wiadomo dlaczego.</div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhb2L94JcMRRTrh9fmHBsm8ec2jF71KI_jbHRXe2lE-VcPm8BvRhoIWU_DPNEhhU5RUQJr_RPmepIVyiFKdRgMqYpRS8DrnOUFHENHZK2vDWAbq0O9rgBSdJo4OHwfaMV2eS3p0v2z1mojgmPC44oswVNHmyF-MEtCJLKNlaHbPtF8OeCO9lVE2ZVG_/s406/owad%C5%BCuk.PNG" style="margin-left: 1em; margin-right: 1em;"><img border="0" data-original-height="304" data-original-width="406" height="480" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhb2L94JcMRRTrh9fmHBsm8ec2jF71KI_jbHRXe2lE-VcPm8BvRhoIWU_DPNEhhU5RUQJr_RPmepIVyiFKdRgMqYpRS8DrnOUFHENHZK2vDWAbq0O9rgBSdJo4OHwfaMV2eS3p0v2z1mojgmPC44oswVNHmyF-MEtCJLKNlaHbPtF8OeCO9lVE2ZVG_/w640-h480/owad%C5%BCuk.PNG" width="640"></a></div><br><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div>W pojazdach "antygrawitomagnetycznych" za pomocą pola magnetycznego żyroskopowych tarcz, pionowy doziemny strumień, zostaje zaburzony, zawrócony akceleracją w centrum maszyny do poziomego ruchu żyroskopowego który znosząc pole grawitacyjne, jednocześnie tworzy po chwili oddzielne pole otaczające maszynę. Stąd też kosmici sądząc po relacjach świadków, podczas startu trochę zwlekają na czas wzbudzenia pola. Nie jest ono czymś nierealnym do czego potrzebne są jakieś dodatkowe wirtualne matematyczne, zresztą błędne wyjaśnienia jak fale grawitacyjne. Jest to fizyczny twór czyli cząsteczkowy który podlega tym samym prawom co inne cząsteczki, różniąc się jedynie stopniem oddziaływania. W miarę zwiększania intensywności tego pola wysokim napięciem, zaczyna się pojawiać grawitacja jako sumacyjna siła cząstek dociskająca załogę do pokładu pojazdu. Można ją płynnie regulować wpływając na siłę pola. Żyro-tarcze oprócz wzmocnienia magnetycznego pola i grawitacji zapewniają stabilizację podczas lotu (boczny wiatr, huragan etc, jak i wypadku / zderzenia.</div><div>Takie pojazdy będą się zachowywać bardzo stabilnie podczas lotu a podczas wypadku zachowają swoje położenie dopóki siłowniki nie zostaną uszkodzone mechanicznie. Nawet gdyby w zasięgu grawitacji planety zostały te siłowniki uszkodzone to taki pojazd przez czas rozładowania pola będzie pozostawał w tym samym położeniu i wysokości. Nie będzie emitować hałasu na zewnątrz i w kabinie, poza ledwo słyszalnym dźwiękiem wysokiego napięcia. No może czasem strzału łuku elektrycznego gdy będzie leciał nad powierzchnią gruntu, jezdni co może zabezpieczać pojazd i kierowcę przed ewentualną kradzieżą i napaścią gdy będzie włączony. Nie wyleje się też więcej kawa, nikogo nie pochlapiesz wodą czy błotem. Obojętne będą też ilości dziur w ciągle na czas nie zakonserwowanej jezdni ani nie zanieczyszczą więcej środowiska ponieważ siłowniki będą jednocześnie swoim własnym zasilaniem... i mogą przyspieszyć lot w atmosferze do prędkości samolotowych - około 1500 km/h lub większych w przestrzeni kosmicznej. </div><div>Najszybszy samolot pasażerski świata Concorde lecąc z prędkością 2270 km/h, pokonał trasę z Paryża do Nowego Jorku zaledwie w 3,5 h co jest równe 2,04 Ma (Mach), jednak skutery powietrzne które śniły mi się jużw dziećiństwie, będą jeszcze szybsze ze względu na najmniejszy opór powietrza.</div><div>Szczegóły technologii budowy latających samochodów i skuterów (tańsza lżejsza i mobilniejsza wersja transportu - bez kabiny, więc automatycznie mniejsze wysokości lotu ze względu na wysokość zdatnej do oddychania atmosfery) będą udostępnione z czasem za darmo lub za niewielką opłatą. Wszystko zależy od tego czy i kto doinwestuje projekt. </div><div>Bez takiej formy elektrycznej technologii jaką jest w istocie maszyna antygrawitacyjna, w dalszym ciągu ludzkość będzie prowadzić wojny o ograniczone ziemskie zasoby. Nawet gdyby do perfekcji doprowadzono konwencjonalną technologię rakietową, nie pozwoli ona zapewnić zewnętrznych zasobów do rozwoju cywilizacji. Za pieniądze zainwestowane w wojny i inne destrukcyjne interesy z których każdy zaglądający na tego bloga zdaje sobie sprawę, można by było już dotrzeć nie tylko do Marsa a do Sagittarius A! </div><div><br></div><div>"Przyszłość jest zielona" jak w reklamach aut elektrycznych i może taka być ale nie przy obecnej technologii gdy energię trzeba magazynować i przewozić a akumulatory palą się w najmniej spodziewanym momencie. Gdybyś miał do wyboru samochód spalinowy, elektryczny i antygrawitacyjny, który kupisz?</div><div>Jeśli widzisz potencjał i głębszy sens w tym co robię, doinwestuj projekt bezpośrednio: PL 35 1140 2004 0000 3212 0118 4100 Dziękuję. Bóg - Wszechświat zapłać.</div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div class="blogger-post-footer">„Analfabetami XXI wieku nie będą ci, którzy nie umieją pisać ani czytać, lecz ci, co nie potrafią oduczyć się wierutnych kłamstw, w które nauczono ich wierzyć i nie potrafią szukać ukrytej wiedzy, którą nauczono ich odrzucać”</div>#magnetartechprojecthttp://www.blogger.com/profile/00116426320285930090noreply@blogger.com0tag:blogger.com,1999:blog-1727701247933515471.post-9496558450795849542022-08-22T02:03:00.081+02:002023-06-13T00:51:05.834+02:00Wszechświat się nie rozszerza!<p> </p><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiK1gfWJayXWCfPMcVIVkRQmYwy_PtlK741iQsgiGukrEVlgWdA2eQ3kwLUsK9SrwIQqIpFaHqi9I-JZqwVaB_ekfoRxmQCwdpy2_rYosXEqaZRll8M8EohrBVt97hTp8ux9KG8TUXSrWIlm4N7ZkZ1Pk_nlELWAXIsI2kBIIH5RKbufy9PztVaZe9i/s1078/NGC_4319_I_HST2002.jpg" style="margin-left: 1em; margin-right: 1em;"><img border="0" data-original-height="1072" data-original-width="1078" height="636" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiK1gfWJayXWCfPMcVIVkRQmYwy_PtlK741iQsgiGukrEVlgWdA2eQ3kwLUsK9SrwIQqIpFaHqi9I-JZqwVaB_ekfoRxmQCwdpy2_rYosXEqaZRll8M8EohrBVt97hTp8ux9KG8TUXSrWIlm4N7ZkZ1Pk_nlELWAXIsI2kBIIH5RKbufy9PztVaZe9i/w640-h636/NGC_4319_I_HST2002.jpg" width="640" /></a></div><br /><p></p> Galaktyka NGC 4319 i "urodzony" przez nią kwazar Markarian 205 po prawej u góry, którego to faktu NASA się wypiera ze względu na znaczne przesunięcia widma pomiędzy nimi.<div><br /></div><div><br /></div><div><br /></div><div><br /><div><br /></div>Kwazar (z <a href="https://pl.wikipedia.org/wiki/J%C4%99zyk_angielski">ang.</a> quasar – quasi-stellar radio source lub też QSO – quasi-stellar object, dosłownie „obiekt gwiazdopodobny emitujący fale radiowe”) – zwarte źródło ciągłego <a href="https://pl.wikipedia.org/wiki/Promieniowanie_elektromagnetyczne">promieniowania elektromagnetycznego</a> o ogromnej mocy, pozornie przypominające gwiazdę. W rzeczywistości jest to rodzaj <a href="https://pl.wikipedia.org/wiki/Galaktyka_aktywna">mini galaktyki</a></div><div><br />Pierwsze zdjęcia kwazarów wykonano w XIX wieku, jednak wtedy nikt nie przypuszczał, że obiekty te mogą być czymś innym niż zwykłą gwiazdą. Dopiero w latach pięćdziesiątych XX wieku, obserwując niebo za pomocą <a href="https://pl.wikipedia.org/wiki/Radioteleskop">radioteleskopów</a>, zauważono silną emisję radiową pochodzącą z kwazarów, zaś pierwsze <a href="https://pl.wikipedia.org/wiki/Widmo_(spektroskopia)">widmo</a> kwazara otrzymano w 1963 roku. Okazało się, że <a href="https://pl.wikipedia.org/wiki/Linie_spektralne">linie emisyjne</a> w jego widmie są silnie <a href="https://pl.wikipedia.org/wiki/Przesuni%C4%99cie_ku_czerwieni">przesunięte ku czerwieni</a>. Według <a href="https://pl.wikipedia.org/wiki/Prawo_Hubble%E2%80%99a">prawa Hubble’a</a> oznacza to, że kwazary są obiektami niezmiernie oddalonymi od <a href="https://pl.wikipedia.org/wiki/Droga_Mleczna">naszej Galaktyki</a>. Ich światło obserwowane dzisiaj zostało wysłane miliardy lat temu – badanie kwazarów jest więc równocześnie badaniem dawniejszych etapów rozwoju <a href="https://pl.wikipedia.org/wiki/Wszech%C5%9Bwiat">Wszechświata</a>.<br /><br />Pierwszym zidentyfikowanym kwazarem był (najjaśniejszy na naszym niebie) <a href="https://pl.wikipedia.org/wiki/3C_273">3C 273</a> w gwiazdozbiorze Panny odległy o 2,44 miliarda <a href="https://pl.wikipedia.org/wiki/Rok_%C5%9Bwietlny">lat świetlnych</a>.<br />3C 273 ma wielkoskalowy <a href="https://pl.wikipedia.org/wiki/D%C5%BCet_(astronomia)">dżet</a> o rozmiarze 60 k<a href="https://pl.wikipedia.org/wiki/Parsek">pc</a>, który zaobserwowano w zakresie optycznym, radiowym, a także <a href="https://pl.wikipedia.org/wiki/Promieniowanie_rentgenowskie">rentgenowskim</a>. Obraz optyczny uzyskany przy pomocy <a href="https://pl.wikipedia.org/wiki/Kosmiczny_Teleskop_Hubble%E2%80%99a">teleskopu Hubble’a</a> pokazuje złożoną strukturę dżetu. 3C 273 jest widoczny na obu półkulach nieba. Jest wystarczająco jasny, aby go dostrzec amatorskim teleskopem. Przy swojej odległości od Ziemi i obserwowanej wyjątkowej dla kwazarów jasności, 3C 273 jest najbardziej odległym obiektem, który może być obserwowany za pomocą amatorskiego teleskopu.<br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhlwIQzXLuUN5NXEyXz9pJxx3NdcqBJqrpdaga8xPr81uUIofyrtbiCeFA9V1BZy-ZlhS3EL3q27ZvLiY5sUTMx9zH4wUd2LRLUCCmQ567jJn6ma6x9miKsUvyGr-nED5VIhDgLUK54oWDvTa_8BuKFN2qCl_JS8GBmsqwLwT_AamvxmR605jLBXTWl/s1001/800px-Quasar_3C_273.jpg" style="margin-left: 1em; margin-right: 1em;"><img border="0" data-original-height="1001" data-original-width="800" height="400" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhlwIQzXLuUN5NXEyXz9pJxx3NdcqBJqrpdaga8xPr81uUIofyrtbiCeFA9V1BZy-ZlhS3EL3q27ZvLiY5sUTMx9zH4wUd2LRLUCCmQ567jJn6ma6x9miKsUvyGr-nED5VIhDgLUK54oWDvTa_8BuKFN2qCl_JS8GBmsqwLwT_AamvxmR605jLBXTWl/w320-h400/800px-Quasar_3C_273.jpg" width="320" /></a></div><br /><div>3C 273 – <a href="https://pl.wikipedia.org/wiki/Kwazar">kwazar</a> znajdujący się w <a href="https://pl.wikipedia.org/wiki/Gwiazdozbi%C3%B3r_Panny">gwiazdozbiorze Panny</a>. Jest najjaśniejszym kwazarem widocznym na naszym niebie (ok. 12,9<a href="https://pl.wikipedia.org/wiki/Obserwowana_wielko%C5%9B%C4%87_gwiazdowa">m</a>), i zarazem jednym z najbliższych (<a href="https://pl.wikipedia.org/wiki/Przesuni%C4%99cie_ku_czerwieni">przesunięcie ku czerwieni</a> 0,158).</div><div><br /></div><div> Obiekt ten jako pierwszy został zinterpretowany jako kwazar i zapoczątkował istnienie całej klasy podobnych obiektów. Nazwa oznacza, że jest to 273. obiekt Trzeciego Katalogu Radioźródeł <a href="https://pl.wikipedia.org/wiki/University_of_Cambridge">Uniwersytetu w Cambridge</a>, opublikowanego w 1959 roku. Jego bardzo dokładne współrzędne zostały wyznaczone przez Cyrila Hazarda, co pozwoliło na znalezienie optycznego odpowiednika źródła i otrzymanie jego <a href="https://pl.wikipedia.org/wiki/Widmo_(spektroskopia)">widma</a>. W 1963 roku <a href="https://pl.wikipedia.org/wiki/Maarten_Schmidt">Maarten Schmidt</a> zinterpretował otrzymane widmo jako dowód na kosmologiczną odległość źródła.<br /><div><b><br /></b></div><div><b>Anomalie w przesunięciu ku czerwieni.</b><div><br />Po wykładzie zapytałem Pana profesora Wolszczana, "czy możliwe jest, że przesunięcie ku czerwieni może nie oznaczać faktycznej ekspansji tylko być iluzją o nieznanej przyczynie fizycznej?" Powołałem się na świece standardowe, Prawo Hubble'a i "największą pomyłkę Einsteina" - otrzymałem ostrożną odpowiedź: "...nie możemy tego wykluczyć...".<br /><br />Halton Arp jest zawodowym astronomem, wcześniej był również asystentem Edwina Hubble'a. Zwany Galileuszem XX wieku, przedstawił dowody na to, że Wszechświat się nie rozszerza. Arp, były pracownik obserwatorium Mount Palomar w Kalifornii, obecnie prowadzi badania w Max Planck Institute, w pobliżu Monachium.<br /><br />Arp zaobserwował dużą liczbę obiektów wykazujących przesunięcia ku czerwieni <b>NIEZGODNE</b> z prawem Hubble'a. Badania te wskazują jego zdaniem, że przesunięcia ku czerwieni mogą być wynikiem innego zjawiska niż efekt Dopplera.<br /><br />Dlaczego jednak przesunięcia ku czerwieni są zazwyczaj interpretowane wyłącznie jako rezultat efektu Dopplera? Być może rzeczywiście zjawisko to powoduje przesunięcie ku czerwieni. Lecz na jakiej podstawie uczeni przyjmują, że owe przesunięcia są wywołane efektem Dopplera? Taka interpretacja wynika między innymi z faktu, że według współczesnej fizyki jedynym zjawiskiem poza efektem Dopplera, które może spowodować widoczne przesunięcie ku czerwieni, jest potężne pole grawitacyjne. Jeżeli światło przebija się przez pole grawitacyjne, traci energię i ulega przesunięciu ku czerwieni. Astronomowie uważają jednak, że wyjaśnienie to nie dotyczy gwiazd ani galaktyk. Aby spowodować zaobserwowane przesunięcie ku czerwieni, ich pola grawitacyjne musiałyby bowiem posiadać niewiarygodne natężenia.<br /><br />Arp twierdzi, że w sąsiedztwie obiektów o niskim przesunięciu ku czerwieni, znalazł obiekty cechujące się wysokim przesunięciem. Według standardowej teorii ekspandującego Wszechświata, obiekt charakteryzujący się niewielkim przesunięciem ku czerwieni, powinien leżeć względnie blisko Ziemi. Natomiast obiekt o dużym przesunięciu - w dużej odległości. Dwa obiekty, znajdujące się względnie blisko siebie, powinny zatem cechować się podobnym przesunięciem ku czerwieni.<br /><br />Arp podaje następujący przykład. Galaktyka spiralna NGC 7603 jest połączona z towarzyszącą jej galaktyką mostem świetlnym. Mimo to, przesunięcie ku czerwieni drugiej z wymienionych galaktyk jest wyższe o 8000 km/s. Różnica w przesunięciu wskazuje, że galaktyki te powinny znajdować się w całkowicie odmiennych odległościach od Ziemi - NGC 7603 powinna leżeć około 478 mln lat świetlnych bliżej - jednak, co dziwne, obie galaktyki są wystarczająco blisko siebie, by mogły być połączone mostem świetlnym.<br /><br />Arp znalazł ponadto wiele innych przykładów, które podważają tradycyjne poglądy na temat przesunięć ku czerwieni. Oto jedno z jego najbardziej kontrowersyjnych odkryć. W pobliżu galaktyki spiralnej NGC 4319 znajduje się kwazar Markarian 205, połączony z nią mostem świetlnym. Przesunięcie ku czerwieni w przypadku galaktyki wynosi tu 1800 km/s, co szacuje jej odległość na około 107 mln lat świetlnych. Kwazar wykazuje przesunięcie ku czerwieni o wartości 21000 km/s, co powinno oznaczać, że jest on odległy o 1,24 mld lat świetlnych. Arp wskazuje jednak, że obiekty te są wyraźnie połączone. Jego zdaniem, standardowa interpretacja przesunięć ku czerwieni jest w tym przypadku błędna.</div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /><br />Krytycy Arpa wykonali własne zdjęcia NGC 4319 i oświadczyli, że nie dostrzegli mostu łączącego rozpatrywane obiekty, widocznego na fotografii, jaką przedstawił Arp. W opinii niektórych badaczy most świetlny był tu jedynie "spreparowanym efektem fotograficznym". Jednak Jack M. Sulentic z University of Alabama w USA przeprowadził niedawno rozległe analizy fotometryczne dwóch omawianych obiektów i doszedł do wniosku, że łączący je most istnieje naprawdę.<br /><br />Kolejny zauważony przez Arpa przykład przesunięć ku czerwieni, które przeczą tradycyjnym poglądom, dotyczy niewielkiego łańcucha galaktyk, nazwanego od jego rosyjskiego odkrywcy Woroncow-Weliaminow 172. W łańcuchu tym mniejsza, gęstsza galaktyka cechuje się dwukrotnie większym przesunięciem ku czerwieni niż pozostałe.<br /><br />Obok par czy też grup galaktyk z nietypowym przesunięciem ku czerwieni, Arp wskazał na jeszcze dziwniejsze zjawisko. Okazuje się, że kwazary i galaktyki mogą wyrzucać z siebie jak z katapulty nowe kwazary i galaktyki. Na przykład eksplodująca galaktyka NGC 520, charakteryzuje się dość niskim przesunięciem ku czerwieni. Wzdłuż linii prostej biegnącej do niej w kierunku południowo-zachodnim znajdują się cztery słabe kwazary. Według Arpa są to jedyne kwazary w tym rejonie. Czy ich ustawienie może być dziełem przypadku? Arp twierdzi, że jest to bardzo nieprawdopodobne. Jego zdaniem zostały one wyrzucone z eksplodującej galaktyki. Co ciekawe, wszystkie cztery rozpatrywane kwazary cechuje o wiele większe przesunięcie ku czerwieni niż galaktykę, z której wydają się pochodzić. Taka sytuacja jest zdumiewająca, ponieważ według teorii o przesunięciach ku czerwieni, kwazary te powinny znajdować się o wiele dalej niż związana z nimi galaktyka. Analizując ten i inne podobne przykłady, Arp doszedł do wniosku, że tuż po wyrzuceniu z macierzystych obiektów kwazary charakteryzują się wysokim przesunięciem ku czerwieni, które maleje wraz z upływem czasu.<br /><br />Niektórzy uczeni zastanawiają się, czy galaktyki mogą rzeczywiście wyrzucać z siebie inne masywne obiekty, takie jak galaktyki bądź kwazary. W odpowiedzi na te wątpliwości, Arp zwrócił uwagę na zaskakującą fotografię olbrzymiej galaktyki <a href="https://en.wikipedia.org/wiki/Messier_87" target="_blank">M87</a> wyrzucającej strumień materii <a href="http://www.messier.seds.org/" target="_blank">(zajrzyjcie też do katalogu Messiera)</a>. Okazuje się, że galaktyki eliptyczne leżące w okolicy M87, która również jest galaktyką eliptyczną, znajdują się niemal w linii prostej ze strumieniem wyemitowanej materii. Zdaniem Arpa sytuacja ta wskazuje, że również zostały wyrzucone przez M87.<br /><br />W jaki sposób galaktyka może emitować galaktykę? Jeżeli galaktyka to "wyspa Wszechświata" składająca się z wielkiego skupiska gwiazd i gazu, czy jest w stanie wyrzucić z siebie nową galaktykę, która stanowi podobne skupisko materii? Jeśli jednak rozpatrywali galaktyki jako wiry to sytuacja zaczęłaby się wyjaśniać.<br /><br />Niestety, obecne prawa fizyki nie dają żadnej możliwości wyjaśnienia. Skoro galaktyka składa się z wielu gwiazd oraz chmur pyłu i gazu, jakie jej cechy mogłyby spowodować przesunięcie ku czerwieni niezależnie od prędkości lub grawitacji?</div><div><br /><br /><b>Teoria wyczerpanego światła.</b></div><b><br /></b><div><br /></div><div>Według ustaleń Jeana Pierre'a Vigiera, francuskiego astrofizyka z Institute Henri Poincare, jeśli ograniczymy się do odległych galaktyk w obszarze A i obliczymy stałą Hubble'a, otrzymamy wartość zdecydowanie odmienną od wyniku dla obszaru B. Wskaźnik ekspansji różni się zatem w zależności od tego, czy badamy galaktyki z widocznymi na ich tle innymi galaktykami, czy też bez nich. Jeżeli wszechświat podlega rozszerzaniu, jaki związek ze wskaźnikiem jego ekspansji mogą mieć galaktyki leżące na pierwszym planie w obszarze A? W opinii Vigiera wynika to z faktu, ze mierzone przesunięcia ku czerwieni odległych galaktyk nie są w rzeczywistości spowodowane rozszerzaniem się Wszechświata. Stanowią raczej efekt zupełnie odmiennego zjawiska - tzw. mechanizmu wyczerpanego światła.<br /><br />Vigier przyjmuje, że przemieszczające się w przestrzeni kosmicznej światło ulega przesunięciu ku czerwieni wskutek pokonywania danego dystansu. Taki proces byłby zgodny ze znanymi prawami fizycznymi. Według jednego z tych praw widmo światła powinno bowiem przesuwać się ku czerwieni z powodu samego ruchu badanej wiązki świetlnej. Efekt tego procesu jest tak niewielki w przypadku ziemskich warunków, że <b>trudno dokonać jego pomiarów</b>, lecz gdy światło pokonuje ogromne odległości między galaktykami, przesunięcie zaczyna być widoczne. Zjawisko to określane jest mianem wyczerpanego światła, gdyż poruszając się w przestrzeni, światło traci energię. Im więcej jej utraci, czyli im bardziej podlega wyczerpaniu, tym większym cechuje się przesunięciem ku czerwieni. Przesunięcie to jest więc proporcjonalne do odległości danego obiektu, nie zaś do jego prędkości.<br /><br />Na podstawie powyższych ustaleń, Vigier prezentuje statyczny model Wszechświata. Jego zdaniem, wszystkie galaktyki są w przybliżeniu nieruchome. Przesunięcia ku czerwieni nie są pochodną efektu Dopplera; nie mają nic wspólnego z prędkością źródła światła. Wynikają z naturalnej właściwości samego światła, które ulega wyczerpaniu, pokonując ogromne odległości. </div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div class="separator" style="clear: both; text-align: center;"><iframe allowfullscreen="" class="BLOG_video_class" height="373" src="https://www.youtube.com/embed/HpWDia1xXz0" width="554" youtube-src-id="HpWDia1xXz0"></iframe></div><br /><div>Na powyższym filmie są pokazane gwiazdy filmowane poprzez atmosferę. Co jeśli podobny obraz uzyskamy nawet gdybyśmy obserwowali obiekty kosmiczne spoza atmosfery? Świadczyłoby to jednoznacznie że przestrzeń kosmiczna tak samo jest wypełniona cząsteczkami jak atmosfera, z tą różnicą że grawitacja przy powierzchniach ciał niebieskich utrzymuje najgęstsze cząsteczki. Ich gęstość i wielkość zmniejsza się wraz z wysokością. Może zdarzyć się że obraz się będzie bardziej chwiał z powodu sporadycznych obłoków gazowych i innych zakłóceń ale gdyby przestrzeń była rzeczywiście pusta, bezcząsteczkowa, światło gwiazd powinno być czyste i klarowne praktycznie jak z lasera. Oczywiście dookólnego.</div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /><br />Oczywiście większość astronomów odrzuca koncepcje wyczerpanego światła, gdyż wymaga ona <b>nowych praw fizyki</b>. </div><div><br /></div><div><b>[Tak oto zamiast tabakiera być dla nosa, nos musi służyć dla tabakiery. Jeśli Wszechświat wymaga od nas nowych praw fizyki to TRZEBA JE NAPISAĆ!]</b></div><div><br /></div><div>Vigier przedstawia jednak swoją teorię w sposób niewymagający radykalnie nowej fizyki.<br /><br />Vigier podaje również inne dowody, które wskazują że przesunięcia ku czerwieni są niezależne od prędkości badanych obiektów. Jeżeli na przykład, światło gwiazd mierzone jest wówczas, gdy przechodzi w pobliżu Słońca, cechuje się wyższym przesunięciem ku czerwieni niż światło pochodzące z innych rejonów nieba. Z powierzchni Ziemi takich pomiarów można dokonywać jedynie w trakcie całkowitych zaćmień słońca, kiedy gwiazdy w pobliżu tarczy słonecznej zaczynają być widoczne w nastającej ciemności.<br /><br />Vigier wyjaśnia przesunięcia ku czerwieni w kategoriach statycznego Wszechświata, w którym światło zachowuje się nieco inaczej niż przyjmują zwykle uczeni. Standardowy model rozszerzającego się Wszechświata nie tłumaczy bowiem, dlaczego wartości stałej Hubble'a są tak zróżnicowane. Zdaniem Vrigiera niezależnie od prędkości badanych obiektów przesunięcia ku czerwieni stanowią ogólną cechę Wszechświata, który jak najbardziej może być statyczny. Teoria Wielkiego Wybuchu nie miałaby więc żadnego uzasadnienia.<br /><br />Y.P.Varshini i kwazaryV.P. Varshini, fizyk z Uniwersity of Ottawa w Kanadzie, akceptując opinie Arpa, że kwazary cechują się niezależnymi od prędkości przesunięciami ku czerwieni, przedstawił swoje ustalenia dotyczące typów przesunięć. Jego badania wykazały, że nieoczekiwanie wiele kwazarów chearakteryzuje się przesunięciami ku czerwieni o wartościach bliskich 1,95 (liczba ta wyrażona jest w kategoriach przesunięcia długości fali; odpowiada ono prędkości około 238160 km/s, czyli 79% prędkości światła.<br /><br />Zdaniem Varshiniego kwazary wytwarzają światło w nieoczekiwany sposób - w sposób, który powoduje, że światło wygląda na przesunięte ku czerwieni w wyniku efektu Dopplera. W jego opinii zjawiska laserowe występujące w kwazarach nadają ich światłu odmienne cechy, które nie mają nic wspólnego z prędkościami kwazarów. Innymi słowy Varshini doszedł do wniosku, że uczeni <b>niewłaściwie odczytują</b> linie spektralne w tym typie światła jako przesunięte wskutek efektu Dopplera w zwykłym zjonizowanym gazie. Kwazary znajdują się więc relatywnie blisko, a pogląd, że leżą one w dużej odległości wynika z <b>błędnej interpretacji widma ich światła</b> - wytworzonego laserowo - jako zwykłego światła przesuniętego w wyniku zjawiska Dopplera.<br /><br />Bez względu na to, czy teoria Varshiniego jest słuszna, jego spostrzeżenia, że linie spektralne kwazarów dzielą się na wyraźne grupy, podważa (przynajmniej odnośnie kwazarów) standardową koncepcję o odległościach kosmicznych. Jeżeli zaś uznamy, że linie widmowe kwazarów są przesunięte w skutek efektu Dopplera i zastosujemy obowiązującą teorię, okaże się, że <b>Ziemia leży w centrum Wszechświata</b>, co oczywiście przeczy dzisiejszym poglądom.<br /><br /><br /><b>Kwantyzacja przesunięć ku czerwieni.</b> </div><div><br /></div><div>Kolejnego interesującego odkrycia dokonał William G. Tifft, astronom ze Steward Obserwatory przy University of Arizona w Tuscon w USA. Jego badania być może najbardziej podważają model rozszerzającego się Wszechświata. Tifft zaobserwował, że przesunięcia ku czerwieni cechujące galaktyki, podlegają z reguły kwantyzacji, a więc nie przybierają dowolnych wartości, lecz stanowią w przybliżeniu wielokrotność podstawowej wielkości, która w tym przypadku wynosi około 72 km/s. Ustalenia Tiffta wskazują zatem, że przesunięcia grupują się w pobliżu 72 km/s, 144 km/s, 216 km/s, 288 km/s itd.<br /><br />Tifft zbadał względne przesunięcie wielu par galaktyk. Zgodnie ze standardowym poglądami, jego wartość reprezentowałaby nie tyle prędkość z jaką para galaktyk oddala się od Ziemi, lecz raczej prędkość ruchu orbitalnego jednej galaktyki wokół drugiej, mierzoną wzdłuż naszego kierunku obserwacji. Tifft ustalił jednak, że taka sytuacja nie występuje. Przesunięcia ku czerwieni grupują się w pobliżu wielokrotności podstawowej wielkości - 72 km/s, co oznacza, iż mierzone przesunięcia nie zależą od prędkości badanych galaktyk, a one same w rzeczywistości nie obiegają się wzajemnie. Odkrycia Tiffta dotyczą nie tylko par galaktyk, lecz również całych ich grup. W tej sytuacji, według prawa Newtona lub Einsteina, powinny wspólnie opadać bądź oddalać się od siebie, pozostając wciąż w pewnym układzie. Tym niemniej przeprowadzone badania świadczą, że takie zjawisko nie występuje. Dlatego zdaniem Tiffta konieczne jest opracowanie nowych praw dla grawitacji.<br /><br />Istnieją już pewne świadectwa, które mogą wskazywać, iż prawa Newtona wymagają korekty, zwłaszcza w odniesieniu do galaktyk. Przez wiele lat uczeni mieli duże problemy z wyjaśnieniem dynamiki ruchu galaktycznego na podstawie prawa grawitacji. Na przykład, pewne galaktyki poruszają się ruchem orbitalnym w skupiskach, lecz zgodnie z zasadami dynamiki i prawem grawitacji nie powinny być uporządkowane w ten sposób. Biorąc pod uwagę ich przypuszczalne prędkości, musiałyby posiadać o wiele większe masy, by poruszać się po orbitach. Próbując odnaleźć te brakujące masy, astronomowie zamiast zmodyfikować prawa grawitacji, woleli przyjąć koncepcję istnienia wielkich ilości niewidzialnej, ciemnej materii. Niektórzy badacze twierdzą, że brakuje 95% masy Wszechświata (ciemnej materii 30%, ciemnej energii 65% .<br /><br />Przytoczone uwagi wskazują, że społeczność astronomów i astrofizyków nie przyjęła ustaleń Tiffta przychylnie. Jednak Halton Arp potwierdził niezależnie część z jego odkryć, co nadaje z kolei większego znaczenia obserwacjom samego Arpa.<br /><br />Wobec powyższych sprzeczności Arp podaje swój rozstrzygający argument. Mniejsze galaktyki nie tylko cechują się dodatnimi przesunięciami ku czerwieni względem ich macierzystych galaktyk. Przesunięcia te podlegają kwantyzacji zgodnie z ustaleniami Tiffta. Arp zaobserwował ich maksima na poziomie około 70, 140 i 210 km/s, co odpowiada odkryciom Tiffta odnośnie kwantyzacji w postaci wielokrotności 72 km/s. Jak widzieliśmy, oznacza to, że badane przesunięcia nie zależą od prędkości obiektów. Natomiast, fakt iż kwantyzacja zachodzi w stosunku do dominującej galaktyki w grupie, wskazuje na istnienie tu pewnego fizycznego związku. Jeżeli byłby on wynikiem przypadku, w jaki sposób doszłoby do kwantyzacji? Wystąpienie zjawiska kwantyzacji świadczy o realności tego powiązania.</div><div><br /></div><div>Przetłumaczył z angielskiego: Łukasz Ostrowski, Toruń 2004</div>Materiały pochodzą ze strony <a href="http://www.haltonarp.com/">HaltonArp.com</a> oraz z ksiązki Richarda L. Thompsona "Vedic Cosmography and Astronomy".<div><br /></div><div><br /></div><div><br /></div><div><b>Efekt nazwany tu jako wyczerpane światło NIE JEST SPOWODOWANY NATURĄ ŚWIATŁA a naturą przestrzeni którą opisywałem wcześniej jako cząsteczkową, a dokładnie quasi-fotonową. Kiedy uderzymy dłonią o powierzchnię wody, ze zbiornika wodnego wydzielą się krople, cząsteczki których energia, prędkość czy inne własności pozwolą je zaobserwować. Działając w ten analogiczny i prosty sposób przestrzeń kosmiczna jest zbiorem cząsteczek lecz nie rozróżnialnych dopóki nie zaistnieje zjawisko ruchu. Dopiero ruch pozwoli przestrzeni stać się zaobserwowaną w postaci cząsteczkowej. Wzbudzając za pomocą elektromagnetycznych urządzeń/maszyn przestrzeń do ruchu (atmosfera jest tylko gęstszą formą tej quasi gazowej przestrzeni), wszystko w kosmosie nagle zacznie nam pięknie funkcjonować. Zarówno prawa jak i loty kosmiczne. Włącznie z elektromagnetycznym transportem. Trzeba tylko zrezygnować z archaicznej teorii Big Bangu- patrz moje poprzednie posty, i uznać że Wszechświat był ZAWSZE pełny cząsteczek- fotonów bo tak jak Bóg jest światłością tak Wszechświat zbudowany ze światła jest cząsteczkową światłą świadomością. W istocie wszystko jest świadomością ale to już inny DUCHOWY sektor rozpatrywań więc zadanie absolutnie nie dla konwencjonalnych fizyków. Nie odnajdą się tu a przynajmniej nie wszyscy. Tak jak materia jest kondensatorem dla energii tak samo jest soczewką dla cząsteczkowej fotonowej świadomości Wszechświata. Nie wiem jak Ty- czytelniku, ale ja już zdania nie zmienię. Zbyt długo do tego w życiu dochodziłem, wyczerpując inne wątki</b>. <b>To największa unifikacja i rozwiązanie problemów astrofizyki na jaką mnie było stać po 25 latach mielenia dostępnych danych, rozważań i poszukiwań.</b></div><div><b>To jest najbliższa granica do której możemy dotrzeć w poszukiwaniu prawdy za pomocą logiki. Kto chciałby wyjść poza nią musi zrezygnować z osobowego egoizmu rywalizacji i wojen "my ziemianie przeciwko sobie" i przekształcić go w egoizm zbiorowy "my ziemianie przeciwko tajemnicom Wszechświata" </b><b>inwestując w elektroastronautykę</b><b>. Nie ciekawiej? Najszybciej można przeniknąć jego największą tajemnicę, lecąc na kraniec Wszechświata, gdzie prawdopodobnie cząsteczkowa/ fotonowa "atmosfera Wszechświata" kończąc się, ukaże nam osobliwość swojej nadrzędnej dla cząsteczkowego/ kwantowego świata świadomości w absolutnej ciemności, ze względu na prawdopodobny brak fotonowej struktury. To znaczy niemożliwość ich wzbudzenia z powodu ekstremalnie niskiej temperatury. Ale materia, w tym nasze ciała, mogą na granicy praw jakiejkolwiek znanej nam fizyki, jaką stać będzie nas opracować, zacząć się rozpadać z powodu braku subatomowego ciśnienia a umysł może bardzo dziwnie się zachowywać, mieszając swoje funkcje z bezpośrednio wdzierającą się doń absolutną świadomością Wszechświata co pozwoliłoby jeszcze za życia czytać wzajemnie w myślach wszystkim obecnym w pobliżu astronautom. Zjawisko podobne jak po wyjściu astronautów poza ziemską magnetosferę, ale o </b><b>ekstremalnie </b><b>zwielokrotnionym działaniu na psychikę. Nie chcę iść za daleko bo ktoś mi powie że zamieniłem kolejną osobliwość Big Bangu na inną, choć wątek na film S-F byłby ciekawy. Polski film oczywiście bo dlaczego nie? Sumując, skoro w starożytnych Indiach już o tym wiedziano a była wtedy obecna wysoka technologia lotów kosmicznych, może być bardzo ciekawie i... ciężko, jednak na pewno najlepszych odpowiedzi na te pytania udzielą nam inne o wiele bardziej rozwinięte cywilizacje. Równie dobrze tzw. Wszechświat może znajdować się w głowie wielkoskalowej istoty humanoidopodobnej, z której wylatując pomiędzy przeskalowanymi fraktalnie atomami, możemy zginąć od nadmiaru światła nie przenikającego do jej wnętrza znanego nam jako Wszechświat- porównaj zachowanie światła względem ludzkiej głowy. Też jest wewnątrz ciemno i też mimo tego są obecne fale elektromagnetyczne. W tym wypadku głównie cieplne jak promieniowanie reliktowe które nie wiedzieć czemu, dociera do nas ze wszystkich stron.</b></div></div></div><div><b><br /></b></div><div><b><br /></b></div><div><br /></div><div class="blogger-post-footer">„Analfabetami XXI wieku nie będą ci, którzy nie umieją pisać ani czytać, lecz ci, co nie potrafią oduczyć się wierutnych kłamstw, w które nauczono ich wierzyć i nie potrafią szukać ukrytej wiedzy, którą nauczono ich odrzucać”</div>#magnetartechprojecthttp://www.blogger.com/profile/00116426320285930090noreply@blogger.com0tag:blogger.com,1999:blog-1727701247933515471.post-4597976219768511282022-08-19T19:48:00.174+02:002023-09-27T02:29:02.634+02:00Zdrowa dieta (astronautów) kluczem rozwoju cywilizacji interplanetarnej<br /><p><br /></p><blockquote style="border: none; margin: 0 0 0 40px; padding: 0px;"><p style="text-align: left;"><br /></p></blockquote><p><br /></p><p><br /></p><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgZPTHxVMyUXBFLadbnP-kO_qHpN-YHVxSrzWwhhzTM7GruMLjjUmWdOc5X7DSAqZMzUgUpzx6BkevOm48QBIRUMje2vxhERPGLqOwSkX1ahja56yDkbZN6RBzGiqNViRhuxqUj65Nr9MpAwC14xNQZ5hLPvjz_jA-s011-fsAOoUMx0LXyLQF3Cl1l8lI/s644/358462151_2638497182957921_7264520953551789905_n.jpg" imageanchor="1" style="clear: left; float: left; margin-bottom: 1em; margin-right: 1em;"><img border="0" data-original-height="644" data-original-width="489" height="400" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgZPTHxVMyUXBFLadbnP-kO_qHpN-YHVxSrzWwhhzTM7GruMLjjUmWdOc5X7DSAqZMzUgUpzx6BkevOm48QBIRUMje2vxhERPGLqOwSkX1ahja56yDkbZN6RBzGiqNViRhuxqUj65Nr9MpAwC14xNQZ5hLPvjz_jA-s011-fsAOoUMx0LXyLQF3Cl1l8lI/w304-h400/358462151_2638497182957921_7264520953551789905_n.jpg" width="304" /></a></div><p></p><div><div><div><div><div><br /><br />Ten post będzie o tak mądrym stylu życia na jaki mnie tylko stać jako przeciętnego człowieka a dotychczas półświadomego zjadacza chleba. Stylu który sam oczywiście wdrażam maksymalnie jak to możliwe a konkretnie o jego najważniejszej części jaką jest żywienie i higiena którą w przyszłości będą musieli stosować świadomi, sytuacji ludzie, aby bez wielkich nakładów polepszyć swoje zdrowie i zycie. Także przyszli astronauci aby wydłużyć życie i możliwość kontynuowania pracy zawodowej w przestrzeni kosmicznej bo cały projekt który kontynuuję, dotyczy rozwoju nowej gałęzi przemysłowej jaką jest astronautyka i związane z nią pozyskanie zasobów z przestrzeni kosmicznej. Dlatego podam tu nie tylko teorię i praktyczne rozwiązania dla produkcji bezpłatnej energii elektrycznej. Także darmowego transportu co wespół z darmową energią jest podstawą zdrowej cywilizacji interplanetarnej.<br /><br />Na ten moment jednak, póki oficjalnie nie mamy technologii kosmicznych gwarantujących rozwiązanie obecnego kryzysu, należy tak samo jak ONI- ci którzy lepiej wszystko wiedzą, kontrować ich pozbawione humanizmu i logiki zabiegi oparte o wadliwą skorumpowaną naukę i dobierać jak najlepsze zasady i technologię dla przetrwania tego trudnego dla cywilizacji ostrego zakrętu. Ponieważ obecnie spodziewałbym się dalszych idiotyzmów w stylu naczelnego światowego pseudoimmunologa Billa Gatesa jak masowa pseudo immunologia- sztuczna odporność nie wiadomo na co oraz zrzut biochemicznego syfu z powietrza, aby to wymusić. Wraz z deblilnym ochładzaniem atmosfery aluminiowym pyłem etc, lub przekształceń miast w obozy dla nie chcących się podporządkować "wybiórczo mądrym" regulacjom panów od biznesu. </div><div>Oczywiście w takich sytuacjach dobrym zabezpieczeniem będzie jakiś punkt ucieczkowy, schron, solidna maska przeciwgazowa i plecak z podręcznym ekwipunkiem jak min. zapas żywności chociaż na kilka dni.<br /><br />Nie biorąc pod uwagę sytuacji kryzysowych, najważniejsze w zdrowym żywieniu dla utrzymania kondycji i długiego życia będzie też ...nie jedzenie. Post, głodówka oraz zapomniana i niedoceniona lewatywa. Człowiek jako wszystkożerca musi oczyszczać jelito grube , w przeciwnym razie jego dni będą policzone. Każda maszyna w tym biomaszyna jaką jest człowiek MUSI się regularnie oczyścić. Tych zasad zdrowego życia już nie ma choć były znane jeszcze przed II wojną. Wszystko odeszło wraz z grabieżą antyseptycznego złota używanego u nas w kraju na co dzień i holokaustem dokonanym na polskiej inteligencji i jest to pierwsza przyczyna wielu chorób których dawniej nie było. Nie dotyczy to wyłącznie Polski. Wojna miała na celu degradację dotychczas wypracowanego stylu życia Słowian w szczególności a ogólnie ludzkości. Podobnie jak Inkwizycja. Po wojnie jedzono wszystko jak leci i czym popadnie - przykładowo zachwalanym wtedy aluminium. Na marginesie... przestań się zachwycać technologicznymi nowinkami. Dopiero czas pokazuje co są warte.<br /><br />Przykładowo powód modyfikacji pszenicy był jednym ze sposobów zaradczych aby w konsekwencji niskowartościowym kalorycznym pieczywem zawalić rynek. Stąd problem masowej otyłości. Wrzucamy dziś w siebie różne chemiczne substancje nie patrząc na to skąd pochodzą i jak sobie z nimi poradzi organizm. Bo inni tak robią... Z czasem doszła do tego chemiczna konserwacja żywności. Potem gdy przychodzą choroby wrzucamy kolejną chemię, tyle że farmakologiczną. Leczyć się chemią z chemii? Zamiast oczyścić z tego całego paskudztwa ludzkiego pomysłu, cały swój organizm? Gdyby muchy mogły mówić, usłyszelibyśmy "jedzmy gówno... miliony nie mogą się mylić..."<br /><br />Trzeba pamiętać że ciało rozpoznaje substancje TYLKO biologicznego pochodzenia a do innych musi się przyzwyczajać z różnym bolesnym w konsekwencji skutkiem. Włącznie ze śmiertelnym. Natomiast labor-substancje organizm utyka w tłuszczu jak najdalej od ważnych organów. Problemy zdrowotne nie wynikają ze spożycia naturalnych produktów jakimi są owoce, warzywa (zwłaszcza kiszone) i pewne produkty w postaci nabiału czy białka które tu zaraz wymienię. Jedząc SAME OWOCE nie dostaniesz cukrzycy więc bzdury które usłyszałeś od łowcy skór konowała zwanego lekarzem że "ma Pan podwyższony cukier więc nie może Pan od dziś jeść owoców" uważam za brak znajomości tematu. Wręcz za wyuczony debilizm XXI wieku. Jeden z wielu które tkwią w zestawie zabobonów zwanym nauką. Nauka nie różni się wiele od teorii spiskowych. To jest taka sama półprawda jak te wynikające ze spiskowych teorii. Przestań wreszcie to rozgraniczać w ten sposób. Aby z tego zestawu dwóch przeciwieństw ulepić prawdę, potrzeba jeszcze wiele pracy.<br /><br />Problemy zdrowotne wynikają głównie z braku witalizującej żywności i postu a więc (obowiązkowego) oczyszczania biomaszyny jaką jest organizm. Dlaczego uważa się że jeśli coś nie zabiło nas od razu to nie zabija po woli dzień po dniu?? Problemem w rozpoznaniu skutków karmienia dzieci słodyczami i innym chemicznym badziewiem, jakim jest wysyp chorób na starość, włącznie z rakiem, jest zbyt długi odcinek czasu między młodością a starością aby dało się połączyć te dwie kropki linią bezpośredniej konsekwencji.<br /><br />Budowa dłoni ludzkich sugeruje że są zaprojektowane przez naturę do zrywania owoców, zakładając że nie użyjemy żadnego narzędzia przemocy jak np. włócznia a przecież przemocy nikt świadomy i rozumny nie chce jak mniemam. Z tej przyczyny to właśnie owoce są pierwszym, najlepiej z resztą skomponowanym przez naturę pożywieniem człowieka. Są lekkostrawne w porównaniu nawet z warzywami. Alkalizują- odkwaszają czyli dotleniają organizm. Są naturalnie wolne od pasożytów jeśli nie hoduje się bydła wraz z uprawą sadu w porównaniu do warzyw i jeśli mielibyśmy dziś czyste alkaliczne deszcze, owoce byłyby zawsze gotowe do spożycia nawet bez mycia. Tego nie można powiedzieć o warzywach które musimy oczyścić z ziemi i uzdatnić do spożycia bez gotowania niszczącego minerały i witaminy, więc trzeba je obowiązkowo ukisić aby spożyć w pełni ich wartości. Owoce najskuteczniej nawadniają organizm który składa się w ponad 70 % z wody! Co to dla nas znaczy w praktyce? Że gdy już wycina się drzewa w miastach, na to miejsce i w każde inne wolne zurbanizowane miejsce należy na powrót sadzić drzewa owocowe. Tak aby w razie sytuacji braku dostaw żywności nie było problemu jej zdobycia. </div><div>Wybieramy się terraformować suchą kamienistą powierzchnię Marsa podczas gdy o wiele prościej można naprawić powierzchnię Ziemi. Atmosfera i pole magnetyczne już tu jest! Woda też. Można nawodnić wszystkie pustynie. Jest masa miejsca na planecie gdzie można byłoby postawić pneumatyczne ogrody do produkcji żywności roślinnej. Natura się nie obrazi ani nie pogniewa na tego rodzaju modernizacje bo to o las chodzi. To las normalizuje klimat, wilgotność i temperaturę w atmosferze. Coraz gwałtowniejsze i częstsze zmiany pogodowe nie wynikają z powodu większej ilości CO2 w atmosferze a z powodu wycinki lasów, melioracji gruntów i betonozy miast. Ogólnie z zaburzeń obiegu wody w środowisku. Przykładowo większa miejscowa wilgotność powietrza nad wylesionym gruntem powoduje różnice temperatur względem pozostałego terenu a to wywołuje wyrównawczy ruch mas powietrza. Tornado czy huragan gotowe.</div><div><br /><br /><br /><br /><br /><br /><br /><br /><br /><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEj0FH3eOxv3LiaZvC4N5HtQHYVlNAdwtzgJaeQAE3z-cPpkEDTtEgYPj_ZBbVU2ZMH1M_sqftOx-lbz0i4hCBMC5Cj70ptw2f7r4Rd8eldEOgc8jIx9Lvurppz1kl2iSYD36rhrs7jFEpXK4lXruNT_jU5X7lnQwe8gYSoOPxH1owQzJ0SrohMKAA13/s1312/Screenshot_20200327-205816_GG.jpg"><img border="0" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEj0FH3eOxv3LiaZvC4N5HtQHYVlNAdwtzgJaeQAE3z-cPpkEDTtEgYPj_ZBbVU2ZMH1M_sqftOx-lbz0i4hCBMC5Cj70ptw2f7r4Rd8eldEOgc8jIx9Lvurppz1kl2iSYD36rhrs7jFEpXK4lXruNT_jU5X7lnQwe8gYSoOPxH1owQzJ0SrohMKAA13/w597-h790/Screenshot_20200327-205816_GG.jpg" /></a><br />Jak wiecie, jesteśmy w czarnej dupie. Nadchodzi eksterminacja i nawet nie skończyłem statku żeby móc uciec chociaż na orbitę... aby się jakoś zrelaksować.<br /><br /><br /><br /><br /><br /><br /><br /><br />Najważniejsze jest w całym tym bałaganie żywienie. Bez zdrowia nie mamy nic i nic nie zdziałamy. Dlatego na początku przedstawiam zarys uniwersalnej diety dla każdeego człowieka. Poza niewątpliwie idealnym rozwiązaniem jakim jest życie na wsi, gdzie możemy każdy kawałek posesji przekształcić w rozwiązania mniej lub bardziej zaawansowane technologicznie dla produkcji żywności, pozostaje kwiestia przetrwania w betonozie rewiru miejskiego.<br />Poza tzw skipowaniem/ dumpsterdivingiem czyli po prostu odzyskiwaniem żywności z przysklepowych śmietników miejskich, wybieram bardzo niewiele artykułów ze sklepu. Niewiele z nich ma rzeczywistą prozdrowotną wartość odżywczą.<br /><br />1. Na pierwszym miejscu stawiam kiszonki warzywne. Kiszone ogórki, kapustę, buraczki etc. oraz soki z kiszonych, tych i innych warzyw. Kiszone produkty to najlepsza żywność poza owocami jaką można przyrządzić, która wzbogaci i odżywi dodatkowo florę bakteryjną jelit. Jemy głównie po to aby karmić nasze BAKTERIE, nie siebie. Siebie jedynie pośrednio. Teraz pomyśl w tym kontekście co robisz kupując konserwowaną chemicznie żywność (ja nazywam ten cywilizacyjny masowy niewypał "śmiertnością"- chyba wiesz dlaczego?). Gotowanie jest nieco gorsze od kiszenia, smażenie i pieczenie jeszcze gorsze ale najgorsze jest grillowanie i żarcie z mikrofali, czego nie można powiedzieć o indukcji - 20 do 50 kHz czyli bardzo blisko słyszalnego zakresu audio... to o niebo przyjaźniejsza częstotliwość niż mikrofalowa - 2,4 GHz która wytłumiana jest przez wodę a więc woda ją pochłania. A skoro z wody jest zbudowane nasze ciało w ponad 70 % , telefonia komórkowa z automatu jest również wybitnie niezdrowa i chyba tylko konkurencji zależy aby wrzucić do jednego worka z mikrofalą, również indukcję. Dlaczego kiszonki? Proces rozwoju bakterii w jelitach człowieka przypomina mi proces produkcji mleka u krowy. Krowa jest mięsożercą. Hoduje w swoim czteroczęściowym żołądku bakterie na błonniku z trawy. Najpierw zjada i podgrzewa trawę aby namnożyć bakterie, potem zwraca i przeżuwa a tłuszcz Z BAKTERII staje się potem mlekiem. W końcu mamy z tego masło, twaróg, zsiadłe mleko, serwatkę, śmietanę itp. To bakterie na ściankach jelit chronią nas w tej kanalizacyjnej rurze zwanej jelitami, przed patogenami i wytwarzają z pożywienia wszystkie potrzebne substancje. Każda chemia ze sklepu codziennie niszczy organizm. Niech producenci sami to sobie żrą! Porzuć chemię a zobaczysz wtedy jak szybciutko na kolanach chodziliby gdyby konsumenci się zbuntowali. Poza tym nawet głód jest lepszy niż chemia w pożywieniu! Podstawą żywności nie powinno być to co wcześniej było deserem a deserem nie powinno być to co kiedyś było podstawą. A tak się właśnie stało!</div><div><br /></div><div>2. Z nabiału pozostaje jedynie zsiadłe mleko. Ponieważ to nie człowiek je tworzy a naturalny proces bakteryjny rozkładający laktozę. W każdym razie możliwie najbliższy natury. Jest to najmniej zmodyfikowany produkt mleczny dostępny w sklepach i marketach. Przykładowo Krasnystaw, choć mogliby antyseptyczne wieczko z trującego aluminium zastąpić równie antyseptycznym z folii miedzianej. Trochę droższe ale różnica kolosalna bo miedź służy ludzkiemu organizmowi.<br /><br />3. Jeśli chleb to tylko żytni na żytnim zakwasie. Długo się przechowuje, zwłaszcza jeśli trzymasz go zawiniętego nie w folię, nie w papier nawet a w lnianą antyseptyczną ściereczkę. Choć najlepszy chleb to jednak brak chleba. Chleb z innych w tym modyfikowanych genetycznie zbóż to produkt chlebo-podobne. Nawet nie warte grosza. Do tego szybka przemysłowa produkcja chleba na drożdżach wyparła tą niby zbyt powolną opartą na zakwasie który wymaga czasu, ale za to zakwasza ciasto, blokując rozwój toksycznych pleśni jak Sporysz, jednocześnie rozkładając gluten dla zdrowej pracy kosmków jelitowych. <br />Nie zakwaszony, można powiedzieć że SŁODKI chlebek zaprasza tylko pasożyty do organizmu, obniżając kwasowość żołądka. Produkt chlebo-podobny jak biały pszenny chlebek z pańskiego stołu, powoduje też atrofię kosmków jelitowych. A skoro nie ma już czasu wypiec chleba tak jak to drzewiej bywało to i jakość jego bliska jest zeru. Tyle co kitu z okna. Samo przyzwyczajenie do masowego spożycia chleba łączy się z udomowieniem i zmodyfikowaniem dzikiej trawy do postaci obecnej w której zawartość kalorycznego glutenu zwłaszcza w pszenicy, bije na głowę wszystkie inne zboża. Żytni chleb ma najmniej glutenu a zakwas żytni dodatkowo go rozkłada więc jest to chleb o najniższym indeksie glikemicznym. Mało tego. Uważam żyto za super zboże na czas przyszłego zlodowacenia ponieważ wyrośnie nawet po zimie o - 30<span face="arial, sans-serif" style="background-color: white; color: #4d5156; font-size: 14px;">°</span> celsiusza.</div><div><br />4. Ser a jeśli ser to najlepiej pleśniowy z penicyliną. Ewentualnie ser podpuszczkowy. Reszta obrabiana chemią to już produkty sero-podobne. Penicylina zatrzymuje proces tworzenia się ścian bakterii, dzięki czemu te nie mogą się namnażać i giną. Dlatego penicyliny mogą być stosowane podczas oczyszczania organizmu z toksyn które powodują namnażanie się obcych bakterii.<br /><br />5. Sól. Nie zwykłą sól wyczyszczoną z minerałów a Kłodawską nie czyszczoną. Co do Himalajskiej, nie jestem pewien jej wartości bo transport też kosztuje i może być sztucznie barwiona. Jeśli sól to także borowaną, wydobywaną z dna praoceanu - tzw. boraks. Ale tu z umiarem. Mała szczypta na szklankę wody dziennie wystarczy.<br /><br />6. Cukier? Tak, używam czasem cukier ale ten nieoczyszczony z minerałami. Buraczany brązowy ale nie pomyl z cukrem karmelizowanym, jednak najlepszy cukier to brak cukru. Nie jem wszystkich chemicznie i maszynowo produkowanych słodyczy. Skondensowane substancje zakwaszają czyli wyżerają błony komórkowe, przez co komórki muszą się częściej odnawiać a to przyspiesza procesy mitozy, mejozy a w konsekwencji telomerazy czyli podziału i odnowy komórek. Koniec wszystkich 72 sekwencji telomerazy oznacza śmierć więc warto się do niego zbliżać jak najwolniej. Odkwaszaniem/ alkalizacją organizmu. Chcesz zjeść coś słodkiego? Jedz owoce. Bzdurą jest porównywać skondensowany chemicznie cukier do cukrów NATURALNYCH. Nawet z najgorszej cukrzycy wyjdziesz jedząc owoce i warzywa zamiast ciast, kremów i batoników. Oczywiście... nie zmieniaj nic gdy chcesz dać zarobić lekarzom. Twój wybór bo to Twoje życie. W chinach lekarz dostaje pieniądze tylko gdy pacjent jest zdrowy. Gdy choruje, lekarz nie zarabia. Tak przynajmniej słyszałem. <br /><br />7. Czekolada co najmniej 60 %. Polska Goplana ostatnio zaczęła kierować się z produktami do świadomego konsumenta. Po co ci czekoladopodobna Milka gdzie jest 80 % tłuszczu palmowego- zastępczego wypełniacza który z braku odwiecznej informacji o nim jak to się dzieje gdy jesz naturalne produkty, organizm utyka w oponie tłuszczowej na brzuchu? Zwłaszcza że dla tego taniego zamiennika który dosłownie WSZĘDZIE się dorzuca, niszczone są hektary lasów. Tym zniszczeniom są winni wszyscy którzy bezwiednie kupują wszystko jak leci. Nie tylko producenci. Nie dość że zabijają tym lasy to i siebie a to lasy odpowiadają za łagodny klimat - zaś ich brak za nagromadzenie ciepła w powietrzu powodujące katastrofalne szybkie zmiany pogody. Ocieplenia oczywiście nie ma. To ewidentna bzdura naukowa w celu wyłudzenia kolejnych podatków na walkę z nieszkodliwym dla biosystemu gazem CO2.<br /><br />8. Masło - tylko prawdziwe. Nigdy nie kupuj tego uwodornionego tłuszczu roślinnego- mazidła- produktu masłopodobnego który sprzedają w ramach głodowego zastępstwa od czasów powojennych. Także masmixy nie są zbyt ciekawe dla organizmu. To coś zniszczy ci zdrowie tak samo jak modyfikowana soja z tłuszczem palmowym i inną chemią niszczy je wegetarianom. To coś zostaje w organizmie i nie wie gdzie ma się tam podziać bo w naturze nie występuje. Organizm nie rozpoznaje sztucznych substancji jeśli nie są proste, Tym wyznacznikiem się kieruj. Co w naturze to do żołądka, Co nie to na śmietnik a najlepiej nigdy nie bierz do ręki bo nie wymusisz wtedy produkcji i dana firma produkująca ten czy inny śmieć żywnościowy, upadnie tak szybko jak powstała. Wtedy producenci zaczną z powrotem szanować klienta. Klient musi oduczyć się być śmieciem systemu a ekologia samoistnie przyjdzie z czasem.<br /><br />9. Owoce w zasadzie wszystkie ale na pewno za wyjątkiem bananów które są impregnowane aby przebyć długą drogę z Afryki do sklepu. Tak samo hiszpańskie impregnowane truskawki. Gdyby to była normalna, nie schorowana cywilizacja to wprowadzono by porządek jedną jedyną ustawą o tym aby żywność KATEGORYCZNIE nie była konserwowana chemią A JEDYNIE NATURALNYMI SUBSTANCJAMI. Konserwowanie ziołami takimi jak jałowiec, solenie, kiszenie, gotowanie, ostatecznie pasteryzacja choć lepsza obecnie już jest paskalizacja. Wtedy skończyłyby się smrodzenie na drogach, koczownictwo parkingowe kierowców, koleiny i korki głównie z powodu tirów na drogach. Powstałaby rodzima przedsiębiorczość w zakresie handlu i uprawy zdrowej żywności. Zniknęłoby bezrobocie, ożywiłby się regionalny rozwój społeczny. Czyli to co jeszcze niedawno było i było normalne. Ludzkie.<br /><br />10. Surowe warzywa. Wszystkie za wyjątkiem kukurydzy i soi która jest na całym rynku zmodyfikowana. Warzywa gotowane mają już częściowo zepsute enzymy i obciążają organizm powodując większe gnicie w jelitach.<br /><br />11. Jeśli kupiłbym mięso, choć już nie kupuję to tylko od święta i tylko wołowe, baranie lub indycze. Wieprzowe, kurze i podobne nie jest wolne od toksyn. Wymienione zwierzęta jedzą padlinę. Najlepszym posiłkiem w trasie jest niestety właśnie kebab, mimo że mówią "kupując kebaba osiedlasz araba". Jakoś nic przeciwko arabom nie mam. Baranina z warzywami a do tego papryczki <a href="https://www.ekologia.pl/styl-zycia/zdrowa-zywnosc/papryka-jalape-o-warzywo-wlasciwosci-witaminy-i-wartosci-odzywcze-papryki-jalape-o,25111.html">jalapenos</a> też nie należy się bać a działa odkażająco na jelita w przypadku zmiany równoleżnika. Szlag mnie dotąd po nich nie trafił. Jeśli już musisz jeść mięso to jak najrzadziej i tylko z warzywami bo organizm nie musi wytwarzać wtedy tylu enzymów aby je strawić. Najgorzej to zjeść mięso z ziemniakami. Poza tym jeśli chcesz jeść mięso to najlepiej sam je sobie upoluj. Sądzę że wtedy ludzkość okazałaby się w większości wergetariańska. Stąd pomysł "zbawcy" "geniusza" Gatesa i ferajny na robaki i sztuczne mięso. Tak czy inaczej w przestrzeni kosmicznej mięsna dieta jest trudna do zabezpieszenia a do tego w stanie nieważkości jelita tym gorzej pracują im trudniejsze do strawienia pożywienie. Jelita nie wiedzą gdzie jest dół gdzie góra więc mięso ma się jeszcze gorzej niż w jelitach na Ziemi ponieważ w stanie nieważkości w którym często przyjdzie ludziom w kosmosie pracować, zwłaszcza wszelkim monterom, ciśnienie między głową a jelitami jest wyrównane. Drapieżniki mają krótkie jelita więc mięso zanim zacznie gnić, zostanie wydalone. <br /><br /> Na powierzchni Ziemi w miarę możliwości wybieraj produkty z górnej półki i również w miarę możliwości do życia wybieraj najlepszą dostępną strefę klimatyczną. Unikaj pustyni - szanuj i doceniaj las. Tam zawsze najlepiej. W tym kontekście miasto przesadnie zurbanizowane w którym nie ma miejsc dla drzew owocowych i bieżącej wody w postaci czystych rzek i wodnych kanałów jest miejscem szybkiej zagłady i najgorszym z możliwych wyborów, nie mówiąc o miejskim klimacie - wylęgarni patoskłonności ze względu na swój szary odrapany, betonowo-brudno-rdzawy klimat, nie pozostający bez wpływu na psychikę. Zapewne to jest powód dla którego na Górnym Śląsku między starymi czarnymi od pyłu węglowego familokami, powstało tak wiele psychodelicznych zespołów muzycznych . <br /><br />A więc jeśli masz las - po co sad? Jeśli masz sad, to po co ogród? A jeśli masz ogród to po co pole? I jeśli masz pole to po co step? W końcu jeśli masz step to po co pustynia? Sposoby żywienia na całym świecie są różne ale nie znaczy to że wszystkie gwarantują równie zdrowe i długowieczne życie. </div><div><br /></div><div>Czy mleko jest zdrowe. To zależy... bo jeśli masz uschnąć z pragnienia , lepiej napić się mleka. Ale jeśli masz sad i ogród... nie pij krowiego mleka. Jeśli możesz wybrać to pij mleko kozie lub owcze. Dużo bliższe jest składem mleku ludzkiemu.</div><div><br />Na pewno też nie zrozumiem ludzi którzy zdrowo się odżywiają, jednocześnie paląc papierosy lub pijąc wódkę. Z resztą żaden alkohol nie jest dobry, zwłaszcza dla mózgu. Tak zwany kac to próba wypłukania wszystkimi dostępnymi płynami przez organizm, wszystkich obumarłych neuronów. W sensie dosłownym potem wysikujesz swój mózg! Dosłownie...<br /><br />Kolejnym tematem i istotną sprawą jest zestaw narzędzi do przygotowania posiłków w kuchni. Nie możemy w kuchni używać aluminiowej folii i innego rodzaju narzędzi z aluminium, teflonu i plastiku. W to miejsce możemy użyć naczyń i narzędzi ze szkła, porcelany, kamionki, drewna, miedzi, mosiądzu, stali - w tym <a href="http://www.stalnierdzewna.com/baza-wiedzy/rodzaje-stali-nierdzewnej/">nierdzewnej</a>, <a href="https://www.urzadzamy.pl/kuchnia/garnek-ze-stali-nierdzewnej-jakie-ma-zalety-i-wady-czy-jest-zdrowy-aa-Ucxi-qUmE-oGV7.html">choć są pewne zastrzeżenia</a>, z żeliwa a także złota jeśli kogo stać. To że nauka na ten temat milczy, nie znaczy że produkowane przedmioty nie "gubią" atomów ze swoich powierzchni do otoczenia. Piszę to bo mam wrażenie że ludzie myślą o produktach i produkowanych substancjach jako nieścieralnych i niezniszczalnych patrząc pod kątem ich powierzchni z nadzieją że technologowie mają tak opanowany temat i krok za krokiem wiedzą co robią. Otóż.. wcale nie!!!<br /><br />Poza tematem żywienia, ważny jest też sposób ochrony przed promieniowaniem jonizującym czyli pociętymi strzępami atomów które nie są już materią ale nie są też energią. Są czymś pomiędzy, czyli mutantami przed którymi należy się chronić w pierwszej kolejności ponieważ orbitale walencyjne takich rozbitych atomów, przypominające mikro-wiry mogą się "wkręcić" w naturalne struktury materii jak "mikrowiertarki" i utworzyć zupełnie inne konstrukcje chemiczne lub nawet nietrwałe pierwiastki sztuczne, stąd nawet skóra może schodzić po wybuchu bomby. W omawianej sytuacji może to powodować dużo mniejsze ale jednostkowo groźne sytuacje. Drugorzędne znaczenie mają przy nich fale elektromagnetyczne złożone z fotonów. Mój sposób ochrony przed promieniowaniem niejonizującym, polega na oklejeniu dosłownie wszystkich ścian, przynajmniej sypialni grubą folią miedzianą podłączoną do uziemienia. Oczywiście nic tam nie będzie funkcjonować, ani wifi ani komórka. Chociaż ostatecznie można wykonać od podstaw lub kupić metalowy zbiornik do spania w ciśnieniu normobarycznym, adaptując zbiornik wodny od hydroforu który będzie spełniał dwa zadania na raz, jednak już tylko w czasie snu. <br /><br />W zasadzie początkowo miał to być sposób na tanią komorę normobaryczną, gdzie bardzo łatwo i prosto można regulować produkcję komórek macierzystych, ciśnieniem. Bez wygłupów z wodorem i CO2 który można pozyskać w czasie wydychania aby potem regulować jego zawartość odpowiednią konstrukcją zbiornika z umieszczonym w górnej części stale upuszczającym ciśnienie zaworem przepustowym i małą cichą sprężarką ze starej lodówki. Jak wspomniałem o niebezpiecznej pomyłce jaką jest komora hiperbaryczna, może ona powodować komplikacje z powodu zbyt wysokiego ciśnienia 2 atmosfer. Wtedy gdy pomysł wdrożono, nikt nie wiedziało tym że 1,5 atmosfery to naturalne ciśnienie dla człowieka . Historycznie obecne przed pierwszym potopem kiedy to Ziemia miała większą objętość, masę ,grawitację a tym samym ciśnienie atmosferyczne. Tego wynalazku nawet nie warto próbować i choć ostatnio obniżyli ciśnienie do 1300 hPa to za szybko je w czasie sesji podnoszą. Im wolniej tym lepiej dlatego warto s9obie wykoinać to w domu z w miarę solidnego, najlepiej betonowego pomieszczenia. Polecam też zrobić sobie własne łóżko-komorę w domu. Mój sposób na komorę normobaryczną jest prosty. Startujemy od ciśnienia 1000 hPa - 1 bar które w naturze jak wiadomo powoduje dobry humor bo to w końcu wyż, trwały wyż i z miesiąca na miesiąc podnosimy o około 100 hPa aż do 1,5 bara jeśli ktoś wytrzyma. Ale uprzedzam że migreny i podobne nieprzewidziane skutki, mogą dziać się nawet i w tym ciśnieniu gdy ktoś się pospieszy. Najbezpieczniej pozostać przy ciśnieniu max 1200 hPa<br /><br />Jakie mają znaczenie komórki macierzyste dla organizmu, nie muszę chyba przypominać. Produkowane są z nędzną ilością w obecnym ciśnieniu w kościach przedramion i ud, tam gdzie mamy szpik kostny. Już po dwóch godzinach w ciśnieniu 1,5 atmosfery / 1,5 bara / 1500 hPa możemy mieć ich we krwi 1000% więcej. Przy niższym ciśnieniu też będzie to zadowalająca ilość, mając na uwadze funkcję jaką pełnią w organizmie. Taką komorę normobaryczną uważam za podstawę nie tylko w pracy astronauty, jak pisałem w projekcie, ale na co dzień na powierzchni Ziemi, gdy wiadomo już że obecne popotopowe ciśnienie jest za niskie aby "żyć przez duże Ż" i w razie problemów ze zdrowiem, bez igieł, odciągania i wstrzykiwania osocza za miliony, móc niezależnie, codziennie i regularnie osiągnąć lepsze wyniki niż w umieralniach zwanych przez system szpitalami. Zwykły pokój sypialny w betonowym miejskim bloku po uszczelnieniu drzwi i okien możemy prosto przekształcić z powodzeniem w mini komorę normobaryczną o ciśnieniu 1100 hPa. Ustawiczne podnoszenie poziomu zdrowia za praktycznie darmo!<br /><br />Obecne ciśnienie nie nadąża za regeneracją zniszczeń strukturalnych komórek organizmu, czy to promieniowaniem czy chemią, KTÓRA NADAJE SIĘ JEDYNIE W TECHNOLOGII POZAMEDYCZNEJ I POZAŻYWNOŚCIOWEJ sobie dodatkowo pogorszyliśmy sytuację. Ciało nie wie jak ma pozbyć się tych wszystkich substancji chemicznych nie występujących obecnie ani dawniej w naturze.<br /><br />Higiena ... nie równa się chemii, detergentom itp bo jeszcze wyhodujesz sobie super bakterie jak w szpitalach.. Higiena to woda i mycie rąk szarym mydłem, wzmacnianie układu immunologicznego i regularne oczyszczanie organizmu.<br /></div><div><br /></div><div>Brak corocznego odrobaczania, postu, higieny, zdrowego żywienia powoduje zakwaszenie w tandemie z zarobaczeniem organizmu a więc choroby i szybszą śmierć. Mimo ścisłego przestrzegania higieny, przy stałym utrzymaniu czystości w domu (zwłaszcza w kuchni), ryzyko przeniknięcia pasożytów do organizmu nie jest zminimalizowane do zera. Nosicielami pasożytów są owady i robaki, ulubione zwierzęta domowe (psy i koty), ale także osoby zakażone. Pasożyty i ich jaja mogą być wszędzie. Na rurkach w autobusie czy tramwaju, nie mówiąc o poręczach, balustradach, ubikacjach, zwłaszcza w hipermarketach itp. To jest GŁÓWNA przyczyna chorób przewlekłych poza urazami mechanicznymi i trującą chemią w żywności, o której medycyna akademicka nie wie a medyczny biznes jeśli wie to i tak nie powie. Wystarczy że ktoś w mieście ma zaniedbanego psa albo sam nie dba o higienę. Miasto jest nieudolną formą siedliska społecznego, generującą patologie różnego rodzaju, a przyczyna istnienia hybrydy jaką jest miasto jest wyłącznie z lenistwa i wygody, gdzie nawet a może i zwłaszcza sąsiedzi są dla siebie głównym wrogiem mieszkając jeden drugiemu na głowie dla kasy, szczerze lub nieszczerze siebie po sąsiedzku nienawidząc.<br />A jeśli człowiek sobie w mieście nie radzi to zwierzęta tym bardziej. Męczą się w nim i tylko ludzki egoizm każe zwierzęciu przebywać w takich warunkach. Głównie mam na myśli zafajdane trawniki na których psy się wspólnie załatwiają, pośrednio zarażając także ludzi choć o wiele lepiej od ludzi sobie radzą z pasożytami ze względu na większą kwaśność żołądka. To człowiek jest tu głównym przegranym ze względu na brak higieny i odstępstwo od tradycji - POST. Z tego punktu widzenia łatwiej jest zrozumieć tak absurdalne z europejskiego punktu widzenia podejście do higieny u arabów. Przykładowo nigdy nie jedzą ręką którą myją tyłek. Nie "podcierają się" bo jest to nieskuteczne. Zacznijmy od tego że na wsi każda rzecz miała swoje miejsce. Zwierzęta na zewnątrz tak samo jak wychodek który jako część wyposażenia łazienki wtórnie do wsi trafił z miasta. Od zarania dziejów tylko brak higieny i wartościowej żywności powodował zarazy i pomory - nie żaden brak szczepionek. Są zbędne jeśli poświęcasz uwagę temu czy żyjesz jak zabiegany szczur czy szanujesz siebie a jeśli szanujesz, szanujesz także innych.<br />Zdrowe żywienie i zdrowy tryb życia zastępuje szczepienia w 99% za wyjątkiem turystyki egzotycznej, pracy przy hodowli zwierząt i w leśnictwie i to też tylko gdy nie dbasz o zdrowie- regularne posty, oczyszczające lewatywy, higiena i zdrowe żywienie. Jeśli jednak nie masz kontaktu ze zwierzętami, przypadkowych kontaktów seksualnych i nie podróżujesz, szczepienia są Ci ABSOLUTNIE niepotrzebne. Szczepienia działają krótko i o ile nie zaszkodzą swoją labor-chemią, trzeba je powtarzać aby były skuteczne. Wystarczy poszukać co Kill Bill wyprawiał w Indiach ze szczepieniem przeciw polio i w Afryce ze szczepieniem na raka szyjki macicy. To jest Hitler 21 wieku. Tylko czekać aż z Melindą zaczną wymyślać nowe plandemie bo fabryki nie mogą mieć przestoju w produkcji tej depopulacyjnej broni biologicznej. Najpierw z Mc Affe tworzyli wirusy komputerowe aby ludzie kupowali antywirusy ale informatyk mający dotychczas interakcje z interfejsem komputera, stał się wielkim "humanistą" i "nagłym profesorem medycyny" by wpaść na "genialny" pomysł że wirusy ludzkie i produkcja nań antywirusów to o wiele lepszy biznes. Przy okazji - cały klimat zależny jest w 99 procentach od reakcji Słońca a to co dzieje się na Słońcu ma natychmiastowy i największy wpływ na Ziemię. CO2 nie ma tu nic do rzeczy- pomaga przenosić hemoglobinie we krwi tlen do organów. Jest go stanowczo za mało, nie za dużo. Szczepionka gdyby dbała o zdrowie człowieka, nigdy nie powinna przedostać się przez całą grubość skóry bo wtedy organizm "nie wie" co za substancja jest w środku i nie umie z nią walczyć. Skóra i tylna część gardła rozpoznaje patogeny i nie trzeba tu nic dodawać tylko oczyścić organizm z cywilizacyjnego chemicznego gnoju. Jeśli ktoś urodził się zdrowy bez żadnych mankamentów to lepiej jest absolutnie go sztucznie nie "uodparniać" na nic, co w sumie nie wiadomo czy kiedykolwiek wystąpi, aby układ immunologiczny nie zajęty produkcją antyciał, mógł ruszyć z całą mocą na to co się wdostanie do organizmu. Naturalne bariery są od stwierdzania zagrożenia i obecności patogenu. Nie tępy łeb konowała z igłą czy chemiczną pigułą. Dlatego jeśli chcemy mieć zdrowe dzieci, należy nie pozwolić ich szczepić chemią z tiomersalem- tlenkiem rtęci bo w organizmie może się zdarzyć pośród miliona różnych substancji i procesów że rtęć od tlenu się uwolni. To jest metal, gdy dostanie się do mózgu może zrobić po prostu elektryczne zwarcie w sieci neuronowej. Uniemożliwi to myślenie - mówiąc wprost. Zwarcie to jest zwarcie i kropka. Autyzm czy ADHD gotowy. Dzieciom należy też pozwolić się zadrapać aby zdarty naskórek sprowokował nabycie naturalnej odporności (tak jak ochlapać w kałuży albo wyjść bez czapki aby się dziecko zahartowało). Wyręczanie dziecka upośledza je- tak na marginesie. Niech ono od początku stara się samodzielnie wykonywać to co dotyczy jego codziennej aktywności - vide nadopiekuńcze mamuśki. W to miejsce niech zadbają o emocjonalny świat dziecka bo dla zdrowia jest to ważniejsze niż pilnowanie czy jest czapka na głowie. 5 minut na mrozie bez niczego jest lepsze niż szaliki po szyję i przegrzanie organizmu. Trzeba sobie uświadomić że obecna cywilizacja z nauką jako nowoczesnym dogmatem wiary jest głupsza nawet niż poprzednie mające w tle religie. W religii obowiązkiem był oczyszczający post. Teraz post jest jakimś idiotycznym skansenem... ale z punktu widzenia dzisiejszego ucywilizowanego idioty łaknącego sztucznej chemii .<br />Jednak pomijając to cywilizacyjne masowe ogłupienie, kluczowe znaczenie dla zdrowia ma co najmniej dwutygodniowy post. To nie jest jakaś religijna fanaberia. Religia to był zestaw skutecznych prawd w czasach gdy nie było nauki. W końcu ludzkość przetrwała tyle tysięcy lat bez szczepionek i degradacji poziomu zdrowia i inteligencj czego nie można będzie powiedzieć o obecnej nauce gdy okaże się że człowiek będzie szedł po śladach człowieka nie mogąc go znaleźć...<br />Choć jej dogmaty mam wrażenie nawet bardziej powstrzymują przed rozwojem społeczeństwo niż dawne religie. Mam na myśli głównie bezmyślność w czasie pandemii. Dozowniki do dezynfekcji zaczęto montować nawet na przystankach... Śmiać mi się chce. Szkoda że zdjęcia dla potomnych nie zrobiłem. Tak samo maseczki które chronią pacjenta z otwartą raną przed chirurgiem, działają pół godziny a ludzie noszą ściery tygodniami wdychając patogeny, których płuca ZAWSZE będą się pozbywać bo MUSZĄ być czyste. Dotleniana krew idzie do głębi organizmu - wszędzie. Z brudem ma iść?? Tak już poza wszystkim... wirusy są tylko przetrwalnikową formą bakterii, zawsze wszędzie obecną w miiliardach sztuk i odmian a maseczki są taką samą barierą dla wirusów co płot z siatki drucianej dla komarów.<br />Niestety, tego co dawniej, dziś już się nie praktykuje. Np. domowe kiszonki które priorytetowo powinny lądować w "kiszeczniku" (jelita po rosyjsku), więc mamy w odpowiedzi wysyp chorób. Mają jedno źródło. Słaby i brudny wewnętrznie (często i zewnętrznie) organizm. Ludzie z diety zrobili sobie deser a z deseru dietę. Zamiast jeść warzywa i owoce na co dzień, jedzą słodycze które ewentualnie mogłyby zostać od święta... ewentualnie.<br /><br />Wszelkie skondensowane cukry i inne skondensowane wynaturzone substancje powodują zakwaszenie organizmu a jednocześnie obniżenie kwasowości żołądka. Wywracają wszystko na "lewo". Jedząc mieszaną żywność pod względem potrzebnej do strawienia kwaśności powodujemy że nie zamyka się przegroda między żołądkiem a alkaliczną- zasadową dwunastnicą i stąd mamy zgagi itp. problemy. Także jedząc sztuczne skondensowane cukry, niszczymy w przyspieszonym tempie mechanizm insulinowy ale też dosładzamy żołądek który powinien być maksymalnie zakwaszony. Wtedy włącza się zielone światło dla bakterii grzybów i wirusów. Za pasożytami wchodzą bakterie i ich przetrwalnikowe formy zredukowane do nici kodu DNA (nazywane dla zmyłki chyba [a raczej dla biznesu] wirusami). Jeśli tak ma wyglądać kuchnia europejska to lepszym rozwiązaniem jest kuchnia chińska "pięciu przemian" gdzie zachowana jest równowaga smaków włączając w to smak gorzki który u nas został wręcz wyparty skondensowanym słodkim cukrogównem.<br /><br />Tak więc, nie wirusów czy bakterii mamy się bać a braku; higieny, postu, minimum corocznego odrobaczenia- w tym czasie także równoległego odrobaczenia całej rodziny (i domowego pupila jeśli już wbrew naturze chcemy go trzymać w miejskim blokowisku aby zbaraniał), braku zdrowego żywienia, i ogólnie braku zdrowego trybu życia.<br /><br /> </div><div> Aby obecną cywilizację zterraformować do pozostającej w symbiozie z naturą oraz człowiekiem należy tak uformować zasady społeczne aby wydobywały z człowieka jego najlepsze cechy jakimi tylko człowiek się charakteryzuje. Wszelkie zjawiska i sytuacje patologiczne przeciwko naturze i człowiekowi nie mogą w takiej cywilizacji wystepować Aby tego dokonać musi zniknąć pieniądz i rywalizacja o niego ponieważ zawsze przyjdzie komuś do głowy że zamiast pracować na pieniądz przecież można go komuś zabrać. Doktorkowie mogą symulować leczenie a na prawdę utrzymywać w stanie choroby dla lepszego zysku. Lub jak niedawno było głośno, o łowcach skór zwanych lekarzami. </div>Do pacjentów jeździli z opóźnieniem, zbyt wcześnie kończyli reanimację albo wychodzili na papierosa, by poczekać na śmierć pacjenta. Ich celem było doprowadzenie do zgonu za wszelką cenę. Takie sytuacje to NIE JEST KWESTIA SUMIENIA bo sumienie nie jest czarno białe. To system wyzwala takie zachowania bo bariera sumienia u każedego człowieka będzie inna tylko istnienia pieniądza i kulawego systemu. Tak można się rozpisywac po wielu społecznych funkcjach jakimi są zawody jak i funkcjach rodzinnych. Sprzedaż seksualna ciała córki za przyzwoleniem matki i tym podobne rzeczy. W przypadku mężczyzn zamiast starać się o gromadzenie dóbr aby znależć kobietę, można jakąś zgwałcić. W przypadku kobiet zamiast iśc do pracy, udawać uczucia wobec mężczyzny aby współposiadać jego majątek lub czasem nawet co gorsza wziąć rozwód po roku aby odejść z jego połową. Nie człowiek jest tu problemem a SYSTEM!</div><div>Nic nie da nagonka i łapanka zbrodniarzy, morderców, gwałciccieli, oszustów, pedofili i tym podobne kosmetyczne zabiegi! Te wszystkie zachowania generuje zakała jaką jest system zbudowany na pieniądzu. </div><div>I co teraz? Nic. Należy zbudować system w który nie będzie wymuszał na człowieku potrzeby pracy aby utrzymać się przy zyciu ponieważ to jest hybryda naturalnych zachowań drapiezników w przyrodzie. Zachowanie człowieka w dojrzałej cywilizacji nie może być DRAPIEŻNOPODOBNE.</div><div>Dzisiejsza cywilizacja to betonowa dżungla. Nie wiem kto śmiał to coś nazwać cywilizacją.</div><div>U góry mamy jakieś kliki polityczne które nie mają żadnych zdrowych mądrych holistycznych idei do zaproponowania i tylko kradną zasoby. Do tego kliki gospodarcze z nimi współpracujące zalewające nas ułomnym technologicznie śmieciem nie mówiąc o trującej żywności za którą należą się kraty bo to tak jakbyś kogoś zabijał tyle że z dużym opóżnieniem. Na dole każdy ciska się i miota w stresie o jutro, gubiąc po woli cżłowieczeństwo nawet z zakresie rodziny , nie mówiąc o zachowaniu wobec bardziej obcych ludzi. Czy dociera do Ciebie ten nędzny obraz?</div><div> Wszystko to można wywalić naśmietnik historii, wpierw wyrzucając naukę która blokuje wprowadzanie zmian. Najpierw należy wystrzelić w kosmos pojęcie o pustej przestrzeni kosmicznej. To jest kluczowe dla zmiany całej cywilizacji. Przestrzeń kosmiczna jest pełna energii potencjalnej i należy bezzwłocznie zacząć produkować maszyny które za pomocą magnesów neodymowych będą produkować darmową energię elektryczną. Obojętnie w jakiej skali wykonamy te maszyny, zawsze znajdą zastosowanie. Czy to na poziomie całych elektrowni węglowych, transformatorowych podstacji miejskich czy domostw oddalonych od miast. Wszystko bez awaryjnych i niebezpiecznych sieci kablowych. Mając energię elektryczną za darmo, nie trzeba już zatrudniać ludzi w trudnych i niebezpiecznych warunkach pracy zarówno w fabrykach czy otwarej przestrzeni. Wszystko to mogą wykonać maszyny lub roboty. Koszt produkcji czegokolwiek spada lawinowo w tym momencie ze względu na brak koniecznosci doliczania kosztów po drodze od półproduktów do produktu. Wraz z blisko zerowymi kosztami energii. W ten prosty sopsób znika przymus pracy. Praca ludzka dla producenta przestaje się opłacać nawet gdy weźmiemy pod uwagę istnienie pieniądza w formie przejściowej od tego co mamy teraz, do celu który mozna osiągnąć. </div><div>Swoją drogą do niedawna nic nie robiono w sprawie przekształcenia cywilizacji do mniej energo i zasobochłonnej aż się nagle wszyscy zerwali jak dzieci za cukierkami na hura i jak to w pośpiechu robią głupie posunięcia. Przykładowo ten skandaliczny inteligent Bill Gates ze swoją kryptodepopulacją czyli zmarnowaniem potencjału ludzkiego potrzebnego do przebudowy tego gówna zwanego cywilizacją na jakieś mądrzejsze tory.</div><div><br /></div><div>Jak sobie wyobrażam cywilizację przyszłości? <br /><div>O tym w następnym poście.<br /><br /><br /><br /><br /><br /><br /><br /><br /><br /><br /><br /><br /><br /><br /><br /><br /><br /><br /><br /><br /><br /><br /><br /><br /><br /><br /><br /></div></div></div></div></div><div class="blogger-post-footer">„Analfabetami XXI wieku nie będą ci, którzy nie umieją pisać ani czytać, lecz ci, co nie potrafią oduczyć się wierutnych kłamstw, w które nauczono ich wierzyć i nie potrafią szukać ukrytej wiedzy, którą nauczono ich odrzucać”</div>#magnetartechprojecthttp://www.blogger.com/profile/00116426320285930090noreply@blogger.com0tag:blogger.com,1999:blog-1727701247933515471.post-44850043772972242462022-08-07T17:19:00.113+02:002023-10-27T23:00:06.194+02:00 MagnetarTechProject<p><br /></p><p><br /></p><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEh-764fW30vNdNlqmKizMHy9y-5KmE3NTaxB--ytzKHwaPI_jS5SQMIbo6jml8glWsPsPXEUDMrsj7FueSj6xNC8Y7L0M_Uaxh1KOe_LpnobTH5IS0GFi2cz_6WjSI9L67ZRTY5_3Ru-SaQritXFPGTVVNHw-uM8EV3sPQYyp95222htEApcExn980t/s1076/20191105_091042.jpg" style="margin-left: 1em; margin-right: 1em;"><img border="0" data-original-height="710" data-original-width="1076" height="422" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEh-764fW30vNdNlqmKizMHy9y-5KmE3NTaxB--ytzKHwaPI_jS5SQMIbo6jml8glWsPsPXEUDMrsj7FueSj6xNC8Y7L0M_Uaxh1KOe_LpnobTH5IS0GFi2cz_6WjSI9L67ZRTY5_3Ru-SaQritXFPGTVVNHw-uM8EV3sPQYyp95222htEApcExn980t/w640-h422/20191105_091042.jpg" width="640" /></a></div><br /><p><br /></p><p><br /></p><p><br /></p><p><br /></p><p><br /></p><br /><br />Jako zwyczajni ludzie, mamy dwie możliwości wyboru. Czekać aż elity zmodernizują cywilizację naszym bolesnym kosztem albo samodzielnie zastanowić się jak rozwiązać problem ludzkiej dotychczas ogólnie mówiąc, ślepej egzystencji i... zacząć wreszcie działać. <div>Egzystencji podobnej do kursu okrętu pozbawionego steru, sternika i kapitana. Takiego z głową na karku oczywiście, nie nawalonego rumem. Przy czym jeśli mamy szukać winy, winien jest zarówno zwykły codzienny konsument jak i producent. Bogaty jak i biedny. Każdy bez wyjątku pracował na to co obecnie widzimy i stało się naszym udziałem. Zarówno nieprzemyślaną produkcją czego popadnie, jak i równie nie przemyślaną konsumpcją. Przykładowo gdyby nikt nie kupował produktu WINDOWS, Bill Gates nie miałby pieniędzy na fabryki dla idiotycznych szczepionek podczas gdy każde dziecko wie że człowiek posiada własny system immunologiczny i nie szczepienia na wszystko a wzmacnianie tego systemu zdrową dietą, przyniesie jedyny bo trwały efekt. Ale przecież system monetarno-kapitalistyczny musi wywoływać problemy gdy ich nie ma i na nich zarabiać. W mniemaniu naszego dyżurnego psychopaty świata, szczepienia to sposób na wyregulowanie wspólczynnika demograficznego zwłaszcza w Afryce. Tak racjonalizuje i dorabia sobie szlachetną ideologię tego niewątpliwie dochodowego oczywistego biznesu. <div>W tym momencie cisną się na usta niecenzuralne słowa. Mam w to miejsce o wiele lepszy i technologicznie prosty pomysł budowy rurociągów. Do tego pozbawiony ryzykownych eksperymentów chemicznych czy genetycznych zarówno na ludziach jak i roślinach. Człowiekowi przy obecnym marnym stanie wiedzy nie wolno manupulować w bardzo skomplikowanym i będącym poza zasięgiem rozumu naukowców z bożej łaski, "oprogramowaniu" natury. Przynajmniej nie na skalę wykraczającą poza laboratorium. Pisałem już o tym że nauka nie ma pojęcia nawet o faktycznej budowie atomu ani siłach tam rządzących. W zasadzie tylko jednej sile zamiast rzekomych czterech. </div><div>Propozycją jest priorytetowej rangi nawodnienie Sahary tak jak i pozostałych obecnie bezużytecznych terenów zwrotników Raka i Koziorożca któe są przesuszane ze względu na prostopadły kąt padania światła słonecznego. Celem tej inicjatywy byłaby budowa ogrodów do produkcji żywności pod ciśnieniem, w oparciu o elektrokulturę czyli wykorzystanie prądu elektrycznej do skutecznej i wydajnej uprawy roślinnej żywności, pozbawionej pestycydów, herbicydów i innej toksycznej chemii tak aby nie było więcej konieczności przeganiania ludzi po globie z ich trwałych siedlisk z powodu katastrof regionalnych, jakichkolwiek antyhumanitarnych działań wojennych i innej manipulacji w tym wszelkiej migracji uchodźców. Fakt że nic się w tym kierunku nie robi, zdradza prawdziwe intencje kapitalistów. Im więcej problemów na świecie tym lepiej dla biznesu. </div><div>Jednocześnie opanowanie technologii na tak trudnym terenie da pewność że w zakresie produkcji żywności powiedzie się przyszła misja kolonizacji Marsa która nie będzie koniecznością a jedynie kolejną możliwością.</div><div><br /><div>Projekt który tu przedstawiam niestety nie zrealizuje się sam. Wymaga zaangażowania milionów ludzi. Jest jednak najlepszym możliwym dostępnym rozwiązaniem bez większych konsekwencji dla wszystkich "beneficjentów" obecnej sytuacji.</div><div><br /> Zasadniczym celem projektu MagnetarTechProject jest w miarę zasobów i możliwości, produkcja technologii antygrawitacyjnej dla transportu powietrznego i astronautycznego i modernizacji obecnej cywilizacji "na piechotę" do poziomu kosmicznej - interplanetarnej, która jest celem samym w sobie ponieważ w miarę wzrostu populacji budowa kosmicznej cywilizacji jest logiczną konsekwencją. Modernizacji możemy dokonać wykorzystując maksymalną ilość obecnych odpadów, podnosząc wydajność produkcji energii jak i transportu a z nadwyżek zysków z produkcji tej technologii będzie można zrewitalizować maksymalną ilość obecnych nieużytków na planecie do produkcji żywności, tak aby była ona możliwa w razie potrzeby nawet na powierzchni wodnej, pustynnej czy na biegunach i nie mówię tu tylko o naszej planecie czy Marsie. Miejsca jest pod dostatkiem. Lasów na Ziemi wycinać nie trzeba...<br /><br />Nie jest to łatwy cel ale droga do niego jest po pierwsze konieczna, gdy nie chcemy bezsensownie ograniczać przyrostu ludzkiej populacji o której przyrost wcześniej wszyscy się przecież podświadomie starali. </div><div>Być może nawet w pobliże zera. Jeśli się dyżurnemu pseudointeligentowi Gatesowi coś pokiełbasi w rachunkach a jak wiadomo, nauka obecnie oparta jest na nowoczesnych zabobonach jak ten związany ze szkodliwością CO2:</div><div><br /></div><div>P x S x E x C = CO2 </div><div>People – liczba ludności na świecie, <br />Services – usługi, z których korzysta ludność w uśrednieniu, <br />Energy – średni poziom zużywanej energii przez ludzi, <br />C – ilość CO2 emitowanego na jednostkę energii (co jest oczywiscie bez znaczenia bo CO2 pobudza przyrost flory A NAWET FAUNY)<br /><br />Po drugie droga ta jest już bardzo wyraźnie widoczna w obecnych czasach a po trzecie, z dostępem do przedstawionej tu z czasem technologii zwiększy się poziom wolności każdego człowieka jak na kosmiczną skalę przystało. Tym samym zminimalizuje to- być może nawet do zera- zachowania agresywne w całym społeczenstwie naszej planety. Bo przecież tylko chroniczny dyskomfort powoduje że człowiek przestawia się w mniej lub bardziej agresywny tryb walki o byt i przetrwanie. To system wywołuje wśród ludzi odpowiednie dla swojego głównego rysu zachowania, nie odwrotnie.</div><div><br /></div><div><br /><br />Do zrealizowania tego celu potrzebne będą:</div><div><br /></div><div>Produkcja (dosłownie druk!) pojazdów, maszyn i urządzeń w technologii elektromagnetyczno antygrawitacyjnej, zdolnych także do lotów w przestrzeni kosmicznej a wszystko to z wykorzystaniem wszelkich odpadów z tworzyw sztucznych. Opracowanie technologii elektromagnetyczno-antygrawitacyjnego napędu dla mobilnych baz astronautycznych w celu masowego, regularnego i co najważniejsze- taniego wynoszenia opisywanych tu modułów i maszyn z powierzchni Ziemi w daleką przestrzeń kosmiczną. Pierwszym etapem omawianego projektu jest wykonanie redukcyjnego modelu bazy składającej się z 19 sześciennych i 8 kulistych modułów w skali ~1:33 o wymiarach boków 30 cm (w formie nieco większej kostki Rubika) oraz wykonanie pomiarów i testów praktycznych, na co przeznaczona zostanie najmniejsza część środków. Otwarcie Polskiej Prywatnej Agencji Kosmicznej "MagnetarTechProject" i nawiązanie współpracy z firmą Siemens Schalttechnik - Berlin (wysokonapięciowe podzespoły elektryczne) oraz firmą Siemens Mobility i Krauss Maffei - Monachium (elektroizolacyjne obudowy z tworzyw sztucznych) i uruchomienie produkcji modułów z rozwiniętego w tym celu recyklingu. Tak wykonane habitaty zdolne do produkcji żywności roślinnej i podtrzymania oraz podniesienia jakości biologiczno zdrowotnej życia ludzkiego mogą być umieszczone wszędzie gdzie znajdzie się nie zagospodarowany teren oraz na pustyniach i biegunach, aby jednocześnie jak najwierniej odtworzyć surowe warunki panujące na powierzchniach pozostałych obiektów Układu Słonecznego bez względu na rodzaj powierzchni, zasobów w zakresie temperatur od zera bezwzględnego do 500°C. Nawiązanie współpracy z Polską Agencją Kosmiczną POLSA, oraz z zagranicznym sektorem zajmującym się rozwojem technologii kosmicznych m.in. SpaceX, Blue Origin czy Virgin Galactic. </div><div><p>Opracowanie technologii elektromagnetyczno-antygrawitacyjnej dla osobowych pojazdów aero i astronautycznych potrzebnych do nieskonsolidowanego taniego i masowego transportu pracowników na orbitę i Księżyc oraz optymalizacji i wykorzystania miejsca dla ruchu powietrznego i odciążenia ruchu lądowego będącego obecnie od lat w stanie przedzawałowym.</p><p><b><span style="font-size: medium;">50 % środków otrzymanych ze sprzedaży wszelkich produktów przeznaczone zostanie na opisaną poniżej modernizację technologii i warunków środowiskowych na całej planecie.</span></b></p><p><br /></p></div><div><p>Uruchomienie technologii wzajemnego telekomunikacyjnego pozycjonowania, pomiaru i śledzenia położenia uczestników w ruchu naziemnym, powietrznym i kosmicznym:</p><p>- osób pieszych,</p><p>- osób z pojazdami bezsilnikowymi, napędzanych siłą mięśni,</p><p>- osób z maszynami zdalnie sterowanymi,<br /><br />- pojazdów załogowych i zdalnie sterowanych drogowych, wodnych, powietrznych i orbitalnych,</p><p>- dodatkowo dla śledzenia liczebności wielu cennych gatunków zwierząt, głównie ptaków i ssaków- w tym chronionych dla zabezpieczenia ich populacji oraz poprawy bezpieczeństwa i stabilizacji szeroko pojętego ruchu powietrznego.<br /><br /></p><p>Rozwój interplanetarnej elektro-astronautyki badawczej, turystycznej i gospodarczej;</p><p>Przeniesienie wszelkiej technologii produkcji wydalającej w procesie produkcyjnym jakiekolwiek toksyczne nie znane środowisku substancje na martwe planety i księżyce.<br />Projekt i produkcja nowej generacji lekkich kombinezonów-egzoszkieletów astronautycznych, odzyskujących tlen z CO2 w elektrochemicznym, zamkniętym układzie sprzężenia zwrotnego, bez użycia ryzykownych środków chemicznych i ciężkich zbiorników, ograniczających użyteczność obecnie dostępnych kombinezonów. </p><p>Regeneracja i zwiększenie wydajności ziemskiego habitatu przez wdrożenie wydobycia i eksploatacji zasobów mineralnych pozyskanych z sąsiednich ciał niebieskich wraz ze stabilizacją i ochroną ekosystemu, umożliwiająca utrzymanie ludzkiej populacji w wysokości około 100 miliardów ludzi potrzebnych do budowy i rozwoju interplanetarnej cywilizacji.</p><p>Modernizacja sektora energetycznego jako zdecentralizowanego systemu zasilania energią elektryczną terenów nisko zurbanizowanych i miejskich, wraz z demontażem przestarzałych ekologicznie elektrowni węglowych, niebezpiecznych i produkujących toksyczne odpady elektrowni atomowych, wysokoawaryjnych w trudnych warunkach klimatycznych elektrowni wiatrowych, niskowydajnych i awaryjnych oraz zawodnych elektrowni słonecznych oraz napowietrznych sieci energetycznych kolidujących z rozwojem elektromagnetycznego transportu powietrznego i kosmicznego.</p><p><br /></p><p><br /></p><p>Budowa światowej sieci kapilarnego systemu nawadniania narażonych na suszę lasów okolic obu zwrotników planety, chroniącej je przed nadmiernym wysuszaniem i zniszczeniem oraz wycofanie i przebudowa militariów w tym wszelkiego rodzaju transporterów i czołgów na załogowe i zdalnie sterowane buldożery strażackie, wyposażone w armaty wodne z cysternami do pomocy w gaszeniu pożarów, izolowania płonącej części lasu, budowy wałów przeciwpowodziowych, usuwania innych zniszczeń pokatastroficznych oraz do zabezpieczania przed nimi.</p><p>Odbudowa Wielkiej Sztucznej Rzeki i dalsza rozbudowa kanałów nawadniających, oraz rewitalizacja i zalesianie możliwie jak największej ilości zdolnych od zalesienia terenów: pustynnych, prerii, stepów, terenów nieużytecznych w wyniku destrukcyjnej działalności człowieka oraz zniszczonych po wiadomym wszystkim, światowym Potopie, w celu uniknięcia karczowania lasów pod uprawy, jako bezwzględnie strategicznych buforów wilgoci warunkujących stabilizację i utrzymanie łagodnego klimatu, z przeznaczeniem pozyskanych terenów dla biodynamicznej masowej produkcji żywności ogrodniczej i sadowniczej za pomocą modułów proponowanej tu technologii.</p><p><br /></p><p><br /></p><p>Wdrożenie do systemu społecznego szkolnictwa z bezstresową bezprzemocową i nieszablonową nauką. Nauk logicznych i technologicznych poprawionych o nowe wiadomości jak prawo implozyjnego wiru eterycznego, nauk humanistycznych w tym nauka empatii, prawa i obowiązki człowieka a w szczególności umiejętności zachowania granicy wolności, jako podstawy nauczania i fundamentu dojrzałości społeczeństwa interplanetarnego, szerzej interstellarnego a w przyszłości także intergalaktycznego. Wdrożenie nowego systemu jako system bez ocen, bez kar i również bez... nagród. Przynajmniej tych materialnych. System bez klasyfikacji ludzi. Wartośc jednostki jako duma i prestiż z osiągnięć w wymiarze społecznym. System ze zredukowanym prawem do minimum, opartym o prawo naturalne w którym fundamentem jest wolność pozbawiona przemocy maksymalnie jak tylko to jest możliwe. System bez niewolnictwa jawnego i ukrytego, bez delegowania władzy danej osoby poza nią, gdzie nie ma możliwości aby ktokolwiek inny decydował o wolności innej osoby. System tak zbudowany aby nie generował w jednostce społecznej jej najgorszych instynktów i zdolności- przeciwnie. Zorganizowany pod kątem aby wyzwalał i promował jak najlepsze prospołeczne zachowania. Taki system społeczny który, jeśli chemy aby przestały istnieć wartości obecne dziś w mediach promujące przemoc, próżność i inne odczłowieczające zachowania, ewaluuje w tym celu pozytywną prospołeczną aktywność uczestnika takiego systemu . </p><p><br /></p><p>Do współpracy i wsparcia zapraszam wszystkich zainteresowanych tą inicjatywą. Tylko od Was zależy co z tego zostanie zrealizowane. </p><p><br /><br /></p></div></div></div><div class="blogger-post-footer">„Analfabetami XXI wieku nie będą ci, którzy nie umieją pisać ani czytać, lecz ci, co nie potrafią oduczyć się wierutnych kłamstw, w które nauczono ich wierzyć i nie potrafią szukać ukrytej wiedzy, którą nauczono ich odrzucać”</div>#magnetartechprojecthttp://www.blogger.com/profile/00116426320285930090noreply@blogger.com0tag:blogger.com,1999:blog-1727701247933515471.post-40518483751829361582022-07-07T21:53:00.044+02:002023-09-27T01:59:09.583+02:00Ocieplenie klimatu? A może ochłodzenie? Kto ma oczy niechaj czyta!<p> </p><p><br /></p><p><br /></p><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEh9pVlZYknEXAEdF77QucU1IFCrYO-zLQ3AbxZ_RPgLX0Y2IwDq-ra0eilB1VNFm7m5RxEs9E86ZpAP50UxAIfPteq7ILSB7WwLjW6bn-OUU7IfA6w-NXiPTHJCEAyzxp3pmHUuoHmWNvHFX11YxBL8-BZ5mVFRPVJVTtVmL40Idhh4FYz9GGWoR5mv/s630/59.jpg" style="margin-left: 1em; margin-right: 1em;"><img border="0" data-original-height="630" data-original-width="630" height="640" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEh9pVlZYknEXAEdF77QucU1IFCrYO-zLQ3AbxZ_RPgLX0Y2IwDq-ra0eilB1VNFm7m5RxEs9E86ZpAP50UxAIfPteq7ILSB7WwLjW6bn-OUU7IfA6w-NXiPTHJCEAyzxp3pmHUuoHmWNvHFX11YxBL8-BZ5mVFRPVJVTtVmL40Idhh4FYz9GGWoR5mv/w640-h640/59.jpg" width="640" /></a></div><p>Mgławica Ślimaka (NGC 7293) zwana potocznie Okiem Boga a tu mój otwieracz do umysłu gdy nie wiesz od czego zacząć i jak się szybko poskładać: <a href="https://www.youtube.com/watch?v=Z-60b3a56yw" target="_blank">Eckhart Toole</a></p><br /><br />"Gdy zebrał się wielki tłum i z poszczególnych miast przychodzili do Jezusa, opowiedział im przypowieść: Siewca wyszedł siać swoje ziarno. A gdy siał, jedno padło na drogę i zostało podeptane, a ptaki podniebne wydziobały je. Inne padło na skałę i gdy wzeszło, uschło, bo nie miało wilgoci. Inne znowu padło między ciernie, a ciernie razem z nim wyrosły i zagłuszyły je. Inne w końcu padło na ziemię żyzną i gdy wzrosło, wydało plon stokrotny. To mówiąc, wołał: Kto ma uszy do słuchania, niechaj słucha! Pytali Go więc Jego uczniowie, co oznacza ta przypowieść. On rzekł: Wam dano poznać wprost tajemnice królestwa Bożego, innym zaś w przypowieściach, „aby patrząc, nie widzieli, i słuchając, nie rozumieli”. Takie jest znaczenie przypowieści: Ziarnem jest słowo Boże. Tymi zaś na drodze są ci, którzy słuchają słowa; potem przychodzi diabeł i zabiera słowo z ich serca, żeby nie uwierzyli i nie byli zbawieni. Na skałę pada u tych, którzy gdy usłyszą, z radością przyjmują słowo, lecz nie mają korzenia: wierzą do czasu, a w chwili pokusy odstępują. To, które padło między ciernie, oznacza tych, którzy słuchają słowa, lecz potem odchodzą, a zagłuszeni przez troski, bogactwa i rozkosze życia, nie wydają owocu. Wreszcie ziarno w żyznej ziemi oznacza tych, którzy wysłuchawszy słowa sercem szlachetnym i dobrym, zatrzymują je i wydają owoc dzięki <b>wytrwałości</b>."<div><br /></div><div>Łk 8, 4-15<p>"Poznajcie prawdę, a prawda was wyzwoli" Jezus</p><p>"Prawda nie daje korzyści ani statusu społecznego, ani władzy. Jedyne, co uzyskasz, to wolność od złudzeń" Nisargadatta<br /><br />Jako że prawda wychodzi na jaw zawsze dużo później, a ludzie głupieją masowo, mądrzejąc pojedynczo, chciałbym dziś rozjaśnić w kontekście tego przemiłego powiedzenia problem (tak zwanych) zmian klimatu.<br />Wobec nieco długotrwałej weryfikacji faktów przez filtr własnej logiki a to zawsze zajmuje trochę czasu, doszedłem do wniosku że nie istnieje problem ocieplenia klimatu ani tym bardziej wzrostu CO2. Istnieje tylko problem poprawnej interpretacji faktów w odróżnieniu od domniemań od czego nie są wolni nawet naukowcy bo to też ludzie. Zwłąszcza gdy się im za to zapłaci. Wtedy każdy w zależności od sumy zacznie gadać to co mu kazali opłacający. Dopiero gdy s<span>tworzymy sy</span>stem wolny od korupcji, możemy zacząć mówić o prawdzie. Dziś należy jej szukać samodzielnie. NIE W GŁÓNYCH MEDIACH!! </p><div>Na Antarktydzie w stacji Wostok prowadzono jakiś czas temu odwierty lodu w efekcie czego odkryto że wzrost temperatury powoduje późniejszy wzrost ilości CO2, nie odwrotnie jak twierdzi obecnie oficjalnie gremium naukowe. Przyczyną tego wzrostu jest emisja CO2 co do zasady głównie z oceanów. Na drugim miejscu dla ścisłości, stoją wulkany. Reszta źródeł emisji jest pomijalna bo wręcz śladowa. W wyniku wzrostu temperatury narasta ilość flory i fauny. Gdy temperatura spada, ilość flory i fauny obumiera, powodując wzrost CO2- uwolnienie tego naturalnego i zupełnie nieszkodzącego środowisku gazu z wiązań węglowodorowych. </div><div>Dlaczego występuje opóźnienie? Z powodu zwłoki wzrostu temperatury, która ma miejsce przede wszystkim w oceanach - globalnych akumulatorach ciepła. Temperatura musi dotrzeć do głębin a to może trwać dekady i dłużej. Pozostaje jeszcze tylko pytanie dlaczego w ogóle wzrasta temperatura skoro to ona powoduje wzrost CO2 a nie odwrotnie. Otóż Ziemia otrzymuje nadwyżki ciepła w takt cykli słonecznych, zależnych od zmian gęstości pola elektromagnetycznego w naszej galaktyce, analogiczny wplyw pola oddzialuje na pozostałe planety na których też obserwujemy rzekome "ocieplenie" a przecież nikt tam nie mieszka. A nawet gdyby to nie ukrywa darmowej energii elektrycznej przed spoleczenstwem, każąc kopcić i smrodzić w zasilaniu i transporcie. Ciepło akumulują zwłaszcza planety pokryte jakąkolwiek ciekłą warstwą zewnętrzną zawierającą w sobie domieszkę wody. Idąc dalej, cykle słoneczne zależne od zmian siły pola elektromagnetycznego naszej Galaktyki Drogi Mlecznej, biorą sie na wyzszym poziomie ze zmian natęzenia prądu włokien plazmowych pobliskiej sieci galaktyk. Tak mozna wędrować do coraz większych skalą sektorów elektromagnetycznej przestrzeni kosmicznej. Rozumiem że nikt z naukowców żyjących w nieświadomosci prawdziwej natury zjawisk w przestrzeni kosmicznej, nie brał pod uwagę zewnętrznych pozaplanetarnych czynników, niemniej jednak to są zasadnicze procesy i nie należy ich lekceważyć aby zrozumieć obraz sytuacji. Pole elektromagnetyczne galaktyki spiralnej - bo tylko w tych typach występuje regularne, silne toroidalne pole - powoduje indukcję energii elektrycznej na quasi-metalicznej powierzchni wirujących para-przewodników gwiazd w tym Słońca. W takt zmian tego pola, zmienia się zapewne z niewielkim opóźnieniem (histereza) siła pola elektromagnetycznego Słońca. Z kolei pole elektromagnetyczne Słońca indukuje w wirującym przewodniku Ziemi a więc i powierzchni i atmosfery, prądy które mają wpływ na temperaturę jądra Ziemi tak samo jak fale elektromagnetyczne min. cieplne i świetlne które docierają do powierzchni bezpośrednio ze Słońca. Wobec znikomo marginalnego antropogennego wpływu na klimat, wszystko czego musi dokonać człowiek w sprawie polepszenia swojej sytuacji to wysłać ciężki przemysł na inne planety lub chociaż zmodernizować chemiczne fabryki i transport oraz zająć się skutecznym recyklingiem odpadów. Wszystko to nie ma wpływu na klimat a na bardzo ważną sprawę lekceważonego dziś przez wszystkich -zarówno przez elity jak i zwykłych konsumentów- stanu czystości środowiska. Dlaczego wskazuje się szkodliwość naturalnych gazów, jednocześnie pomijając milczeniem te antropogeniczne? Dla niemożliwego w takiej propagandzie uniknięcia podatku? </div><div>Jaki jest jedyny wynikający z powyższego wniosek i priorytet? </div><div>Uwolnić środowisko od wszystkich sztucznych substancji z których człowiek nie powinien ale chce korzystać i zamknąć je w szczelnym obiegu w zasięgu ludzkich siedlisk. Gdyby tylko to było problemem to jeszcze pół biedy.</div><div>Jednak światowy geniusz biznesu kosztem ludzkosci, na podstawie błędnych wniosków nauki wysnuł potrzebę regulacji liczebności światowej populacji za pomocą szczepień, podczas gdy przez tysiące lat ludzkość jakoś do obecnego momentu posiadając układ immunologiczny i dostęp do czystej wody oraz nietoksycznej żywności, ma się pod względem demograficznym całkiem dobrze. Problem chorób panie Bill powstał wraz z industrializacją życia ludzkiego. Nie wraz z wyjściem życia z wody. Niech pan w nastepnej plandemii do przymusu szczepień nie zapomni wliczyć siebie. Dodam jeszcze fakt że stężenie CO2 w powietrzu zwykle wynosi około 300 do 400 ppm (0,04 %) objętości i wg naukowców rzekomo takie jest najkorzystniejsze dla człowieka choć z innych praktycznie zweryfikowanych danych wynika, że najkorzystniejsza ilość CO2 dla fauny i człowieka to aż około 2 do 3 % a dla flory jest jeszcze wyższa. Natomiast minimalna bezpieczna ilość CO2 wynosi 200 ppm (0,02%) a więc w obecnym momencie jesteśmy przy dolnej, już niezbyt bezpiecznej granicy! Po jej przekroczeniu roślinność zacznie obumierać więc tego typu głupotami jak oferuje Bill, możemy doprowadzić planetę do sytuacji z filmu "Interstellar".</div><div>Jak w świetle powyższych faktów wyglądają następne "genialne" pomysły zapylania atmosfery przed promieniami słonecznymi? Zwłaszcza gdy dodam fakt wejścia Słońca w jego 40 letnie minimum? To jest sukcesywnego choć nie tak długofalowego jak wspomniane, jednak 40 letniego obniżenia temperatury. W myśl przysłowia że nie ma tego złego co by na dobre nie wyszło - całe szczęście że równie inteligentny projekt Unii Europejskiej nakazuje modyfikować ocieplenie budynków bo przynajmniej od tego "ocieplenia" nie pomarzniemy...</div><p>Wielu ludziom zdawało się, że chwilowe wyhamowanie pLandemii zatrzymało całą Agendę Nowego Wspaniałego Świata. Nic bardziej mylnego. Rewolucyjne zmiany strukturalne, których celem jest uczynienie z populacji nie posiadających niczego niewolników, cały czas idą pełną parą. Obecnie Agenda skupia się na dwóch głównych kierunkach: zniszczeniu motoryzacji (auta elektryczne) i przeprowadzeniu eksperymentu jakiego dotąd historia nie znała - sztucznej żywności. Oczywiście wszystko dla ratowania klimatu! A jakże... Dodajmy, że za ratowanie klimatu wzięły się te same boskie kręgi korporacyjne, które swoją chciwością go najpierw zniszczyły. Na naszych oczach dzieją się paranoiczne, zbrodnicze absurdy nie z tego świata, które nie śniły się dotąd największym w historii dyktatorom i pomyleńcom. </p><p>Dzięki sytuacji, której aktualnie doświadczamy, nie mamy wątpliwości, że ludzie stojący na czele systemu, reprezentujący narody i państwa, w żadnym razie nie mają na celu naszego dobra, a ich główną bronią jest wzbudzanie strachu i lęku. Nie mamy złudzeń, co do tego, że ich działania skierowane są przeciwko naturze, wolności i godności żyjących istot, a ponieważ posiadają nieograniczone zasoby materialne, zdolni są do największych i najstraszliwszych niegodziwości i okrucieństw, które mają przedłużyć ich panowanie. Do takich ekstrapolacji szlachetnych idei gdzie można nimi sobie wycierać mordy i czyścić buty, doprowadza właśnie rozwarstwiający społeczeństwo kapitalizm. Gdyby ktoś sądził że socjalistyczne podejście jest takie odczłowieczające... Socjalizm jest dla gojów a dla talmudycznych syjonistów kapitalizm. Nie mylić zżydami trzymającymi się Tory i palącymi flagi izraela bo i tacy są.</p><p><br /></p><div><br /></div><div><br /></div><div><br /></div><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhtAvYcLwY3Ny9pUY3E43JgG8EvTq9okZ61TabrEyBelIXAMc7miX7oidBwybqopr0YYhoDf_O11HbKNtUg66ODklu_66BwYluSKDTwIREwSlUO6pQ_VeawFOjBidwPsSVvcS4brTpe9ozj76ba166y_mmkJirxb49A8taZX99qwtQX8gI_GVUvsjAo/s471/Zrzut%20ekranu%202022-12-19%20213340.png" style="margin-left: 1em; margin-right: 1em;"><img border="0" data-original-height="238" data-original-width="471" height="324" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhtAvYcLwY3Ny9pUY3E43JgG8EvTq9okZ61TabrEyBelIXAMc7miX7oidBwybqopr0YYhoDf_O11HbKNtUg66ODklu_66BwYluSKDTwIREwSlUO6pQ_VeawFOjBidwPsSVvcS4brTpe9ozj76ba166y_mmkJirxb49A8taZX99qwtQX8gI_GVUvsjAo/w640-h324/Zrzut%20ekranu%202022-12-19%20213340.png" width="640" /></a></div><br /><div><br /></div><div>Fabryki Kill Bill Gatesa nie będą przecież stały puste po wyprodukowaniu tego co do tej pory. Spodziewaj się kolejnych pLandemii...</div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /><div>Przymusowa kontrola biometryczna, inwigilacja zdrowotna, certyfikaty zdrowia, przymusowe szczepienia, przymusowe leczenie, stosowanie bezpośrednich środków przymusu, eksperymenty medyczne – to tylko nieliczne przejawy naruszania podstawowych praw człowieka, które rządy wdrażają pod przykrywką rzekomej pandemii. Dla władców tego świata działa już infrastruktura 5G, wieloletnie trwające opryski chemiczne, stosowanie sztucznych nawozów, genetyczne modyfikowanie żywności, geoinżynieria, chemikalizacja wody i inne narzędzia zbrodni w cichej wojnie skierowanej przeciwko ludzkości. Taką władzę nielicznych ochrania wojsko, policja i sądy a tajne służby w jej interesie inwigilują, cenzurują i likwidują niewygodnych. To na jej usługach banki kradną, media kłamią a przemysł rozrywkowy mami i ogłupia. To wreszcie ona od stuleci wznieca konflikty i wojny na całym świecie, aby niszczyć osiągnięcia kulturalne, naukowe i społeczne oraz hamować wzrost świadomości.<br />Cały świat naukowy, nie tylko medyczny, po raz kolejny się skompromitował, pokazując jak jego pozornie szczytne idee i ukryte agendy od dawna działają przeciwko człowiekowi. </div><div>Wiemy, że nieliczni naukowcy, dla których dobro ludzkości jest priorytetem, nie mają szans w przebiciu się do szerszego grona odbiorców przez skorupę tworzoną przez biznesowe lobby wielkich koncernów farmaceutycznych czy technologicznych. Dowodem na taki stan rzeczy jest los myśli i dzieł genialnych umysłów i wizjonerów: Waltera Russella, Richarda Maurica Bucka, Nikoli Tesli, Wilhelma Reicha, Williama Batesa, Ryke Geerda Hamera, Stanislava Grofa, Wiktora Schaubergera, Kristiana Birkelanda, Haltona Arpa i wielu wielu innych współczesnych. Włącznie z rzeszą pełnych pasji twórczej „lokalnych wynalazców”, których osiągnięcia są marginalizowane, pomijane, przemilczane, niszczone często wraz z ich twórcami lub wykorzystywane w przeciwnym do zamierzonego celach.<br />Skompromitowały się samozwańcze autorytety stanowiące część medialnej propagandy, która wymierzona jest przeciwko krytycznemu i samodzielnemu myśleniu. Przedstawiciele religijni, zamiast szerzyć jedność, miłość i pokój, dzielą i podtrzymują epidemię strachu oraz stan globalnego otępienia duchowego. Polityków zdemaskowała nielogiczność i bezzasadność działań, których, jak widać czarno na białym, nie są sprawcami lecz jedynie bezwolnymi wykonawcami w rękach obcych, wrogich sił. Ocieplenie klimatu budują w głowach wszyscy zidioceni przez syjonistów oraz sztuczna intyligencja. Oprócz "faktów" wyjętych z głów naukowców i przepowiedni IT wiemy że żadnego ocieplenia, wywołanego ręką człowieka NIE ma !! Tak samo jak nie bylo nigdy dziury ozonowej.<br /> Na Ziemi istnieją tylko precesyjne, cykliczne, globalne zmiany klimatu.<br /><br /><a href="https://rusvesna.su/sites/default/files/styles/orign_wm/public/globalnoe_poteplenie_1.jpg"><img src="https://rusvesna.su/sites/default/files/styles/node_pic/public/globalnoe_poteplenie_1.jpg" /></a><br /><br />Globalne ocieplenie (lub ochłodzenie) czyli zmiany klimatu na Ziemi nie pochodzą od naturalnego gazu CO2 ani innych naturalnych gazów nazywanych „cieplarnianymi”, jak niektórzy sądzą, ale z precesji planety i innych kosmicznych zależności jak elektryczne parametry Słońca regulujące min. jego cykle. </div><div>Przytoczę w ramach ciekawostki że w ramach Protokołu z Kioto uwzględniono i zdefiniowano sześć gazów cieplarnianych. Są to: kompletnie nieszkodliwy dla natury dwutlenek węgla (CO2), i równie nieszkodliwy metan (CH4) który powstaje min w przyrodzie w wyniku beztlenowego rozkładu szczątków roślinnych (np. na bagnach), tworząc tzw. <a href="https://pl.wikipedia.org/wiki/Gaz_b%C5%82otny">gaz błotny</a>, i gazy antropopochodne jak podtlenek azotu (N2O), fluorowęglowodory (HFC), perfluorowęglowodory (PFC) i sześciofluorek siarki (SF6). Ze względu na krótką żywotność w atmosferze, para wodna, okrzyknięta najpowszechniejszym gazem cieplarnianym, nie została uwzględniona w Protokole. No całe szczęście bo w obecnych czasach dominacji debilizmu, byłby wprowadzony zakaz oddychania.</div><div>Wzrost (lub spadek) średniej temperatury wody i powietrza na Ziemi jest spowodowany precesją, czyli zjawiskiem astronomicznym, w którym zmienia się kąt nachylenia planety względem Słońca. <br />Podczas precesji na Ziemi zmieniają się cyklicznie obszary i czas nagrzewania lądu i wody przez głownie cieplne promieniowanie Słoneczne które bezpośrednio przenoszone jewst za pomocą przestrzeni wypełnionej eterem który jest radiatorem temperaturowym przestrzeni kosmicznej.</div><div><br /></div><div>Na wszystkich kontynentach Ziemi cyklicznie, zgodnie z wielkim „rokiem platońskim”, zachodzą globalne zmiany klimatu.<br />Klimat w tłumaczeniu ze starożytnego języka greckiego dosłownie oznacza „pochylenie” - kąt nachylenia powierzchni Ziemi do promieni słonecznych.<br />W nocy 12 grudnia 2015 r., z wielkimi trudnościami zakończyła się w Paryżu dwutygodniowa międzypaństwowa konferencja klimatyczna ONZ o kryptonimie COP-21. W konferencji wzięli udział przedstawiciele 195 krajów, w tym wielu najwyższych urzędników państwowych. Jak donosiły światowe media, negocjacje były niezwykle trudne z powodu wielu nieporozumień. <br />Uczestnicy konferencji rozstrzygnęli kwestie podziału kwot produkcyjnych dla „cieplarnianego” (dwutlenku węgla) CO2. Pod pretekstem walki z „gazami cieplarnianymi” planuje się eliminację konkurentów poprzez zamykanie obiecujących przedsiębiorstw w krajach rozwijających się. Tak to głupota ludzka tworzy problemy których bohaterskie rozwiązywanie opóżnia rozwój cywilizacji i marnuje kapitał mogący pozwolić na poprawę biologicznych warunków na całej planecie.<br />Organizatorom spotkania przyświecał dalekosiężny cel – koncentracja produkcji i pieniądza w rękach wielkich monopoli, a docelowo ich całkowita dominacja w sferze produkcji. Zewnętrznym przekonującym pretekstem do zwołania konferencji był „dobry cel” - niedopuszczenie do wzrostu temperatury na Ziemi o więcej niż dwa stopnie w porównaniu z końcem XIX wieku. <br />Nie osiągnąwszy jednak żadnego rezultatu przez pięć lat (cały świat nie mógłby zmienić temperatury o co najmniej jedną setną stopnia), teraz ponownie w Szkocji, w Glasgow, w listopadzie 2021 r., odbyła się nowa „Konferencja ONZ” (COP- 26) odbyła się na ten sam temat.<br />W konferencji w Glasgow wzięło udział 25 000 delegatów z 200 krajów i około 120 głów państw. Pomimo dużej liczby uczestników światowej konferencji, ludzie na całym świecie nadal nie wiedzą, dlaczego na Ziemi następuje ocieplenie lub ochłodzenie.<br />Przywódcy państw planują w swoich budżetach ogromne wydatki, które nie będą w stanie w żaden sposób wpłynąć na temperaturę Ziemi, a jedynie spowodują u nich straty materialne, gdyż wyrzucone dosłownie „w błoto” środki mogłyby zostać wydane na inne rozsądne cele, na przykład na zalesianie pustyń czy rekultywację zniszczonych działalnością wydobywczą terenów siedliskowych wielu zwierząt.<br />Przejdźmy teraz do rzeczy i porozmawiajmy o przyczynach zmiany średniej temperatury powietrza na Ziemi, o tym, co nazywa się „efektem cieplarnianym”. <br />Gdyby paryska konferencja „cieplarniana” COP-21 i szkocka COP-26 odbywały się na jakiejś wyspie Papui-Nowej Gwinei, a jej uczestnikami byli dzikusy z okolicznych wiosek, to protekcjonalnie by im wybaczono.<br />Bo już ponad dwa tysiące lat temu astronomowie starożytnego Egiptu odkryli zjawisko precesji, w której oś Ziemi względem nachylenia do Słońca porusza się po okręgu. Znana wielu od dzieciństwa zabawka „bąk" zanim się zatrzyma, zaczyna się kołysać, im bardziej zwalnia, tym bardziej się kołysze. To samo zjawisko występuje na Ziemi i nazywa się precesją.<br /><br /><img src="https://sun9-east.userapi.com/sun9-33/s/v1/ig2/ZbVDG-KCVS5SwP_hpWoIgk0Tu5gKUkdmkEpOW_rcmHOh8TaZ_S0CYoIimfUXo-inFd9wUmaGAM76McIjZ6vOaE98.jpg?size=600x466&quality=95&type=album" /><br /><br />Ze względu na swój obrót wokół własnej osi Ziemia nie ma czasu na przegrzanie i przechłodzenie, dlatego istnieje na niej różnorodne życie. Gdy z czasem Ziemia zwolni rotację, tym ostrzejsze będą zmiany temperatury.<br />A gdyby się zatrzymała, to z jednej strony zwrócona ku Słońcu, będzie miała gorącą piaszczystą pustynię, a z drugiej zimną, śnieżną pustynię jak Księżyc który nie obraca się ani w precesji, ani wokół własnej osi, jest zwrócony w stronę Ziemi z jednej strony.<br />Ziemia podczas swego tłumionego obrotu kołysze się tak jak bąk. Dokładnie tak samo, jak człowiek, grzejąc się przy ogniu, zwraca się do ognia jedną lub drugą stroną.<br />Nawet starożytni Grecy nazywali słowo „klimat” „nachyleniem” promieni słonecznych do powierzchni Ziemi. <br />Jakie jest znaczenie kąta nachylenia promieni Słońca do Ziemi, wszyscy rozumieją, obserwując cykliczną zmianę pór roku z zimy na lato i odwrotnie we wszystkich odmianach zmian pogody. Nawet dobowe zmiany temperatury zależą od wysokości Słońca nad horyzontem, nie mówiąc już o jego globalnej zmianie w ciągu roku. <br />Wszystkie zmiany pogody na Ziemi całkowicie zależą od tego, jakie miejsce zajmuje Słońce na niebie (czyli jaki jest kąt nachylenia promieni słonecznych do powierzchni Ziemi). <br /><br /><img height="270" src="https://sun9-west.userapi.com/sun9-38/s/v1/ig2/0AHwiD-ebujVGwyeGpnmaaexE8AuriP88gfPWASWTeIRJdhv_IgB4o7Ct0oQOr5XYsNFRdC0D4dwrQcRWNkdLPVB.jpg?size=1200x508&quality=95&type=album" width="640" /><br /><br />W precesji Ziemi jeden pełny obrót osi planety po okręgu (360 stopni) następuje w ciągu 25920 lat (w ciągu 72 lat na 1 stopień). Całkowity kąt odchylenia osi Ziemi (od warunkowego środka) podczas kołysania planety wynosi 23 stopnie 27 minut. <br />Ile wynosi 23 stopnie szerokości geograficznej na Ziemi? 1 stopień szerokości (długości geograficznej) Ziemi jest równy 111,1 km.<br />Odpowiednio 23 stopnie i 27 minut - 2600 kilometrów. Jest to na świecie mniej więcej tyle, ile wynosi odległość ze Szwecji do Cypru.<br />Kąt między maksymalnym a minimalnym nachyleniem Ziemi do Słońca w precesji planety jest dwukrotnie większy i wynosi już 46 stopni i 54 minuty - 5200 km. A to mniej więcej odległość od koła podbiegunowego do Afryki. <br />Wszyscy rozumieją, że jedna pogoda (i temperatura) na Ziemi (szczególnie na półkuli północnej) będzie wtedy, gdy Ziemia wystawi wybrzeże Afryki na działanie promieni słonecznych. I zupełnie inaczej, gdy pod tym samym kątem nachylenia pod tymi samymi gorącymi promieniami - północne wybrzeża Syberii i Skandynawii.<br />Wiadomo też, że w tym przypadku na polarnych szerokościach geograficznych Rosji, Ameryki Północnej, Grenlandii, Skandynawii nie będzie już długiej, zimnej nocy polarnej, Słońce wzejdzie tam wysoko i będzie taki sam upał jak dziś na północy Afryka.<br />I zwróćcie uwagę na fakt, że czynnik nachylenia Ziemi względem Słońca nie będzie działał przez jeden krótki okres, jak przy rocznej zmianie klimatu z zimowego na letni, ale wpływ ten będzie występował przez tysiące lat! Wiele, wiele lat stopniowego ocieplania się lub w kierunku przeciwnym do ruchu planety – ochładzania. <br /><br /><img height="526" src="https://sun9-east.userapi.com/sun9-58/s/v1/ig2/6qpXB7EVN1KQZ0_ztSGCRB9MW7aPYcondJFKnefmUk01hiNqguWFED68g5Ol5EaeeQfZZ1TOqzmBiovEFqPmrl44.jpg?size=1200x988&quality=95&type=album" width="640" /><br /><br />Starożytni Egipcjanie i Grecy nazywali pełny krąg precesyjnej rotacji i kołysania planety (25920 lat) wielkim rokiem Ziemi („rokiem platońskim”). Rok ten to pełny cykl, tylko większy niż ludzkie życie - ze wszystkimi jego globalnymi zmianami klimatycznymi.<br />Tak więc precesja (zmiana nachylenia Ziemi względem promieni Słońca) ma istotny, globalny i cykliczny wpływ na zmiany pogody.</div><div><br /></div><div><b style="font-size: large;">Definitywnie klimat to zasadniczo wysokość Słońca nad horyzontem w korelacji z rytmem jego aktywności elektromagnetycznej zależnym od rytmu aktywności elektromagnetycznej naszej galaktyki. Ta z kolei zależna jest od cyklu aktywności włókna elektrycznego łączącego naszą galaktykę z pobliskimi położonymi osiowo innymi galaktykami.</b></div><div> <br />Pogoda (klimat) na Ziemi (temperatura, wilgotność, poziom wody w oceanach świata, flora i fauna i wszystko inne) zupełnie nie zależy od opinii uczestników konferencji na temat gazów „cieplarnianych” w Paryżu czy Glasgow, ale opiera się na astronomicznym zjawisku precesji, czyli długotrwałej, trwającej tysiące lat, cyklicznej zmiany nachylenia planety Ziemia względem Słońca. <br />Całkowita ilość ciepła ze Słońca na powierzchnię Ziemi nie zmienia się w ciągu wielkiego roku platońskiego. Ale ciepło jest rozprowadzane (pochłaniane lub odbijane) na Ziemi w zależności od kąta nachylenia w położeniu precesyjnym naszej planety na różne sposoby.<br />Jeśli chodzi o średnią temperaturę na Ziemi (wzrost lub spadek objętości gazów „cieplarnianych”). - Na przykład, im bardziej podgrzejesz czajnik z wodą na kuchence, tym więcej pary się z niego wydostanie. Woda wrze nie od tego, że wydziela się para, ale od tego, że czajnik się pali. Podobnie jest z Ziemią – im bardziej Słońce ją nagrzewa (ogólnie), tym wyższa jest średnia temperatura lądu, wody i powietrza. <br />Na północy Ziemi (półkula północna) duże obszary zajmują lądy (Syberia, Ameryka, Grenlandia), a na półkuli południowej wody jest więcej (Pacyfik, Ocean Indyjski, Atlantyk, Południowy). <br />Lądy od promieni słonecznych pochłaniają więcej ciepła, a wody (mórz i oceanów) mniej.<br />Kiedy nachylenie Ziemi zmienia się w sposób precesyjny, wówczas zmieniają się powierzchnie lądu i wody ogrzewane promieniami słonecznymi (procentowo rosną lub maleją), a to generalnie zmienia średnią temperaturę na Ziemi. <br />Kiedy Ziemia jest nachylona ku Słońcu przez półkulę północną, wówczas relatywnie więcej obszarów lądowych na północy jest ogrzewanych przez promienie Słońca, co oznacza, że średnia temperatura planety wzrasta z tego powodu. Gdy w precesji nachylenie Ziemi względem Słońca cofa się, zmniejsza się nagrzewana powierzchnia lądów (północnych), a zwiększa się powierzchnia nagrzewania wody w oceanach na półkuli południowej. Woda z kolei odbija więcej energii promieni słonecznych, czyli (ogólnie) trwa proces ochładzania planety.<br />Znajomość geologii mówi, że epoki lodowcowe na Ziemi powtarzały się wielokrotnie, a ostatnia epoka lodowcowa zakończyła się około 10-12 tys. lat temu. <br />Mimo cyklicznych okresów ochłodzenia i ocieplenia na Ziemi nie wyciągnięto z tego żadnych wniosków, sądząc po konferencjach paryskich i szkockich. <br />Zjawisko precesji planety w wielkim „roku platońskim”, o którym mówili ponad dwa tysiące lat temu Egipcjanie i starożytni Grecy, nie zostało jeszcze zrozumiane przez ludzkość. Lekcja przez "naukowców" nie odrobiona!<br />Powłoka lodowa w okresach zlodowacenia na półkuli północnej czasami opadała na szerokość geograficzną współczesnych miast Kijowa, Berlina i Londynu. <br />Skandynawia, Bałtyk, Kanada i Syberia były pokryte wielometrową warstwą lodu i śniegu. W niektórych miejscach lód był taki sam jak obecnie na Antarktydzie.<br />Ze względu na fakt, że ogromna masa wód lądowych na kontynentach północnych była związana i skoncentrowana w lodzie, pokrywającym duży obszar Eurazji i Ameryki, od tego poziomu oceany świata były o 100-200 metrów niższe niż współczesny. <br />To, co teraz jest zalane wodą, w dawnych czasach było lądem. <br />Węgiel i ropa leżą warstwami to znaczy było na przemian gorące i zimne, gorące i zimne. Oznacza to, że nawet Arktyka w historii Ziemi wielokrotnie była ciepła…zważywszy na to że Ziemia kiedyś przed zderzeniem / potopem była większa a Arktyka mogła leżeć nawet w pobliżu równika.<br />A teraz pomyślmy... Jeśli ochłodzenie miało miejsce 10-12 tys. to znaczy że jeszcze nie minęło. Prawdziwe ciepło (jego szczyt) nastąpi za jeden do trzech tysięcy lat. Do tego czasu jeszcze będzie się ocieplać mimo początku obecnego 40 letniego minimum słonecznego. <br />To ocieplenie zostanie odzwierciedlone w następujący sposób. <br />Na przykład niekończące się letnie deszcze w Europie są spowodowane ogrzewaniem przez Słońce rosnących obszarów lądowych na półkuli północnej. Co 72 lata pas ogrzanej ziemi na północy powiększa się o 111 km (czyli o 1 stopień szerokości geograficznej). <br />W efekcie następuje intensywne topnienie lodów Grenlandii i Oceanu Arktycznego, wzmagane parowaniem wilgoci i jej powrotem na Ziemię w postaci długotrwałych deszczy. Powoduje to podniesienie poziomu wody w otwartych zbiornikach wodnych i podziemnych warstwach wodonośnych.<br />Wielu słyszało (widziało to w wiadomościach telewizyjnych) o ogromnym pęknięciu, które powstało na ziemi w Afryce. Nazywano go także „podziałem kontynentu”. Jest to ten sam przejaw ogrzewania planety, ale jego efekt przejawia się w Afryce.<br />Jeśli cały „rok platoński” (25920 lat) jest podzielony na 12 „miesięcy”, to teraz na naszej półkuli północnej, zgodnie z „wiekiem precesji”, w przybliżeniu „maj-czerwiec”, czyli właśnie początek wiosny topniejący śnieg, początek lata.<br />Przejście szczytu upałów podczas precesji na Ziemi „w lipcu” nastąpi za 1-3 tys. lat, a przez inercję jeszcze przez około cztery tysiące lat „sierpień-wrzesień” będzie bardzo ciepły. Konsekwencje tego można sobie wyobrazić i przewidzieć. <br />Współczesne pustynie przesuną się wyżej na północ, dzisiejsze stepy wyschną, współczesne strefy leśne zamienią się w stepy, bagna w tundrze wyschną i porosną lasami liściastymi. Ocean Arktyczny będzie umiarkowanie ciepły. Zimy na północy będą bezśnieżne. W ciągu następnego tysiąca lat lód stopi się na całej półkuli północnej, a ogólny poziom światowych oceanów znacznie wzrośnie z tego powodu. <br />Wraz z topnieniem północnego lodu pod promieniami słońca stopiona woda będzie się nagrzewać. <br />Ciepłe północne wody zmyją i stopią lód przybrzeżny Antarktydy przez prądy oceaniczne, odrywając ogromne góry lodowe od lodowatego kontynentu, a to jeszcze bardziej podniesie ogólny poziom wody w morzach i oceanach. To dzieje się już teraz. <br />W rezultacie duże obszary współczesnych wybrzeży i nadmorskich miast na świecie znajdą się głęboko pod wodą.<br />Ale nie powinieneś się tym wszystkim martwić dzisiaj - kiedy lód na północy topi się za 1000-2000 lat, wtedy w życiu ludzkości będą inne wartości i priorytety.<br />Nikt dziś nie wie, do jakich wartości wzrośnie średnia temperatura na Ziemi w naszym pierwszym, pojętym ludzką świadomością, obecnym „roku platońskim” podczas maksymalnego nachylenia półkuli północnej do promieni słonecznych. <br />„Paryscy naukowcy” wciąż nie wiedzą o zmianie temperatury Ziemi związanej z precesją, a nie rozumiejąc przyczyn ocieplenia, zamierzają zająć się badaniem wymyślając środki do walki z gazem „cieplarnianym” („z parą którą wydziela czajnik podczas gotowania").<br />Proponują takie sny wariata jak np. sztuczne stworzenie bakterii, która według ich pomysłu będzie zjadać dwutlenek węgla z atmosfery (może już to gdzieś w laboratoriach rozpoczęli). To nie jest trujący barszcz, wyhodowany przez „naukowców”, przed którym do dzisiaj nie mogą znaleźć zbawienia. Może być o wiele gorzej!<br />Konsekwencje zmian mają długie łańcuchy wzajemnych powiązań. Przed żarłocznością bakterii nie uchroni Cię „covidowa maska”. Wiatr będzie przenosił bakterie po całej planecie i będą one nie do powstrzymania. Bakterie (średnio) rozmnażają się, podwajając wykładniczo co 20 minut. Oznacza to, że co cztery godziny są one mnożone 1000 razy! 1 1000, 1 milion, 1 miliard, 1 bilion i tak dalej. <br />Kiedy „naukowcy” wypuszczą bakterie na wolność (lub nawet przypadkowo podczas ich produkcji jedna bakteria ucieknie z probówki), to po nieskończonym rozmnożeniu zdobędą całą przestrzeń planety w ciągu jednego lub dwóch dni i pochłonie cały dwutlenek węgla z atmosfery i wody, co sprawi, że skład powietrza i wody nie będzie odpowiedni do życia.<br />W ten sposób bakterie zniszczą życie na Ziemi. Na przykład w filmie fabularnym „Kin-Dza-Dza”, wydanym w ZSRR w 1986 roku, w reżyserii G.N. Pokazana jest Danelia, pozbawiona życia planeta „Khanud”, na której zniszczono atmosferę. „Paryscy naukowcy” mogą zrobić to samo z Ziemią, sami nie rozumiejąc konsekwencji swoich czynów. <br />Ostatnie 20 minut podwojenia liczby bakterii, kiedy zjadają dwutlenek węgla na Ziemi, będzie końcem życia wszystkich żywych organizmów i ludzkości. W ciągu tych 20 minut ludzie na Ziemi będą się dusić, jednocześnie nie rozumiejąc, co się z nimi dzieje…<br />Tu i teraz wprowadzę do codziennego życia pojęć nowy termin – „naukowcy paryscy” – to ci „naukowcy”, którzy ukrywając się za stopniami naukowymi, są bastionem ignorancji, w służbie interesu własnego i kapitału, któremu rozum i prawda są obce. Czyli w kapitalistycznym systemie gdy nadchodzi kryzys, zawsze pełną parą uruchamia się wszechobecna korupcja. To takie trudne aby zauważyć powtarzającą się prawidłowość?<br />Należy wymienić system - wyleczyć przyczyny zamiast łagodzić ciągle wybijające chwasty skutków.</div><div>Komik Molière napisał o nich: „Kiedy mówi człowiek w todze i czapce, wtedy każdy nonsens staje się nauką, a każda głupota rozsądną mową”. Dlatego niech przemawiają autorytety czynu zamiast teoretyków z papierowymi dyplomami od nie robienia niczego.<br />Działalność „paryskich naukowców” stwarza znacznie większe zagrożenie dla życia na Ziemi niż naturalna precesyjna zmiana temperatury planety.<br />Oczywiście można symulować sytuację na komputerze, mierzyć i obliczać na przestrzeni lat zmieniające się cyklicznie obszary nagrzewania lądu i wody, ale zmieniający się klimat, czyli obrót planety, nachylenie Ziemi w stosunku do Słońca i związana z tym precesyjna zmiana temperatury, przekracza możliwości ludzkości.<br />Sytuację należy przyjąć z pokorą, tak jak obecność Słońca i gwiazd na niebie.<br />Po 1-3 tysiącach lat, po osiągnięciu szczytu upałów na półkuli północnej, Ziemia w swoim ruchu precesyjnym przechyli się w przeciwnym kierunku. A za kolejne 13 tysięcy lat osiągnie „szczyt zimna”. Półkula północna ponownie doświadczy epoki lodowcowej.<br />Skandynawię, północną Europę, Syberię i Amerykę pokryje gruba warstwa śniegu i lodu, być może kilkusetmetrowa lub większa. Woda na Ziemi skoncentruje się w tych lodach, poziom oceanów ponownie spadnie o około sto metrów.<br />Z ogromnych północnych lodowców na półkuli północnej zrobi się bardzo zimno. Wybrzeże Antarktydy w okresie „szczytu chłodu” może być nieco wolne od lodu i będzie (wzdłuż wybrzeża) zielonym kontynentem nadającym się do zamieszkania. I tak na Ziemi cyklicznie będzie występował każdy duży, precesyjny „rok platoński” (co każde 25920 lat). <br />Ludzkość jest jeszcze młoda w wiedzy. W rzeczywistości jest w okresie niemowlęcym i przeżywa swoje pierwsze świadome życie w historii Ziemi. Ludzkość dopiero stawia pierwsze kroki, poznaje świat, dlatego wszystko, co dzieje się na Ziemi, wszystko wraz z nauką, dzieje się po raz pierwszy. <br />Prawdziwe postrzeganie procesów (nachylenia Ziemi w ruchu precesyjnym, które tak naprawdę i tylko poważnie wpływają na pogodę na Ziemi) pozwoli zaoszczędzić wiele miliardów funduszy z bezsensownych wydatków w gospodarkach świata.<br />Ludzkość może być szczęśliwym obserwatorem precesyjnych zmian klimatu na Ziemi z cyklicznymi okresami ocieplenia i ochłodzenia. Ale może tego nie widzieć, jeśli najpierw przez swój własny egoizm z pomocą „paryskich naukowców”, sama się zniszczy w morderczej walce.<br />Np. o redystrybucję przemysłowych kwot dwutlenku węgla, o zmianę składu atmosfery sztucznymi bakteriami, czy (ze względu na brak demokracji w krajach świata) – w wojnach termojądrowych o pieniądze, władzę i ambicje liderów. <br />Powody zmiany klimatu spowodowanej precesją Ziemi są proste. Wysokość Słońca nad horyzontem wpływa na temperaturę. Dlatego we wszystkich naszych czasach na równiku w Afryce zawsze będzie gorąco, a na biegunach zawsze będzie zimno, gdzie promienie słoneczne ślizgają się ukośnie po powierzchni. Dzieci też to rozumieją. <br />Maksymalna oscylacja osi Ziemi w precesji względem Słońca (od maksimum do minimum dla „roku platońskiego” 25920 lat) wynosi 46 stopni i 54 minuty. Oznacza to, że o 46 stopni i 54 minuty dla „roku platońskiego” wysokość Słońca nad horyzontem zmienia się na wszystkich szerokościach geograficznych i na wszystkich kontynentach.<br />W związku z tym powierzchnia nagrzewania się lądu i wody oraz czas nagrzewania się planety zmieniają się globalnie, cyklicznie, a od tego średnia temperatura powietrza, wody i lądu na Ziemi. <br />To proste, kiedy to wyjaśnisz. Ale pamiętajcie że 90% (!) ludzi, włączając w to „naukowców paryskich”, żyje jeden dzień. Nie wiedzą nic o „roku platońskim” ani o 46-stopniowej róznicy w precesji. A ci co coś słyszeli nigdy tych pojęć nie zestawiali i nie korelowali z klimatem...<br />„Prawdę trzeba ciągle powtarzać, bo wokół nas cały czas głoszone są złudzenia które służą głównie powiększaniu zysku globalnych koncernów. </div><div><br /></div><div>Ten, kto buntuje się przeciwko racjonalnym prawdom, rozpala ich ogień; wszędzie lecą iskry i rozświetlają światło”. (Goethe).</div><div><br /></div><div>To my ludzie na społecznym dnie tej piramidy finansowej tworzymy rzeczywistość i możemy wywierać masowy wpływ na to co się dzieje z tą cywilizacją i każdy z osobna , gdyby tylko chciał, ma taką moc. Potrzeba jedynie odwagi i współpracy jak za starych trudnych czasów. Z resztą do III światowej wojny już niedaleko. Czy to nie aby od Polski ma się znowu zacząć?..</div></div></div><div class="blogger-post-footer">„Analfabetami XXI wieku nie będą ci, którzy nie umieją pisać ani czytać, lecz ci, co nie potrafią oduczyć się wierutnych kłamstw, w które nauczono ich wierzyć i nie potrafią szukać ukrytej wiedzy, którą nauczono ich odrzucać”</div>#magnetartechprojecthttp://www.blogger.com/profile/00116426320285930090noreply@blogger.com2tag:blogger.com,1999:blog-1727701247933515471.post-64936772401306859772022-07-07T21:48:00.021+02:002023-02-19T02:55:59.858+01:00Telekomunikacyjne systemy satelitarne - modernizacja<p> <br /></p><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><br /><br />Telekomunikacyjne systemy satelitarne to rodzaj sieci telekomunikacyjnej, która umożliwia, przy pomocy satelitów umieszczonych na orbitach, nawiązywanie połączenia z abonentami znajdującymi się w dowolnym miejscu na kuli ziemskiej. W 1960 r. na orbicie umieszczono pierwszego satelitę telekomunikacyjnego o nazwie <a href="https://pl.wikipedia.org/wiki/Echo_1">Echo 1</a>, który był satelitą pasywnym i tylko odbijał sygnały radiowe. Pomysł wykorzystania satelitów w łączności zrodził się na skutek niemożności zestawienia połączenia z dowolnymi punktami na Ziemi, przy pomocy sieci naziemnej. Dodatkowo takie połączenie miało wymagać tylko jednego, unikalnego numeru.<br /><br />System satelitarny składa się z 3 modułów:<div><br />Moduł naziemny:<br /><br />W skład modułu naziemnego wchodzą terminale abonenckie, stacje bazowe, stacje kontrolne, naziemna sieć szkieletowa. Terminale abonenckie wyposażone są w anteny, za pomocą których mogą wysyłać i odbierać sygnały z satelity. Inną częścią składową terminala abonenckiego jest specjalne urządzenie konwertujące odbierany sygnał wysokiej częstotliwości na sygnał mowy czy ramki określonego protokołu. Terminal abonencki wysyła dane do najbliższego satelity. Następnie te dane przesyłane są przez kolejnego satelitę lub po prostu od razu do znajdującej się najbliżej i pasującej stacji bazowej. Ta stacja bazowa przekazuje dalej odebrane dane do terminala wywoływanego, który jest obsługiwany przez tę stację.<div><br />Moduł kosmiczny:<br /><br />W skład modułu kosmicznego wchodzą satelity umieszczone na orbitach. Satelity mają anteny dzięki którym mogą odbierać i przesyłać sygnały. Problem zasilania modułu kosmicznego został rozwiązany przez wyposażenie satelitów w baterie słoneczne i silniki odrzutowe. Wyróżnia się kilka rodzajów modułów kosmicznych, a tym samym systemów satelitarnych. Podział jest dokonany ze względu na typy orbit po których krążą satelity; </div><div><br /></div><div><br /></div><div><b>LEO</b> (Low Earth Orbit) systemy o niskich orbitach kołowych znajdujących się na wysokości od 500 do 2000 km nad powierzchnią Ziemi. Umiejscowienie satelity właśnie na takiej wysokości wynika z faktu że do 500 km atmosfera jest zbyt gęsta i występowałoby zbyt duże tarcie, natomiast powyżej 2000 km znajduje się pierwsza <a href="https://pl.wikipedia.org/wiki/Pas_Van_Allena">strefa Van Allena</a>, w której często występują cząstki promieniowania kosmicznego mogące uszkodzić elektroniczne elementy satelity. Ze względu na niewielką wysokość, aby pokryć zasięgiem całą kulę ziemską potrzebna jest dość znaczna liczba satelitów, ok. 40. Liczba komórek systemu satelitarnego widzianych na Ziemi w wyniku poruszających się satelitów oscyluje wokół 3000. Dlatego bardzo ważną kwestią jest zapewnienie skutecznego przełączania (<a href="https://pl.wikipedia.org/wiki/Handover">handover</a>). Satelity te mają także dużą prędkość, przez co znajdują się krótko w zasięgu naziemnej stacji abonenckiej lub bazowej. Zaletą systemów LEO jest niewielka wartość opóźnienia propagacyjnego, dzięki czemu można bardzo łatwo i z dobrym rezultatem transmitować głos. Minusem systemów LEO jest duża liczba wymaganych satelitów. Istotne znaczenie ma tutaj także <a href="https://pl.wikipedia.org/wiki/Efekt_Dopplera">efekt Dopplera</a>. Orbity LEO są najczęściej kołowe, czasami eliptyczne. Przykłady: TELEDESIC, GLOBALSTAR.</div><div><br /></div><div><b>MEO</b> (Medium Earth Orbit) - określane są także jako ICO (Intermediate Circular Orbit) - systemy o średniej wielkości orbit. Orbity dla satelitów wchodzących w skład tych systemów znajdują się na wysokości od 8000 km do 12000 km nad powierzchnią Ziemi. Taka, a nie inna wysokość wynika z istnienia poniżej, jak i powyżej, odpowiednio pierwszej i drugiej stref Van Allena, składających się z cząsteczek niebezpiecznych dla elementów elektronicznych satelitów. Znacznie większa wysokość w porównaniu z orbitami systemu LEO wpływa korzystnie na liczbę potrzebnych satelitów do pokrycia swoim zasięgiem całej ziemi. Potrzeba od 10 do 15 satelitów. Liczba komórek w tych systemach spada około czterokrotnie w porównaniu z systemami LEO i wynosi ok. 800. Wzrasta natomiast opóźnienie sygnału do wartości ok. 150 ms. W systemach LEO opóźnienie nie przekraczało 50 ms. Mniejsza liczba komórek wpływa na mniejszą pojemność systemu natomiast mniejsza liczba wymaganych satelitów powoduje, że system jest tańszy niż LEO. Orbity, tak jak w systemach LEO, mogą być kołowe i eliptyczne. Przykłady: ORBLINK.</div><div><br /></div><div><b>HEO</b> (Highly Eliptical Orbit) - orbity silnie eliptyczne od 500 do 50 tys. km nad powierzchnią Ziemi. Dzięki takim parametrom satelita jest widoczny z powierzchni ziemi jako nieruchomy w określonym przedziale czasu. Na tych satelitach mogą być budowane systemy o podobnym kącie elewacji pod jakim satelita jest widoczny z Ziemi, systemy HEO znajdują zastosowanie w terenach górzystych oraz o dużym stopniu zurbanizowania. Do systemów HEO potrzeba od 2 do 10 satelitów. Jednak te systemy NIE SĄ OBECNIE STOSOWANE choć nie potrzeba umieszczać na orbicie tylu potencjalnych przeszkód dla masowych lotów kosmicznych i powstałych z nich przyszłych kosmicznych śmieci.</div><div><br /></div><div><b>GEO</b> (Geostationary Orbit) - systemy z satelitami geostacjonarnymi rozmieszczonymi w płaszczyźnie równikowej na wysokości 35 786 km. Orbitę na tej wysokości nazywa się <a href="https://pl.wikipedia.org/wiki/Orbita_geostacjonarna">orbitą geostacjonarną</a> Aby pokryć kulę ziemską do szerokości geograficznej 75° potrzeba 3 do 4 satelitów, które mają taką samą <a href="https://pl.wikipedia.org/wiki/Pr%C4%99dko%C5%9B%C4%87_k%C4%85towa">prędkość kątową</a> jak Ziemia, dzięki czemu są widziane z jej powierzchni jako nieruchome. Duża odległość od powierzchni Ziemi wprowadza duże opóźnienia wynoszące ok. 300 ms. jednak to tylko 0,3 sekundy. Liczba komórek nie przekracza 800. Pojemność systemu GEO przypadająca na jednostkę pasma jest niższa niż w systemach LEO. Niższy jest także koszt systemu. Efekt Dopplera nie ma w przypadku tych systemów większego znaczenia. Jednak aby satelity przetransportować na wymaganą w tych systemach wysokość orbity, potrzebne są kosztowne systemy rakietowe. W systemach GEO stosowane są duże moce sygnałów, ze względu na znaczną wysokość, przez co <b>NIEMOŻLIWE </b> jest stosowanie na Ziemi bezpośrednich terminali ręcznych.<br /><br /><div><br /><br /><br /><br /><br /><table align="center" class="wikitable" style="background-color: #f8f9fa; border-collapse: collapse; border: 1px solid rgb(162, 169, 177); color: #202122; font-family: sans-serif; font-size: 14px; margin: 1em 0px;"><caption style="font-weight: bold;"><b>Tabela nr 1. Podział Systemów Satelitarnych pod względem typów orbit</b></caption><tbody><tr><th style="background-color: #eaecf0; border: 1px solid rgb(162, 169, 177); padding: 0.2em 0.4em; text-align: center;"><b>Nazwa systemu</b></th><th style="background-color: #eaecf0; border: 1px solid rgb(162, 169, 177); padding: 0.2em 0.4em; text-align: center;"><b>Wysokość orbity [km]</b></th><th style="background-color: #eaecf0; border: 1px solid rgb(162, 169, 177); padding: 0.2em 0.4em; text-align: center;"><b>Wymagana liczba satelitów</b></th><th style="background-color: #eaecf0; border: 1px solid rgb(162, 169, 177); padding: 0.2em 0.4em; text-align: center;"><b>Opóźnienie sygnału [ms]</b></th><th style="background-color: #eaecf0; border: 1px solid rgb(162, 169, 177); padding: 0.2em 0.4em; text-align: center;"><b>Przykład systemu</b></th></tr><tr><td align="center" style="border: 1px solid rgb(162, 169, 177); padding: 0.2em 0.4em;">LEO</td><td align="center" style="border: 1px solid rgb(162, 169, 177); padding: 0.2em 0.4em;">500-2000</td><td align="center" style="border: 1px solid rgb(162, 169, 177); padding: 0.2em 0.4em;">kilkadziesiąt (ok. 40)</td><td align="center" style="border: 1px solid rgb(162, 169, 177); padding: 0.2em 0.4em;">50</td><td align="center" style="border: 1px solid rgb(162, 169, 177); padding: 0.2em 0.4em;">Teledesic, Globalstar</td></tr><tr><td align="center" style="border: 1px solid rgb(162, 169, 177); padding: 0.2em 0.4em;">MEO</td><td align="center" style="border: 1px solid rgb(162, 169, 177); padding: 0.2em 0.4em;">8000-12000</td><td align="center" style="border: 1px solid rgb(162, 169, 177); padding: 0.2em 0.4em;">10-15</td><td align="center" style="border: 1px solid rgb(162, 169, 177); padding: 0.2em 0.4em;">150</td><td align="center" style="border: 1px solid rgb(162, 169, 177); padding: 0.2em 0.4em;">Orblink</td></tr><tr><td align="center" style="border: 1px solid rgb(162, 169, 177); padding: 0.2em 0.4em;">HEO</td><td align="center" style="border: 1px solid rgb(162, 169, 177); padding: 0.2em 0.4em;">500-50000</td><td align="center" style="border: 1px solid rgb(162, 169, 177); padding: 0.2em 0.4em;">2-10</td><td align="center" style="border: 1px solid rgb(162, 169, 177); padding: 0.2em 0.4em;">do 500</td><td style="border: 1px solid rgb(162, 169, 177); padding: 0.2em 0.4em;"></td></tr><tr><td align="center" style="border: 1px solid rgb(162, 169, 177); padding: 0.2em 0.4em;">GEO</td><td align="center" style="border: 1px solid rgb(162, 169, 177); padding: 0.2em 0.4em;">35 786</td><td align="center" style="border: 1px solid rgb(162, 169, 177); padding: 0.2em 0.4em;">3-4</td><td align="center" style="border: 1px solid rgb(162, 169, 177); padding: 0.2em 0.4em;">300</td><td align="center" style="border: 1px solid rgb(162, 169, 177); padding: 0.2em 0.4em;">Inmarsat, VSAT<br /><br /></td></tr></tbody></table><br /><br /><br /><br /><br /><br />Kanał <a href="https://pl.wikipedia.org/wiki/Radio">radiowy</a><br /><br />Rozróżniamy kanał radiowy tzw. <a href="https://pl.wikipedia.org/wiki/Uplink">uplink</a> służący do transmisji Ziemia-satelita oraz w przeciwnym kierunku satelita-Ziemia tzw. <a href="https://pl.wikipedia.org/wiki/Downlink">downlink</a>. W ramach każdego pasma określono konkretne zakresy częstotliwości, które przeznaczone są dla transmisji przez satelity. W tabeli nr 2 znajduje się przyjęty podział <a href="https://pl.wikipedia.org/wiki/Cz%C4%99stotliwo%C5%9B%C4%87">częstotliwości</a>.<table align="center" class="wikitable" style="background-color: #f8f9fa; border-collapse: collapse; border: 1px solid rgb(162, 169, 177); color: #202122; font-family: sans-serif; font-size: 14px; margin: 1em 0px;"><caption style="font-weight: bold;"><b><br /></b></caption><caption style="font-weight: bold;"><br /></caption><caption style="font-weight: bold;"><b><br /></b></caption><caption style="font-weight: bold;"><b><br /></b></caption><caption style="font-weight: bold;"><b><br /></b></caption><caption style="font-weight: bold;"><b><br /></b></caption><caption style="font-weight: bold;"><b>Tabela nr 2. Podział częstotliwości</b></caption><tbody><tr><th style="background-color: #eaecf0; border: 1px solid rgb(162, 169, 177); padding: 0.2em 0.4em; text-align: center;"><b>Pasmo</b></th><th style="background-color: #eaecf0; border: 1px solid rgb(162, 169, 177); padding: 0.2em 0.4em; text-align: center;"><b>Przedział częstotliwości [GHz]</b></th></tr><tr><td align="center" style="border: 1px solid rgb(162, 169, 177); padding: 0.2em 0.4em;">L</td><td align="center" style="border: 1px solid rgb(162, 169, 177); padding: 0.2em 0.4em;">1-2</td></tr><tr><td align="center" style="border: 1px solid rgb(162, 169, 177); padding: 0.2em 0.4em;">S</td><td align="center" style="border: 1px solid rgb(162, 169, 177); padding: 0.2em 0.4em;">2-4</td></tr><tr><td align="center" style="border: 1px solid rgb(162, 169, 177); padding: 0.2em 0.4em;">C</td><td align="center" style="border: 1px solid rgb(162, 169, 177); padding: 0.2em 0.4em;">4-8</td></tr><tr><td align="center" style="border: 1px solid rgb(162, 169, 177); padding: 0.2em 0.4em;">X</td><td align="center" style="border: 1px solid rgb(162, 169, 177); padding: 0.2em 0.4em;">8-12</td></tr><tr><td align="center" style="border: 1px solid rgb(162, 169, 177); padding: 0.2em 0.4em;">Ku</td><td align="center" style="border: 1px solid rgb(162, 169, 177); padding: 0.2em 0.4em;">12-18</td></tr><tr><td align="center" style="border: 1px solid rgb(162, 169, 177); padding: 0.2em 0.4em;">K</td><td align="center" style="border: 1px solid rgb(162, 169, 177); padding: 0.2em 0.4em;">18-27</td></tr><tr><td align="center" style="border: 1px solid rgb(162, 169, 177); padding: 0.2em 0.4em;">Ka</td><td align="center" style="border: 1px solid rgb(162, 169, 177); padding: 0.2em 0.4em;">27-40</td></tr><tr><td align="center" style="border: 1px solid rgb(162, 169, 177); padding: 0.2em 0.4em;">V</td><td align="center" style="border: 1px solid rgb(162, 169, 177); padding: 0.2em 0.4em;">powyżej 40</td></tr></tbody></table><br /><br /><br /><br /><br /><br /><br /><br />Pasmo X przeznaczone jest głównie dla organizacji rządowych i wojska.<br /></div><div>Systemy satelitarne można także klasyfikować ze względu na wielkość wykorzystywanych satelitów.<br /><br />Wyróżniamy systemy wykorzystujące: </div><div>duże satelity GEO<br />duże satelity LEO/ICO<br />małe satelity LEO z rozróżnieniem na:- mini satelity LEO od około 100 do 750 kg masy- mikro satelity LEO o wadze od 50 do 100 kg</div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div class="separator" style="clear: both; text-align: center;"><br /></div><div><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjqt6A-GVI9vC80StGbNli6maXfTH90FtxgSXTtdDSRgZRy0IS7k2z5eIq9EnjX0J-NcKDLb5AAitttG9eXXb0kmtQsw4c9TIQSEy7OIWcUo9oS96dLUIbbFSWj-WiWHYyxxoSkl0N7WCh5X1ePoMaJm41bYcSyDjL8cZWTCVC4eeRtv3CcZHbXrhzY/s615/01-30536.jpg" style="margin-left: 1em; margin-right: 1em;"><img border="0" data-original-height="396" data-original-width="615" height="412" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjqt6A-GVI9vC80StGbNli6maXfTH90FtxgSXTtdDSRgZRy0IS7k2z5eIq9EnjX0J-NcKDLb5AAitttG9eXXb0kmtQsw4c9TIQSEy7OIWcUo9oS96dLUIbbFSWj-WiWHYyxxoSkl0N7WCh5X1ePoMaJm41bYcSyDjL8cZWTCVC4eeRtv3CcZHbXrhzY/w640-h412/01-30536.jpg" width="640" /></a></div><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><br /></div></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div>Dlaczego podaję informacje o obecnych regulacjach w telekomunikacji satelitarnej? </div><div>Dla rozwoju i utrzymania skutecznej łączności w przyszłej technologii ager-, hydro-, aero- i astronautyki będą potrzebne całkiem nowe zunifikowane standardy i technologia, aby nie kopać się z koniem jakim jest przepuszczalność atmosfery dla fal elektromagnetycznych tak jak to dziś ma miejsce. Zwiększa się ilość nadajników aby pokonać naturalne tłumienie atmosfery dla tych częstotliwości.</div><div>W skutecznej komunikacji dla masowej ilości pojazdów poruszających się pomiędzy powierzchnią Ziemi a orbitą, potrzeba zarezerwować pasmo między >10 m do <10 cm którego naturalnie nie tłumi ziemska magnetosfera co widać na powyższym uproszczonym diagramie. </div><div>Wszelka bezprzewodowa / antenowa komunikacja pomiędzy pozostałymi obiektami nieruchomymi, jak telewizja radio i internet stacjonarny dla obniżenia poziomu szumu elektromagnetycznego w podanym zakresie, powinna zostać przeniesiona na pasma częstotliwości poniżej okna 10 cm- 10 m (100 MHz- 1 GHz) lub najlepiej - zastąpiona w całości komunikacją kablową. </div><div>Za pomocą antygrawitacyjnych siłowników można nieruchomo umieścić satelity na odpowiedniej wybranej wysokości (<b>NEO - No Earth Orbit - </b>mój pomysł) 100 km wysokości gwarantującej redukcję opóźnienia sygnału mniejszą niż w LEO (tylko około 10 ms!) co ma decydujące znaczenie dla szybkiej lokalizacji pojazdów podczas lotu ponieważ po uruchomieniu transportu antygrawitacyjnego w powietrzu będzie ich cała masa. Wyłączamy tylko tych kierowców którzy mają lęk przestrzeni. Więc część jakaś niewielka część kierowców z pewnością pozostanie na powierzchni Ziemi.</div><div>Telekomunikacyjna sieć naziemna posiada zbyt duże i wielokrotne echo sygnału wynikające z infrastruktury miast aby nadawała się do samodzielnej lokalizacji pojazdów latających bez wspomagania sieciami instalowanymi powyżej powierzchni Ziemi.</div><div>Źródło - Wikipedia i literatura Krzysztof Wesołowski, „Systemy Radiokomunikacji Ruchomej”, WKŁ, Warszawa, 2003.</div></div></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div class="blogger-post-footer">„Analfabetami XXI wieku nie będą ci, którzy nie umieją pisać ani czytać, lecz ci, co nie potrafią oduczyć się wierutnych kłamstw, w które nauczono ich wierzyć i nie potrafią szukać ukrytej wiedzy, którą nauczono ich odrzucać”</div>#magnetartechprojecthttp://www.blogger.com/profile/00116426320285930090noreply@blogger.com0tag:blogger.com,1999:blog-1727701247933515471.post-30477153956848055462022-06-18T21:11:00.103+02:002024-02-17T12:09:45.876+01:00Jak działa światło? Korpuskuła to czy fala?<div class="separator" style="clear: both; text-align: center;"><br /></div><br /><div><br /></div><div><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/a/AVvXsEivRy3MUhKZEl5x3YvRvBF4ALgIDc6Jd7jsYDFKKWAuNf0mF2RLDIeP5lpn2xLUF7Xrb4SCBDGg8QhIjYMRFlwE2TAegdW8EsZpBf8ZQwa2B1n9ZSBZK2yS_GLZbRSyyxHPipSKmzP_ck45XwcooofMbyjPgHuPPr9RI-lMTL4BkX2h7SyOEAbAQtfq" style="margin-left: 1em; margin-right: 1em;"><img data-original-height="623" data-original-width="640" height="622" src="https://blogger.googleusercontent.com/img/a/AVvXsEivRy3MUhKZEl5x3YvRvBF4ALgIDc6Jd7jsYDFKKWAuNf0mF2RLDIeP5lpn2xLUF7Xrb4SCBDGg8QhIjYMRFlwE2TAegdW8EsZpBf8ZQwa2B1n9ZSBZK2yS_GLZbRSyyxHPipSKmzP_ck45XwcooofMbyjPgHuPPr9RI-lMTL4BkX2h7SyOEAbAQtfq=w640-h622" width="640" /></a></div><br />Przestrzeń kosmiczna jest całkowicie wypełniona fotonami o niskiej energii, choć możemy to nazwać "płynem fotonotwórczym". To dlatego wszystko zamarza w cieniu. Jeśli przestrzeń byłaby próżnią, musiałaby stać się termicznym izolatorem ....fotony nie istnieją nigdy w pojedynkę ponieważ nie zachodziłaby tak szybka transmisja wszelkich odzziaływań. Zawsze tkwią w fotonowym morzu Wszechświata.</div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><div>Czerwone światło z krańców widzialnego wszechświata to światło wytłumione przez podstawowe cząsteczki wchodzące w skład atmosfery wszechświata, będącej budulcem i składnikiem przestrzeni. Cząsteczkowa struktura przestrzeni może być dla światła dalekich galaktyk rodzajem pryzmatu lub raczej cząsteczkowego multi pryzmatu, tak samo jak atmosfera dla światła słonecznego. Wieczorem gdy słońce prześwieca atmosferę pod kątem, również świeci światłem czerwonym. Im grubsza i mniej przezroczysta jest warstwa nośnika, tym bardziej fala biegnie w kierunku niższej częstotliwości pochłaniając resztę fal. Jest to kolejny argument na to że rzekomy dowód na rozszerzanie się Wszechświata nie ma sensu. Czerwona barwa widma galaktyk nie musi odpowiadać wyłącznie za efekt Dopplera zwłaszcza że kwazary połączone mostami z galaktykami, mają względem nich o wiele wyższe przesunięcie widma ku czerwieni. A przecież tkwią nieruchomo obok siebie! Po prostu mocniej świecą więc z większą siłą dociera do nas światło czerwone.</div><div><br /></div><div><br /></div><div>Wszystko, co widzimy i rejestrujemy w kosmosie, to rodzaj złożonej wibracji magnetoelektrycznej. Mniejsze wirujące sfery cząsteczek z łatwością przenikają bardziej złożone struktury. Elektron/ foton, ponieważ także funkcjonuje jako wolny, powinien być śmiało sklasyfikowany jako karłowaty pierwiastek. Gaz karłowaty. Proton z resztą też, choć większy, zaś neutron byłby wtedy po prostu karłowatym gazem szlachetnym. Cząsteczek prostych we wszechświecie w świetle przedstawionej teorii musi być ilościowo tym więcej, im są mniejsze ponieważ obszar zajęty przez materię jest o wiele mniejszy niż obszar "zarezerwowany" dla przestrzeni.</div></div><div><br /></div>Powodem obecnego stanu nauki dla której eter oficjalnie nie istnieje, jest niedobrana metoda badawcza ponieważ naukowcy nie wiedzą czego i jak mają szukać. Od początku rozwoju starożytnej jeszcze rzetelnej i niezależnej od koncernów nauki, gdy tylko zaczęto nadawać audycje radiowe, używano określenia "na falach eteru" i ten zwrot był jak najbardziej prawdziwy. Późniejsza fizyka to już nie było to samo. Usłyszano od starożytnych alchemików o tajemniczym eterze i zamiast spróbować zjawisko wyjaśnić, nie zastanawiając się czym w istocie może to być, za pomocą tylko jednego typu wadliwego doświadczenia, przystąpiono do jego badania i dalszych nic nie wnoszących doświadczeń. Ten styl pokutuje aż do czasów obecnych...<br />Nie wiem skąd w naukowcach wzięło się przekonanie że natura podrzuci im pod nogi odrębne cząsteczki do każdego nowego zjawiska. Natura jeśli jest inteligentna, powinna upraszczać swoje zasady. Mówią eter "został obalony". Fizycznie jednak, znane doświadczenie Michelsona-Morleya nie mogło wykryć eteru za pomocą rejestracji różnicy czasu pomiędzy wysyłanymi pod kątem 90 ° dwoma promieniami światła. Jeśli okaże się w końcu oficjalnie że przestrzeń nie jest próżnią, że jest wypełniona najbardziej sprężystą substancją, o SKRAJNIE niskiej- najniższej energii z możliwych, niewykrywalnych właśnie z TEGO powodu, to cywilizacja zmieni się diametralnie a ja przeprowadzając odpowiedni eksperyment potwierdzający tę tezę, powinienem dostać Nobla. Ale ponieważ Nobel przydzielany jest, nie ze względu na odkrycia czy wiedzę lecz obecnie panujące frakcje polityczno naukowe, wytarł jak stare gacie w kroku i nie jest to żadna nobilitacja na której by mi zależało. Gdyby jednak mi go wepchnięto w ręce, to wszystko co do grosza przeznaczyłbym na rozwój elektromagnetycznej astronautyki, choćby dla przyszłych pokoleń, nawet gdybym miał jeździć do czasu uruchomienia tej technologii rowerem (zamordyzm związany z zupełnie nieszkodliwym dla globalnego ocieplenia, gazem CO2).<div><div><br /></div><div><div><div>W przestrzeni kosmicznej nie znajdziemy nic co byłoby wirtualne. Ani wirtualne cząstki ani fale. Pojęcie wirtualności w fizyce ma za zadanie chyba dodatkowo utrudniać potencjalnym beneficjentom zrozumienie rzeczywistej istoty działania Wszechświata.</div><div>Światło to zupełnie coś innego. Nie jest promieniowaniem jak się błędnie powtarza. Światło jest w istocie falą, drganiem "atmosfery przestrzeni". Może wyglądać pod względem laboratoryjnym jak cząstka, porcja energii, ale przede wszystkim jest falą - zmarszczką eterycznej przestrzeni. Jest zarówno jednym jak i drugim- patrząc z punktu widzenia nauki która widzi tu jakiś dualistyczny nierozwiązywalny problem. Światło jest zjawiskiem, które powstaje, jakgdyby gwiazdy świecąc, wywoływały dookólne turbulencje w naturalnie nieruchomej fotonowej przestrzeni kosmicznej. Problem nauki pojawia się w momencie rejestracji światła. Falą jest gdy rozszczepiamy ją przez pryzmaty a cząstką gdy strzelamy rzekomymi fotonami- porcjami energii z wyrzutni.</div><div><br /></div><div>Jednak każde urządzenie pomiarowe jest elektryczne, jak przykładowo mikroskop elektronowy, mierzy cząsteczkę jako umowną porcję energii elektrycznej. Nikt nigdy pojedyńczego fotonu na oczy nie widział, więc można powiedzieć że cała materia jest utopiona w jakiegoś rodzaju płynie kosmicznego oceanu.</div><div> W tym oceanie wszystkie siły generują się z ruchu. W zasadzie każdy rodzaj oddziaływania korzysta z ruchu tego płynu w przestrzeni. Z ruchu tego płynu powstawać mogą zarówno pola elektromagnetyczne, elektrostatyczne, prądy elektryczne, grawitacja, ciepło czy światło. Wszystko to jest do siebie podobne. Eter jako źródło i zjawisko świadomości, myśli, uczuć i emocji, jest polem działania zjawisk/ transmisji energii/ zapisu informacji. Jedynie zjawisko świadomości nie potrzebuje ruchu eteru dla jej skutecznego funkcjonowania ponieważ świadomość to bezwarunkowa obecność. Przejawia się jako obserwowalny stan poczucia "oto JA istnieję" każdej żywej istocie..</div><div>Natura struktury przestrzeni kosmicznej jest zbliżona do właściwości pojemnika wypełnionego gazem lub też zbiornika wypełnionego cieczą. Różnią się one między sobą lepkością i reaktywnością danej substancji. Eter można nazwać pierwszym gazem. Jest tak samo przezroczysty jak pozostałe gazy. Czy to że pozostałe złożone gazy są niewidoczne znaczy że nie istnieją?</div><div><br /></div><div>Eter, czy też przestrzeń kosmiczna to "zamrożone" do niskich energii cząsteczki światła - fotony, lub też patrząc z odwrotnej strony- fotony z których zbudowane są wszystkie bardziej złożone formy jak atomy, molekuły, związki chemiczne, są potencjalnymi mikro-wirami substancji z której zbudowana jest przestrzeń. Jeśli jednak w przestrzeni NIE MA ruchu, substancja ta zachowuje się jak MONOLIT i wtedy służy wyłącznie jako nośnik informacji- myśli. Powiedziałbym nawet że nośnik poczucia obecności/ istnienia.</div><div><br /></div><div>To nic innego jak świadomość kosmiczna generuje <b>ZJAWISKO RUCHU </b>a z kolei ono tworzy każdą z energii we Wszechświecie przy czym bazową energią jest elektryczna, ale i ona jest w istocie energią hydrauliczną - jako różnica ciśnień / naprężeń między dwoma punktami ośrodka zwanego przez nas przestrzenią.</div><div>Pozorne fotony, rozchodząc się falowo, jako naprzenienna i dookólna transmisja zagęszczeń i rozrzedzeń wypełniacza przestrzeni, zachowują się analogicznie jak drgania gazu w atmosferze czy fale wody na jeziorze. Te substancje są bliźniacze, choć gaz i ciecz pochodzą od eteru pośrednio. </div><div>Nie jest do procesu powstawania gazu i cieczy potrzebna żadna dodatkowa energia poza elektryczną. Stąd tak wysoka, milionowych wartości temperatura PONAD powierzchnią gwiazd, a niska na ich METALICZNEJ powierzchni. Część gwiazd powstaje jako metaliczny odpad po wybuchu Supernowych (małe gwiazdy) a część powstaje jako ciekła i z czasem gęstnieje do postaci metalu ze skurczu plazmy, której w kosmosie pod względem objętości jest wielokrotnie więcej niż materii występującej w znanych nam trzech stanach skupienia. Gazowe gwiazdy nie istnieją. Dlatego efekt fuzji termojądrowej jest nieosiągalny. Daremny i głupi wydatek wielu miliardów.</div><div>Plazma jako efekt różnicy potencjałów wynikający z drgań eteru w przestrzeni kosmicznej, układa się w postaci wielkich, wielokształtnych sieci wyładowań elektrycznych które tworzą wzdłuż swoich włókien prądowych galaktyki spiralne otoczone indukowanym z tych włókien polem elektromagnetycznym. Prądy powstałe wewnątrz galaktyk zasilają gwiazdy i znowu pole elektromagnetyczne gwiazd zasila prądami plazmy planety. Więc Ziemia co za tym idzie, nie posiada wewnątrz czarodziejskiego dynama. Całość złożonego systemu zasilana jest z zewnętrznej trójwymiarowej sieci prądów plazmowych. W tej sieci cała energia przenoszona jest od przestrzeni do materii za pomocą fotonów. Cała materia jest również zbudowana z różnych modyfikacji struktur fotonowych. W uproszczeniu.</div><div>Energia przenoszona jest wszędzie w naturze za pośrednictwem drgań- fal. Można ją indukować odpowiednio dostrojonym elektrycznym dla dużych uzysków, lub elektronicznym dla minimalnych uzysków, odbiornikiem.<br /><div>Fala potrzebuje środowiska propagacji które jest tej samej natury co fala w każdym stanie skupienia. Dlatego jeśli natura pełna energii "posługuje się" jednym uniwersalnym prawem, logicznie zastosowanym i powiązanym, przestrzeń kosmiczna NIE MOŻE być bezcząsteczkową próżnią. Nawet nie ma takiej opcji.</div><div>Kolejną naukową bzdurą jest to że fotony przemieszczają się z prędkością światła. </div><div>Wzbudzone ruchem fotony przemierzające całą przestrzeń kosmiczną, <b>nie przyspieszają</b> do prędkości światła a przekazują energię następnym, jeszcze wtedy niskoenergetycznym fotonom, lawinowo je wzbudzając i dopiero prędkość rozchodzenia się fali wynosi ~ 300 000 km/s. wraz z odległością coraz bardziej obniżając amplitudę a jednocześnie wydłużając okres fali co przekłada się na spadek częstotliwości. Wzbudzone cząsteczki fotonów (wiry eteru- też tak można je nazwać) pozostają praktycznie tam gdzie brały udział w przekazaniu energii- czyli ruchu. Fotony o wysokiej energii możemy porównać do piany czy też bąbelków powietrza powstających podczas dużych zawirowań w zbiorniku wodnym. Niby ten sam ośrodek a jednak widzimy różnicę. Niskoenergetyczne " nie pieniące się" fotony z kolei odpowiadają za przenoszenie takich sił i zjawisk w przestrzeni kosmicznej jak pole elektromagnetyczne czy grawitację .</div><div>Jeśli mamy jeden jedyny ośrodek propagacji fal w kosmosie, to zanim do teleskopu czy też oka dotrą wszystkie częstotliwości, wiele rożnych fal się przemiesza tak samo jak to się działo w przypadku nachodzących na siebie fal podczas odbioru w czasach starych analogowych audycji radiowych. Tak samo dzieje się ze światłem dalekich obiektów kosmicznych. W ostateczności redukują się do niemal zera wszystkie fale poza tymi z podczerwieni w zakresie widzialnym lub nawet fal radiowych w dalszym zakresie odległości obserwowanym przez radioteleskopy. </div><div>Nie ma innej energii oprócz ruchu "cząsteczek" a faktycznie RUCHU ETERU który postrzegany jest jako fotony, w dosdatku z zaniżonym szacunkiem ich ilości w przestrzeni kosmicznej. Prąd elektryczny, światło, ciepło, magnetyzm, grawitacja, to wszystko jest przekazem ruchu cząstek- fotonów lecz o różnym potencjale ruchu, potencjale elektrycznym, czy też różnej energii. To wszystko znaczy to samo. Ruch tej eterycznej atmosfery wypełniającej twór zwany Wszechświatem stoi u podstaw wszelkich oddziaływań. Fizyka jest prosta, tylko człowiek ją niepotrzebnie zagmatwał.</div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhQSLdkJjWuPXzXuHrpzVx1MMNRo8SBARpWU_hEZf7CdIGgIs5jm267SbKNQdGUcqEkQzlwGqkSZ-GF4Szve9Lyu3nfa3Wds1i3AEWB5zxfXeDCK7C5WdM097DaKoOz3dYAk5qjeuID8WZ8eY0I4G4iUgRfaJh7r4dmZOiaWHppaD1hyq7TJpTK9gDL/s885/Przechwytywanie.PNG" style="margin-left: 1em; margin-right: 1em;"><img border="0" data-original-height="619" data-original-width="885" height="448" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhQSLdkJjWuPXzXuHrpzVx1MMNRo8SBARpWU_hEZf7CdIGgIs5jm267SbKNQdGUcqEkQzlwGqkSZ-GF4Szve9Lyu3nfa3Wds1i3AEWB5zxfXeDCK7C5WdM097DaKoOz3dYAk5qjeuID8WZ8eY0I4G4iUgRfaJh7r4dmZOiaWHppaD1hyq7TJpTK9gDL/w640-h448/Przechwytywanie.PNG" width="640" /></a></div><br /><div><br /></div><div>Podczas przenoszenia energii jakiekolwiek drgania ulegają wyhamowaniu i obniżeniu częstotliwości aby po CAŁKOWITEJ utracie energii stać się NA POWRÓT częścią składową naszej eterycznej przestrzeni.</div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div>Gdy mówimy o świetle, fotonowa przestrzeń zostaje pobudzana do świecenia czyli do drgań fotonów chociaż w istocie nie rozróżniałbym fotonów jako pojedyncze cząstki. W naszych oczach obserwujemy je jako rozdzielne barwy wdostające się na orbitale atomowe siatkówki i już jako dodany do orbitali atomowych czopków czy pręcików tak zwany potencjał elektryczny, trafiają nerwami do mózgu. W dalszym ciągu są to fotony o różnej częstotliwości drgań w róznych miejscach oka, tyle że na orbitalach. Widmo światła w istocie nie jest podzielne. Mimo że kolory widzimy jako odrębne, to częstotliwość jest między nimi płynna. Każdy kolor odpowiada za jakiś większy zestaw częstotliwości. W kontakcie z ośrodkiem przez który fala przebiega, elektrostatyka powoduje ugięcie fali tym większe im wyższa jest jej częstotliwość drgań. Nie ma w oku ani w pryzmacie żadnego rozwarstwienia. Cały kosmos "mówi" do nas z różną częstotliwością fal z których wyższe pasma i te całkiem niskie, dla bezpieczeństwa organizmów żywych, zatrzymuje nasza atmosfera.</div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhxVDjDR3qHxF4nCIOQGH-u2-nGwh1B4xZ5EDfqPNLZvjRX0hvcgHeNaZznmLW_6SqW1fPnaftdPtUInIFWV7MR_B4T0XVJDEuU3U_ICa2phh52kYvkfW-CMJgxWIeFP50zGxAvZHmpaWZlrKbki64lOwFB5zM_jEJptJ4VWH_GeC5ynWvQucYjwQcc/s500/500px-Atmospheric_electromagnetic_opacity_pl.svg.png" style="margin-left: 1em; margin-right: 1em;"><img border="0" data-original-height="236" data-original-width="500" height="302" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhxVDjDR3qHxF4nCIOQGH-u2-nGwh1B4xZ5EDfqPNLZvjRX0hvcgHeNaZznmLW_6SqW1fPnaftdPtUInIFWV7MR_B4T0XVJDEuU3U_ICa2phh52kYvkfW-CMJgxWIeFP50zGxAvZHmpaWZlrKbki64lOwFB5zM_jEJptJ4VWH_GeC5ynWvQucYjwQcc/w640-h302/500px-Atmospheric_electromagnetic_opacity_pl.svg.png" width="640" /></a></div><br /><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div>Nic się w naturze nie dzieje bez przyczyny ani też nie ma praw które nie służyłyby naturze a któe mógłby nagle odkryć i zastosować człowiek tylko dla siebie.. Tak NALEŻY na nią patrzeć, gdy chce się odkryć rządzące nią prawa. Jedynie to co stosuje już dawno natura, to tylko może zacząć naśladować człowiek. Dlatego jakiekolwiek tunele czasoprzestrzenn, białe dziury i podprzestrzenne prędkości zwyczajnie nie istnieją.</div><div>Gdyby tak wzmocnić każdą falę obecną w przestrzeni kosmicznej, niebo oślepiałoby nas nawet ciemną nocą. Być może to jest szczęście że nie mamy zbyt dużych gałek ocznych jak przystosowani do kosmicznych lotów przybysze z okolicznych gwiazd a czasem nawet z innych galaktyk..</div><div>Problematyczny efekt czerwonej barwa światła, nie wynika więc z rozszerzania się Wszechświata. Redukcja i wygaszanie fal ma tu miejsce a nie jakieś komplikujące niepotrzebnie sprawę domniemane rozszerzanie się Wszechświata. Wszechświat istnieje przestrzennie od "zawsze" i był na początku pustą zimną statyczną przestrzenią a po powstaniu drgań w dalszej kolejności powstaje już materialnie w formie długotrwałych wyładowań elektrycznych. Przesunięcie widma w dół pasma częstotliwości ku czerwieni, wynika z kolei z tłumiących własności samej cząsteczkowej przestrzeni na znacznych międzygalaktycznych odległościach. Analogicznie jak to się dzieje w ośrodku ciekłym gdy fala wodna spowalnia swoją częstotliwość w miarę oddalania się od źródła uderzeń, oraz w gazowym gdy fala dźwiękowa w zakresie wysokich częstotliwości wytłumiana jest w miarę oddalania od źródła.</div><div> </div></div><div>Analogicznie zachowują się fotony. Niskie częstotliwości docierają daleko. Możemy ich fale porównać do dźwięków, tyle że kosmicznej natury.</div><div>Z powodu osłabienia amplitudy i częstotliwości fal na znacznych kosmicznych odległościach w bardzo dalekiej przestrzeni nie widzimy i nie zarejestrujemy ich WCALE. W zasadzie obecny znany Wszechświat a nawet ten nieznany ale przewidywany, może być z zewnętrznej perspektywy bladym niewiele znaczącym lub wręcz pomijalnym punktem w pełnej skali kosmicznej przestrzeni. Dalekim od tego co naukowcy określili mianem granic Wszechświata, stąd jest to wręcz śmiesznie mocno niedoszacowana dana dotycząca skali i natury zjawiska jakim jest Wszechświat, nie mówiąc o absolutnie zbędnych i daremnych próbach szacowania jego wieku.</div><div>Zwróćmy uwagę, że obojętnie jakie wartości energii w postaci ciepła (fotonów oczywiście) wyemitujemy, traci ona w przestrzeni kosmicznej każdą wartość do temperatury podobno −273,15 °Celsiusza = 0° Kelwina. Podejrzewam że w dalszych odległościach od Słońca niż możliwe do zbadania- jeszcze niższej, może nawet DRASTYCZNIE niższej, bo nie decyduje o tym limicie rzekomy brak drgań w strukturach orbitali atomowych. W dalekiej przestrzeni kosmicznej poza jakimkolwiek sektorem wykazującym minimalny ruch cząstek, mogą wystąpić sytuacje gdzie materia zamarznie w jedną setną czy tysięczną czasu zamarzania niż potrzebny jest w pobliżu naszego Słońca. Trzeba zbadać samą proto-fotonową strukturę przestrzeni - fotonow kryształ jakim jest struktura przestrzeni przekaże każdą wartość energii dalszemu otoczeniu "zimnych" fotonów aż do temperatury przykładowo minus 10 000 °C albo i więcej, z dala od jakichkolwiek gwiazd pomiędzy galaktykami lub nawet z dala od włókien plazmowych zasilających gromady galaktyk. Dlaczego gdy sugeruje się że przestrzeń jest pusta, jak jest możliwe że cokolwiek tam się znajdzie, traci temperaturę? Gdyby tam była obecna próżnia lub cokolwiek próżniopodobnego, ciepło obiektów materialnych powinno być zachowane nawet w najzimniejszej ciemnej przestrzeni z dala od gwiazd. Jeśli tak się nie dzieje to znaczy że przestrzeń MUSI być wypełniona po brzegi fotonami czekającymi na odebranie energii od czegokolwiek co będzie miało wyższy potencjał temperaturowy niż przestrzeń w danym miejscu.</div><div> <div>Fotony niskoenergetyczne czyli struktura przestrzeni odpowiada jednocześnie za powstawanie grawitacji jako stałego ruchu pola grawitacyjnego które możemy podzielić na ruch pola elektrycznego skierowanego do powierzchni ciał niebieskich i pola magnetycznego wynikającego z polaryzacji tzw. domen w czterech pozostałych poza "przestrzennym", stanach skupienia. Obracające się ciało niebieskie- planeta mająca potencjał ujemny, jest swoistą "elektro" pompą wirową przetłaczającą "przestrzeń proto-fotonową" przez swoje materialne sieci atomowe, z których wyrzucają w postaci pola magnetycznego głównie w płaszczyźnie jej obrotu. Część tego pola którego "linie sił" nie ulegają zamknięciu w stronę biegunów, jest tracona ponieważ nie bierze dalej udziału w dookólnym toroidalnym ruchu a "znika" wklejając się w otwartej przestrzeni wzdłuż płaszczyzny równika. Dla porównania rysunek poniżej:</div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div> </div><div><br /></div><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgRgwPa-VJT6D1csZGdlqPlDUSe7CGC553FMncGpJrFAUTNLDzzWftiJtzV-MVgozIz2lQuR_1wlaXWMZVuTQaNU8j4Z88Iw-oeKs8mQewcSSOeMb_8vSPWb8WBK8aTOXoYzFP3o6IG-QC8rFmx6INR5r_1BqKHm8dY5OOOivLggNTtl0fhfXAe1Ctz/s512/unnamed.png" style="margin-left: 1em; margin-right: 1em;"><img border="0" data-original-height="508" data-original-width="512" height="636" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgRgwPa-VJT6D1csZGdlqPlDUSe7CGC553FMncGpJrFAUTNLDzzWftiJtzV-MVgozIz2lQuR_1wlaXWMZVuTQaNU8j4Z88Iw-oeKs8mQewcSSOeMb_8vSPWb8WBK8aTOXoYzFP3o6IG-QC8rFmx6INR5r_1BqKHm8dY5OOOivLggNTtl0fhfXAe1Ctz/w640-h636/unnamed.png" width="640" /></a></div><div><br /></div><div><br /></div><div><br /></div><br /><div><br /></div><div><br /></div><div><br /></div><div>Następną sprawą są rzekomo odkryte fale grawitacyjne które powstawać mogą podczas wybuchu gwiazd lub innych zawirowań w przestrzeni kosmicznej ale na pewno nie odpowiadają za zjawisko grawitacji bo ta ma miejsce tylko w pobliżu ciał niebieskich. W relatywnie niewielkiej warstwie przestrzeni otaczającej ciało niebieskie. Nigdy na duże odległości. W sensie teoretycznym Einstein miał rację jednak wizualizacja tego zjawiska jest kompletnie nietrafiona. Błędem było ustalenie własności przestrzeni bez określenia jej cząsteczkowej natury. Nie cząsteczkowa jest tylko stojąca za całą naturą świadomość jako bank danych, pole informacji, cokolwiek co damy tu do określenia warunków według których działa widzialny i rejestrowalny Wszechświat. Reszta ponad tym fundamentem jest cząsteczkowa.</div><div>Ciekawą sprawą jest fakt zbieżności braku pola magnetycznego ze słabą grawitacją danego ciała niebieskiego. Dlatego uważam że jest to efekt tego samego zjawiska które nauka dzieli na dwa osobne. Księżyce na których w zasadzie nie ma grawitacji (przynajmniej na tych w naszym układzie słonecznym) można przyjąć że są oddalonym wycinkiem powierzchni planety wkoło której krążą, grawitacja ma różne wartości w zależności od tego czy jest to powierzchnia od strony planety czy od strony przeciwnej, co zaobserwowano w przypadku naszego Księżyca, na którego powierzchni od widzialnej strony <a href="https://wyborcza.pl/7,75400,24643292,pierwszy-prywatny-statek-wyladowal-na-ksiezycu-jest-z-izraela.html?disableRedirects=true">można się rozbić</a> przy tych samych parametrach lotu, przy których z przeciwnej strony można wylądować lub pozostać dalej na orbicie. Ciekawe czy to potwierdzi się dla pozostałych księżyców (sferycznych) o synchronicznej orbicie. </div><div>Różnica pomiędzy światłem, polem magnetycznym, polem elektrycznym a grawitacją nie wynika z odmienności cząstek a z różnicy w ich ruchu obrotowym i liniowym, częstotliwości a także być może nieco zmodyfikowanego kształtu fotonów (od sfery po torus). To dlatego wiatr słoneczny jest w stanie "zdmuchiwać" z Ziemi pole magnetyczne a grawitacja jest tym silniejsza im większa jest planeta, im bliżej gwiazdy się znajduje gdzie są większe zakłócenia ruchu fotonów w przestrzeni spowodowane polem elektromagnetycznym i im większe na danej planecie występuje pole magnetyczne. Jest to układ naczyń połączonych.</div><div><div>Aby uzyskać energię z przestrzeni, należy odpowiednio dobraną technologią magnetoelektryczną pobudzić nieruchomo tkwiące w niej fotony, odpowiadające nie tylko za istnienie magnetyzmu, grawitacji i światła ale także energii elektrycznej (elektrony na orbitalach to myląca nazwa dla fotonów uchwyconych w powłoki orbitali), a w ten sposób otrzymamy nieograniczone źródło zasilania i możliwość elektromagnetycznego lotu w przestrzeni kosmicznej bez użycia akumulatorów i zbiorników paliwa, a trzeba pamiętać że materii w kosmosie nie ma nawet 1 procenta więc wpatrywanie się w nią dla uzyskania energii jest myśleniem co najmniej wstecznym jeśli nie zabójczym, patrząc pod kątem rozwoju cywilizacji.</div><div>Przestrzeń zbudowana jest ze światła, energia jest ze światła, materia jest ze światła...a na koniec sentencja znanego mistrza w rozumieniu praw Wszechświata: "Cała materia pochodzi z pierwotnej substancji- świetlistego Eteru." </div><div>Ja bym dodał jeszcze za Giordano Bruno że jest on odpowiedzialny za fundamentalny nośnik informacji i świadomości. Tak więc za daremne można uznać próby transferu świadomości człowieka do maszyny. Porażka jest tu przewidziana BARDZIEJ NIŻ PEWNA.</div><div><br /></div><div><div><br /></div><div><br /></div><div>Problem ze zrozumieniem własności przestrzeni kosmicznej i wynikającymi z tego przedłużającego się nadmiernie stanu, skutkami w postaci niedorozwoju technologii astronautyki, jest bliźniaczo podobny do sytuacji w czasie, gdy ludzkość uczyła się latać w środowisku atmosferycznym. Wtedy również długi czas uważano, że atmosfera to pustka i nic od powierzchni Ziemi oderwać się nie może, a jednak Bracia Orville Wright w 1903 roku dokonali przełomu- pierwszego lotu samolotem. Jaki "maindset" im wtedy towarzyszył że mimo wszystko tego dokonali? Na pewno nie byli to konformiści. Wkrótce przekroczono też barierę prędkości dźwięku.<div><span style="background-color: black; color: #6fa8dc; font-family: inherit; font-size: large;"><br /></span></div><div><span style="background-color: black; color: #6fa8dc; font-family: inherit; font-size: large;"><br /></span></div><div><span style="background-color: black; color: #6fa8dc; font-family: inherit; font-size: large;"><br /></span></div><div><span style="background-color: black; color: #6fa8dc; font-family: inherit; font-size: large;"><br /></span></div><div><span style="background-color: black; color: #6fa8dc; font-family: inherit; font-size: large;"><br /></span></div><div><span style="color: #6fa8dc; font-family: inherit; font-size: large;"><br /><a href="https://draft.blogger.com/#" style="background-color: black;"><img border="0" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEierNckhqNKAi0aDS2dYUDKF-8wd3r8eElox0H3LpCI9Jm1vFUp3g-te3rVud_5QJapbRUBT5jkfveAZln-wkEhW-c-rXnPl44pOKhsnt4g9WDYNAUcmeAZes5BMQIaghOEIxoGFVCU030/w640-h474/Przechwytywanie.PNG" /></a><br /><br /><br /><br /><br /><br /><br /></span>Na rysunku po lewej widać sytuację gdy lecący obiekt zrównał się z prędkością dźwięku a po prawej, gdy ją przekracza. Wzór można bez większych zmian, dostosować na potrzeby lotów kosmicznych z prędkością światła i wyższą a wtedy cała ta historia jeszcze raz zatoczy koło i pęknie jak balon, kolejny "enty" antropocentryzm. </div><div>Domniemanie że naturalne własności cząsteczek światła są granicą dla technologii podróży międzygwiezdnych czy nawet międzygalaktycznych jest tym samym co uznanie że prędkość urządzeń technicznych w atmosferze, nie przekroczy prędkości lotu sokoła wędrownego- najszybszego zwierzęcia w swojej klasie. Zaopatrując pojazd kosmiczny w silniki (nazwijmy je "fotoinduktorami"- ze względu na potrzebę indukcji z kwantowej (po polsku cząsteczkowej) przestrzeni "wolnych fotonów" jako pędnika sterowanego procesami elektromagnetycznymi) dla zapewnienia odpowiedniego zapasu mocy, możemy przekroczyć prędkość światła, przyjmijmy nawet stu albo i tysiąckrotnie, co w tak gigantycznych kosmicznych pustkach jakie mamy do dyspozycji nadal nie jest żadnym niebezpieczeństwem. Nawet gdyby nie było do dyspozycji tak szybko reagującego radaru. Oczywiście obowiązuje zasada doboru prędkości do ilości spodziewanych przeszkód taka jak na drodze - jeśli nie masz powodu się spieszyć, nie musisz nadużywać prędkości. Bezpieczeństwo ponad wszystko. Rzekomo nieprzekraczalna prędkość światła, nie powinna być żadną fizyczną barierą dla technologii, obligującą do tworzenia wymijających ten technologiczny problem teorii o tunelach nadprzestrzennych wewnątrz czarnych dziur, nadinterpretacjach w postaci białych dziur, terminalach teleportacyjnych czy tym podobnych fantazjach wobec relatywnie prostej względem tych bajań technologii elektromagnetycznej (co będzie tu pokazane). Również pochopne i szybkie założenie stałej prędkości światła, jak i rzekome zjawisko rozszerzania się Wszechświata, wnioskowane czerwoną barwą światła galaktyk, do niczego nas nie doprowadzi oprócz kolejnych błędnych wniosków.</div><div>Prędkość światła jest zmienna w zależności od gęstości ośrodka propagacji. Największa jest w subatomowej budowy przestrzeni kosmicznej, mniejsza w gazie, najmniejsza w cieczy i ciałach stałych- nie licząc kryształów które strukturalnie przypominają na powrót poukładaną, krystaliczną przestrzeń kosmiczną. Podobnie jest z barwą światła. Barwa czerwona ma największą amplitudę i jest najszybsza więc najdalej dociera zanim zostanie rozproszona o "cząsteczkową przestrzeń" i odbicia /zakłócenia fali elektromagnetycznych od pól elektromagnetycznych (w istocie powierzchni subgazowych), powierzchni gazowych, ciekłych czy stałych. Soczewkowanie grawitacyjne również ma błędną nazwę. To właśnie jest zakłócenie przejścia światła przez lub obok subgazowych wspomnianych pól elektromagnetycznych, magnetosfer różnych ciał niebieskich czy to gwiazd czy galaktyk. Sama grawitacja jako pośredni fotonowy słaby prąd elektrostatyczny nie wywoła takich efektów. Być może właśnie z tego względu jedynie najbliższa naszej galaktyce Drodze Mlecznej, galaktyka Andromedy zdolna jest dosłać nam swoje widmo o barwie ultrafioletu. <br />"Atmosfera Wszechświata" -tu "kosmosfera" jest nośnikiem wszelkich zachodzących w kosmosie zjawisk, analogicznie jak w stanie skupienia gazowym, ciekłym czy stałym z tym że to środowisko przenika pozostałe wymienione gęstości. Jedyna różnica jest taka, że fotony będące konstrukcją struktur wszystkich bardziej skomplikowanych cząsteczek, są najmniej reaktywne z tzw grawitacją (elektrostatyką) niż pozostałe stany skupienia. Mniej nie znaczy wcale. Fotony to również składnik powłok "elektronowych" a w przestrzeni kosmicznej obecne jako tzw. wolne elektrony- fotony których naukowo wysnuty niedobór w Teorii Wielkiego Wybuchu, powoduje problemy m.in. z określeniem własności ośrodka dla propagacji światła oraz brak możliwości wyjaśnienia siły zewnętrznej stabilizującej galaktyki. Ucieka się przez to do kolejnych i kolejnych nazw tych nie rozumianych i zbędnych cząsteczek. Poza tym wykryto już przeszło 200 różnych cząstek ale brak praktycznych efektów tych badań. Według mojego rozumowania, przestrzeń kosmiczna jest wypełniona fotonami - cząsteczkami które powinny być ujęte w Tablicy Mendelejewa, jako pierwiastek, choćby ze względu na sumę tych cząstek wyprzedzającą kategorycznie, wartości liczbowe jakichkolwiek innych pierwiastków rozumianych jako modyfikacje złożone z wielu fotonów.</div><div>Samo światło jako fala elektromagnetyczna nie rzuca się przez kosmos od gwiazd do naszych oczu jakimiś pojedynczymi sztukami fotonów. Energia jest przenoszona analogiczne jak we wodzie i powietrzu. Cząsteczki fotonów pobudzane są do ruchu przy gwieździe i tam zostają , następnie fala przekazuje energię następnej fali aż do naszych oczu. I dopiero gdy fotony przy naszych oczach zostaną pobudzone, przekazują energię fotonom na orbitalach atomów w nerwach naszych oczu. przy czym wszystkie fotony pozostały w praktyce bardzo blisko miejsca sprzed startu fali . Więc z prędkością światła podróżuje TYLKO FALA nie cząsteczki światła- fotony. Ok panowie fizycy? Poza modyfikacjami struktur fotonowej konstrukcji, nie ma sensu poszukiwać innych, odróżniających się źródłem pochodzenia cząsteczek. Fotony są obecne w całej przestrzeni jakkolwiek to brzmi a do tego są wręcz pod ciśnieniem, ponieważ są logicznie koniecznym jednorodnym środowiskiem dla rozprzestrzeniania się fali i pól elektromagnetycznych oraz podtrzymania pozostałych zjawisk. Zrozumienie własności przestrzeni kosmicznej dla umożliwienia podróży kosmicznych jest związane ze zrozumieniem właściwości i struktury (cząsteczek) fal elektromagnetycznych /światła. Środowisko "atmosfery" kosmicznej nie stanowi oporu dla elektromagnetycznej maszyny latającej a jednocześnie może być jej pędnikiem, podobnie jak to się dzieje w silnikach liniowych a prędkość osiągana jest tu zależna jedynie od mocy źródła zasilania maszyny i siły pola elektromagnetycznego wkoło kadłuba maszyny które ma za zadanie zniwelować ewentualne śladowe tarcie cząsteczkowej przestrzeni kosmicznej względem kadłuba tak skonstruowanej elektromaszyny. Zasady budowy tzw. niezidentyfikowanych maszyn latających muszą i będą podlegać bezwzględnie pod to prawo. Przekroczyliśmy barierę prędkości dźwięku dla cząsteczek atomowych w atmosferze, więc przekroczymy także barierę światła dla cząstek subatomowych w "kosmosferze"!</div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjndCduOkmhs_j5zOBFXgXYU91XDyzcm3MvDY6g722QdHUjARRU4rxp0wPSV-GLFbz4hSuTL-7rjR3pAPAJ8ubSCjDfoCVn0kaQ2zRoPQsqcPdm3QkjizacaQyBotjaY4lDIhbykKppWUD81jb0FwjtR4Qar8cEtledhZG4ZKKISLe_1OnJPFuC6QG2/s622/Tesla.PNG" style="margin-left: 1em; margin-right: 1em;"><img border="0" data-original-height="292" data-original-width="622" height="300" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjndCduOkmhs_j5zOBFXgXYU91XDyzcm3MvDY6g722QdHUjARRU4rxp0wPSV-GLFbz4hSuTL-7rjR3pAPAJ8ubSCjDfoCVn0kaQ2zRoPQsqcPdm3QkjizacaQyBotjaY4lDIhbykKppWUD81jb0FwjtR4Qar8cEtledhZG4ZKKISLe_1OnJPFuC6QG2/w640-h300/Tesla.PNG" width="640" /></a></div><br /><br /></div></div></div></div></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div></div></div><div class="blogger-post-footer">„Analfabetami XXI wieku nie będą ci, którzy nie umieją pisać ani czytać, lecz ci, co nie potrafią oduczyć się wierutnych kłamstw, w które nauczono ich wierzyć i nie potrafią szukać ukrytej wiedzy, którą nauczono ich odrzucać”</div>#magnetartechprojecthttp://www.blogger.com/profile/00116426320285930090noreply@blogger.com0tag:blogger.com,1999:blog-1727701247933515471.post-587190752156107992022-06-16T01:42:00.020+02:002023-02-27T23:22:21.551+01:00NikolaTesla<br /><br /><br /><br /><br /><br /><br /><div><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgrjtyWc6GpqTVtTHN33_sP507LKh_0Sumbjxg9Y4y7cEtKkykW6OGvDh1T2NDKzCYOuiN6LKtdCrMm-PUmzYAMw0FZZ42KYnAV8dSC-ottnedx3fH9kX4XRpVq-2VhIrfjl3JlKKIEo2H4UjLEQFLWwgUQj3QOok0O9K9ZZjT207BZfBWtRn-4sYoF/s1017/Nikola-Tesla-w-swoim-laboratorium..jpg" style="margin-left: 1em; margin-right: 1em;"><img border="0" data-original-height="768" data-original-width="1017" height="484" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgrjtyWc6GpqTVtTHN33_sP507LKh_0Sumbjxg9Y4y7cEtKkykW6OGvDh1T2NDKzCYOuiN6LKtdCrMm-PUmzYAMw0FZZ42KYnAV8dSC-ottnedx3fH9kX4XRpVq-2VhIrfjl3JlKKIEo2H4UjLEQFLWwgUQj3QOok0O9K9ZZjT207BZfBWtRn-4sYoF/w640-h484/Nikola-Tesla-w-swoim-laboratorium..jpg" width="640" /></a></div><br /></div><br /><div><br /></div><div><br /></div><br /><br /><div>Nikola Tesla był konstruktorem wielu urządzeń do wytwarzania i wykorzystania <a href="https://pl.wikipedia.org/wiki/Pr%C4%85d_przemienny">prądu przemiennego</a>, konkurując skutecznie z <a href="https://pl.wikipedia.org/wiki/Thomas_Alva_Edison"> Edisonem</a>, który uznawał tylko <a href="https://pl.wikipedia.org/wiki/Pr%C4%85d_sta%C5%82y">prąd stały</a>.<br /><br />Był autorem blisko 300 <a href="https://pl.wikipedia.org/wiki/Patent">patentów</a>, które chroniły jego 125 wynalazków w 26 krajach, głównie rozmaitych urządzeń elektrycznych, wśród nich są <a href="https://pl.wikipedia.org/wiki/Silnik_elektryczny">silnik elektryczny</a> i <a href="https://pl.wikipedia.org/wiki/Pr%C4%85dnica_pr%C4%85du_przemiennego">prądnica prądu przemiennego</a>, <a href="https://pl.wikipedia.org/wiki/Autotransformator">autotransformator</a>, <a href="https://pl.wikipedia.org/wiki/Dynamo_rowerowe">dynamo rowerowe</a>, <a href="https://pl.wikipedia.org/wiki/Radio">radio</a>, <a href="https://pl.wikipedia.org/wiki/Elektrownia_wodna">elektrownia wodna</a> (na wodospadzie Niagara), <a href="https://pl.wikipedia.org/wiki/Energetyka_s%C5%82oneczna">bateria słoneczna</a>, <a href="https://pl.wikipedia.org/wiki/Turbina_Tesli">turbina talerzowa</a> i <a href="https://pl.wikipedia.org/wiki/Transformator_Tesli">transformator Tesli</a> (rezonansowa cewka wysokonapięciowa).<br /><br />Nikola Tesla był m.in. twórcą pierwszych urządzeń zdalnie sterowanych drogą radiową. Początkowo za twórcę radia uważano <a href="https://pl.wikipedia.org/wiki/Guglielmo_Marconi">Guglielma Marconiego</a>, jednak w 1943 <a href="https://pl.wikipedia.org/wiki/S%C4%85d_Najwy%C5%BCszy_Stan%C3%B3w_Zjednoczonych">Sąd Najwyższy Stanów Zjednoczonych</a> przyznał prawa patentowe Tesli. Rozprawa rozstrzygnęła się po śmierci wynalazcy, przez co powszechnie za twórcę <a href="https://pl.wikipedia.org/wiki/Radio">radia</a> uznaje się Marconiego, mimo iż przyznał się on do wykorzystania wcześniejszych prac Tesli w zbudowaniu radia.<br /><br />W 1916 został wyróżniony <a href="https://pl.wikipedia.org/wiki/Medal_Edisona">Medalem Edisona</a> „za wybitne osiągnięcia we wczesnych pracach nad prądem wielofazowym i wielkiej częstotliwości”.<br /><br /><br />Koncepcja <a href="https://pl.wikipedia.org/wiki/Wolna_energia">wolnej energii</a> była rodzajem obsesji Tesli, który pod koniec życia wykorzystywał każdą wolną chwilę na jej poszukiwanie.<br /><br />Tesla twierdził: (…) ujarzmiłem promienie kosmiczne i sprawiłem, by służyły jako napęd (…). Ciężko pracowałem nad tym przez ponad 25 lat, a dziś mogę stwierdzić, że się udało. (cytat z 10 lipca 1931 r. z Brooklyn Eagle).<br /><br />W 1901 r. opatentował odbiornik wolnej energii nazwany Aparatem do Wykorzystywania Energii Promienistej. Patent odnosi się do Słońca, jak i innych źródeł energii promienistej, jak promienie kosmiczne.<br /><br />Próbował także przekształcić <a href="https://pl.wikipedia.org/wiki/Dysk_Faradaya">jednobiegunową prądnicę</a> <a href="https://pl.wikipedia.org/wiki/Michael_Faraday">Faradaya</a> w urządzenie wolnej energii. W 1889 r. uzyskał patent na maszynę dynamoelektryczną, której konstrukcję – opartą na pomyśle Faradaya – udoskonalił pod względem wydajności przez zmniejszenie oporu i odwrócenie momentu napędowego. Tesla sądził, że jeżeli da się uzyskać moment obrotowy o kierunku zgodnym – a nie przeciwnym – z kierunkiem ruchu, wówczas maszyna stanie się samowystarczalna. Chociaż nie udało mu się tego dokonać, jego ideą i ideą Faradaya zainteresowali się w latach 70. i 80. XX w. liczni badacze, między innymi Bruce De Palma – wynalazca maszyny N, mimo że już za życia Tesli udowodniono, że tego rodzaju maszyna łamałaby kilka praw fizyki, przede wszystkim <a href="https://pl.wikipedia.org/wiki/Zasada_zachowania_energii">zasadę zachowania energii</a>.<br /><br />Cytaty: </div><div><br />1. „Jeśli chcesz zrozumieć Wszechświat, zacznij myśleć w kategoriach energii, częstotliwości i wibracji.”<br /></div><div><br /></div><div>2. „Jesteśmy jednością. Tylko ego, przekonania i strach próbują nas rozdzielić”</div><div><br />3. „Mój mózg to tylko odbiornik, we wszechświecie znajduje się Rdzeń, z którego otrzymujemy wiedzę, siłę, inspiracje. Nie wnikałem w tajemnice tego rdzenia ale wiem, że On istnieje.”<br /><br />4. „Niech przyszłość powie prawdę i oceni każdego według jego pracy i osiągnięć. Teraźniejszość należy do nich, przyszłość jest moja.”<br /><br />5. „Ciężko jest dać nieograniczoną energię, ograniczonym umysłom.”<br /><br />6. „Przebywaj w samotności. Oto sekret innowacji. Przebywaj w samotności. Wtedy rodzą się najlepsze pomysły.”<br /><br />7. „Potrzebujemy teraz bliższego kontaktu i lepszego zrozumienia między jednostkami i społecznościami na całej ziemi, a także wyeliminowania egoizmu i dumy, które są zawsze skłonne pogrążyć świat w pierwotnym barbarzyństwie i walkach.<br />Pokój może przyjść tylko naturalnie jako konsekwencja powszechnego oświecenia i połączenia ras, a my wciąż jesteśmy tak daleko od tej błogiej realizacji”.<br /><br />8. „Zdecydowana większość ludzi nigdy nie zdaje sobie sprawy z tego, co dzieje się wewnątrz nich, a miliony padają ofiarami chorób i umierają przedwcześnie właśnie z tego powodu.”</div><div>(patrz parazytologia jako nauka o przyczynie wszystkich chorób- jedz słodkie a upodobnisz się do robaka, zaprosisz go stając się jego domem).</div><div><br />9. „W dniu, w którym nauka zacznie badać zjawiska nie fizyczne, osiągnie większy postęp w ciągu jednej dekady niż we wszystkich poprzednich wiekach swojego istnienia.”<br /><br />10. „Nie martwi mnie to, że ukradli moje pomysły. Martwi mnie to, że nie mieli swoich własnych.”<div><br /></div><div>11. Latem 1896 roku pewien dziennikarz, widząc że Nikola Tesla jest w rozmownym nastroju reporter postanowił zaryzykować pytanie osobiste. Wiedząc, że Tesla był kawalerem, zapytał go o kwestię małżeństwa. </div><div>-Czy małżeństwo byłoby czymś odpowiednim dla osób o temperamencie artystycznym?</div><div><br /></div><div>-"Dla artysty, tak; dla muzyka, tak; dla pisarza, tak; ale dla wynalazcy, nie. Pierwszych trzech musi czerpać inspirację z wpływu kobiety i kierować się miłością do ostatecznego osiągnięcia, jednak wynalazca ma tak napiętą naturę z tak wielką dozą dzikiej pasji, że oddając siebie ukochanej kobiecie, musiałby oddać jej wszystko, a tym samym zabrać wszystko wybranej przez siebie dziedzinie.</div><div>Nie sądzę, by można było wskazać wiele wielkich wynalazków dokonanych przez ludzi żonatych."<br /></div><div><br /></div>12. „Nie zamierzam dać satysfakcji owym ograniczonym, zazdrosnym indywiduom, które próbują udaremnić me wysiłki. Nie są oni dla mnie niczym więcej niż zarazkami jakiejś obrzydliwej choroby." </div><div><br />13. „Pieniądze nie stanowią aż tak wielkiej wartości, jaką nadają im ludzie. Wszystkie swoje pieniądze zainwestowałem w eksperymenty, dzięki którym dokonałem odkryć pozwalających ludzkości na trochę łatwiejsze życie”<br /><br />14. „Energia elektryczna jest wszechobecna w nieograniczonych ilościach i może zasilać maszynerię świata bez potrzeby węgla, gazu czy innych paliw”, „Nim miną pokolenia, maszyny zaopatrywane będą w moc, którą da się uzyskać z dowolnego miejsca wszechświata… Czy będzie to energia statyczna, czy kinetyczna? Jeśli statyczna, na próżno żywimy nadzieję. Jeśli kinetyczna – a wiemy z pewnością, że właśnie taka – kwestią czasu pozostaje, by człowiek podłączył urządzenia do koła zamachowego przyrody”, „Dzisiejsi naukowcy myślą głęboko zamiast wyraźnie. Trzeba być zdrowym na umyśle, aby myśleć wyraźnie, ale można być szalonym i myśleć głęboko”<br /><br />15. „Musimy nauczyć się uzyskiwać potrzebną nam energię bez zużywania surowców”, „Natura może osiągnąć ten sam rezultat na wiele sposobów”<br /><br />16. „Człowiek nie jest w Nieskończoności jedyną istotą obdarzoną rozumem”, „Nasze cnoty i nasze porażki są nierozdzielne, tak jak życie i materia. Kiedy się rozdzielą, będzie to oznaczać koniec człowieka”...</div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><div><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjndCduOkmhs_j5zOBFXgXYU91XDyzcm3MvDY6g722QdHUjARRU4rxp0wPSV-GLFbz4hSuTL-7rjR3pAPAJ8ubSCjDfoCVn0kaQ2zRoPQsqcPdm3QkjizacaQyBotjaY4lDIhbykKppWUD81jb0FwjtR4Qar8cEtledhZG4ZKKISLe_1OnJPFuC6QG2/s622/Tesla.PNG" style="margin-left: 1em; margin-right: 1em; text-align: center;"><img border="0" data-original-height="292" data-original-width="622" height="300" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjndCduOkmhs_j5zOBFXgXYU91XDyzcm3MvDY6g722QdHUjARRU4rxp0wPSV-GLFbz4hSuTL-7rjR3pAPAJ8ubSCjDfoCVn0kaQ2zRoPQsqcPdm3QkjizacaQyBotjaY4lDIhbykKppWUD81jb0FwjtR4Qar8cEtledhZG4ZKKISLe_1OnJPFuC6QG2/w640-h300/Tesla.PNG" width="640" /></a></div><div><br /></div></div><div><br /></div><div><br /></div><div><br /></div><div class="blogger-post-footer">„Analfabetami XXI wieku nie będą ci, którzy nie umieją pisać ani czytać, lecz ci, co nie potrafią oduczyć się wierutnych kłamstw, w które nauczono ich wierzyć i nie potrafią szukać ukrytej wiedzy, którą nauczono ich odrzucać”</div>#magnetartechprojecthttp://www.blogger.com/profile/00116426320285930090noreply@blogger.com0tag:blogger.com,1999:blog-1727701247933515471.post-28784327507964272262022-06-12T22:31:00.040+02:002023-02-27T10:59:04.843+01:00Elektryczne planety<p> </p><p><br /></p><br /><br />Galileusz po raz pierwszy nazwał ten księżyc Jowiszem I. W połowie XIX wieku zdecydowano się na zmianę i w taki sposób ten naturalny satelita otrzymał swoją dzisiejszą nazwę – Io.<br />Dane historyczne wskazują, że odkrycia dokonał on już poprzedniego dnia, jednak nie mógł on rozróżnić Io od Europy, co trwało aż do następnej nocy.<br />Po raz pierwszy odkryto zatem księżyce planety innej niż Ziemia.<br /><br />Środowisko Io zostało w ostatnich latach poddane intensywnej analizie, ponieważ naukowcy próbują wyjaśnić, dlaczego ten naturalny satelita ma najbardziej aktywne wulkany w Układzie Słonecznym.<br />Badania wykonane w 2017 roku poddały w wątpliwość istnienie podziemnego oceanu. Sugerują one, że to właśnie dzięki jego brakowi możemy zaobserwować zorzę polarną.<br />Trudności obserwacyjne tego księżyca wynikają właśnie z faktu, że aktywność, rzekomo wulkaniczna jest wystarczająco gwałtowna, tak że problemy mogą się pojawić nawet w przypadku wykonywania zdjęć satelitarnych z dużej odległości.<br /><br /><div>Przykładem stałego wyładowania elektrycznego w "mikro" skali, jakie zachodzą stale w dalekim kosmosie, jest w naszym Układzie Słonecznym para Jowisz - Io, choć nie tylko. Są to wyładowania błędnie wyjaśnione wyłącznie wulkanizmem. Część tych "wulkanów" zdaje się wędrować po powierzchni tego Księżyca w rytm zmian napięcia a także <b>rezystancji podłoż</b>a, ponieważ ta, pod wpływem działania prądu się zmienia, dlatego łuk elektryczny musi stale zmieniać swoją pozycję, szukając niższego oporu.<br /><br /><br /><br /><br /><br /><br /><br /><br /><br /><a href="#"><img border="0" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhuR0z3Y3jmpoGhW4lfWzrpi9hSvyPPYx5pj5njbxeR80rT3TTt8iC2fA005AGchKwVduyKbbL0Ee568C82AzeWooYaShClIPgtGhL8iXdH5j4E20GaAgm7JFrRRhwjxi3Eq30x2ib_MwT4XqdLnNucvbtmO6tr2L914y6AbkMKF7caNDYqjgjZvyMX/w640-h640/242000995_171065501793724_552562368475386201_n.jpg" /></a><br /><br /><div>Wyjątkowy wygląd księżyca Io sugeruje wyjątkowe procesy na powierzchni, nie wdając się w przyczyny powstawania istoty zjawiska.<br /><br /><br /><br /><br /><br /><br /><br />Fizyk Wal Thornhill twierdzi, że Io, najbliższy planecie spośród czterech dużych księżyców Jowisza, doświadcza stale wyładowań elektrycznych z Jowisza, i jest na skutek tego elektrycznie okrawany. Wskazał, że Io jest żywym elektrycznym laboratorium wyładowań plazmowych, zachodzących wokół nas, jeśli tylko chcemy je zobaczyć. Największe żarzenie ma miejsce bezpośrednio przy powierzchni Jowisza oraz na stronie przeciwnej powierzchni Io. Io może wytworzyć w sobie prąd o napięciu 400 000 woltów i natężeniu 3 000 000 amperów. Prąd ten podąża ścieżką najmniejszego oporu wzdłuż linii pola magnetycznego Jowisza na powierzchnię planety, tak jak łuk elektryczny w rozłącznikach sieci wysokiego napięcia, tworząc błyskawice w górnej atmosferze Jowisza. Słynne wulkany na Io nie mogą być wulkanami, ponieważ przemieściły się na odległość wielu mil od czasu ich odkrycia. Również materiał przez nie wyrzucony nie układa się w koło, jak materiał wulkaniczny, lecz w cienki pierścień, jak materiał z działa plazmowego. Są to wyraźnie wyładowania elektryczne, nie wyłącznie działalność wulkaniczna!<br /><br /><div>Natomiast oficjalna nauka tłumaczy to tak : <br />"Powierzchnia Io jest geologicznie bardzo młoda, zdominowana przez równiny pokryte wielobarwnymi związkami siarki. Jej wygląd porównywany bywa do pizzy. Nie obserwuje się tu prawie żadnych kraterów uderzeniowych. Ślady kolizji kosmicznych szybko zostają zatarte, ponieważ powierzchnia księżyca podlega nieustannym zmianom, a zagłębienia kraterów szybko wypełniają się materiałem wyrzucanym w erupcjach wulkanów. Z tego powodu każdy fragment powierzchni księżyca liczy sobie mniej niż 1000 lat.<br />Kolorowy wygląd Io pochodzi od różnych substancji, między innymi krzemianów (w tym piroksenów), siarki i dwutlenku siarki. Szron dwutlenku siarki występuje powszechnie na powierzchni Io, barwiąc rozległe obszary na biało lub szaro. Obszary zbudowane z osadów siarki cechuje z kolei kolor żółty lub żółto-zielony. W pobliżu biegunów i w średnich szerokościach siarka jest na ogół uszkodzona przez intensywne promieniowanie, które rozbija ośmioczłonowe pierścienie siarki rombowej na krótsze. Tak przekształcony materiał przybiera barwę czerwono-brązową. Eksplozje wulkaniczne, przybierające często postać wielkich pióropuszy w kształcie parasola, zasypują powierzchnię materiałem złożonym z krzemianów oraz siarki i jej związków. Osady związane z eksplozywnym wulkanizmem są często czerwone lub białe, w zależności od ilości siarki i dwutlenku siarki w pióropuszu. Pióropusze powstające w otworach wulkanicznych z odgazowania lawy zawierają na ogół większe ilości S2. Opadając na powierzchnię, tworzą czerwone osady w kształcie wachlarza, a w ekstremalnych przypadkach – ogromne czerwone pierścienie, o promieniu przekraczającym 450 km od centralnego otworu wulkanicznego. Przykładem takiego utworu jest pierścień wokół wulkanu Pele. Czerwone depozyty składają się głównie z siarki (w postaci trój- lub czteroatomowych pierścieni), dwutlenku siarki i być może Cl2SO2. W miejscach, gdzie świeże wypływy lawy wdzierają się na teren wcześniejszych złóż siarki i dwutlenku siarki powstają chmury, które zestalając się, pokrywają okolicę białymi lub szarymi osadami.<br />Temperatura powierzchni waha się od około 90 K w nocy do 130 K w dzień (wyłączając miejsca aktywności wulkanicznej). Wypływy lawy mogą natomiast osiągać temperaturę 1500 K. Obserwacje nocnej półkuli przez sondę Galileo wskazały, że okolice biegunów Io nie są chłodniejsze od obszarów wokół równika.<br /><br /><br /><br /><br /><br /><br /><br /><br /><a href="#"><img border="0" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEi_08Xmyjy3_xy0CMDROolc-XASmqQZ5fe_hpXX6XO1sK58zzMomwTn-WhIcs5g8MZdjy9AEClzIDZN2eOIimm1jjqNmSn0fc89KVK8utcB1WwABYTtHv471lxvda0urB3lHwRtDgXwlRmhNQuFPwVq6l9nrFaIASDMWIJAwIw3lOmgOCJx5I9Q41St/w640-h204/242093640_171000301800244_2573385943449695425_n.jpg" /></a><br /><br />Mapa powierzchni Io<br /><br /><br /><br /><br /><br /><br /><br /><br />Aktywność na Io po raz pierwszy dostrzeżono w latach siedemdziesiątych XX wieku, gdy do Jowisza dotarły pierwsze sondy kosmiczne. Io okazała się najaktywniejszym pod tym względem ciałem Układu Słonecznego. Liczne wulkany w jednych miejscach "wygasają", "pojawiając" się w innych. Te <b>SZYBKIE</b> zmiany stwierdzono już na zdjęciach z sond Voyager 1 i Voyager 2, które w odstępie czterech miesięcy odwiedziły układ Jowisza.<br />Wulkany Io wyrzucają gazową siarkę i dwutlenek siarki, barwiąc powierzchnię księżyca. Siarka nadaje całej powierzchni kolor żółty, pomarańczowy, czerwony, a nawet zielony. Substancje lotne wyrzucane są z wulkanów z prędkościami dochodzącymi do 1 km/s, pociągając za sobą krzemianowy materiał piroklastyczny. Z powodu stosunkowo słabego przyciągania grawitacyjnego księżyca, erupcje sięgają nawet 400 km ponad powierzchnię. Ponieważ brak wiatrów, materiał opada wokół czarnych wulkanów w niemal idealnych okręgach.<br />Wyróżnia się dwa typy wulkanicznych pióropuszy. Częściej spotykane i bardziej długowieczne są gęste optycznie fontanny pyłu i dwutlenku siarki wyrzucane na wysokość nieprzekraczającą 100 km. Związane są z potokami lawy podgrzewającymi podpowierzchniowo dwutlenek siarki do temperatury krytycznej (430 K). Wyrzucony gaz opada i kondensuje na powierzchni w okręgach o promieniach około 200 km, tworząc białe lub żółte osady. Źródło tego typu erupcji powoli wędruje ..( <b>no ciekawe... nic nie jarzą ci naukowcy:)</b>) ..wraz z przemieszczającym się czołem potoku lawy, niekiedy na odległość kilkudziesięciu kilometrów. Przykładami wulkanów, z którymi związane są mniejsze pióropusze są Prometheus, Culann, Amirani i Zamama. Znacznie większe pióropusze powstają z odgazowania lawy w kalderach wulkanicznych i jeziorach lawowych. W odróżnieniu od poprzedniego typu, zawierają znaczne ilości siarki. Ponieważ źródła gazów mają wyższą temperaturę (około 1500 K), osiągają one zazwyczaj wysokość około 400 km i tworzą czerwone pierścienie osadów siarki w odległościach średnio 600 km od wulkanów. Ten typ erupcji jest często trudny do bezpośredniej obserwacji – pióropusze zawierają na ogół małe ilości pyłu. Do wulkanów wyrzucających gazy na bardzo duże wysokości należą Pele, Dazhbog, Tvashtar i Surt.<br />Charakterystyczne dla wulkanizmu Io są również rozległe wylewy lawy. Podczas większych erupcji mogą osiągać długość dziesiątek, a nawet setek kilometrów. <br />Powierzchnia Io upstrzona jest wulkanicznymi zagłębieniami, zwanymi <b>paterae</b>. Mają one na ogół <b>płaskie dna, ograniczone stromymi ścianami </b>(a przypadkiem nie od elektrycznego topienia krawędzi?!) </div><div>Formacje te przypominają ziemskie kaldery, lecz nie wiadomo, czy powstają w ten sam sposób – przez zapadnięcie się stropu pustej komory magmowej. Według <b>jednej z hipotez</b> tworzą się przez odsłonięcie wulkanicznych sillów. W odróżnieniu od podobnych zagłębień na Ziemi czy Marsie, paterae nie znajdują się na szczytach wulkanów tarczowych. Są też na ogół większe od ziemskich, przeciętnie o średnicy 41 km, a największa – Loki Patera – ma <b>202 km średnicy</b> (kojarzy mi się to z cięciem metalu spawarką plazmową). Głębokość kilku została określona, przekracza ona w większości przypadków 1 km. Ponad połowa spośród 417 zidentyfikowanych zagłębień tego typu związana jest z uskokami lub górami.<br />Paterae są często miejscami erupcji wulkanicznych, czy to w postaci wylewów lawy, czy też w formie jezior lawowych. W miarę stygnięcia tych ostatnich tworzy się na ich powierzchni skorupa, po pewnym czasie zapadająca się i tonąca wskutek większej gęstości. Proces ten może odbywać się w sposób ciągły (np. w jeziorze lawowym wulkanu Pele, co czyni go jednym z najgorętszych miejsc na Io) lub epizodyczny (np. w Loki Patera; obserwuje się wtedy nawet 10-krotny wzrost emisji ciepła." <br /><br /></div><div>A teraz moja sugestia- czy tzw morza na naszym Księżycu nie są przypadkiem efektem dawniejszych wyładowań elektrycznych w opisywanej przez Sitchina historii zderzenia 2 x większej Ziemi i Księżyca jako jednego z jej 11 satelitów, którą to historię opisałem na moim blogu? </div><div>Zauważ że morza występują wyłącznie od widzialnej z Ziemi strony Księżyca , zwróć też uwagę że ten księżyc Jowisza też jest zwrócony do niego jedną stroną tak jak ziemski do Ziemi i jest najbliżej Jowisza...</div>Tymczasem nauka oficjalna dalej : "Wypływy lawy na Io następują, albo z otworów w dnach paterae, albo ze szczelin na równinach. Erupcje te są podobne do obserwowanych na ziemskim wulkanie Kīlauea. Uwalniają mniej energii w jednostce czasu niż tworzące pióropusze erupcje eksplozywne, trwają jednak nawet dziesiątki lat. Przykładem może być wylew lawy z wulkanu Prometheus, który wydłużył się z 75 km w roku 1979 do 95 km w 1996. Wielka erupcja w roku 1997 pokryła lawą powierzchnię ponad 3500 km², zalewając dno sąsiedniej Pillan Patera.<br /><br /><br /><br /><br /><br /><br /><br /><br /><br /><br /><br /><br /><br /><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhn_NzSe9GQwIyHv2uxFz4AF9RprNDs5MuGtxRD-2CvW0GROt9h58AKsN1legVKFeD7x22shplu8hmQ7mAwLHg8ea8crvknfVvKDkQL8wIBcLk5QRj0JGU0eXd4npR3_ec08tmWQx3Mz7SJDsOGW00XhS0Bvtf43TdZGDVpv0AUhI5RRdDPbhFZY_lR/s680/%C3%8Do-Loki-Patera.jpg" style="margin-left: 1em; margin-right: 1em; text-align: center;"><img border="0" data-original-height="550" data-original-width="680" height="518" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhn_NzSe9GQwIyHv2uxFz4AF9RprNDs5MuGtxRD-2CvW0GROt9h58AKsN1legVKFeD7x22shplu8hmQ7mAwLHg8ea8crvknfVvKDkQL8wIBcLk5QRj0JGU0eXd4npR3_ec08tmWQx3Mz7SJDsOGW00XhS0Bvtf43TdZGDVpv0AUhI5RRdDPbhFZY_lR/w640-h518/%C3%8Do-Loki-Patera.jpg" width="640" /></a><br /><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhnVzftCKoRU-Xotvh5IBfuGhxVbdN9Ee6kmh4rLoMMaVxnYT-zAByF8Wnl5D83NBxwio5JQ7vZYHMzup_l33JTPZLiiZ9GfM91WmpwiKbQQWrt02G9gN7HqRRkD2pQ6i0Sbswyu8tSAY-VZD7ARPWL4k8gs-z76ATSfMCiC8H4zko3_SDRi09deEIa/s1024/Io-DW-Wissenschaft-Frankfurt-Archiv-jpg.jpg" style="margin-left: 1em; margin-right: 1em; text-align: center;"><img border="0" data-original-height="1001" data-original-width="1024" height="626" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhnVzftCKoRU-Xotvh5IBfuGhxVbdN9Ee6kmh4rLoMMaVxnYT-zAByF8Wnl5D83NBxwio5JQ7vZYHMzup_l33JTPZLiiZ9GfM91WmpwiKbQQWrt02G9gN7HqRRkD2pQ6i0Sbswyu8tSAY-VZD7ARPWL4k8gs-z76ATSfMCiC8H4zko3_SDRi09deEIa/w640-h626/Io-DW-Wissenschaft-Frankfurt-Archiv-jpg.jpg" width="640" /></a><br /><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiFDx159bLyBG1f-IngoZ2WI0s03z0EyZ4qCkxoDrLVQHklKqMBfG1k5_dP6lzvImMhUrEr_mX7IAQJrDrcFV79YweV8FkznFKqSONQVvx4uQcjNzTNMUo0jaXdiU76ZFcMjw2PZHLeyeYTVCDx_E-saRIa7ZyNOyrdoZPUMsFOtin28q8VtYaJ8QH8/s1100/io_erupcja.jpg"><img border="0" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiFDx159bLyBG1f-IngoZ2WI0s03z0EyZ4qCkxoDrLVQHklKqMBfG1k5_dP6lzvImMhUrEr_mX7IAQJrDrcFV79YweV8FkznFKqSONQVvx4uQcjNzTNMUo0jaXdiU76ZFcMjw2PZHLeyeYTVCDx_E-saRIa7ZyNOyrdoZPUMsFOtin28q8VtYaJ8QH8/w640-h360/io_erupcja.jpg" /></a><br /><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEg4925ZwhKHHyC5L4_903KsemlQrPs45AOOeghbdbz4GFaR6v0Kk2-4N6oSLlOYJOFYvPZ4vfoPP1Anz9QwkMHwp3mzUGDGgUCaLdN6h8TxRgf1J32yZQmfxoywRWck5mPJmvOgyy2g3jkmKv0vFAxJ0CNzK1UzLv3FJQAXl_Y2kyXuBEqQG5kSPueH/s580/9306054d-ac23-4d41-955f-d288039ace76.webp"><img border="0" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEg4925ZwhKHHyC5L4_903KsemlQrPs45AOOeghbdbz4GFaR6v0Kk2-4N6oSLlOYJOFYvPZ4vfoPP1Anz9QwkMHwp3mzUGDGgUCaLdN6h8TxRgf1J32yZQmfxoywRWck5mPJmvOgyy2g3jkmKv0vFAxJ0CNzK1UzLv3FJQAXl_Y2kyXuBEqQG5kSPueH/s320/9306054d-ac23-4d41-955f-d288039ace76.webp" /></a><br /><br /></div><div>Finezyjna struktura powierzchni Io. Nauka uparcie interpretuje to co widzimy na krawędzi księżyca Io, jako erupcję wulkanu.<br /><br /><br /><br /><br /><br /><br /><br /><br /><br /><br /><br /><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjRD4qh_9tybB8Q-0_xXebMXtQGYVxhCYmpPrMrRNfUyKw27CONAFRepB-P0zlovRBM18P-w_0dYdfP13g9KEy6lfaZqHoBb_8jxyazt2tl9WbyD4mS3LNCJ6Lu7VNESlu_46casXYEBlLfh_yjOUdZEiF1oS_oR7QXrQaro7AJe_1uGx-12e0gQL0F/s795/8cd859b79e142fb7992b619b7be41c50.png" style="margin-left: 1em; margin-right: 1em; text-align: center;"><img border="0" data-original-height="482" data-original-width="795" height="194" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjRD4qh_9tybB8Q-0_xXebMXtQGYVxhCYmpPrMrRNfUyKw27CONAFRepB-P0zlovRBM18P-w_0dYdfP13g9KEy6lfaZqHoBb_8jxyazt2tl9WbyD4mS3LNCJ6Lu7VNESlu_46casXYEBlLfh_yjOUdZEiF1oS_oR7QXrQaro7AJe_1uGx-12e0gQL0F/s320/8cd859b79e142fb7992b619b7be41c50.png" width="320" /></a><br /><br />Teraz porównajmy wszystko do efektu elektrycznej obróbki powierzchni drewna zwanym efektem Lichtenberga.<br /><br /><br /><br /><br /><br /><br /><br /><br /><br /><br /><br /><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjyIRQyF1rGZrk1Mmz_uLbmQ91xXjrsIZlxk15_CiJ41EZVIIPSDfEeeC0_qCZm-jEqZvIYKIufbuU0_tiakMMQUIg2rN80iwCJe-iwat4RQBotoCcxqbqDQBYEdcxC8oCgtENUaYGNicwYNX94daTGd5U1t3sgGcVi_sMiNSkXO4R_0sRaRPgHV4uM/s220/220px-Tvashtarvideo.gif" style="margin-left: 1em; margin-right: 1em; text-align: center;"><img border="0" data-original-height="220" data-original-width="220" height="220" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjyIRQyF1rGZrk1Mmz_uLbmQ91xXjrsIZlxk15_CiJ41EZVIIPSDfEeeC0_qCZm-jEqZvIYKIufbuU0_tiakMMQUIg2rN80iwCJe-iwat4RQBotoCcxqbqDQBYEdcxC8oCgtENUaYGNicwYNX94daTGd5U1t3sgGcVi_sMiNSkXO4R_0sRaRPgHV4uM/s1600/220px-Tvashtarvideo.gif" width="220" /></a><br /><div><br />Rzekoma erupcja wulkaniczna. Ciekawe skąd taki silny wiatr tam wieje?...<br /><br /><br /><br /><br /><br /><br />Po przelotach sond Voyager naukowcy początkowo uważali, że wypływający materiał składa się przede wszystkim ze stopionej siarki i jej związków. <b>Nowsze obserwacje w podczerwieni wykazały, że otwory wulkaniczne są znacznie gorętsze, niż wynikało z pomiarów (525 K) instrumentem IRIS Voyagerów, który nie miał możliwości rejestrowania promieniowania elektromagnetycznego o długościach fal odpowiadających wyższym temperaturom.</b> .... </div><br /><div>W 1986 roku zaobserwowano z Ziemi jasną erupcję, w okolicach której temperatura musiała być wyższa niż 900 K, przekraczając znacznie temperaturę wrzenia siarki (715 K), wskazując na lawę bazaltową. Temperatury gorących, odsłoniętych wnętrz wulkanów przekraczają 1300 K, a w niektórych przypadkach dochodzą do 1600 K. Wcześniejsze oszacowania, mówiące o temperaturach bliskich 2000 K, okazały się przesadzone wskutek użycia błędnych modeli termicznych.<br />Na księżycu Io jest czynnych około 150 wulkanów. Wybuch 29 sierpnia 2013 r. wyzwolił energię 20 TW, 10 tys. razy większą od wybuchu islandzkiego wulkanu Eyjaftjallajökull w 2010 r.<br />Krążąc wokół Jowisza,<b> Io porusza się w bardzo silnym polu magnetycznym planety.</b> DALEJ NIC?Indukuje ono w jej otoczeniu prąd elektryczny o mocy rzędu 1000 gigawatów i napięciu sięgającym 400 000 V. W takich warunkach <b>materia z atmosfery Io jonizuje się i ulatuje w przestrzeń okołojowiszową,</b> ( NIE TYLKO Z ATMOSFERY .. ) tworząc wzdłuż orbity księżyca torus zjonizowanych cząstek.<br /><b>Układ Jowisz – Io jest silnym emiterem fal radiowych</b>. Odpowiedz sobie dlaczego...</div><div><br /></div><div>Dla dopełnienia obrazu ciekawostką leksykalną jest w jaki sposób nazwy dni tygodnia od zamierzchłych czasów odpowiadają zjawiskom na planetach. Przykładowo Czwartek- dies Iovis , „dzień Jowisza” -rzymski bóg, który stworzył grzmoty i błyskawice; patron państwa rzymskiego. Z kolei po angielsku i niemiecku poniedziałek (Monday/Montag) to nic innego jak dzień Księżyca (Moon), ale czwartek (Thursday/Donnerstag) to dzień Jowisza a "es donnert" znaczy że grzmi.</div>Skąd w starożytności wiedziano że właśnie planeta Jowisz jest- także technicznie- władcą piorunów? A dosłowniej że w naszym Układzie Słonecznym tylko pomiędzy Jowiszem i Jo wszechświat ukazuje swoją prawdziwą elektryczną naturę?? Przypadek??</div><div class="separator" style="clear: both; text-align: center;"><br /></div><br /><div class="separator" style="clear: both; text-align: center;"><br /></div><br /><div class="separator" style="clear: both; text-align: center;"><br /></div><br /><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /><div><br />Ciekawym obiektem Układu Słonecznego pod tym względem jest też księżyc Saturna - Enceladus. Został on dokładnie zbadany przez krążącą wokół Saturna sondę Cassini, która wielokrotnie przelatywała bardzo blisko Enceladusa, nawet w odległości 50 km od niego. Księżyc ten jest bardzo mały , jego średnica wynosi zaledwie 500 km. Jego lodowa skorupa odznacza się najwyższym współczynnikiem albedo ze wszystkich znanych obiektów. Odbija ponad 80 % padającego na niego światła słonecznego ( nasz Księżyc - zaledwie 12 % ). Nauka twierdzi, że jest jednym z najbardziej aktywnych geologicznie satelitów w naszym układzie a aktywność geologiczna Enceladusa przejawia się obecnością w okolicach południowego bieguna tzw. <b>kriowulkanów , które wyrzucają lód zamiast lawy</b> (RACZEJ JONIZACJA ELEKTRYCZNA). Jest tam również co najmniej 100 gejzerów tryskających słoną wodą w przestrzeń kosmiczną. Południowy biegun Enceladusa wystrzeliwuje wraz ze słoną wodą pióropusze złożone z pary wodnej, metanu, propanu oraz ziaren lodu. Osiągają one wysokość dochodzącą do kilkuset kilometrów i prędkość ponad 2 tys. km / godz. Wszystko to pochodzi prawdopodobnie z oceanu leżącego pod lodową skorupą tego księżyca. Gejzery w każdej sekundzie wyrzucają ok. 200 kg materiału, którego część wraca na powierzchnię w postaci opadu przypominającego śnieg. <b>Na temat wewnętrznej struktury Enceladusa trwają wśród naukowców dyskusje. Jedni twierdzą, że wewnętrzny ocean zajmuje jedynie okolice bieguna południowego, inni uważają, że ukryty jest on pod całą lodową skorupą, a pojawienie się gejzerów po przeciwnej stronie jest tylko kwestią czasu.</b> Obserwacje ujawniły też pęknięcia półkuli z gejzerami, znane jako ,, tygrysie pasy " , poprzez które właśnie uwalnia się materiał z wnętrza obiektu. Istnieją hipotezy, że w przyszłości to samo może stać się na półkuli północnej. </div><div>Pokrywający Enceladusa świeży, czysty lód sprawia, że Enceladus ma największe albedo ze wszystkich obiektów w Układzie Słonecznym – odbija ponad 90% padającego nań światła. Niewielka ilość pochłanianej energii słonecznej powoduje, że temperatura powierzchni wynosi w południe zaledwie −198 °C więc powinno tam być zbyt zimno na istnienie wody w stanie ciekłym, lecz obecność amoniaku w strumieniach pod powierzchnią może działać jak środek przeciw zamarzaniu. Mimo to na tym niewielkim księżycu obserwujemy szczeliny, z których wyrzucane są strumienie pary i pyłu, podobnie do ziemskich gejzerów.</div><div>Rozmiary Enceladusa nie są na tyle duże, by zachodzące w jego wnętrzu reakcje rozpadu pierwiastków promieniotwórczych mogły obecnie dostarczać energii koniecznej do obserwowanej aktywności. Jednak występujące na powierzchni księżyca pęknięcia, szczeliny i inne deformacje terenu świadczą, że zachodzą na nim złożone zjawiska tektoniczne, pomimo że jego wnętrze powinno ostygnąć dawno temu. Źródłem ciepła może być grzanie pływowe, wynikające z istnienia rezonansu orbitalnego Enceladusa z Dione, w stosunku 1:2. Poza tym badania pozycji gejzerów ujawniły, że pokrywają się z <b>małymi punktami gorąca</b>, widocznymi w podczerwieni. <b>Prawdopodobnie</b> ciepło generowane jest w wyniku tarcia wewnątrz Enceladusa. Ścierające się ze sobą skały nagrzewają obszar pod biegunem południowym , co powoduje wydzielanie się pary wodnej i jej wędrówkę na powierzchnię. Do tarcia przyczynia się oddziaływanie grawitacyjnie Saturna i jednego z jego księżyców - Dione. </div><div>Enceladus jest uwięziony pomiędzy tym potężnym oddziaływaniem. Za każdym razem, gdy Dione go wyprzedza, Enceladus zostaje szarpnięty i wpada w rezonans( ach te karkołomne naukowe teorie...) co może mieć wpływ na wewnętrzne tarcie. Należy nadmienić, że oprócz Enceladusa w Układzie Słonecznym potwierdzono aktywne procesy wulkaniczne jedynie na Ziemi, Io, oraz Trytonie.</div><div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiyxgxU7qgUej5V0UKzEBFMcrDWKykP3f5dFZ7xJHDS7zkMk5TXqWUxDy54-ALE6fciKwM7u0mpc6gC6JyGrPApRJ8-yPzPHHkkTMF0MSI6C076H3CSbxlbg_rxi9qX7TxSri2jbAuwNEEsXhPTE-QkRHGD4GngFYn7_GLzdv6XT2PPUskeU3Zp2CWK/s499/comment_1632648824n1RDePbm8fPrA1R1CIMKKH,w400.jpg" style="margin-left: 1em; margin-right: 1em;"><img border="0" data-original-height="499" data-original-width="400" height="640" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiyxgxU7qgUej5V0UKzEBFMcrDWKykP3f5dFZ7xJHDS7zkMk5TXqWUxDy54-ALE6fciKwM7u0mpc6gC6JyGrPApRJ8-yPzPHHkkTMF0MSI6C076H3CSbxlbg_rxi9qX7TxSri2jbAuwNEEsXhPTE-QkRHGD4GngFYn7_GLzdv6XT2PPUskeU3Zp2CWK/w514-h640/comment_1632648824n1RDePbm8fPrA1R1CIMKKH,w400.jpg" width="514" /></a></div><br /><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgmsBUM3Xd1nwQjNxSuX41Hf47QU7Sw8M2T62AYaaOGlqbL7jo2tiMD-C820TbjPFNT0TUVvHmwiSNbjAIOL9nJagH1u7WD9rykPR20g-f3yZuUGV8fgX1-4dHbTcMa88Nci3_FjV-7nIiIvSfPKJyRrk-QJt6_LaWKjkJEaY1A15ZhWX__wVSpotqK/s800/Enceladus-geysers-NASA-JPL-Space-Science-Institute-800x495.jpg"><img border="0" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgmsBUM3Xd1nwQjNxSuX41Hf47QU7Sw8M2T62AYaaOGlqbL7jo2tiMD-C820TbjPFNT0TUVvHmwiSNbjAIOL9nJagH1u7WD9rykPR20g-f3yZuUGV8fgX1-4dHbTcMa88Nci3_FjV-7nIiIvSfPKJyRrk-QJt6_LaWKjkJEaY1A15ZhWX__wVSpotqK/w640-h396/Enceladus-geysers-NASA-JPL-Space-Science-Institute-800x495.jpg" /></a><br /><br /><br /><br /><br /><br /><br /><br /><br /><br /> Niestety nie potrafię się dopatrzeć na powyższych zdjęciach niczego innego oprócz plazmy plus w tym przypadku jonizacji lodu jako elektrycznie prowokowanej sublimacji do postaci zamarzającej krótko po tym pary wodnej. Wystarczy się chwilę przyjrzeć aby zauważyć że nie są to punktowe zjawiska a <b>pasmowe,</b> mające swój początek bezpośrednio <b>na powierzchni</b> z różną intensywnością i nie wynika to z jakichkolwiek procesów ciśnieniowych zachodzących pod powierzchnią. Przypuszczam że takie procesy występują także na Ziemi ale nie koncentrujemy się na tym. Poza tym są one przysłonięte/tłumione przez ziemską atmosferę. Przykładowo porównajmy Ognie Świętego Elma. Nie wyobrażam sobie gejzerów czy wulkanów z erupcjami lodu ani z podpowierzchniowych oceanów a cała aktywność wraz z "punktami gorąca" jest pochodzenia elektrycznego, generowana wzajemnym elektrostatycznym oddziaływaniem pomiędzy Saturnem a Enceladusem , podobnie jak to dzieje się w układzie Jowisza.<br /><br /><div>Kolejną ciekawą sprawą są ślady wyładowań elektrycznych określane przez naukę jako wulkany tarczowe . Według Wikipedii wulkan tarczowy jest to rodzaj wulkanu o szerokim i spłaszczonym stożku o kącie nachylenia nie większym niż 8°. Nauka twierdzi, że jej charakterystyczną cechą jest brak gwałtownych erupcji – moim zdaniem w ogóle ich w tym przypadku nie ma. Jednym z nielicznych przykładów wulkanu tarczowego na Ziemi może być Mauna Loa na Hawajach lub islandzki wulkan tarczowy Skjaldbreiður, ale wynika to z błędnej diagnozy procesów geologicznych. </div><div>Moim zdaniem wulkany w takiej formie powstają w wyniku wyładowań elektrycznych docierających do analizowanej powierzchni z kosmosu, gdy dwa ciała niebieskie (lub więcej) zbliżają się do siebie na odległość przełamującą wytrzymałość elektroizolacyjną (cząsteczkowej) przestrzeni. Również na Ziemi znajdziemy przykłady takich oddziaływań jak przykładowo Oko Sahary na foto poniżej.</div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEj_kNU_bPNcjR-6tM-P6cftaOwcX-iIaUqCqXGoLeYjQRSwC06rlqOc20maspGUMiCcnEK7ndZaL86NJHpRNVmzfwyVS8Syv9RGIkR6rX3qQXTcosxfgxSdLwBhcAI373Zji8SV-XbePDDmGeKsssVdesiqukdIcjlLBLxhLJ5Zk7HYFCy3W4261m0x/s640/st22.webp" style="margin-left: 1em; margin-right: 1em;"><img border="0" data-original-height="385" data-original-width="640" height="386" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEj_kNU_bPNcjR-6tM-P6cftaOwcX-iIaUqCqXGoLeYjQRSwC06rlqOc20maspGUMiCcnEK7ndZaL86NJHpRNVmzfwyVS8Syv9RGIkR6rX3qQXTcosxfgxSdLwBhcAI373Zji8SV-XbePDDmGeKsssVdesiqukdIcjlLBLxhLJ5Zk7HYFCy3W4261m0x/w640-h386/st22.webp" width="640" /></a></div><br /><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div>Nie jest to jakąś normą w naturze jak burzowe pioruny, ale się zdarza. Planety, księżyce, także gwiazdy posiadają takie blizny, ale trudny do obserwacji artefakt, ginie pod koroną gwiazdową. Przykładem gwiazd, pomiędzy którymi występują stałe wyładowania są tzw. Pulsary o których piszę w innym poście.</div><div><br /></div><div><br /></div><div>Wiele wulkanów tego typu zostało odkrytych na Wenus i Marsie, ale są one znacznie większe niż te znalezione na Ziemi. Najwyższy dotychczas odkryty wulkan tarczowy znajduje się na Marsie - Olimpus Mons- poniżej.</div><div><p><br /></p><p><br /></p><p><br /></p><p><br /></p><p><br /></p><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEh_9NYZSu-YJduGet9ZhA3Ppnap6aEmqQkz9xofUs5QItR7AtrYG8Waml4dGGwKdoR3PwAMzePk-AwDUiS76sTSx5QPAa3wF99I9hVND3FmjpIshwgyoKW4aRWLKwOvyS9jgn3dziALDrV0tX5jeq6JVHzjlzaGC72EkI1MWMhT7gqckcDpgbeakpqq/s858/Zrzut%20ekranu%202022-06-12%20214907.png" style="margin-left: 1em; margin-right: 1em;"><img border="0" data-original-height="858" data-original-width="844" height="640" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEh_9NYZSu-YJduGet9ZhA3Ppnap6aEmqQkz9xofUs5QItR7AtrYG8Waml4dGGwKdoR3PwAMzePk-AwDUiS76sTSx5QPAa3wF99I9hVND3FmjpIshwgyoKW4aRWLKwOvyS9jgn3dziALDrV0tX5jeq6JVHzjlzaGC72EkI1MWMhT7gqckcDpgbeakpqq/w630-h640/Zrzut%20ekranu%202022-06-12%20214907.png" width="630" /></a></div><br /><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div>Wokół wulkanu osiadł pył łukowy. Następnie został zdmuchnięty przez wiatr podczas burz marsjańskich. Ciekawostką są kule marsjańskie, zwane też jagodami marsjańskimi - kule wykonane z hematytu odkryte na Marsie przez okazjonalny łazik na równinie Meridiani Planum. Procesy geologiczne prowadzące do ich powstania nie są w pełni znane nauce. Jedna z hipotez głosi, że jest chłodzony w locie, podgrzewany do postaci płynnej przez uderzenie meteorytu lub aktywność wulkaniczną. Inna hipoteza głosi, że są to konkrecje powstałe przy udziale wody (powolne osadzanie się minerałów wokół jądra). Teraz sam połącz te kropki. To co widzimy na zdjęciu to efekt wyładowania elektrycznego.</div><div><p>Takie wulkany powstają tylko podczas kosmicznych międzyplanetarnych wyładowań elektrycznych podobnych do mikrokraterów powstających podczas procesu spawania metalu. Astronauci przebywajacy w otwartej przestrzeni kosmicznej wspominają zapach kombinezonu uwalniający się po powrocie do bazy JAKO ŚMIERDZĄCY SPAWANYM METALEM...</p></div><p><br /></p><p><br /></p><p><br /></p><p><br /></p><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiGlsN-jJduHKFN1ORKPJhIgyFufVScC1dHj0zEi6Jjvk7-iMh6AQAHMGpdYhfcF1ZU1tL66BXuhLaY6y9J4e-OKBDVN_t8bItml-E7985G81zWei0D-MKIyE6dkTkHKXhOr9bdhHq1WM59LLLgEA0Ux3A2IxUxwbamMNXlo4HxNDQchZ8BwUB_VwEy/s886/Zrzut%20ekranu%202022-06-12%20214716.png" style="margin-left: 1em; margin-right: 1em;"><img border="0" data-original-height="886" data-original-width="796" height="640" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiGlsN-jJduHKFN1ORKPJhIgyFufVScC1dHj0zEi6Jjvk7-iMh6AQAHMGpdYhfcF1ZU1tL66BXuhLaY6y9J4e-OKBDVN_t8bItml-E7985G81zWei0D-MKIyE6dkTkHKXhOr9bdhHq1WM59LLLgEA0Ux3A2IxUxwbamMNXlo4HxNDQchZ8BwUB_VwEy/w574-h640/Zrzut%20ekranu%202022-06-12%20214716.png" width="574" /></a></div><br /><p>Na zdjęciu powyżej widzimy efekt spawania metalu.</p><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgjzShAqPJZ-JKlYn_v32XyH3yIkioGBHhYXHDcLXbTJEvr1j5CVIVfpXl3BjieZA5gcP9fr393JKVYEsWC0C5s39aljTCQGrRp-c371OvxhlXssVDIRM5zDcCZWROHhmEFwwtKbAfvW8kHCHkM85GyelxjeEOxVAIcKa6Epxz0YN7Zu4Xuj7jdKbyD/s1390/shaded-relief-image-derived-from-mars-orbiter-laser-altimeter-data-D98M0C.jpg" style="margin-left: 1em; margin-right: 1em;"><img border="0" data-original-height="1390" data-original-width="1287" height="640" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgjzShAqPJZ-JKlYn_v32XyH3yIkioGBHhYXHDcLXbTJEvr1j5CVIVfpXl3BjieZA5gcP9fr393JKVYEsWC0C5s39aljTCQGrRp-c371OvxhlXssVDIRM5zDcCZWROHhmEFwwtKbAfvW8kHCHkM85GyelxjeEOxVAIcKa6Epxz0YN7Zu4Xuj7jdKbyD/w592-h640/shaded-relief-image-derived-from-mars-orbiter-laser-altimeter-data-D98M0C.jpg" width="592" /></a></div><br /><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;">Tu widzimy trzy "wulkany" Marsa niedaleko Olympus Mons (na lewo u góry) które co ciekawe, ustawione są w JEDNEJ LINII. Przypadek?</div><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><div class="separator" style="clear: both; text-align: center;"><br /></div><br /></div><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjnHa5NUlharHFIIDCBJHodHBjvTiFK78t4SdOvdnqAS0fWGfaT9O8X9062fDTKoVV1fYpcdWXfMnyIwWbFlrhD4R-vvL1Pr3mPUPjjrakFFl8Ar03GO57NdVGUAav8CS_FZPL7afItmWqFB5q01O8hh8mXwbo_Oo_fbBQLIGPkHwaeAjL16hblwX_M/s736/36e495bc493768790f56a6108c389bbf--shield-volcano-extinct.jpg" style="margin-left: 1em; margin-right: 1em;"><img border="0" data-original-height="552" data-original-width="736" height="480" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjnHa5NUlharHFIIDCBJHodHBjvTiFK78t4SdOvdnqAS0fWGfaT9O8X9062fDTKoVV1fYpcdWXfMnyIwWbFlrhD4R-vvL1Pr3mPUPjjrakFFl8Ar03GO57NdVGUAav8CS_FZPL7afItmWqFB5q01O8hh8mXwbo_Oo_fbBQLIGPkHwaeAjL16hblwX_M/w640-h480/36e495bc493768790f56a6108c389bbf--shield-volcano-extinct.jpg" width="640" /></a></div><br /><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><span style="text-align: left;">Ascraeus Mons, jeden z trzech "wulkanów" z elektrycznie uformowaną powierzchnią.</span></div><br /><p><br /></p><p><br /></p><p><br /></p><p>Elektryczny Wszechświat sam mówi za siebie- aż RAZI w oczy. Zapamiętaj to dobrze. Osobiście jestem przekonany już że OTW i tzw Wszechświat grawitacyjny to <b>BEZBŁĘDNIE FAŁSZYWA</b> teoria. Ciągle nowe hipotezy poprawkowe, świadczą o tym że jej fundament jest zmurszały i niedługo runie.</p></div><br /><br /><br /><br /><br /><br /></div></div></div><br /><br /></div><div class="blogger-post-footer">„Analfabetami XXI wieku nie będą ci, którzy nie umieją pisać ani czytać, lecz ci, co nie potrafią oduczyć się wierutnych kłamstw, w które nauczono ich wierzyć i nie potrafią szukać ukrytej wiedzy, którą nauczono ich odrzucać”</div>#magnetartechprojecthttp://www.blogger.com/profile/00116426320285930090noreply@blogger.com0tag:blogger.com,1999:blog-1727701247933515471.post-75565177461927702322022-05-30T21:42:00.052+02:002023-02-25T20:33:41.515+01:00Pulsar vs magnetar<p></p><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEij9CK5nbeITlGLEg6CZ2j1HSdIMhtzC6YZtC6o91Xms4BbtFlmrDGxmwl6YHdp_OCRSPqKBhY4rEN35HlV0AwdvXwWo529_m5IiPdCL1eykgmMLB4raT8dx8vnyIiBYUKvCtdSRRfIYRv-4Q9LJiCi7a3j-I9Q0G3AO-RjKqhQSB-uHlvLmvleHAyt/s300/Pulsar_schematic.svg.png" style="margin-left: 1em; margin-right: 1em;"><img border="0" data-original-height="225" data-original-width="300" height="480" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEij9CK5nbeITlGLEg6CZ2j1HSdIMhtzC6YZtC6o91Xms4BbtFlmrDGxmwl6YHdp_OCRSPqKBhY4rEN35HlV0AwdvXwWo529_m5IiPdCL1eykgmMLB4raT8dx8vnyIiBYUKvCtdSRRfIYRv-4Q9LJiCi7a3j-I9Q0G3AO-RjKqhQSB-uHlvLmvleHAyt/w640-h480/Pulsar_schematic.svg.png" width="640" /></a></div><br /> Techniczny obraz pulsara<div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /><div><br /></div><div><br /></div><div>Pulsar- gwiazda neutronowa rzekomo wg naukowców powstaje w wyniku wybuchu gwiazdy tzw. <a href="http://fizyka.net.pl/astronomia/astronomia_oa.html">supernowej</a> w późnym stadium ewolucji gwiazd. Gwiazda o masie większej niż 10 mas Słońca, wytwarza u kresu swojej ewolucji żelazny rdzeń wielkości Ziemi, w którym nie mogą już zachodzić reakcje syntezy jądrowej. Elektrony poruszają się wtedy z prędkością prawie równą prędkości światła. Ciśnienie rozpędzonych elektronów równoważy grawitacyjną siłę przyciągania gęstej materii. Ale przy dostatecznie dużej energii elektronów (temperatura wynosi wtedy około 10 miliardów Kelwinów), łączą się one z protonami tworząc neutrony. Ciśnienie wtedy maleje, oddziaływanie grawitacyjne bierze górę i w niespełna sekundę rdzeń zapada się i zamienia w gwiazdę neutronową. Część wyzwolonej przy tym energii zostaje przekazana materii otaczającej rdzeń, która z prędkością kilkunastu tysięcy kilometrów na sekundę rozbiega się w przestrzeni kosmicznej. Całe zjawisko, widoczne z daleka jako gwałtowny rozbłysk gwiazdy, nosi nazwę supernowej II typu.<br />Gęstość gwiazdy neutronowej przekracza 1012 g/cm3 i w centrum jest większa niż w jądrze atomowym, a średnice gwiazd neutronowych zawarte są w przedziale od 10km do 100km. Ich masa może być najwyżej około 2,8 raza większa od masy Słońca. Jeśli szczątki wybuchu są masywniejsze to powstaje <a href="http://fizyka.net.pl/astronomia/astronomia_oa4.html">czarna dziura</a>. Gwiazdy neutronowe są dla nas ostatnim źródłem informacji o najbardziej skrajnym, a dostępnym jeszcze obserwacji stanie materii we Wszechświecie. Szacuje się, że co tysięczna gwiazda w naszej Galaktyce to gwiazda neutronowa.<br />W 2004 roku oszacowano parametry gwiazdy neutronowej w układzie podwójnym EXO 0748-677. Średnica tej gwiazdy wynosi około 23 km (plus minus 6km) a masa 1,8 Mas Słońca (plus minus 0,5). Jest to pierwszy tak dokładny szacunek parametrów gwiazdy neutronowej. Podczas tworzenia się gwiazdy neutronowej, promień maleje. Z zasady zachowania momenty pędu wynika, że że następuje wtedy zwiększenie prędkości wirowania gwiazdy. Okres obrotu może wynosić od ułamka sekundy do kilku sekund. Obrót pulsarów powoduje wytwarzanie silnego promieniowania radiowego. Spowodowane jest to ruchem plazmy i zmiany pola magnetycznego, ale dokładnego modelu powstawania tych impulsów jeszcze nie znamy.<br />Gwiazdy neutronowe poza pulsującym promieniowaniem radiowym emitują również pulsujące promieniowanie widzialne i rentgenowskie. te okresy pulsacji związane są z okresem obrotu gwiazdy, a model emisji promieniowania radiowego przypomina nieco działaniem latarnię morską. promieniowanie radiowe pulsara jest emitowane w postaci wiązki i jeśli na Ziemi jest ono odbierane, oznacza to, że Ziemia znajduje się w strumieniu tego promieniowania.<br />Najbardziej znanym pulsarem jest pulsar w Mgławicy Kraba. W centrum tej mgławicy znajduje się ultra gęsta gwiazda neutronowa, która rzekomo rotuje 30 razy na sekundę. Gwiazda ta, zwalniając, wydziela energię, która odpowiada energii wysyłanej przez mgławicę Kraba. Wybuch supernowej, który utworzył tę mgławicę i pulsar, został dostrzeżony w 1054, co odnotowują liczne kroniki. Niebo w nocy było jasne przez kilka kolejnych dni.</div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjpj8TOEJrOaqpb4t4c1QE9vTMhDlqQk0yJdN6lUh2qsjNxVIg3BIIdF33yf-bV31nbFVsrsARpWMGgTMi25yZvRvGHzGPWHf_uvOBWXrPLhAI6OnhbmQZ8vzaoUurSgO0S2P-fw7lJ9W7lg6f0lTZOyz6DoACR6aFoPT8seida5XcT_psaWMzH96d-/s350/xpulsar1.jpg.pagespeed.ic.-MRbFQnHgc.webp" imageanchor="1" style="margin-left: 1em; margin-right: 1em; text-align: center;"><img border="0" data-original-height="225" data-original-width="350" height="413" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjpj8TOEJrOaqpb4t4c1QE9vTMhDlqQk0yJdN6lUh2qsjNxVIg3BIIdF33yf-bV31nbFVsrsARpWMGgTMi25yZvRvGHzGPWHf_uvOBWXrPLhAI6OnhbmQZ8vzaoUurSgO0S2P-fw7lJ9W7lg6f0lTZOyz6DoACR6aFoPT8seida5XcT_psaWMzH96d-/w640-h413/xpulsar1.jpg.pagespeed.ic.-MRbFQnHgc.webp" width="640" /></a><br /><br />Mgławica Kraba - zdjęcie z kosmicznego teleskopu Hubble'a. W mgławicy tej znajduje się pulsar (na lewo od dwóch centralnie ułożonych jasnych gwiazd, blisko lewego dolnego rogu zdjęcia).<br /><br /><br /><br /><br /><br /><br /><br /><br /><br /><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjkIQv3-hDasa_HMzI6eqMqT0PGzfDke55TJWkUOgfFG7fA_oTtw71JPqk_gB4FePyzNhrONzYp0qp3l7YuJ6wtYyNoJF7ila-R0CZGNfdlYeqXSESH7rVba5A6__0jVb8Sc4IhHfdV3htLKDcYL4YKZEpMS3fYaKqDhxlogbWyo6SwaEiumxzSmbhN/s320/xpulsar2.jpg.pagespeed.ic.ULjpXeOIil.webp" imageanchor="1" style="margin-left: 1em; margin-right: 1em; text-align: center;"><img border="0" data-original-height="245" data-original-width="320" height="490" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjkIQv3-hDasa_HMzI6eqMqT0PGzfDke55TJWkUOgfFG7fA_oTtw71JPqk_gB4FePyzNhrONzYp0qp3l7YuJ6wtYyNoJF7ila-R0CZGNfdlYeqXSESH7rVba5A6__0jVb8Sc4IhHfdV3htLKDcYL4YKZEpMS3fYaKqDhxlogbWyo6SwaEiumxzSmbhN/w640-h490/xpulsar2.jpg.pagespeed.ic.ULjpXeOIil.webp" width="640" /></a><br /><br />Mgławica Kraba, zdjęcie w promieniach Roentgena z obserwatorium Chandra. Na zdjęciu widoczne są pierścienie naładowanych cząstek, wyrzucane z centrum na zewnątrz z prędkością bliską prędkości światła, i potężne strumienie wyłaniające się z biegunów.<br /><br /><br /><br /><br /><br /><br /><br /><br /><br /><br />Pulsary bardzo często są składnikami <a href="http://fizyka.net.pl/astronomia/astronomia_oa7.html#1">układów wielokrotnych gwiazd</a>. Jeśli pulsarowi towarzyszy drugi obiekt np. <a href="http://fizyka.net.pl/astronomia/astronomia_oa8.html">czerwony olbrzym</a>, to pulsar pochłania materię sąsiada. Pulsar przekształca materię swego partnera w energię, która wprawia go w coraz szybszy ruch obrotowy i pulsar przyspiesza. W końcowej fazie pulsar wiruje z maksymalną prędkością (wykonuje nawet ponad 1000 obrotów na sekundę), a z czerwonego olbrzyma zostaje <a href="http://fizyka.net.pl/astronomia/astronomia_oa8.html#2">biały karzeł</a>. Takim pulsarem jest najprawdopodobniej obiekt NGC 6397. <br />Bardzo interesująca grupą pulsarów są pulsary rentgenowskie. Przyjmuje się, że za promieniowanie jest odpowiedzialny <a href="http://fizyka.net.pl/astronomia/astronomia_oa7.html#1">układ podwójny</a> w skład, którego wchodzi gwiazda neutronowa lub <a href="http://fizyka.net.pl/astronomia/astronomia_oa4.html">czarna dziura</a> oraz zwykła <a href="http://fizyka.net.pl/astronomia/astronomia_oa7.html">gwiazda ciągu głównego</a> lub <a href="http://fizyka.net.pl/astronomia/astronomia_oa8.html">czerwony olbrzym</a>. Część materii ze zwykłej gwiazdy przepływa i zostaje wychwycona przez gwiazdę neutronową lub <a href="http://fizyka.net.pl/astronomia/astronomia_oa4.html">czarną dziurę</a>. Ten proces wychwytu nazwano akrecją. Przyspieszona do dużych prędkości materia wypromieniowuje znaczne ilości energii.</div><div><br />Pierwszy pulsar o nazwie PSR B1919+21 odkryła Susan Jocelyn Bell w 1967 roku, pracując jako doktorantka pod kierunkiem Antony’ego Hewisha. Pulsar ten znajduje się w konstelacji Lisa na mapie północnego nieba, około 2,2 mld lat świetlnych od Ziemi. <br />Jocelyn Bell zaobserwowała pulsary jako pierwsza w historii. Za to odkrycie Antony (wraz z Martinem Ryle’em) pracujący przy projekcie, otrzymał w 1974 roku Nagrodę Nobla w dziedzinie fizyki.<br /><div>Zaobserwowane zjawisko otrzymało humorystyczne miano: "Małe zielone ludziki 1", które funkcjonowało w środowisku naukowym, zanim badaczom Thomasowi Goldowi oraz Fredowi Hoyle'owi udało się poprawnie określić źródło rejestrowanych sygnałów. Stwierdzono wtedy że to jest bardzo szybko obracająca się gwiazda neutronowa o silnym polu magnetycznym i tak już pozostało. Wiadomo że wtedy nikt nie myslał o Wszechświecie w sposób elektryczny.</div><div>Kiedy Hewish oraz Martin Ryle otrzymali nagrodę <b>Fred Hoyle zgłosił skargę</b>, oświadczając, że współlaureatką powinna zostać również Bell Burnell, której Nagrody Nobla jednak nie przyznano i w związku z tym ponieważ jest to kobieta, chciałem ją tu uhonorować bo rzadko się taka pasja jak astrofizyka wśród kobiet w ogóle ujawnia. </div><div><br /></div><div>Nie dziwię się jednak że zrezygnowała z dalszej pracy naukowej i zajęła się poznaniem Wszechświata od strony duchowej, wstępując do społeczności Kwakrów. Kwakrzy to członkowie Religijnego Towarzystwa które powstało w wyniku chrześcijańskiego przebudzenia, zapoczątkowanego przez George'a Foxa w połowie XVII stulecia w Anglii. Przeciwstawiał się on skostniałym strukturom anglikanizmu i purytanizmu, zarzucając im formalizm religijny. Pierwsza ze stworzonych przez Foxa grup wyznawców przybrała nazwę Dzieci Światła, a w 1652 r. zmieniła ją na Przyjaciele Prawdy. Samo określenie „kwakrzy” (ang. quakers – drżący) pojawiło się natomiast około 1665 r. Kwakrzy odrzucają wszelkie dogmaty, wyznania wiary, hierarchię kościelną i rytualne ceremonie. Nie posiadają także świątyń, ambon czy ołtarzy. Spotykają się w tzw. Domach Spotkań (ang. Meeting House), a mniejsze grupy w wynajętych salach lub domach. Są one pozbawione obrazów i wszelkich symboli religijnych (nie ma nawet krzyża).<div><br />Najpopularniejsza w środowisku naukowym teoria głosi, że pulsar jest rodzajem gwiazdy neutronowej i... jest to błąd, ponieważ tak jak pozostałe kulawe teorie fizyczne, tak i ta była rozpatrywana pod kątem pustej przestrzeni i masy obiektów materialnych z rzekomo wyjaśniającą wszystko słabą siłą grawitacji. A tego wobec dzisiejszych zaobserwowanych w astrofizyce nowych faktów zrobić się po prostu już nie da.<br />Wg oficjalnej nomenklatury naukowej pulsar (od pulse z ang. pulsować i -ar jak w quasar – „quasi-stellar radio source” lub też „QSO” – „quasi-stellar object”, to dosłownie „obiekt gwiazdopodobny emitujący fale radiowe”). </div><div> Jest to rzekomo wysoce zmagnetyzowana, szybko rotująca gwiazda neutronowa która emituje wiązkę bardzo silnego promieniowania elektromagnetycznego. Promieniowanie to może być obserwowane tylko, gdy wiązka emisyjna skierowana jest w stronę Ziemi (tak jak latarnia, która jest widoczna tylko, gdy jej światło jest skierowane w stronę obserwującego) i jest odpowiedzialne za pulsujące pojawianie się emisji. </div><div>Tak... czyli wszystkie "słyszalne" pulsary mają swoje biegunowe latarnie skierowane akurat w stronę Ziemi??</div><div><br />W chwili wybuchu supernowa z której rzekomo powstają pulsary ma przeciętne pole magnetyczne i przeciętną prędkość obrotu. Nauka twierdzi że wyłaniająca się z eksplozji gwiazda neutronowa będzie miała pole magnetyczne rzędu 108 Tesli (1012 Gausów) i okres obrotu rzędu czasami nawet jednej setnej sekundy. Szybki obrót silnego, prawdopodobnie dipolowego pola magnetycznego powoduje powstanie wokół gwiazdy neutronowej intensywnego pola magnetycznego i magnetosfery. Gwiazdy neutronowe charakteryzują się bardzo dużą gęstością i krótkimi, regularnymi okresami obrotu. Kreuje to bardzo precyzyjne interwały pomiędzy pulsacjami, które trwają od kilku milisekund do kilku sekund dla każdego pulsara. Uważa się, że Pulsary mogą być jednym ze źródeł promieni kosmicznych o bardzo wysokiej energii.<div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><span style="font-family: inherit;"><br /></span></div><div><span style="font-family: inherit;"><br /></span></div><div class="separator" style="clear: both; text-align: center;"><span style="font-family: inherit;"><iframe allowfullscreen="" class="BLOG_video_class" height="361" src="https://www.youtube.com/embed/sx6MYOFtRpw" width="544" youtube-src-id="sx6MYOFtRpw"></iframe></span></div><span style="font-family: inherit;"><br /></span><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><br /></div></div>Typy pulsarów:<br />Pulsary typu S mają prosty kształt impulsu o jednym wyraźnie wyróżnionym maksimum. Są to najczęściej pulsary o okresie mniejszym niż 1 s.<br />Pulsary typu C mają złożony kształt impulsu o dwóch lub więcej maksimach o zbliżonym natężeniu.<br />Pulsary typu D mają przesuwające się podimpulsy, o mniejszym natężeniu.</div><div class="separator" style="clear: both; text-align: center;"><br /></div><br /><div class="separator" style="clear: both; text-align: center;"><br /></div><br /><div><br /></div><div>Ciekawe z jakiej to przyczyny te podimpulsy?? Może z powodu "podbiegunów"?</div><div><br /><div>Analizując zależność impulsów od częstości stwierdzono, że impulsy ulegają <a href="https://pl.wikipedia.org/wiki/Dyspersja_fali">dyspersji</a> i wraz ze wzrostem częstości docierają do odbiorcy coraz później. Oprócz tego, następuje rozmywanie impulsów i powyżej częstości<b> 36 MHz</b> (milionów Herców czyli impulsów w czasie jednej sekundy - wyobraź to sobie !!!) nie można ich już odróżnić od siebie. Następuje również zmiana natężenia impulsów wraz ze zmianą częstości. Wyjaśnienia naukowe wydają siębyć kompletnie niedorzeczne właśnie przy wysokich częstotliwościach. Oto kilka różnych sygnałów które zapewne podziałają na wyobraźnię. Ja słyszę tam czyste impulsy elektryczne. Nic wspólnego z obrotami jakichkolwiek obiektów. Choćby z powodu harmonicznych które są zapisane w niektórych z tych sygnałów. Od najwolniejszego do najszybszego.</div><div><br /></div><div><br /></div><div><a href="https://www.parkes.atnf.csiro.au/people/sar049/eternal_life/supernova/0329.wav" target="_blank">https://www.parkes.atnf.csiro.au/people/sar049/eternal_life/supernova/0329.wav</a><br /></div><div><br /></div><div><a href="https://www.parkes.atnf.csiro.au/people/sar049/eternal_life/supernova/vela.wav" target="_blank">https://www.parkes.atnf.csiro.au/people/sar049/eternal_life/supernova/vela.wav</a></div><div><br /></div><div><a href="https://www.parkes.atnf.csiro.au/people/sar049/eternal_life/supernova/crab.wav" target="_blank">https://www.parkes.atnf.csiro.au/people/sar049/eternal_life/supernova/crab.wav</a><br /></div><div><br /></div><div><a href="https://www.parkes.atnf.csiro.au/people/sar049/eternal_life/supernova/J0437.wav" target="_blank">https://www.parkes.atnf.csiro.au/people/sar049/eternal_life/supernova/J0437.wav</a><br /></div><div><br /></div><div><a href="https://www.parkes.atnf.csiro.au/people/sar049/eternal_life/supernova/1937.wav" target="_blank">https://www.parkes.atnf.csiro.au/people/sar049/eternal_life/supernova/1937.wav</a><br /></div><div><br /></div><div><br /></div><div>Dla kilku pulsarów udało się wyznaczyć widma emitowanego promieniowania, które są jednak różne. U wszystkich przy częstościach większych od 100 MHz następuje gwałtowne zmniejszenie mocy sygnału. O natężeniu pola magnetycznego, a zatem i mechanizmie promieniowania, można wnioskować na podstawie pomiarów polaryzacji sygnałów, które wykazały, że promieniowanie pulsarów typu D jest słabo spolaryzowane, podczas gdy impulsy pulsarów typu S mogą być zarówno słabo, jak i silnie spolaryzowane. Polaryzacja impulsów pulsarów typu S i C nie ulega zmianie w czasie trwania impulsu. Dla pulsarów typu D płaszczyzna polaryzacji ulega ciągłym zmianom w trakcie poszczególnych impulsów. Poszczególne impulsy pulsarów wszystkich typów są również częściowo spolaryzowane kołowo. Przypuszczano początkowo, że polaryzacja zmienia się przypadkowo podczas kolejnych impulsów. Średnia wartość polaryzacji kołowej dla większości pulsarów nie znika jednak i czasem sięga nawet 30%. Mimo że polaryzacja liniowa, jak i kołowa nie zależą od częstości, zależy od niej wielkość skręcenia płaszczyzny polaryzacji emitowanego promieniowania. </div><div><b><br /></b></div><div><b>Własności polaryzacyjne impulsów NIE POZWALAJĄ jednoznacznie określić mechanizmu promieniowania.</b></div><div><b><br /></b></div><div>Jednak rozpatrując to co wiemy wg. Teorii Wszechświata Elektrycznego, który wydaje się być o wiele bardziej zrozumiały dla przeciętnego człowieka, natura pulsarów jest inna, ponieważ pulsacje tłumaczy się obecnie rzekomą hiper szybką rotacją pojedynczej gwiazdy, a w istocie jest to spowodowane przez rotację gwiazd plazmoidów w układzie podwójnym i wymianę impulsów elektryczncyh w takt nawet bardzo wysokich częstotliwości. Podobnie jak opisywane tu elektryczne układy podwójne np Jowisz - Io, jednak o daleko większej intensyfikacji parametrów zjawisk elektrycznych. Są to najwyraźniej generatory o różnej częstotliwości naprzemiennych wyładowań elektrycznych ładunku nagromadzonego przez rotację w których obojętnie z jakiej przyczyny, czy to wybuchu supernowej czy z powodu wyrzucenia przez galaktykę z powodu bliskiej odległości nazwijmy je "gwiazdoidów", podczas ich rotacji w kontakcie z (cząsteczkową) przestrzenią, następuje gromadzenie, polaryzacja i naprzemienna wymiana potencjału elektrycznego w postaci przeskoku łuku elektrycznego, tak jak w elektronicznym generatorze sygnałowym. Impulsy te mogą być krótsze lub dłuższe czy też mniej lub bardziej stabilne w zależności od lokalnych zakłóceń przewodnictwa plazmy w okolicy omawianych gwiazd, oraz na i/lub nad powierzchnią pomiędzy gwiazdami co tłumaczyłoby zniekształcenia emitowanego w przestrzeń sygnału. Można powiedzieć że pulsar to swoisty, naturalny elektroniczny generator kosmiczny. Naturalna radiolatarnia dla orientacji w międzygwiezdnej komunikacji pasażerskiej lub transportu towarowego. Natomiast jeśli neutrony podawane jako ich budulec potraktujemy jako formę gazu szlachetnego to nie ma podstaw uważać że tak zbudowana gwiazda ma prawo zaistnieć. W teorii Wszechświata elektrycznego zasadniczo materia nie oddziałuje inaczej niż elektrycznie a więc neutrony pozostaną w dalszym ciągu neutronami, obojętnie którą z sił elektryczncyh użyjemy a poza tym gwiazdy nie mogą składać się wyłącznie z gazu czy cieczy. Podobnie jak planety czy księżyce. To tak nie działa. Zawsze w konsekwencji na pewnej głębokości w kierunku jądra ciała niebieskiego, pojawia się ciekła a ostatecznie stała plastyczna lub w końcu lita powierzchnia, z tym że w przypadku małych gwiazd, jest to także stała metaliczna powierzchnia ukryta nieco poniżej elektrycznej korony danej gwiazdy. Gwiazdy bez metalicznej struktury pod powierzchnią, nigdy nie będą indukować prądów z pola elektromagnetycznego galaktyki aby w konsekwencji świecić. Fuzja termojądrowa jako proces produkcji energii oczywiście nie działa i nigdy nigdzie nie miała miejsca. <div><br /></div><div><br /><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><iframe allowfullscreen="" class="BLOG_video_class" height="419" src="https://www.youtube.com/embed/nBxn6QGWJNM" width="504" youtube-src-id="nBxn6QGWJNM"></iframe></div><br /></div></div></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div>Astrofizycy rejestrują także obiekty które rozbłyskują, emitując niezwykle silne promieniowanie gamma i rentgenowskie. Energia ta jest według ich wyliczeń bardzo silna, miliony razy większa niż przy wybuchu supernowej. Wybuchy powtarzają się pulsacyjnie co kilka sekund. W odróżnieniu od <a href="http://fizyka.net.pl/astronomia/astronomia_za.html">błysków gamma</a> (tzw. Gamma-Ray-Bursts) zjawisko to może się powtarzać co jakiś czas. Po każdym cyklu wybuchów następuje spowolnienie częstotliwości impulsów.<br />Pierwszy taki obiekt, oznaczony symbolem SRG 0526-66 zaobserwowano w 1979 roku. Do tej pory odkryto kilkanaście kandydatów na magnetary, ale powtarzalne impulsy wykryto tylko u czterech obiektów. Najciekawszym magnetarem jest odkryty w 1979 roku obiekt SGR 1900+14. Zarejestrowano trzy jego rozbłyski. Największą serię rozbłysków zaobserwowano w 1998 roku. Najpierw nastąpił gigantyczny rozbłysk trwający krócej niż sekundę, a następnie regularnie nadeszła cała seria impulsów, trwających 5,16 sekundy każdy.<br /><br /><br /><br /><br /><br /><br /><br /><br /><br /><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEh7HuYZzdpJ8iuDgGBzkt2-pZOpwcasTLB-2g-UgeSW62mtgXCK9ucuVz6EJZRgtIEPnS1RjmUPTH-JEZiEe3cJqAEqpQ-IgnIm8Vmwyxg8pFdJAYyoGq-FokaH7Bx1NdSpb3OSxtaYkxyO5NGmIQ84aqRud_rSBSc7iOIopRmB4j3cehYQi5grOWHH/s292/xmagnetar1.jpg.pagespeed.ic.QDabVnkx2L.webp" imageanchor="1" style="margin-left: 1em; margin-right: 1em; text-align: center;"><img border="0" data-original-height="260" data-original-width="292" height="356" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEh7HuYZzdpJ8iuDgGBzkt2-pZOpwcasTLB-2g-UgeSW62mtgXCK9ucuVz6EJZRgtIEPnS1RjmUPTH-JEZiEe3cJqAEqpQ-IgnIm8Vmwyxg8pFdJAYyoGq-FokaH7Bx1NdSpb3OSxtaYkxyO5NGmIQ84aqRud_rSBSc7iOIopRmB4j3cehYQi5grOWHH/w400-h356/xmagnetar1.jpg.pagespeed.ic.QDabVnkx2L.webp" width="400" /></a><br /><br /><div>Artystyczny obraz magnetara, niebieskie linie pokazują, jak biegną pętle silnego pola magnetycznego.</div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br />27 grudnia 2004 roku satelity i teleskopy naziemne odnotowały najsilniejszy do tej pory sygnał powstały w wyniku emisji - "wybuchu" magnetara. Źródłem okazała się obdarzona ogromnym polem magnetycznym tak zwana <a href="http://fizyka.net.pl/astronomia/astronomia_oa5.html#p">gwiazda neutronowa</a> czyli pulsar o nazwie SGR 1806-20, która znajduje się 50 tysięcy lat świetlnych od Ziemi po drugiej stronie <a href="http://fizyka.net.pl/astronomia/astronomia_oa9.html#2">Drogi Mlecznej</a>. Już od wielu lat z kierunku tej gwiazdy rejestrowano słabe błyski promieni <a href="http://fizyka.net.pl/ciekawostki/m_ciekawostki.html">rentgenowskich</a> i <a href="http://fizyka.net.pl/ciekawostki/m_ciekawostki.html">gamma</a>. Obiekt ma rozmiary tylko 20 kilometrów, masę około 1,5 masy Słońca i wiruje, wykonując jeden obrót na 7,5 sekundy. Eksplozja wyrzuciła materię z prędkością 100 tysięcy kilometrów na sekundę, co spowodowało ogrzanie cząstek do ogromnych energii. W tym czasie zjawisko było tak silne, że w ciągu dwóch dziesiątych sekundy wyemitowało więcej energii niż Słońce przez 100 tysięcy lat. <br />Twierdzi się że tak duża energia rozbłysków możliwa jest tylko wśród źródła bardzo osobliwego - <a href="http://fizyka.net.pl/astronomia/astronomia_oa4.html">czarnej dziury</a> bądź <a href="http://fizyka.net.pl/astronomia/astronomia_oa5.html#p">gwiazdy neutronowej</a>. Dodatkowo dla kilku obiektów wyznaczono położenie magnetarów w pobliżu wybuchu <a href="http://fizyka.net.pl/astronomia/astronomia_oa.html">supernowych</a>, po których pozostaje <a href="http://fizyka.net.pl/astronomia/astronomia_oa5.html#p">gwiazda neutronowa</a> lub <a href="http://fizyka.net.pl/astronomia/astronomia_oa4.html">czarna dziura</a>. Czarna dziura nie ma żadnej struktury wewnętrznej, wobec tego nie mogą wychodzić z niej regularne sygnały. Najprawdopodobniej rozbłyski związane są więc ze zjawiskami zachodzącymi w gwiazdach neutronowych. Obecnie sądzi się, że magnetary to bardzo szybko obracające się gwiazdy neutronowe (składają się z samych neutronów a zewnętrzną skorupę prawdopodobnie tworzą ciasno ułożone jądra atomów żelaza), w których powstaje super silne pole magnetyczne. Linie pola w jej wnętrzu ulegają skręceniu i splątaniu. Stabilny magnetar otoczony jest kokonem linii pola,<br />poskręcanych na zewnątrz i gładkich na zewnątrz może emitować wąski snop promieniowania radiowego i dlatego nie możemy go zarejestrować na Ziemi (zwykły pulsar obracający się wolniej emituje szeroką wiązkę promieniowania radiowego, które łatwo może być zarejestrowane przez radioteleskopy).</div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjpziXogLmCk8NaSlHfskCoEuxueVrDS3Ql5BpVBauY2VeNihY2qHIhfo7RGLlgFkJuVGvUTpLlU8UNOmc6-ITkiwqBb56ZKbOMYyPEJt-7oB64vArNXGS4p9-R8VLzwC7-icmWuqokjSWPx9wo6Jaht0p8xwEFegVr-Bf9R0whnRM0iEZTJi2L7cKy/s274/xrozblysk1998.gif.pagespeed.ic.A5TrKyBvcf.webp" imageanchor="1" style="margin-left: 1em; margin-right: 1em;"><img border="0" data-original-height="274" data-original-width="262" height="400" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjpziXogLmCk8NaSlHfskCoEuxueVrDS3Ql5BpVBauY2VeNihY2qHIhfo7RGLlgFkJuVGvUTpLlU8UNOmc6-ITkiwqBb56ZKbOMYyPEJt-7oB64vArNXGS4p9-R8VLzwC7-icmWuqokjSWPx9wo6Jaht0p8xwEFegVr-Bf9R0whnRM0iEZTJi2L7cKy/w382-h400/xrozblysk1998.gif.pagespeed.ic.A5TrKyBvcf.webp" width="382" /></a></div><br /><div>Gigantyczny rozbłysk obiektu SRG 1900+14 w sierpniu 1998 roku.</div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br />W 1996 roku naukowcy z Los Almos Laboratory zwrócili uwagę, że powtarzalne źródła gamma są pod względem statystycznym podobne do trzęsień ziemi. To pozwoliło opracować prawdopodobny model magnetarów. Sądzi się, że niezwykle silne pole magnetyczne gwiazdy powoduje pęknięcie jej sztywnej skorupy. Podczas takiego "trzęsienia gwiazdy" wyzwolona zostaje olbrzymia ilość energii.<br />Zjawisko to możemy sobie wyobrazić następująco:<br />- przez dłuższy czas magnetar nie wykazuje żadnej aktywności, wywołane przez pole magnetyczne naprężenia w jego wnętrzu powoli narastają,<br />- gdy naprężenia w skorupie przekroczą jej wytrzymałości to skorupa nagle pęka, rozpadając się przypuszczalnie na wiele małych kawałków,<br />- wygenerowuje się silny impuls prądu elektrycznego, który zanikając, pozostawia gorącą kulę ognistą,<br />- kula ognista szybko ochładza się, emitując ze swojej powierzchni regularne impulsy promieniowania rentgenowskiego i gamma i w ciągu kilku minut zanika.<br />Po każdym cyklu obiekt obraca się wolniej co zaobserwowano dla obiektu SRG 1900+14 i dlatego rejestrowane obecnie okresy impulsów są rzędu kilku sekund. Po dłuższym czasie zjawisko powtarza się. Z czasem magnetar ostyga i jego pole magnetyczne staje się słabsze i emituje on znikome ilości energii. Szacuje się, że już po 10 tysiącach lat od powstania szybko obracającej się gwiazdy neutronowej w wybuchu supernowej, przestaje być magnetarem (zwykły pulsar przestaje wykazywać aktywność radiową dopiero po 10 milionach lat). </div><div>Nauka twierdzi więc że żywot magnetara jest więc krótki, z czego wynika, że miliony wygasłych obiektów tego typu znajduje się pewnie w naszej galaktyce. </div></div><div><br /></div><div>Porównując pulsary z magnetarami , czym się one właściwie różnią między sobą? Wydają się to być bardzo podobne obiekty. Jedyna róznica to słabsze pole elektromagnetyczne pulsarów i wysoka częstotliwość syganłu aż do widzialnego. W przypadku magnetarów jest odwrotnie. Silne pole elektromagnetyczne i niska częstotliwość emisji impulsów. </div><div>Problem naukowców polega na tym że pojęcie przestrzeni kosmicznej i zachodzących tam zjawisk mają sfokusowane na struktury fizyczne złożone z ciał stałych , cieczy i gazów. Nikt nie dopuszcza istnienia w wielkiej przestrzeni kosmicznej pośród wielkich obiektów gwiazdowych i galaktycznych, jeszcze większych zjawisk elektryczncyh i plazmowych.</div><div>Zarówno pulsary jak i magnetary mogą być obiektami pochodzenia plazmoidalnego lecz o nieco rozmijającytch się parametrach elektrycznych lub wręcz elektronicznych bo takie plazmowe obiekty czy układy obiektów śmiało możemy rozpatrywać jako rodzaj gigantycznych sieci i układów elektronicznych o różnym czasie ładowania i rozładowania energii - oczywiście elektrycznej. Kto ma wiedzę w tym zakresie porówna takie obiekty do różnego typu elektronicznych generatorów impulsowych, zamiast szybko a wręcz absurdalnie szybko obracających się ciał niebieskich. Niech wreszcie astrofizycy zaczną studiować elektronikę. </div><div><br /></div><div><br /></div><div><br /></div></div><div class="blogger-post-footer">„Analfabetami XXI wieku nie będą ci, którzy nie umieją pisać ani czytać, lecz ci, co nie potrafią oduczyć się wierutnych kłamstw, w które nauczono ich wierzyć i nie potrafią szukać ukrytej wiedzy, którą nauczono ich odrzucać”</div>#magnetartechprojecthttp://www.blogger.com/profile/00116426320285930090noreply@blogger.com0tag:blogger.com,1999:blog-1727701247933515471.post-36888048989313207382022-05-15T15:46:00.077+02:002024-02-17T12:10:15.574+01:00Prawdziwa eteryczna struktura przestrzeni<p></p><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEj9lPJua3OTYFyDHplXT8d3Bp2bYqk4tx0nj-jEQakZCuSJh73xSnZDHSMVQM0zow4bREt-Lv1z48d0w0JOl98V96JlPttHlDsYcsj6B-VGjDEb8JRRuk7ywq3HGeFwOwRKNVZdnweLnVAY7nx1CvYY-sT28nY1sE092H_3WWbD5unepNPlkk8jKJeq/s1008/20210819_091316.jpg" style="margin-left: 1em; margin-right: 1em;"><img border="0" data-original-height="996" data-original-width="1008" height="632" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEj9lPJua3OTYFyDHplXT8d3Bp2bYqk4tx0nj-jEQakZCuSJh73xSnZDHSMVQM0zow4bREt-Lv1z48d0w0JOl98V96JlPttHlDsYcsj6B-VGjDEb8JRRuk7ywq3HGeFwOwRKNVZdnweLnVAY7nx1CvYY-sT28nY1sE092H_3WWbD5unepNPlkk8jKJeq/w640-h632/20210819_091316.jpg" width="640" /></a></div><br /> Struktura światła w wodzie i przestrzeni kosmicznej to to samo zjawisko?<br /><br /><br /><br /><br /><br /><br />Chciałbym przedstawić alternatywną wizję struktury przestrzeni kosmicznej wg. mojej koncepcji. Skoro naukowcy mogą dowolnie improwizować w teoriach z czapki, uprawomocniając je przy pomocy jednej poszlaki (patrz red szift i Big Bang) to i ja mogę (w ramach wolności naukowej która oficjalnie oczywiście nie istnieje). <div>Począwszy od momentu ustalenia własności przestrzeni, wybrano opcję w której Wszechświat jest pusty, prawdopodobnie silny wpływ na naukę w tamtych czasach wywarł kryzys gospodarczy i energetyczny. To co udało mi się zebrać i przeanalizować z pełnych chaosu danych naukowych, dowodzi że, między innymi, obowiązująca dziś w astrofizyce teoria czarnych dziur jest straszliwie chybiona. Na początku założono na podstawie mizernego w sposobie, choć kluczowego, niezmiennie ślepo powtarzanego doświadczenia Michelsona - Morleya z 1887 roku, że istnieje całkowicie pusta przestrzeń kosmiczna. Nie opracowano wówczas właściwej metody doświadczalnej, wystarczającej do pomiaru właściwości całkowicie nieelektrycznych lub też quasi czy para elektrycznych w tzw. kosmicznej "próżni". Każdy chętny może takie doświadczenie opracować.</div><div>Strukturę "wypełniacza" czy wręcz "budulca" przestrzeni kosmicznej, możemy porównać do własności gazu który tym różni się od innych znanych i nie znanych gazów lżejszych od wodoru że jest wręcz pozbawiony sferycznej formy a przez zerową wykrywalność spowodowaną brakiem zarówno potencjału elektrycznego i pola magnetycznego uznaje się go błędnie jako cząstkę dualistycznej natury czy też rodzaj wirtualnej fali. Podchodząc czysto abstrakcyjnie, na zasadzie analogii możemy też wnioskować że w porównaniu z mało sprężystą cieczą jaką jest woda, czy jeszcze bardziej sprężystą atmosferą, fotonotwórcza zawartość kosmicznej przestrzeni jest najbardziej ściśliwą i elastyczną substancją z wszystkich tych pięciu (eter, plazma, gaz, ciecz, ciało stałe) stanów skupienia.</div><div><br /></div><div>Wyłącznie istnienie RUCHU, wywołującego różnicę ciśnień we wspomnianym "protopłynie" przestrzeni kosmicznej, jak i każdym innym stanie skupienia, w tym nawet ciała stałego- np. piezoelektryk), warunkuje powstanie potencjału elektrycznego czy jak to nauka tak klarownie co niezrozumiale mówi -"ładunku elektrycznego". Ładunku jako enigmatycznej nic nie wyjaśniającej formy słownej bo nikt nie wie co takiego i kto tam naładował. To przyczyna ruchu tego ładunku powinna być badana i poznane zamiast wyszukiwania pozornie nowych cząstek bo jak dotychczas, nie zbadano co powoduje cały ruch w naturze. Nie można oczekiwać że aparaturą pomiarową odkryjemy każdą cząsteczkę i właściwość przestrzeni, jeśli to właśnie przestrzeń z samej swej natury jest CZYSTO ELEKTRYCZNA W RUCHU a wręcz nieelektryczna gdy pozostaje w nieporuszeniu. To jest właśnie problem dla pomiaru. Moim zdaniem to po prostu czysta świadomość Wszechświata jako zbiorowa kosmiczna świadomość/ informacja czy umysł, wywołała pierwszy ruch i pobudza go do dzisiaj. Do tej pory nawet fizyka kwantowa nie odważyła się WPROST podjąć tego tematu. Mówi się coś o upiornym działaniu na odległość, świadomości fotonu podczas jego obserwacji czy superpozycji w fizyce kwantowej ale nic poza tym. A jeśli stwierdzamy fakt istnienia świadomości choćby przez to że wiemy o swoim własnym istnieniu, nie można formułując Teorię Wszystkiego takiego aspektu nawet próbować omijać. To co jest obecne w danym miejscu przestrzeni kosmicznej, należy spodziewać się we wszystkich pozostałych.</div><div>Pochopnie określając własności przestrzeni kosmicznej jest tak jakby za pomocą własnego mózgu próbować całkowicie zrozumieć... własny mózg. Dlatego przeprowadzić doświadczenie to jedno a GRUNTOWNIE przemyśleć i pojąć całość zdobytych informacji rozumem, to drugie...</div><p></p><p>Jest to struktura bez wielu niepotrzebnych udziwnień, jak traktuje o tym wydumana bezpodstawna teoria strun czy równie oczywista teoria wielkiego wybuchu, wynikających z ponoć klarownych równań matematycznych. Matematyka wcale nie musi odzwierciedlać natury i zwykle jeśli ją opisuje, to z błędami bo nie da się opisać prostym wzorem tysiąca różnych delikatnie wpływających na siebie czynników, choć prawo zawiadujące przestrzenią które wszyscy zawodowi i mniej zawodowi fizycy chcą odkryć, jest i musi być tylko jedno. Jednak jest ukryte na nie do końca fizycznym poziomie, ponieważ matematyką nie można opisać zjawiska istnienia oraz źródła pochodzenia świadomości czy po prostu ogólnie informacji obecnej w naturze, do których nie nawiązują niestety, wymienione teorie. To gruby minus bo pominięta zostaje największa enigma za pomocą której w ogóle zachodzi nasze i jakiekolwiek istnienie przez które mamy choćby możliwość badania rzeczywistości. Czyżby nauka bała się spojrzeć z tyłu najpierwszego narzędzia, za którego pomocą bada naturę? Świadomość jest obserwowalnym choć oficjalnie nie wyjaśnialnym FIZYCZNYM zjawiskiem bo występuje w przyrodzie zamaskowana w geometrycznym pięknie wszelkich naturalnych żywych a nawet nieożywionych struktur, co sprawia że wszystkie główne teorie fizyczne są co najmniej nieodpowiednie a nawet niewiarygodne jeśli przemilczają ten fakt, za którego stwierdzenie Giordano Bruno musiał zginąć z rąk inkwizytorów, z których działania wyewoluowała właśnie nowożytna "nauka". </p><p>Bo jeśli okaże się kiedyś dobitnie iż zamiast niedopracowanej ewolucji, to zasób informacji ukryty w oceanie świadomego, inteligentnego fluidu wypełniającego przestrzeń kosmiczną, w którym unosi się materia, jest fundamentem istnienia poprzez który wszystko się przejawia i samorealizuje którego odkrycie sprawia problemy nawet fizyce kwantowej, to jaki sens ma dzisiejsza szerokopojęta fizyka w tym kontekście? Żaden. Nie załatwia w 21 wieku nawet spraw technicznych jak choćby antygrawitacja a już pcha się w tematykę nic nie wnoszących do życia, krańców Wszechświata czy innych pustych dywagacji jak rzekoma wielowymiarowość przestrzeni.<br /><br />Wyobraźmy sobie teraz przestrzeń kosmiczną jako świadomy fluid podobny do oceanu na inteligentnej planecie opisanego w powieści Stanisława Lema "SOLARIS" i przedstawionego w filmie o tym samym tytule. Przestrzeń bez pojęcia czasu, którego natura przez swoją nieograniczoność i brak potrzeby pomiaru jakichkolwiek swoich procesów nie potrzebuje, tak jak nie potrzebuje ograniczeń dla przestrzeni kosmicznej. Z resztą w skali kosmicznej nie ma sensu pomiar zarówno wielkości przestrzeni, jak i pomiar czasu jej trwania bo zwyczajnie nikomu takie szacunki nie są potrzebne, bo i po co? Dla sportu? Zawsze będą niedo- lub przeszacowane. Nie takie szacunki są potrzebne. Przynajmniej nie przyszłym astronautom na etapie odkrywania Układu Słonecznego czy nawet naszej Galaktyki. </p><p>Niech ta wyobrażona przez nas na nowo przestrzeń będzie o trzech a nie dziesięciu wymiarach jak obecnie, lub niech raczej będzie w jednym trójwymiarze. Inne wymiary nie są w naturze potrzebne tak samo jak możliwość lotów kosmicznych przez fantastycznonaukowe "zaginanie" przestrzeni które również jest niemożliwe. Psułoby to koncept i spokój natury. Jeśli natura nie ma potrzeby zaginać przestrzeni (w jakim celu?) to z automatu my nie możemy tego zagięcia wykorzystać. To w ten sposób należy rozumieć możliwości jakie oferuje natura. Natura nie potrzebuje = my nie możemy użyć danej opcji bo NIE ISTNIEJE w przyrodzie. Po co naturze rolowana przestrzeń??? Za to przestrzeń świadoma monomorficzna nieruchoma struktura bez potencjału elektrycznego, w formie protofotonowego płynu w którym każdy ruch powoduje zawirowania, tworząc toroidalnie wirujące z różnymi prędkościami "bąble" które my obserwując, nazwaliśmy fotonami jest BARDDZO potrzebna. Bo to podkład choćby dla propagacji światła. Światła, promieniowania, pola elektromagnetycznego. Zapomnijmy także o jakimkolwiek dualizmie korpuskularno- falowym. Prędzej patrząc na matrycę natury powiedziałbym że skoro prenatalnie mamy wgląd że życie wyszło z wody i nauczyło się oddychać powietrzem, można przyjąć że schemat ewolucji będzie umożliwoał oddychanie i" pływanie" w OCZYWIŚCIE ŻE CZĄSTECZKOWEJ- BO FOTONOWEJ przestrzeni kosmicznej. Tak jak obecnie skarabeusze używają do lotu antygrawitacji, przed startem elektryzując odnóża, tak bio-humano-elektro-droid będzie lub już gdzieś w kosmosie jest zdolny oddychać i "pływać" elektrycznie w przestrzeni kosmicznej BEZ POJAZDU!! Jest to jak najbardziej możliwe, choć pewnie gdzieś pod koniec drogi rozwoju bioorganizmu Wszechświata. Podobnie jak "zielone ludziki" mają zapewne zdolność do oddychania wg mechanizmu > CO<span face="arial, sans-serif" style="background-color: white; color: #4d5156; font-size: 14px;">² </span><span face="arial, sans-serif" style="background-color: white; color: #4d5156; font-size: 14px;"> </span>> O<span face="arial, sans-serif" style="background-color: white; color: #4d5156; font-size: 14px;">²</span><span face="arial, sans-serif" style="background-color: white; color: #4d5156; font-size: 14px;"> </span>> CO<span face="arial, sans-serif" style="background-color: white; color: #4d5156; font-size: 14px;">² > </span>O<span face="arial, sans-serif" style="background-color: white; color: #4d5156; font-size: 14px;">² </span><span face="arial, sans-serif" style="background-color: white; color: #4d5156; font-size: 14px;"> </span>> w procesie fotosyntezy tlenu. Wtedy płuca będą zbędne bo dla zapewnienia ciągłości oddychania wystarczy jedynie zielona skóra z chlorofilem lub czymś o podobnych własnościach i światło wprost z aktualnie pobliskiej gwiazdy. Usta byłyby potrzebne tylko dla przyjmowania pożywienia a do porozumiewania się użyliby telepatii świetnie działającej wyłącznie gdy mamy transmiter świadomości w postaci całego Wszechświata. Wszystkie istoty świadome używają tylko jednej nierozerwalnej, niepodzielnej, monolitycznej świadomości czy pola informacji o wielkości Wszechświata, tak jak bakterie komunikują się w organizmie człowieka zależne od jego ogólnego stanu psychofizycznego. Nie istnieje reinkarnacja. Po prostu każda świadoma istota, czyli wyposażona w zmysły wzroku, słuchu i mobilności, myśli że jest odrębnym bytem a faktycznie w tym momencie świadomość Wszechświata nasłuchuje i patrzy KAŻDYMI dostępnymi OCZAMI na materialny wyraz okolicznej samej siebie. Dlatego świadomości nigdy do pliku nie zapiszemy. Jest to w tej sytuacji logicznie niemożliwe.</p><p>Wracając- każde promieniowanie to nie fala LUB cząstka a dookólna FALA CZĄSTEK, przypominająca swoją warstwową konstrukcją cebulę, powołana do ruchu innym ruchem, w tym początkowo promieniowaniem reliktowym, pod warunkiem że, jak nam mówią, dociera do obserwatora z każdej strony Wszechświata. Fala tak gęsta od cząsteczek że przypomina zwarty ale elastyczny monolit, w którym fale następują jako minimalne naprzemienne rozrzedzenia i zagęszczenia tych wewnątrz nieco odkształconych ruchem toroidalnych "bąbli", choć jeszcze nie magnetycznych monopoli. Gdy emitujesz sztuczne promieniowanie za pomocą anteny (jedyny działający choć otwarty obwód elektryczny) wywołujesz przepływ prądu (przez otaczającą go przestrzeń a więc także w przewodniku jest to przepływ fotonów). Antena jest tu po prostu pompą dla fotonów. Poruszasz dosłownie drobnocząsteczkową przestrzenią jak jakimś płynem. Można powiedzieć że "podkładem" rzeczywistości znajdującym się pod ciśnieniem. Stąd przez ścisłe ułożenie tych bezenergetycznych quasicząsteczek już przy minimalnych mocach możesz generować fale na znaczne odległości w tzw. "pustej" wg nauki przestrzeni. Jednak "gubią się" one docierając do materialnych obiektów jak choćby powierzchnia Ziemi o bardzo niskim potencjale, ponieważ wzbudzone fotony wtedy wychwytywane są w atomowe sieci orbitali ciał stałych. Najwięcej promieniowania pochłonie /zatrzyma właśnie ciało stałe z powodu dużej ilości zwartych orbitali. W tym oczywiście ciało człowieka zbudowane w 78 % z wody. Dlatego trzeba rozstawiać gęsto nowoczesne nadajniki telekomunikacyjne 4G i 5G bo ich częstotliwość zawiera się w paśmie 2,4 Ghz, co odpowiada częstotliwości rezonansowej cząsteczki wody powietrzu lub częstotliwości działania mikrofalówki. Przy złej pogodzie, duża wilgoć i deszcz w powietrzu silnie tłumi tę częstotliwość a sokoro tak to ciało człowieka również... To tak dla informacji. </p><p>Tak zwany ładunek elektryczny którego nauka nigdy dokładnie nie wyjaśniła, mówiąc nam że "elektrony" posiadają ładunek ujemny a "protony" dodatni, jest rodzajem zjawiska podobnego do erozji gleby gdzie erozja jawi się tam jako wyższy potencjał dla wygładzenia powierzchni gruntu planety po jego wypiętrzeniu (np. zderzeniem lub erozją elektryczną jaką widzimy na powierzchni Marsa- o tym w przyszłym poście) gdy mamy do czynienia ze skalistym ciałem stałym niwelowanym przy pomocy obecnej na nim cieczy lub też gazu. </p><p>Jeśli nie ma różnicy poziomów potencjału elektrycznego, prąd nie płynie. Różnica tworzy się przez zmiany ilości cząsteczek (fotonów) między dwoma przykładowymi punktami w przestrzeni która sama w sobie jest na wielkich przestrzeniach nawet niezłym izolatorem. Lecz w końcu wraz z odległością, wzrost potencjału jako subatomowego rodzaju ciśnienia stał się tak duży że w wyniku jakiegoś zawirowania (Promieniowanie Reliktowe/ Głos Pana- patrz S. Lem) kiedyś nastąpiło pierwsze samoistne przebicie, którego powtórzenia z powodu echa mogą zdarzać się gdzieś w większej kosmicznej pustce cały czas aż do dzisiaj. Kreacja materii następuje po przekroczeniu bariery, kiedy to następuje z początku niewidoczne, wywołane różnicą ilościową fotonów pomiędzy tymi punktami, niewykrywalne wielkoskalowe załamanie oporu i wyładowanie plazmowe. W wysokiej temperaturze, ciśnieniu i napięciu (co w istocie jest jednym i tym samym zjawiskiem wynikającym z różnicy ciśnień), jedne fotony (wirujące sfery o ściance trudniejszej do przeniknięcia niż ich wnętrze, ze względu na wysokie obroty) wdostały się do wnętrza drugich (prawdopodobnie dwa fotony wewnątrz trzeciego). Tak powstały pierwsze proste dipoloidalne materiozymale - ale już magnetyczne cząsteczki służące materii jako jądra atomowe. Wg mnie jest to najprostszy pierwiastek wcześniej obecny (a dziś już nie) w tablicy Mendelejewa i nazwany przez twórcę "koronyi". </p><p>Są to pierwsze złożone z tych cząstek orbitale a wraz z nimi... materialna strona Wszechświata w którego podobno pustej przestrzeni - nie tylko w materialnych orbitalach- odnajdziemy fotony w stanie wolnym. Celowo nie użyłem słowa "elektrony" ponieważ one nigdy nie istniały oprócz honorowego miejsca w ludzkiej dualistycznej wyobraźni. Na orbitalach niestety znajdziemy WYŁĄCZNIE fotony. Znajdziemy je także nawet w najprostszych materiozymalach magnetycznych w centrum atomu jak je tu określam z braku naukowej nomenklatury dla tego prostego tworu. W tym sensie rozbijanie cząstek w akceleratorach nie ma sensu. Nie takiej wiedzy potrzebujemy. Nie istnieją żadne gluony, kwarki i inne barwnie choć bezzasadnie ponazywane cząstki. Wszystkie one powstały na bazie niewłaściwego zrozumienia natury podczas procesów jej rozbicia które trwają ułamki sekund. Więc nie zobowiązują te procesy i twory w nich krótkotrwale powstałe do jakiegokolwiek nazywania ich. To są kawałki rozszarpanych pól elektromagnetycznych. A co tworzy te pola to już wiemy. Fluid Wszechświata który gdy nie poruszony- nie jest nawet fotonami...</p><p> Idąc dalej, w następnym kroku po pierwszych wyładowaniach, formują się włókna wzdłuż których poprzez skurcz plazmy pojawiają się galaktyki a w nich z kolei powstają gwiazdy. Pytanie pozostaje jedno. JAK to świadome COŚ które występuje tu pod postacią przestrzennego świadomego fluidu wywołało to pierwsze zaburzenie w fotonowej przestrzeni. Można i postawić drugie. Skąd wzięła się cała ta świadoma przestrzeń. Trzecie - jak gromadzi informacje które pozwalają odtwarzać podobne właściwościami żywe twory w całym Wszechświecie? Do udzielenia solidnej odpowiedzi potrzebne będą już nie tylko nawet astronautyczne podróże aby móc spojrzeć z zewnątrz tej struktury, co głęboki wgląd odpowiednio przygotowanych psychofizycznie medium parapsychologicznych w tą monolityczną świadomą strukturę.. O ile się da... Bez tego, będą to ciągłe bezowocne dywagacje.</p><p>Wszechświat funkcjonuje mechanicznie w oparciu o ciśnienie powstałe z ruchu wynikającego z początkowej wibracji nadającej materialnym cząstkom kształt dipoloidalny - biegunowy a podstawą technicznego zrozumienia i wykorzystania działania WSZYSTKICH sił we Wszechświecie jest istota powstałego w ten sposób pola elektromagnetycznego czyli wiru osiowego z płaszczyzną wyrzutu cząstek znajdującą się dokładnie w połowie pomiędzy biegunowymi lejami tego pola. Ta struktura której nie udało mi się do tej pory całkowicie zrozumieć, istnieje zarówno wewnątrz jądra atomu jak i na zewnątrz naszego świata w postaci pól elektromagnetycznych ciał niebieskich, To jest ta sama struktura wiru , wywoływana tym samym schematem, prawem natury. Na ziemskim równiku pomiędzy połówkami pola obserwujemy osłabienie tego pola ze względu na prostoliniowy silny wyrzut cząstek z wewnątrz pola. Nie przechodzą one w żadne z obu półsfer pola magnetycznego Ziemi. Giną w przestrzeni powodując efekt orbity geostacjonarnej. Odnoszę wrażenie że gdy obserwujemy jak, podobno fotonowe pola magnetyczne jednoimienne się nadciśnieniowo odpychają a różnoimienne podciśnieniowo przyciągają, są ukształtowane ostrzowo tak że powodują mimowolny ruch fotonów w kierunku ostrza, węższej strony tej struktury atomowej. Za taki efekt mogą być odpowiedzialne te pierwiastki których pojedynczy atom przypomina taki dipol swoim kształtem. </p><p>Sama zaś przestrzeń gdyby pozbawić ją tej startowej wibracji ze swym nieokreślonym źródłem, powodującym wysyp elektrycznych, plazmowych włókien, "jawi mi się tedy" piątym świadomym elementem (brakującym stanem skupienia) niewykrywalnym gdyż te quasi cząsteczki - "proto-fotony" NIE SĄ JESZCZE W RUCHU. Nie generuje ona potencjału możliwego do zmierzenia jakimkolwiek obecnie dostępnym przyrządem elektrycznym/pomiarowym. W przestrzeni takiej konstrukcji mamy możliwość łatwej, analogicznie z pozostałymi stanami skupienia, propagacji stałych pól grawitacyjnych i stałych pól magnetycznych, które są jej niskoenergetycznym ruchem. Także propagacji wysokoenergetycznego światła i zmiennych pól elektromagnetycznych. W tym kontekście rzekomo odkryte fale grawitacyjne mogą być jedynie zniekształceniem cząsteczkowej (wzbudzonej) przestrzeni w wyniku emisji promieniowania po wybuchu supernowej albo omyłkowo doń przypisanymi falami elektromagnetycznymi wynikłymi z rozszczepienia lub łączenia wirów czarnych dziur - osi wirowania spiralnych galaktyk o których pisałem w jednym z pierwszych postów. </p><p>Jeśli uznać fotony za rodzaj podstawowego, wysoko szlachetnego gazu, a zawsze mamy prawo to zrobić dla rzeczowej unifikacji tego naukowego bałaganu, bo niektóre z poczynionych przez człowieka naukowych podziałów w naturze, mogą wprowadzać więcej zamieszania niż porządku, to podobnie jak obserwujemy to w ziemskiej atmosferze, przy wielokrotnie większych odległościach następuje tłumienie promieniowania, w wyniku czego dociera do nas wyłącznie czerwona (działająca regeneracyjnie w przestrzeni kosmicznej barwa światła- <b><i>moim zdaniem nie przypadkowo</i></b>- patrz podróże kosmiczne w narażeniu na promieniowanie, stąd też tak jest dobrany kolor pisma mojego bloga).</p><p>Galaktyka Andromedy w tym świetle, nie zbliża się lecz przekazuje nam <b><i>całe</i></b> dostępne promieniowanie z przewagą nadfioletowego promieniowania czego powodem jest wyłącznie jej bliskie położenie względem naszej galaktyki Drogi Mlecznej. Dlaczego czepiam się Andromedy? Bo jest to jednocześnie najbliższa i jednocześnie jedyna galaktyka która mruga do nas prowokacyjnie w nadfiolecie, tak jak ja prowokacyjnie piszę ten post. Ona wcale się nie zbliża. Przez cząsteczkową strukturę przestrzeni przy tak "minimalnej" odległości bez trudu przebija się do nas <b>KAŻDE</b> wysyłane z niej promieniowanie w każdej możliwej nadanej częstotliwości. Tylko przez zwiększający się opór przewodnika jakim jest coraz dalsza przestrzeń kosmiczna "gasną" wszystkie wyzsze wibracje. Podobnie jak jest to z dźwiękiem w atmosferze. Bas wystarczy umieścić byle gdzie a będzie słyszalny, natomiast głośniki z wysokimi dźwiękami trzeba dublować co jakiś odcinek odległości. Być może tak jak nie możemy za pomocą słuchu skutecznie wyodrębnić źródła dźwięku niskich częstotliwości, tak samo analogicznie, nie ma możliwości odnalezienia źródła propagacji promieniowania reliktowego...</p><p>Każda cząsteczka powyżej fotonu czyli jego bardziej złożonych kombinacji zwanych energią czy pierwiastkami, jest wirującym i przemieszczającym się z różnymi prędkościami i różnej ilości warstwami a więc i energiami, dwu- lub multi- toroidalnym polem elektromagnetycznym, które w zestawieniu z podobnymi cząsteczkami tworzy oprócz materii, zmienne fale elektromagnetyczne o różnych częstotliwościach lub stałe pola magnetosferyczne. Przy odpowiednio dobranych częstotliwościach generacji, można za pomocą fal elektromagnetycznych rozproszyć do postaci podstawowych cząsteczek fotonowych, wszystkie stany skupienia, nawet ciała stałe. Każdy kawałek materii w istocie jest przezroczysty. Jego widzialność zależy jedynie od promieniowania którym zostanie oświetlony. Nie ma tu tak na prawdę i nigdy nie było wyraźnych granic, nie ma sensu podział na osobne elementy, który zakłóca zrozumienie istoty Wszechświata jako ściśle połączonej i bezzwłocznie reaktywnej całości.</p><p>Problem doboru bezpiecznego promieniowania do budowanej technologii w świetle powyższego opisu zależy od częstotliwości która nie powoduje dekonstrukcji orbitali fotonowych. Dekonstrukcja może zachodzić zarówno przez doładowywanie walencyjnych powłok zewnętrznych jak i ich rozrywanie w przypadku pierwiastków o wiązaniach aktywnych chemicznie. Na tej podstawie można domniemywać że równie łatwy jest proces uaktywniania pierwiastków całkowicie szlachetnych lub rozdziału złożonych substancji za pomocą odpowiednio dobranych częstotliwości. Pomyśl tu o sieciach telefonii komórkowej lub choćby o możliwości wyodrębnienia tlenu z CO2 dla poprawienia mobilności kombinezonów astronautycznych.</p><p>Cały Wszechświat w istocie przypomina jeden wielki żywy i świadomy organizm, tylko że z naszej mikro perspektywy nie widać czy jesteśmy bakteriami czy roztoczami na plecach większego organizmu skoro gigantyczne mgławice przypominają komórki z wakuolami a pod mikroskopem z kolei wszystko wydaje się równie symilarne. <br /> Warto rozważyć czym jest spowodowana siła nakłaniająca do wirowania i ruchu cząsteczki fotonów jak ich bardziej złożone fraktalne struktury zwane atomami. Prawdopodobnie to co nauka odkryła nazywając promieniowaniem reliktowym, pobudza wibracjami fotony uwięzione w materii jednocześnie ją tworzące, do pozostawania w aktualnym stanie energetycznym. Jednak zaniżenie poziomu wibracji może powodować że fotony budulcowe przestrzeni staną się zupełnie nie rejestrowalnym elektrycznie bytem, i wydaje się, jakby przestrzeń będąc bez dostępu reliktowego promieniowania dążyła samoistnie i świadomie do tego aby stać się największym jak to tylko możliwe w takich warunkach, nierozdzielnym monolitem tej konstruującej wszystko świadomości. </p><p>W tym sensie daremne moim zdaniem jest rozbijanie materii w LHC czy THC ponieważ struktury odkryte jako rzekome kwarki nie mogą samodzielnie istnieć w naturze. Powstają w czasie eksperymentu tak samo jak nietrwałe pierwiastki np. Technet. W niczym nie biorą one udziału poza przypadkiem destrukcji aby zaraz zniknąć w tle przestrzeni. Notabene rzekome kwarki, elektrony, grawitony, jak i fotony wydają się być po zebraniu i porównaniu informacji, tą samą cząsteczką ponieważ są tej samej (nauka mówi że punktowej lub nieokreślonej) średnicy. Więc jaki jest też sens je osobno nazywać? Jak podoba się Wam ta oto prosta wizja jak Brzytwa Ockhama? Teoria Wszystkiego to nie jest, bo nie mogę przeniknąć zjawiska świadomości które tworzy pole fotonowe zwane przez nas przestrzenią. Ale gdyby tak (jakimś cudem) zamiast kolejnych wojen, wszystkie narody zrzuciły fundusze na masową elektroastronautykę, wtedy patrząc na Wszechświat spoza gęstych gromad galaktyk i dzieląc się wrażeniami z podróży, można by było zrozumieć znacznie więcej...</p><p><br /></p><p><br /></p><p><br /></p><p><br /></p><p><br /></p><div class="blogger-post-footer">„Analfabetami XXI wieku nie będą ci, którzy nie umieją pisać ani czytać, lecz ci, co nie potrafią oduczyć się wierutnych kłamstw, w które nauczono ich wierzyć i nie potrafią szukać ukrytej wiedzy, którą nauczono ich odrzucać”</div>#magnetartechprojecthttp://www.blogger.com/profile/00116426320285930090noreply@blogger.com0tag:blogger.com,1999:blog-1727701247933515471.post-7406641862941160242022-04-23T21:34:00.034+02:002023-02-27T23:31:57.281+01:00Wysokonapięciowa przestrzeń kosmiczna <br /><p><br /></p><p><br /></p><p><br /></p><br /><span style="font-family: inherit;">Każdy zawodowy astronauta powinien mieć jakieś pojęcie elektryczne, wiedzieć co to jest plazma i dlaczego Wszechświat jest przede wszystkim ELEKTRYCZNY. Astrofizyk nie studiujący zjawisk elektrycznych , nie ma bladego pojęcia co dzieje się w przestrzeni kosmicznej. Wskazane byłoby także chociaż jakieś minimalne przeszkolenie potencjalnego astronauty w tym kierunku. Dawniej każdy kapłan biorący udział w obsłudze biblijnej "Arki Przymierza" musiał mieć pojęcie o elektryczności. Inaczej praca w pobliżu i w kontakcie z urządzeniem elektrycznym mogłaby go zabić tak jak to się działo z osobami postronnymi zapewne wtedy i w obecnych czasach. Przykładowo jak z pakistańskimi amatorami pozującymi do zdjęć na dachu wagonu kolejowego. </span><div><span style="font-family: inherit;"><br /></span></div><div><span style="font-family: inherit;">Przestrzeń kosmiczną należy rozumieć jako niezły kawał przewodnika elektrycznego tyle że o najwyższej oporności ze wszystkich dostępnych substancji. Wszystkie substancje są w pewnej mierze przewodnikami jak też izolatorami. Za przenoszenie energii odpowiadają fotony. Bez wyjątku o jakim rodzaju energii czy oddziaływania mówimy. Materia zbudowana jest z fotonów przechwyconych na atomowych orbitalach. Nie istnieją elektrony. Za elektrony wzięto mylnie orbitale atomowe które są wirami elektromagnetycznymi pełnymi fotonów. Tak ajk z resztą wszystkie inne pola elektromagnetyczne. W tym kontekście przestrzeń która potrzebuje transmitera energii świetlnej, cieplnej jak i pozostałych, jest przewodnikiem </span>wypełnionym fotonami <span style="font-family: inherit;">o nieokreślenie ogromnym potencjale elektrycznym ponieważ przekrój przewodnika jest nam nie znany. I mimo że fotony są określone jako bez-masowe oraz nieelektryczne to nie jest tak do końca. Sprawdźmy przewodność elektryczną tak zwanej próżni </span>-8,84·10−12 F/m. Jeśli tak zwana próżnia ma swoją przenikalność elektryczną to jednak nie jest to próżnia. Gdyby przestrzeń kosmiczna była próżnią bez jakiejkolwiek cząsteczki NIE POWINNA W OGÓLE PRZEWODZIĆ GRAMA ENERGII!! Jeśli przestrzeń kosmiczna ulega przebiciu elektrycznemu to znaczy że jest tam materiał który temu przebiciu ulega.</div><div><div>Nie mówię tu o odwracaniu uwagi jakie stosują lemingi nauki mówiąc że w przestrzeni nie ma próżni bo mamy przecież cząsteczki typu gazy, pyły, itp które spotyka się raz na centymetr czy metr. To nie o to mi chodzi. To nie spowoduje przeniesienia ładunku "elektrycznego". Mówię o obecności fotonów umieszczonych jeden przy drugim, będących w stanie bardzo niskiego potencjału. Można też równie dobrze powiedzieć że gdy fotony nie są w ruchu wtedy przestrzeń jest monolitem wypełnionym jednorodną substancją. Można uformować twierdzenie że "ładunek elektryczny to jest zdolność do przenoszenia poprzez fotony, energii elektrycznej z punktu o większej ich ilości do punktu o ilości mniejszej".</div><div>W pozornie pustej monolitycznej przestrzeni jako pierwszym stanie skupienia, fotonowa przestrzeń którą pod względem strukturalnym możemy opisać jako jeden nieruchomy foton w stanie niskiej energii mamy jeszcze takie zjawisko jak plazma. </div><div><span style="font-family: inherit;">Plazma to drugi stan skupienia występujący we Wszechświecie w wielokrotnie większej ilości niż następujące po nim gazy, ciecze czy występujący w najmniejszej ilości 5-ty stan stały. Oczywiście odwraca to teorię Big Bangu jak kota ogonem, według której do dziś plazmy pozostało najmniej ze wszystkich stanów skupienia.<br /> Zgodnie z obecną fizyką "kiedy jeden lub więcej zewnętrznych walencyjnych elektronów (chmur fotonowych = orbitali - przypis mój) zostanie oddzielonych od atomu, mówimy, że atom jest zjonizowany. Wykazuje wówczas dodatni ładunek elektryczny, i jest zwany jonem dodatnim. <br />Z drugiej strony, jeśli dodatkowy elektron (chmura fotonowa) jest dodany do obojętnego elektrycznie atomu, zyskuje on ładunek ujemny, i jest nazywany jonem ujemnym."</span><div><span style="font-family: inherit;">Siły elektryczne pomiędzy jonami o różnym potencjale są rzędy wielkości większe, niż siły mechaniczne, np wytwarzane grawitacją (jest to tylko stały słaby wielkopowierzchniowy prąd protofotonowy). Elektryczna plazma jest chmurą "jonów" i "elektronów" (wszystko zbudowane z fotonów), które, na skutek wzbudzenia pod wpływem pól elektromagnetycznych, mogą zaświecić i zachowywać się w niezwykły sposób. <br />Najbardziej znanymi przykładami elektrycznej plazmy są lampy neonowe, błyskawice czy spawarka. Ziemska jonosfera jest przykładem plazmy, która nie emituje widzialnego światła. Plazma wypełnia przestrzeń naszego Układu Słonecznego. Chmura cząstek tworzących wiatr słoneczny jest plazmą. Cała nasza Droga Mleczna składa się głównie z plazmy. W rzeczywistości, 99% widzialnego materialnego Wszechświata jest plazmą a astro</span><span style="font-family: inherit;">nauci jakby tego wszystkiego było mało, twierdzą że </span><span style="font-family: inherit;">przestrzeń kosmiczna śmierdzi SPALONYM M</span><span style="font-family: inherit;">ETALEM! Więc przestrzeń kosmiczna jest typowo elektrycznym zjawiskiem W CAŁOŚCI z małymi wyjątkami na powierzchnie żywych biologicznie planet i może gdzieś tam większych księżyców.</span><div><span style="font-family: inherit;"><br /></span></div><div><span style="font-family: inherit;"><br /></span></div><div><span style="font-family: inherit;"><br /></span></div><div><span style="font-family: inherit;"><br /></span></div><div><span style="font-family: inherit;"><br /></span></div><div><span style="font-family: inherit;"><br /></span></div><div><span style="font-family: inherit;"><br /></span></div><div><span style="font-family: inherit;"><br /></span></div><div><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEj6HFBvAvUKDKZJ2bWYmJ3wVW1jO0RUvRn4cNL4Bq7zMo_48cre2YQZ99Wnx6z0bimYMnyeuCQfaGIUO9pDzHsa69Y6m0zsxpLqUXMjqYbNWOfB37H4-WP0UymkeCUO_TCEuwKAPCOALDZmFwOjhdszoHodo4cFAm_WmjeA82tlLcl_-c85ohV8FZlU/s384/Birk.gif" style="margin-left: 1em; margin-right: 1em;"><img border="0" data-original-height="301" data-original-width="384" height="502" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEj6HFBvAvUKDKZJ2bWYmJ3wVW1jO0RUvRn4cNL4Bq7zMo_48cre2YQZ99Wnx6z0bimYMnyeuCQfaGIUO9pDzHsa69Y6m0zsxpLqUXMjqYbNWOfB37H4-WP0UymkeCUO_TCEuwKAPCOALDZmFwOjhdszoHodo4cFAm_WmjeA82tlLcl_-c85ohV8FZlU/w640-h502/Birk.gif" width="640" /></a></div><span style="font-family: inherit;"><br /></span></div><div><span style="font-family: inherit;">Na zdjęciu Kristian Birkeland w swoim laboratorium.</span></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><span style="font-family: inherit;"><br />Pod koniec XIX wieku, Norweg, fizyk, Kristian Birkeland wyjaśnił, że powodem dla którego widzimy zorze polarne, jest ich plazmowa natura. Odkrył również zwinięte, korkociągowe ścieżki prądu elektrycznego w plazmie. Czasami są one widoczne, czasem nie - zależy to od gęstości prądu w plazmie. Dzisiaj, te strugi jonów i elektronów nazywane są prądami Birkelanda. Tajemnicze Ognie Świętego Elma, elfy, dżety i niebieskie fontanny, związane z burzami elektrycznymi na Ziemi, są przykładami takich właśnie prądów biorących początek w plazmie górnej atmosfery.<br />Na początku XX wieku, laureat nagrody Nobla, Irwing Langmuir, studiował elektryczną plazmę w swoim laboratorium w General Electric. Rozwinął on wiedzę na temat inicjowania prądów Birkelanda. W istocie to on pierwszy użył słowa plazma na określenie niemal BIOLOGICZNEGO (osobiście uważam że plazma jest nie </span>tyle biologiczna <span style="font-family: inherit;">co nawet świadoma, tak samo jak cała przestrzeń jest monolitem świadomości) , samoorganizującego się zjonizowanego gazu, w obecności prądów elektrycznych i pól magnetycznych.</span></div><div><span style="font-family: inherit;">Istnieją trzy różne stany funkcjonowania plazmy:<br /><br /><b style="font-family: inherit;">1</b><span style="font-family: inherit;"> Tryb ciemnego prądu - natężenie prądu elektrycznego (prędkość przepływu zróżnicowanych ilościowo fotonów na orbitalach jonów) wewnątrz plazmy jest niewielkie. Plazma nie świeci. Jest całkowicie niewidoczna. Nie wiemy o jej istnieniu, dopóki nie zmierzymy aktywności elektrycznej czułymi instrumentami. Obecnie przykładami plazmy operującej w ciemnym trybie są włókna plazmowe łączące magnetosfery galaktyk, gwiazd, planet a także ich magnetosfery.</span></span></div><div><span style="font-family: inherit;"><br /><b>2</b> Tryb żarzenia - natężenie prądu elektrycznego jest znaczne. Plazma się jarzy. Jasność jarzenia zależy od jeszcze większej ilości i prędkości jonów wchodzących w skład prądu. Przykłady: lampa neonowa, mgławica emisyjna, powierzchnia Słońca i innych gwiazd.</span></div><div><span style="font-family: inherit;"><br /><b>3</b> Tryb łuku - natężenie i prędkość strumienia prądu jest już bardzo wysokie. Plazma silnie promieniuje w całym widmie. Prąd ma tendencje do tworzenia skręconych włókien. Przykładami takiego trybu są spawarka, błyskawica, wyładowania pomiędzy blisko położonymi ciałami niebieskimi jak pulsary, fotosfery gwiazd i słoneczna.</span></div><div><span style="font-family: inherit;"><br />(<b>4. Tryb protoplazmy lub pierwszy stan skupienia- przestrzenny- </b></span><span style="font-family: inherit;"><b>prąd praktycznie nie płynie, plazma w stanie ruchu bliskim zerowego (fotony przed uzyskaniem ruchu- energii lub po utracie energii)</b></span><span style="font-family: inherit;"><b> wypełnia cały Wszechświat POD CIŚNIENIEM - przyp. mój</b>)</span></div><div><span style="font-family: inherit;"><br /></span></div><div><span style="font-family: inherit;">We wszystkich tych trybach plazma emituje mierzalne promieniowanie elektromagnetyczne (szum radiowy). Przez cały czas gęstość prądu (ampery na metr kwadratowy) determinuje stan, w jakim znajduje się plazma. Atomowa struktura jonizowanego gazu również ma na to wpływ.<br />Jedną z najbardziej istotnych właściwości plazmy jest jej zdolność do samo organizacji - czyli elektrycznego izolowania się jednych jej części od pozostałych. Warstwa izolacyjna nazywana jest warstwą podwójną (DL). Gdy studiuje się plazmę w laboratorium, jest ona z reguły zamknięta w cylindrycznej szklanej tubie. Na obu końcach tuby znajdują się elektrody. Jedna elektroda (zwana anodą) posiada większy woltaż niż druga (katoda). Przy takim ustawieniu następuje jonizacja i zaczyna płynąć prąd. Jony dodatnie (atomy pozbawione części "elektronów"[fotonów]) oddalają się od anody, a jony ujemne (atomy z dodatkowymi "elektronami"[fotonami]) będą się do niej przybliżać. Matematyczna suma tych dwóch przeciwnie skierowanych przepływów jest całkowitym prądem płynącym w plazmie.<br />Jeżeli różnica potencjałów pomiędzy elektrodami jest wystarczająco duża, gdzieś pomiędzy nimi uformuje się warstwa podwójna. Skupi się na niej niemal cały spadek napięcia, przyłożony pomiędzy elektrody. Plazma po stronie anody będzie miała w przybliżeniu taki sam woltaż, jak anoda, zaś plazma po drugiej stronie - jak katoda. Obie części plazmy będą od siebie odizolowane przez DL. Cząstki po jednej stronie DL nie odczuwają pola elektrycznego, ze względu na równoważący ładunek po drugiej. Niemniej całkowity prąd elektryczny, jest wszędzie taki sam (po obu stronach DL). Plazma jest doskonałym przewodnikiem, a co za tym idzie, nie ma na niej znaczącego spadku napięcia podczas przewodzenia prądu - stąd potrzeba warstwy podwójnej, która bierze na siebie większość spadku napięcia. Innymi słowy, DL znajduje się tam, gdzie jest w plazmie najsilniejsze pole elektryczne.<br />Jeśli włoży się do plazmy ciało obce, utworzy się wokół niego warstwa podwójna, izolująca go od reszty plazmy. Efekt ten stwarza problemy z wykrywaniem napięcia w plazmie przez sondy, w celu zmierzenia potencjału w danym miejscu. Jest to dobrze znana właściwość plazmy. W laboratorium rozwinięto wiele metod, aby to ominąć.<br />W kosmosie niemożliwym jest wysłać próbnik, aby zmierzyć woltaż słonecznej plazmy w jakimś miejscu. Woltaż jest wielkością względną (jak prędkość), musi być mierzony względem czegoś. Próbnik zacząłby podróż, mając woltaż równy powierzchni Ziemi. W miarę przedzierania się przez plazmę słoneczną, będzie zmieniał potencjał i przejmował woltaż danego miejsca aczkolwiek w kosmosie można zmierzyć natężenie pola elektrycznego.<br />Prąd elektryczny, przechodzący przez plazmę, przyjmuje <b>skręconą formę</b>, odkrytą przez Birkelanda. Prądy Birkelanda najczęściej pojawiają się w parach. Pary te mają tendencję do ściskania pomiędzy sobą dowolnego materiału za pomocą silnego pola elektromagnetycznego (szybki masowy ruch eteru (mas fotonowych) w plazmie. Nazywa się to skurczem "Z". W ten sposób w kosmicznej skali włóknach prądowych powstały galaktyki spiralne. Patrz symetryczny dimorficzny tależowy układ tych galaktyk. </span></div><div><span style="font-family: inherit;">Zdolność prądu Birkelanda do gromadzenia i kompresowania nawet nie zjonizowanego materiału nazywa się konwekcją Marklunda.<br />Przez lata zakładano, że plazma jest doskonałym przewodnikiem, do tego stopnia, że każde pole magnetyczne w niej powstałe będzie w nią "wmrożone".<br />Techniczne wyjaśnienie jest następujące: jedno z równań Maxwella wskazuje, że pole elektryczne w regionie jest zerowe, to pole magnetyczne musi być tam niezmienne względem czasu - stałe. Jeśli więc każda plazma jest doskonałym przewodnikiem (czyli nie może posiadać pola elektrycznego - a więc różnicy potencjałów), wówczas każde pole magnetyczne wewnątrz niej musi być zamrożone - czyli nie może się w żaden sposób zmieniać.<br />Obecnie wiemy, że między różnymi punktami w plazmie mogą być niewielkie różnice potencjału. Inżynier plazmowy Hannes Alfvén wskazał na ten fakt podczas swojego przemówienia po otrzymaniu nagrody Nobla z fizyki w 1970. Przewodność elektryczna każdego materiału, z plazmą włącznie, zdeterminowana jest przez dwa czynniki: gęstość dostępnych nośników (jonów) w materiale, oraz ich ruchliwość. W plazmie, ruchliwość nośników jest ogromna. Jony i "elektrony" mogą się poruszać w przestrzeni kosmicznej bardzo swobodnie. Ale ich koncentracja (ilość na jednostkę objętości) może w ogóle nie być duża, jeśli plazma jest pod niskim ciśnieniem. Tak więc, chociaż plazma jest bardzo dobrym przewodnikiem, mogą w niej występować słabe pola elektryczne. <br />Plazma nie jest doskonałym przewodnikiem, jest odpowiednikiem kabli przesyłających prąd. Jest to dobrze znane zjawisko, że jeśli jakiś przewodnik przecina pole magnetyczne, zaczyna w nim płynąć prąd. Na tej zasadzie działają prądnice i alternatory. A zatem, jeżeli dojdzie do względnego ruchu plazmy, powiedzmy w ramieniu galaktyki, i pola magnetycznego w tym samym miejscu, w plazmie popłynie prąd Birkelanda. Prąd ten wytworzy z kolei własne pole magnetyczne.<br />Zjawiska plazmowe są skalowalne. Oznacza to, że elektryczne i fizyczne właściwości plazmy pozostają takie same, niezależnie od jej rozmiaru. Oczywiście, zjawiska dynamiczne zachodzą znacznie szybciej w małym laboratorium niż w galaktyce. Są one jednak identyczne, gdyż wynikają z tych samych praw fizyki. Mamy więc odpowiedni sposób do symulowania kosmicznej plazmy w laboratorium i generowania efektów dokładnie takich, jak w przestrzeni kosmicznej. W rzeczywistości, prądy elektryczne w plazmie powodują większość zjawisk obserwowanych astronomicznie, które <b>nie są możliwe</b> do wyjaśnienia tylko przy pomocy grawitacji oraz magnetyzmu.<br />Dlaczego astrofizycy ignorują zjawiska elektryczne?<br />Skoro położono tak mocny fundament pod pracę nad elektrycznymi własnościami Wszechświata, dlaczego główny nurt astrofizyki wciąż ignoruje to pole badań, zamiast tego łatając swoje upadające, grawitocentryczne modele coraz większą ilością teoretycznych fikcji? Dlaczego konwencjonalni astronomowie i kosmologowie systematycznie wyłączają pola elektryczne oraz prądy nie tylko ze swoich rozważań, ale i ze swoich programów? Dlaczego świadomie ignorują fakt, że wiele niewyjaśnionych zjawisk da się łatwo wyjaśnić poprzez rozpoznanie istnienia pól i prądów elektrycznych w plazmie słonecznej i galaktycznej?<br />Odpowiedź brzmi: magnetyzm był znany od średniowiecza. Nawet już wcześniej wiedziano, że kawałek żelaza może oddziaływać z innym na odległość, choć nie wyjaśniono mechanizmu pola elektromagnetycznego do dzisiaj.<br />Ale wcześni astronomowie (jak ich współcześni kuzyni) nie byli uprzedzeni o istnieniu zjawisk elektrycznych. Johannes Kepler (1571-1630) wyjaśnił już matematycznie kształt orbit planet, gdy Izaak Newton opublikował swój traktat o grawitacji w 1687. Gdy to nastąpiło, nic więcej nie było potrzebne do wyjaśnienia i przewidywania ruchów planet. </span>Wszystko było rozwiązane. A<span style="font-family: inherit;">ż do dzisiaj...</span></div><div><span style="font-family: inherit;">Było to oczywiście na długo przed Benjaminem Franklinem (1706-1790) i jego puszczaniem latawca w czasie burzy, oraz zanim James Clerk Maxwell (1831-1879) wyprowadził swoje równania, łączące pola magnetyczne z elektrycznymi, ale pola elektryczne są trudne do zmierzenia a astronomowie nie wiedzieli, że będą one im potrzebne. Zatem nigdy ich nie włączali do zaakceptowanego modelu grawitacyjnego, w jakim od zawsze działa Układ Słoneczny czy cały kosmos.<br />Oto dlaczego do dzisiaj, większość astrofizyków nigdy nie zaliczyło kursu elektrodynamiki czy dynamiki i wyładowań plazmy. Próbują opisać dynamikę plazmy przy pomocy równań stosowanych tylko do dynamiki płynów i efektów gmagnetycznych. To jest to, co Alfvén nazwał magneto-hydrodynamiką. Nie zdają sobie sprawy, że magneto oznacza również elektro. ZAWSZE. A to z kolei wyjaśnia, dlaczego ślepi astronomowie mówią o wietrze słonecznym, skręconym warkoczu czy falach uderzeniowych, zamiast o prądzie elektrycznym w plazmie, polach elektrycznych, skurczach plazmy typu "Z" i warstwach podwójnych. Wyjaśnia to również, dlaczego twierdzą oni, że linie pola magnetycznego nie mogą się gromadzić, łączyć i rekombinować.</span></div><div><span style="font-family: inherit;"> </span></div><div><span style="font-family: inherit;">Wszechświat jest elektryczny ale i świadomy jednocześnie a więc na początku kiedy istniała ciemna i pusta przestrzeń, była już obecna INFORMACJA jak ma wyglądać materia. </span>Na początku był to -można wprost powiedzieć- pusty choć nie próżniowy Wszechświat bez plazmowych sieci galaktyk, gwiazd, ich planet i życia biofizycznego. <span style="font-family: inherit;">Od strony fizycznej był na początku wolną od materii przestrzenią pełną wyłącznie fotonów. Dokładniej protofotonów- fotonów w stanie bezruchu o niskiej energ</span>ii. Pełny substancji w której łatwo przenosił się ruch w postaci drgań elektromagnetycznych. Materia powstała później. Nie odwrotnie! Potem ...COŚ zmieniło ciśnienie w różnych punktach przestrzeni wywołując wysokie róznice napięcia aż do pierwszego wyładowania. Coś świadomego wprowadziło wibracje a raczej wibrację, starter który możemy określić jako biblijne SŁOWO które "było na początku". Od tego pierwszego boskiego grzmotu proces lawinowo zaczął się powtarzać dla innych części przestrzeni. Powstała sieć elektryczna w której plazmowych włóknach przypominających pioruny lecz bez dżwięku, w ciszy narodziły się nasze galaktyczne "domy". Cały Wszechświat od wtedy tworzy si<span style="font-family: inherit;">ę i zmienia płynnie swoje parametry elektryczne w przestrzeni pomiędzy gromadami galaktyk i wewnątrz galaktyk co rzutuje na zmienność zachowań gwiazd, w tym także cykli słonecznych tej jedynej gwiazdy którą znamy świecącej tuż obok nas. Nawet planety podlegają tym prądom bezpośrednio. Pola magnetyczne indukują się z zewnątrz do wewnątrz w zależności od rezystancji przewodnika. W tym świetle terraforming Marsa polegałby nie na detonacji bomby tylko zrzuceniu asteroid lodowych z Pasa Planetoid na powierzchnię aby zwiększyć przewodnictwo planety. jednocześnie otrzymujemy tym sposobem poprawę w kwestii hydro, atmo i magnetosfery. Zawsze najpierw lepiej jest poukładać informacje, potem działać. Naukowcy są po prostu niedouczeni i w zrozumiały sposób zamistyfikowani obowiązującą do dziś, przestarzałą wobec nowych faktów, dziedziną nauki inżynieryjnej. Jeśli więc Wszechświat samoistnie tworzy się elektrycznie to z pewnością inne cywilizacje zamiast z przeciwległego krańca Wszechświata transportować minerały o bardzo dużej zawartości pierwiastków z wysoką liczbą atomową, mogą produkować je na miejscu za pomocą urządzeń o wysokich parametrach </span>elektrycznych.<br /><br /><br />„Jeśli chcesz zrozumieć Wszechświat, zacznij myśleć w kategoriach energii, częstotliwości i wibracji.” <br />N. Tesla<br /><br /><br /></div><div><span style="font-family: inherit;"><br /></span></div><div><span style="font-family: inherit;"><br /></span></div><div><span style="font-family: inherit;"><br /></span></div><div><span style="font-family: inherit;"><br /></span></div><div><span style="font-family: inherit;"><br /></span></div><div><span style="font-family: inherit;"><br /></span></div><div><span style="font-family: inherit;"><br /><br /></span></div></div></div></div><div class="blogger-post-footer">„Analfabetami XXI wieku nie będą ci, którzy nie umieją pisać ani czytać, lecz ci, co nie potrafią oduczyć się wierutnych kłamstw, w które nauczono ich wierzyć i nie potrafią szukać ukrytej wiedzy, którą nauczono ich odrzucać”</div>#magnetartechprojecthttp://www.blogger.com/profile/00116426320285930090noreply@blogger.com0tag:blogger.com,1999:blog-1727701247933515471.post-44405093521246843202022-04-23T21:29:00.288+02:002023-02-27T11:26:55.760+01:00Kwazary i galaktyki<p> </p><br /><br /><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div>Kwazary i galaktyki spiralne niewiele się różnią w zakresie struktury.<br />Kwazar to jeden z najbardziej niezwykłych obiektów w kosmosie. Choć na pierwszy rzut oka, kwazar może się wydawać gwiazdą o wielkiej jasności, to jednak błędne założenie. Jak bardzo się różni od gwiazd? <br />Nieznanej natury ciała niebieskie przypominające gwiazdy wzbudzały zainteresowanie astronomów już w XIX wieku. Wtedy nikt jednak nie przypuszczał, że obiekty te są czymś innym niż gwiazdami. Prowadzone w latach 1917-1922, przez Hebera Curtisa i Ernsta Öpika, obserwacje dowiodły, że są niewielkimi galaktykami. Pierwotne wyobrażenia miały jednak wpływ na ich nazwanie. Określono je mianem quasi-stellar radio source lub quasi-stellar object (w skrócie quasar), czyli gwiazdopodobnymi obiektami emitującymi fale radiowe — kwazarami.<br />Prowadzone w latach 50. i 60. badania naprowadziły astronomów na trop co do natury kwazarów. Pierwszym opisanym kwazarem był 3C 273 znajdujący się w gwiazdozbiorze Panny. Oddalony jest o 2,44 mld lat świetlnych od Ziemi. Wyznaczenie dokładnych współrzędnych, pozwoliło otrzymać widmo tego promieniowania, które było ekstremalnie przesunięte ku czerwieni. Według oficjalnej nauki świadczy to o niezwykle dużym oddaleniu tego obiektu od naszej galaktyki. Oczywiście to bzdura ponieważ widmo przesunięte ku czerwieni połączone z wielką jasnością obiektu odpowiada za siłę wysyłanego promieniowania docierającą do nas mimo tłumiącego działania cząsteczkowo falowej bezpróżniowej przestrzeni kosmicznej w zakresie wyższych częstotliwości. Im wyższa częstotliwość tym bardziej tłumi ją eteryczna przestrzeń. Stąd jeśli obiekt ma bardzo silną moc emitowaną, tym silniejsze promieniowanie elektromagnetyczne, w tym podczerwone światło, do nas dociera. Taka prosta rzecz.<br />Holenderski astronom Maarten Schmidt uznał, że widmo kwazara 3C 273 jest aktywnym jądrem galaktyki, świecącym 100 razy jaśniej, niż wszystkie gwiazdy Drogi Mlecznej razem wzięte. Hipoteza naukowca była kwestionowana, ponieważ nie potrafiono wówczas wyjaśnić, jak nieduży w kosmicznej skali obiekt może wytwarzać tak znaczne ilości promieniowania. Zgodnie z ówczesnym stanem wiedzy, jego aktywność radiowa i jasność sugerowały też, że musiał być blisko Ziemi, a nie bardzo daleko, jak postulował Schmidt. Dopiero późniejsze badania pozwoliły poprawić hipotezę i wyjaśnić czym są kwazary. Jednak dopiero dzisiaj patrząc na Wszechświat jak na elektryczne zjawisko, możemy zrozumieć jego istotę w 100 % ach.<br />Odkrycia zakończyły dyskusję na temat tego, czy kwazar to gwiazda. Okazało się, że jest rodzajem galaktyki aktywnej. Tego typu ciała kosmiczne mogą być wielkości np. Układu Słonecznego. W sercu kwazara znajduje się czarna dziura, czyli wir elektromagnetyczny wyzwalany najsilniejszym polem elektromagnetycznym jakie posiadają właśnie kwazary. Wir w którym materia rozgrzewana jest do większych temperatur niż w standardowych wielkoobszarowych galaktykach i wytwarza promieniowanie w każdym zakresie – optycznym, radiowym, rentgenowskim i gamma. Najaktywniejsze kwazary wyrzucają nadmiarowe strumienie materii w postaci dżetów. Same kwazary powstają przez wyrzucenie ich co jakiś czas z centrum wielkich spiralnych galaktyk gdy nagromadzi się w okolicy wirów czarnych dziur bardzo dużo materii, ale nie wystąpią regularnie dżety promieniowania Hawkinga.</div><div><br />Jedną z cech wyróżniających kwazary jest ich silna aktywność radiowa. To właśnie emitowany przez nie punktowy sygnał radiowy był przyczyną uważania kwazarów za gwiazdy. <br />Kwazary wyróżnia też jasność przewyższająca inne ciała niebieskie. Rozgrzana materia wirująca wokół czarnej dziury, przyćmiewa blask własnej galaktyki. Największe kwazary mogą świecić nawet miliony razy jaśniej od Słońca. Ekstremalne są również temperatury. Wir znajdujący się w centrum rozgrzewa swoją rotacją trafiającą do niego materię do milionowych wartości, znacznie wyższych niż temperatura gwiazd. Dla porównania powierzchnia Słońca to 5500 ℃. Nawet otaczające wiele kwazarów obłoki gazowe, zwane halo, bywają dużo gorętsze od niektórych gwiazd. Ich temperatura może osiągać dziesiątki tysięcy ℃.<br /><br /></div><div>Kwazary to najjaśniejsze obiekty kosmiczne znane człowiekowi. Największe z nich osiągają jasność przewyższającą Słońce o zawrotne wartości. Jakie są największe kwazary? Lider peletonu co jakiś czas się zmienia. W 2015 roku rekordowy wynik należał do SDSS J010013.02+280225.8. Kwazar ten świecił 429 bln (429 000 000 000 000) razy mocniej od Słońca. Znajduje się w odległości 13,8 mld lat świetlnych od Ziemi. <br /><br />Obecnie pierwsze miejsce zajmuje kwazar J043947.08+163415.7. Jego jasność wynosi tyle, co 600 bln Słońc. Oddalony jest o 12,8 mld lat świetlnych. Kwazary w ciemnościach Wszechświata są dosłownie jak kosmiczne latarnie! <img src="https://scroll.morele.net/wp-content/uploads/2021/07/3C-273-1024x683.png" />3C 273 to pierwszy obiekt, który został zidentyfikowany jako kwazar <br /><br /><br />Oprócz kwazarów znajdujących się na drugim końcu Wszechświata są również obiekty będące bliżej Ziemi. Niemniej, nawet bliskie kwazary są od nas oddalone o miliony lat świetlnych. Najbliżej Ziemi jest kwazar UGC 8058 (znany też jako Mrk 231 lub Markarian 231). Jego odległość od naszej planety wynosi 600 mln lat świetlnych. Położony jest w konstelacji Wielkiej Niedźwiedzicy.<br /><br />Kwazar ten ma wyjątkową cechę. Zazwyczaj materia wokół czarnej dziury widoczna jest w promieniowaniu ultrafioletowym. U Markarian 231 wędruje ona gwałtownie w kierunku jądra galaktyki. Oznacza to, że centrum kwazara w pobliżu wiru czarnej dziury otacza pusta przestrzeń. Dzieje się tak dlatego, że po wewnętrznej krawędzi kwazara krąży druga czarna dziura. Okrążają się one podobno w cyklu 1,2 roku ziemskiego.</div><div><br />Blazary. Bogaty zbiór aktywnych jąder galaktyk obejmuje również blazary. Mianem tym określa się kwazary o ekstremalnych właściwościach. Blazar charakteryzuje się szybką zmiennością promieniowania radiowego na wszystkich częstotliwościach i skalach czasowych. Promieniowanie świetlne we wszystkich zakresach jest, w zależności od blazara, albo silnie spolaryzowane, albo znajduje się w stanie niemal całkowitego zaniku.<br /><br />Choć przyczyna tego zjawiska nie została jeszcze wyjaśniona, to astronomowie przypuszczają, że problemem może być obserwowanie go w pobliżu osi relatywistycznego dżetu (strumienia). Taki strumień zdaje się pozornie zmieniać jasność wiązki światła. Oznacza to, że fale emitowane przez źródło mają zupełnie inną częstotliwość, niż ta z jaką obserwator widzi strumień.<br /><br />Termin blazar pochodzi od nazwy nadanej przez niemieckiego astronoma Cuno Hoffmeistera jednemu z ciał niebieskich. W 1929 roku opublikował on katalog 354 gwiazd zmiennych, czyli takich, które zmieniają jasność w krótkich odstępach czasu. Jedna z nich, znajdująca się w gwiazdozbiorze Jaszczurki została nazwa BL Lacertae, w skrócie BL Lac. Jak wiemy, badania nad tego typu obiektami w latach 60. i 70. wykazały, że nie są to gwiazdy a kwazary. Z połączenia nazw BL Lac i quasar powstała nazwa blazar. Najbliższy z nich znajduje się 2,5 mld lat świetlnych od Ziemi.<br /><br />Wszechświat to miejsce pełne niezwykłych zjawisk i obiektów, których naturę dopiero zaczynamy pojmować gdy patrzymy nań jak elektrycy czy elektronicy. Znalezienie każdej kolejnej zagadki prowadzi do pytań, czy w kosmosie istnieje coś jeszcze większego, jaśniejszego lub cięższego. Gdzie leży granica? A może powinniśmy zapytać — czy istnieje jakakolwiek granica?<br /><br />Zaproponowana klasyfikacja galaktyk (sekwencja Hubble’a) została stworzona w 1926 roku przez Edwina Hubble’a. Według jednych teorii powstawały one w wyniku zapadnięcia się wielkoskalowych obłoków gazu, według innych przez połączenie się wielu gromad gwiazd. Do takich zderzeń galaktyk dochodzi cały czas. Większość galaktyk zgrupowana jest w większe struktury tzw. grupy bądź gromady galaktyk, w których występują oddziaływania elektrograwitacyjne utrzymujące je ze sobą. Droga Mleczna wraz z 50 galaktykami stanowią Grupę Lokalną o rozciągłości 10 milionów lat świetlnych. Natomiast Grupa Lokalna wraz z kilkuset innymi gromadami (łącznie około 100 tysięcy galaktyk) wchodzi w skład supergromady Laniakea.</div><div><br />Galaktyki eliptyczne mają symetrię kulistą lub elipsoidalną. Jasność powierzchniowa galaktyki eliptycznej jest największa w środku i zmniejsza się stopniowo na zewnątrz. W galaktykach tych nie występuje w zauważalnych ilościach pył i gaz. Cała widoczna materia jest skupiona w starych gwiazdach, które powstały zapewne w krótkim okresie w początkowych etapach formowania się galaktyki.</div><div><br />Galaktyki spiralne to takie, które gdy ich powstawanie nie zostaje zakłócone postronnymi zjawiskami elektrycznymi, składają się z jądra i z ramion, zazwyczaj z dwóch lub wielokrotności 2, rzadziej z jednego czy z trzech. Wszystkie ramiona leżą w jednej płaszczyźnie, którą nazywamy dyskiem galaktycznym. Jądro galaktyk spiralnych zbudowane jest ze starych gwiazd. W środku spiralnych galaktyk zawsze znajduje się czarna dziura. W ramionach dominują małe jasne gwiazdy. Nauka przypuszcza, że galaktyki spiralne utworzone zostały z obłoków materii, które wypełniały bardzo młody Wszechświat. Oczywiście jest to bzdura. </div><div><br />Wg nauki galaktyki soczewkowate stanowią ogniwo pośrednie między galaktykami eliptycznymi a spiralnymi. Kolejna bzdura. Jądro takiej galaktyki jest podobne do silnie spłaszczonej galaktyki eliptycznej, natomiast wokół znajduje się dysk, ale bez żadnych śladów struktury spiralnej. Galaktyki te nie zawierają młodych gwiazd ani materii międzygwiezdnej, co jest typowe dla galaktyk eliptycznych.</div><div><br />Galaktyki nieregularne, o osobliwym wyglądzie, to takie które nie wykazują symetrii charakterystycznych dla galaktyk eliptycznych i spiralnych. Dzielimy je na dwa typy. Pierwszy zaliczamy obecnie do skrajnych odmian galaktyk spiralnych, gdyż mają z nimi wiele cech wspólnych: wirują wokół własnych osi, wykazują silne spłaszczenie i ślady struktury spiralnej. Odróżnia je natomiast to, że nie ma w nich jądra i ramion. Drugi typ to grupa galaktyk zupełnie nieregularnych o bezkształtnym wyglądzie, niewielkich rozmiarach i sporej jasności powierzchniowej. W galaktykach tego rodzaju znajduje się także dużo młodych gwiazd. Stanowią one od 5 do 10 % wszystkich galaktyk.<br /><br />Wymienione galaktyki stanowią ogromne skupiska materii pod różną postacią. Głównymi skupiskami są gwiazdy – kuliste ciała niebieskie.</div><div> <br />Narodziny gwiazdy - nauka oficjalnie nie ma żadnych informacji, pochodzących z bezpośrednich obserwacji o tym, jak wygląda pierwszy etap formowania się gwiazdy. Istnieją jednak przesłanki, by sądzić, że wszystko zaczyna się, gdy chmura gazu i pyłu kosmicznego (obłok), w której dominujący udział ma wodór, gromadzi się wokół przypadkowego zagęszczenia. Takie zagęszczenie może być wywołane strumieniem materii wyrzuconej z innej gwiazdy, która wybuchła (supernowa).<br />Protogwiazda - Na skutek grawitacji obłok kurczy się. W miarę kurczenia, wzrasta jego temperatura. Powstaje dysk z kulistą centralną częścią – protogwiazdą. Cała chmura gazowo‑pyłowa obraca się wokół własnej osi początkowo wolno, a w miarę kurczenia się – coraz szybciej. Proces kurczenia się obłoku i powstawania protogwiazdy może trwać kilkaset tysięcy lat. Gdy temperatura protogwiazdy osiągnie odpowiednio wysoką wartość, w jej centralnej części rozpoczyna się proces syntezy (łączenia) jąder wodoru w jądra helu. Energia wydzielana w tym procesie powstrzymuje grawitacyjne zapadanie. Gwiazda zaczyna świecić.</div><div><br /></div><div>Jeśli mowa jednak o elektrycznych procesach ponieważ we Wszechświecie nie ma inncyh procesów niż elektryczne, gwiazdy powstają wraz ze skurczem plazmy po kilka kilkanaście sztuk wdłuż włókna plazmowego. Energia jest tak silna że powstają parametaliczne lub wręcz metaliczne odpryski jak podczas elektrycznego zwarcia czy spawania metali. Te metalowe odpryski stają się gwiazdami gdy zaczyna się na ich powierzchni indukować prąd zwarciowy z pola elektromagnetycznego galaktyki.<br /><br /><br /><br /><br /><br /><br /><br /><br /><br /></div><div class="blogger-post-footer">„Analfabetami XXI wieku nie będą ci, którzy nie umieją pisać ani czytać, lecz ci, co nie potrafią oduczyć się wierutnych kłamstw, w które nauczono ich wierzyć i nie potrafią szukać ukrytej wiedzy, którą nauczono ich odrzucać”</div>#magnetartechprojecthttp://www.blogger.com/profile/00116426320285930090noreply@blogger.com0tag:blogger.com,1999:blog-1727701247933515471.post-63840326898796624492021-10-29T19:06:00.084+02:002023-06-05T18:02:21.714+02:00Elektryczne gwiazdy<p><span face="Arial, Helvetica, sans-serif" style="background-color: white; color: #323232; font-size: 18.4px;"><br /></span></p><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><br /></div><p></p><p><span face="Arial, Helvetica, sans-serif" style="background-color: white; color: #323232; font-size: 18.4px;"><br /></span></p><p><span face="Arial, Helvetica, sans-serif" style="background-color: white; color: #323232; font-size: 18.4px;"><br /></span></p><p><span face="Arial, Helvetica, sans-serif" style="background-color: white; color: #323232; font-size: 18.4px;"></span></p><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/a/AVvXsEhie7XDJyMQwiMuMHiDDPtOWHBzcNo9H7oD9vZQVORUvsV1CXj3zhQSdNIDjZEZmMGdjzaoTBXlSB_ZmifRnmgdoJMOiaJTKxVM2uhmoG0TLASMCxRHGD_9xe4_SpFPFB6UJ44ZqDpK_IUQy4O9UyYZd8K9X88AHHZW5GgDreViUtELERuoqayBUA-6=s568" style="margin-left: 1em; margin-right: 1em;"><img border="0" data-original-height="568" data-original-width="544" height="640" src="https://blogger.googleusercontent.com/img/a/AVvXsEhie7XDJyMQwiMuMHiDDPtOWHBzcNo9H7oD9vZQVORUvsV1CXj3zhQSdNIDjZEZmMGdjzaoTBXlSB_ZmifRnmgdoJMOiaJTKxVM2uhmoG0TLASMCxRHGD_9xe4_SpFPFB6UJ44ZqDpK_IUQy4O9UyYZd8K9X88AHHZW5GgDreViUtELERuoqayBUA-6=w613-h640" width="613" /></a></div><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;">Zdjęcie przedstawia fale tsunami z ciekłego kwarcu na ferrytowej powierzchni Słońca</div><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><br /></div><div class="separator" style="clear: both; text-align: center;"><br /></div><br /> Do dziś koncepcja gazowego modelu Słońca nie wyjaśniła przyczyn ruchu plam słonecznych, rozbłysków słonecznych, milionów stopni Celciusza temperatury korony słonecznej ani też przyczyny 11-letniego cyklu aktywności Słońca itp. Do tej pory model ten nie wytworzył praktycznie żadnych zdolności przewidywania i niewiele związków przyczynowo-skutkowych, aby wyjaśnić, co dzieje się na Słońcu. Model gazowy nigdy tak naprawdę nie wyjaśnił najbardziej podstawowego i ważnego zachowania Słońca, nawet po czterech wiekach wysiłku. Opierając się na niezdolności modelu gazowego do wyjaśnienia wewnętrznego działania Słońca i na podstawie współczesnych zdjęć satelitarnych z programów YOHKOH, SOHO i TRACE oraz z analizy spektralnej z programu SERTS nadszedł czas, aby środowisko naukowe i akademickie zaczęło wycofywać się z posłuszeństwa tradycyjnemu modelowi gazowemu, który po raz pierwszy zaproponował Galileusz. Jest to moment aby poważnie i sceptycznie przyjrzeć się założeniu Galileusza. Dowody zebrane w ciągu ostatnich kilku dekad z tych satelitów i programy kosmiczne sugerują elektrycznie przewodzący model Słońca jako ciała stałego, zorientowany na powierzchnię który musi się pojawić aby zająć miejsce starego modelu gazowego, zorientowanego na jądro gwiazd. Fotosfera Słońca jest często mylona z jego powierzchnią. W rzeczywistości, jest to tylko "płynopodobna" warstwa plazmy zbudowana z neonu, pod którą znajduje się właściwa powierzchnia. Widoczna warstwa składa się z włókien "penumbry", sięgających na kilka tysięcy kilometrów w głąb Słońca.<div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /><div><span style="color: #ff00fe; font-family: inherit; font-size: large;"><div class="separator" style="clear: both; text-align: center;"><iframe allowfullscreen='allowfullscreen' webkitallowfullscreen='webkitallowfullscreen' mozallowfullscreen='mozallowfullscreen' width='676' height='494' src='https://www.blogger.com/video.g?token=AD6v5dyKbyN6kJbk8zLwyEN3-QaWO7s0SR-KXaWAauwG4N1-ztVK5EOlxUO8-soDClklWJtF3P8_jx3ypl5NeJGXJQ' class='b-hbp-video b-uploaded' frameborder='0'></iframe></div></span><div class="separator" style="clear: both;"><br /><br /><br /><br /><br /><br /><br /><br /><br />Widoczna neonowa warstwa plazmy, którą nazywamy<span style="color: #ff00fe; font-family: inherit; font-size: large;"><span style="background-color: transparent;"> </span></span>fotosferą, oraz cieńsza, gęściejsza warstwa zbudowana z plazmy krzemowej, całkowicie pokrywają skalistą, wapniowo-ferrytową warstwę powierzchniową Słońca. Widoczna warstwa fotosferyczna pokrywa powierzchnię Słońca, jak ziemskie oceany pokrywają większość stałej powierzchni Ziemi. Fotosfera Słońca jest tak jasna, że nie możemy zobaczyć ciemniejszych, bardziej stałych elementów powierzchni pod fotosferą bez pomocy technologii satelitarnej. Skład i wewnętrzna mechanika Słońca pod widoczną fotosferą pozostawała zagadką przez stulecia. Jest to cały stos niewyjaśnionych zjawisk, do dnia dzisiejszego zbijających z tropu teoretyków modelu gazowego, ponieważ nie rozpoznali oni warstwy przejściowej ze stopu żelaza, znajdującej się pod fotosferą. Słońce w świetle tych faktów jawi się jako samoładująca się elektroda spawarki plazmowej, gdzie pobór ładunku odbywa się poprzez reakcje elektryczne pomiędzy siecią trójwymiarowych włókien plazmowych w przestrzeni kosmicznej, oddziałującą na tkwiące wzdłuż tych włókien galaktyki spiralne. Poprzez przepływ prądu w osi tych galaktyk, tworzy się pole elektromagnetyczne zamknięte wokół przewodnika galaktyki jako symulatora płaskiego okrągłego wycinka przewodu elektrycznego. Poprzez wyjątkową intensywność pola w wyniku jego przekroju w centrum pola elektromagnetycznego tworzą się wiry zwane czarnymi dziurami które są skutkiem wirowania tego pola. Prędkość obrotowa czarnej dziury zależna jest wprost proporcjonalnie od średnicy i przewodności a więc gęstości (masy) danej galaktyki spiralnej. Ta zależność elektromagnetyczna przekłada się na siłę indukcji wobec ruchu sferycznego kawałka przewodnika naszego Słońca i reszty układu słonecznego a więc na siłę indukcji elektromagnetycznej poszczególnych planet Układu Słonecznego. Choć jest to "zimna" wersja plazmy, napięcia są wystarczające do podtrzymania zjawiska prądów zwarciowych na powierzchni gwiazd oraz planet. Sferyczna powierzchnia ciał niebieskich wywołuje prądy wirowe jak w przypadku stojana czy wirnika w silniku. Dlatego jest on złożony z blach aby tych prądów uniknąć. Należy traktować każde ciało niebieskie jako rodzaj przewodnika. Kulistego wycinka przewodu w którym zachodzi indukcja tych pądów gdy jest on w ruchu. Na szczęście zastępy nowych satelitów oraz heliosejsmologia zaczynają rzucać nowe światło na tą warstwową powłokę Słońca, położoną jakieś 4800 km pod fotosferą a ostatnie badania nad wiatrem słonecznym sugerują, że ma ona również swój początek w tej warstwie przejściowej, tak samo jak naładowane elektrycznie pętle koronalne. SOHO, satelita należący do NASA, oraz program satelitarny Trace, zarejestrowały tą warstwę przejściową, położoną pod fotosferą choć się tym głośno nie chwalą bo nie pasuje to przecież do popełnionych błędów w teorii które musiałyby unieważnić wcześniejsze "odkrycia". Nauka NIGDY błędów jawnie nie koryguje co jest zrozumiałe ... każdemu trudno przyznać się do błędu. Personalnie czy zbiorowo, nie ma znaczenia. Jednak to na nauce spoczywa o wiele większa odpowiedzialność. Zamiast tego nauka nadpisuje nową konwencjonalną łatkę i gotowe. Założę się że ogłoszą to tuż przed armagedonem kiedy już nie da się dłużej utrzymać błotnej lawiny kłamstw.</div><div class="separator" style="clear: both;">Satelity i technologie XXI wieku pozwalają nam spojrzeć przez zewnętrzne warstwy plazmy chromosfery i fotosfery, aby zbadać skalną, wapienno ferrytową warstwę przejściową z niezwykła precyzją. Galileusz był ojcem i założycielem teorii gazowego Słońca. Obserwował je przez względnie prymitywny teleskop i zauważył, że plamy nie poruszają się równomiernie po powierzchni fotosfery. Zaobserwował również, że jego "powierzchnia" rotuje szybciej na równiku niż w okolicach biegunów. Ze swoich badań nad plamami oraz ich niecodziennym układem obrotów, Galileusz wywnioskował, że musi patrzeć na jakiś rodzaj atmosfery gazowej. Był to słuszny wniosek, aczkolwiek wiemy dzisiaj, że fotosfera jest formą gorącej, zjonizowanej cienkiej warstwy plazmy.<br /><br /><br /></div><div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><a href="#"><img border="0" height="220" src="https://blogger.googleusercontent.com/img/a/AVvXsEgqjmzGUFH7HdWTwTP7RYyHRRJSs5Yhx8HKm1LHXr9H7GlIeqQDuIVfNY5yV0qEPkCpQaa4YLGrm8myKDWU5tCN7YPQ7_7zYJo2CxT6VwF_NY4vSw-xP9UtXWtesg5wndJhAvZGd19h8SN0GlJQDwPvixcyZL3FVwAIO-uyBD8gMoOyHg0rslDZLXrx=w640-h220" width="640" /></a><br /><br /> Rozkład równoleżnikowy plam słonecznych, zależny od siły indukcji pola elektromagnetycznego Drogi Mlecznej w 11 letnim takcie zmian jej prawie stałego pola elektromagnetycznego.<br /><br /><br /><br /><br /><br /><br /><br /> Niestety, potem Galileusz założył, że nie istnieje żadna inna stała warstwa pod widzialną fotosferą. </div><div><br /></div><div>Był to <a href="https://giphy.com/clips/hamlet-C2nFKXZwc4giaBEBfV" target="_blank">błąd krytyczny!</a></div><div><br /></div><div>Było to jak spojrzeć na świat pokryty wodą, bez możliwości dojrzenia dna, i założyć, że po prostu cały ten świat składa się z wody. Dokładnie jak z błędnym założeniem pustej przestrzeni kosmicznej. Spojrzeć w kosmos i założyć że jest pusty podczas gdy tak samo nie widzimy powietrza będąc w atmosferze ani wody gdy zanurzymy oczy w jeziorze. Galileusz nie dysponował "oczami" za miliony dolarów, oraz modułem obrazowania dopplerowskiego, pozwalającymi zajrzeć pod chaotyczną powierzchnię fotosfery. Tylko przez ostatnie 10 lat otrzymaliśmy technologie pozwalającą zweryfikować założenia Galileusza poprzez obserwacje nowoczesnymi satelitami. Programy satelitarne Yohkoh, SOHO, Trace, RHESSI, Hinode, Stereo i Geos dały nam nowe zestawy oczu, nowe sposoby patrzenia na Słońce, i nowy wgląd pod warstwy Słońca, obserwowane po raz pierwszy przez Galileusza. Teleskopy kosmiczne Hubble, Chandra i Spitzer dały nam wgląd w inne układ słoneczne, galaktyki, pozwoliły nam spojrzeć na pierwotne struktury Wszechświata, oraz ujrzeć Wszechświat w całkiem nowym widmie energetycznym. </div><div><span style="background-color: black; color: #ff00fe; font-family: inherit; font-size: large;"><br /></span></div><div><br /></div><div><br /></div><div><br /></div><br /><br /><br /><br /><a href="#"><img border="0" height="170" src="https://blogger.googleusercontent.com/img/a/AVvXsEjCgKpRytZGTgo7_lKoDbI-TdKslksp0A0Cc_mgXnlwvXTSY8CAzz5GINZAguBz22lQHvHI5jyQTFqf8bFHtiks9P_laAsdDrVrtky35IgNcwsAhz9w2ChDtRmXtaRN-lmXqB9qH0YIbU3nizAs8EnTJ8rF-u7z_W_nA5-yKVWfFxtr1TGq6UnSlqna=w640-h170" width="640" /></a><br /><br /><div>Statystyka plam słonecznych. Tu też możemy wyróżnić około 100 letni cykl zmian pola galaktyki. </div><br /><br /><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div>To, co ujawniły nam o strukturze naszego Wszechświata, jest na prawdę przełomowe! Podczas gdy model gazowy posiada powszechne poparcie od ponad 50 lat, to nie zawsze tak było. W rzeczywistości już sto lat temu astronomowie wierzyli w Słońce zbudowane z żelaza, z których najgodniejszym wzmianki jest dr. Kristian Birkeland. Jak widać, gremium naukowe nie wzięło tego co zbadał pod uwagę,mimo iż prawda nie jest zależna od ilości osób ją wypowiadających a wręcz przeciwnie, sądząc po statystycznym rozkłądzie poziomu inteligencji w społeczeństwie... </div><div>Badał on zorzę polarną i interesował się oddziaływaniami elektrycznymi pomiędzy Ziemią a Słońcem. Jego wczesne badania laboratoryjne z naelektryzowaną żelazną sferą umieszczoną w komorze próżniowej ("terrella") pozostawiły po sobie zdjęcia bardzo przypominające współczesne zdjęcia rentgenowskie Słońca, zrobione przez satelity.<div><span style="background-color: black; color: #ff00fe; font-family: inherit; font-size: large;"><br /></span></div><div><span style="background-color: black; color: #ff00fe; font-family: inherit; font-size: large;"><br /></span></div><div><span style="background-color: black; color: #ff00fe; font-family: inherit; font-size: large;"><br /></span></div><div><span style="background-color: black; color: #ff00fe; font-family: inherit; font-size: large;"><br /></span></div><div><br /></div><div><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhzRQahCNJek8R0egeXSnZnIZEvfGQ_0sCDIz9JeYFGN4e-ZaaZ1ZQXDsJgLinRv3U1roYu9-0ntx6TNnqzO89OIy_Q7n6P8nRyvEJZBz8E4kWBcIIrKJMu-l5mp78iDU1ujGgjs7pS956UrMlK4pDzIViervCUIn3pmj0Nbv2Bo3dYXEcnNxVDkdDN/s800/birkeland4.jpg" style="clear: left; float: left; margin-bottom: 1em; margin-right: 1em;"><img border="0" data-original-height="561" data-original-width="800" height="448" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEhzRQahCNJek8R0egeXSnZnIZEvfGQ_0sCDIz9JeYFGN4e-ZaaZ1ZQXDsJgLinRv3U1roYu9-0ntx6TNnqzO89OIy_Q7n6P8nRyvEJZBz8E4kWBcIIrKJMu-l5mp78iDU1ujGgjs7pS956UrMlK4pDzIViervCUIn3pmj0Nbv2Bo3dYXEcnNxVDkdDN/w640-h448/birkeland4.jpg" width="640" /></a></div></div><div> </div><div><span style="background-color: black; color: #ff00fe; font-family: inherit; font-size: large;"><br /></span></div><div><div class="separator" style="clear: both; text-align: center;"><div style="text-align: left;">Eksperymenty wysokonapięciowe w laboratorium</div><div style="text-align: left;"><br /></div><div style="text-align: left;"><br /></div><div style="text-align: left;"><br /></div><div style="text-align: left;"><br /></div><div style="text-align: left;"><br /></div><div style="text-align: left;"><br /></div><div style="text-align: left;"><br /></div></div></div><div><br /></div><div><br /></div><div><br /></div><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjsYOy-6J9sOKFRLLmG3r-58oxpN0zSOJaVZH6m2QB7FRXmLB7MKsqV9d1M3-d9ZUhOQNqO45OAQn5dAGEstR79NRqNv3AVrgctOpqD8wJHYuaodUSGmpar3lb9mdMg8-yw3CApFRWN8XKLNLGDhQrIbsk75rwb3_T9CcAu4JhBSheHmzw4YBKXCYyU/s400/T171_20030818_090001.gif" style="margin-left: 1em; margin-right: 1em;"><img border="0" data-original-height="400" data-original-width="400" height="640" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjsYOy-6J9sOKFRLLmG3r-58oxpN0zSOJaVZH6m2QB7FRXmLB7MKsqV9d1M3-d9ZUhOQNqO45OAQn5dAGEstR79NRqNv3AVrgctOpqD8wJHYuaodUSGmpar3lb9mdMg8-yw3CApFRWN8XKLNLGDhQrIbsk75rwb3_T9CcAu4JhBSheHmzw4YBKXCYyU/w640-h640/T171_20030818_090001.gif" width="640" /></a></div><br /><div> Zdjęcie Słońca. Dzięki możliwościom nowych sond badawczych na środku zdjęcia widzimy krater na wyraźnie LITEJ, a podobno przecież dotychczas rzekomo płynnej/gazowej powierzchni Słońca ... nie wiedzą teraz co z tym zrobić..</div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div> Technika obrazowania różnicowego, używana zarówno przez NASA, jak i Lockheed Martin, po raz pierwszy ujawniła nam, że Słońce nie jest kulą wodoru z dodatkiem helu! Posiada twardą i sztywną ferrytową powierzchnię, schowaną pod fotosferą!!! O ile w każdej gwieździe zachodzi przemiana pierwiastków prostych na bardziej złożone, nie jest ona dowodem powstawania energii na drodze syntezy jądrowej. Przeciwnie. Skutkiem ubocznym jej utraty. Dlatego też wszelkie eksperymenty fuzji jądrowej jak eksperyment chiński "Sztuczne Słońce" czy "Słońce na Ziemi" nigdy nie pozwolą otrzymać więcej energii niż zużyto. Miliony pieniędzy wywalone w błoto z powodu tylko błędnych teorii i idei. Zasilanie gwiazdy pochodzi z zewnątrz. Z pola elektromagnetycznego Galaktyki. Zdjęcia są dostępne na stronie NASA oraz Lockheed Martin, można je więc sprawdzić samodzielnie. Tak jak przypuszczał Birkeland, Słońce posiada dobrze zdefiniowaną stałą powierzchnię, która obraca się jednostajnie raz na 27,3 dnia. Dr Birkeland wyprzedził swoje czasy o co najmniej 100 lat. Ważne potwierdzenie jego teorii słonecznych oraz eksperymentów laboratoryjnych, nadeszło jakieś 40 lat później, w pracy dr Charles'a Bruce'a. Bruce udokumentował szereg zjawisk słonecznych, powiązanych bezpośrednio z wyładowaniami elektrycznymi na powierzchni Słońca. Bruce potwierdził to, co Birkeland przewidywał prawie 50 lat wcześniej, pokazując, że aktywność elektryczna jest bezpośrednio odpowiedzialna za wysoko energetyczne wyładowania na powierzchni Słońca. Elektryczna natura pętli koronalnych została potwierdzona przez Uniwersytet Maryland. Znaczący zbiór danych, będących tego potwierdzeniem, został dostarczony jakąś dekadę potem przez dr Olivera Manuela. Dr Manuel potwierdził <b>analizą</b> <b>izotopową księżycowej gleby</b>, oraz studiowaniem meteorytów, że Słońce zbudowane jest głównie z żelaza i plazmy. Niestety, jego dokonania nie zostały wizualnie potwierdzone przez następne trzy dekady. Tym niemniej okazało się, że obrazy z nowoczesnych satelitów dostarczyły bardzo mocnego poparcia obserwacyjnego dla elektrycznego modelu Słońca, opisanego pierwotnie przez dr Kristiana Birkelanda, a zweryfikowanego później przez dr Charlesa Bruce'a i dr Olivera Manuela. </div></div><div><br /></div><div>Dr Charles Bruce, oraz inni naukowcy zademonstrowali już elektryczną naturę aktywności Słońca, oraz zaproponowali teorie jego stałej powierzchni, opartej na bezpośrednich obserwacjach. Jednak modele te nigdy nie zaistniały i zostały usunięte w cień pomiędzy środkiem a końcem XX wieku przez model gazowy. Na szczęście w nauce wciąż istnieje niewielka ilość specjalistów i niezależnych politycznie myślicieli, którzy długi czas promowali bardzo odmienny, bardzo twardy i żelazny model naszej gwiazdy, oparty na uważnych badaniach i obserwacjach. W ostatnim czasie, wiele konkluzji dr Manuela o tym, że Słońce zbudowane jest z metalu, potwierdzone zostało bezpośrednimi dowodami. Okazuje się, że te wizualne obserwacje stałej, żelaznej powierzchni, zostały przewidziane przez chemię jądrową przeszło trzy dekady temu, podczas gdy eksperymenty je potwierdzające, oraz niektóre przewidywania matematyczne, były zweryfikowanej już 50 lat temu, a były pierwotnie zaproponowane przez Birkelanda ponad 100 lat temu! </div><div>Badania widma kwazarów (a są to w istocie małe galaktyki) wykazały znaczną potencjalną zawartość żelaza, wprowadzając w ostatnich latach poważne wątpliwości astrofizyków co do modelu gazowego. Biorąc pod uwagę wyniki badań widmowych gwiazd, dość znaczna część gwiazd może posiadać metaliczną powierzchnię. Zwłaszcza małych gwiazd, co sugeruje że gwiazdy powstają na kilka sposobów. </div><div>Z pozostałości po wybuchu supernowych, z których zbudowane jest wiele gwiazd, planet a nawet księżyców, występujących w znacznej ilości względem już wymienionych, ze względu na relatywnie małe wielkości, w tym najprawdopodobniej także nasz tytanowy Księżyc choć są przypadki sklejenia się i zastygnięcia dwóch sfer po wybuchu supernowej, min znana charakterystyczna planetoida z Pasa Kuipera- Ultima Thule. Powstawanie metalowych sfer w ogromnej z naszego punktu widzenia skali, nie jest wyzwaniem dla gigantycznego Wszechświata. </div><div>Drugim sposobem jest skurcz plazmoidu, który może występować w przypadku bardzo dużych gwiazd, aby zamiast ulec wówczas wybuchowi Supernowej po rozszczepieniu jądrowym, stabilnie wypalają materiał aż do postaci małej sferycznej metalicznej struktury. </div><div>Rejestrowane zwiększone ilości zórz polarnych i temperatury w całym Układzie Słonecznym, którym podlega dziś Ziemia, są spowodowane cyklicznością zmian ładunku elektrycznego w plazmowych włóknach łączących gwiazdy, które z kolei zależą od cyklu zmian natężenia prądu plazmowych włókien łączących galaktyki. Takie zjonizowane, mimo iż niewidoczne włókna, pozwalają podróżować elektromagnetycznymi maszynami ze znacznym przyspieszeniem wobec sektorów przestrzeni nie zjonizowanej przebiegiem tych włókien. </div><div><br /></div><div>Ostatnie odkrycia z dziedziny heliosejsmologii sugerują istnienie na powierzchni Słońca, dwustronnej uwarstwionej powłoki, położonej tuż pod fotosferą. Widzimy więc warstwę przejściową za pomocą technologii satelitarnych, a heliosejsmologia pozwala nam zmierzyć jej grubość. W tym przypadku znaleziono taką warstwę w odległości 0,99 promienia, zaczynającą się tuż pod fotosferą. Heliosejsmologia pozwala nam usłyszeć to, co widzimy na zdjęciach satelitarnych. Co więcej, mamy rosnącą pulę dowodów że nasze Słońce posiada wyraźną powłokę rozwarstwień na bardzo niewielkiej głębokości pod fotosferą. Dane te sugerują, że warstwowa powierzchnia żelaza pokryta jest oprócz neonu przez stosunkowo cienką warstwę krzemowej plazmy w roli płynnego izolatora, zbudowanej na wzór tranzystora, lub raczej diody tunelowej, który ulega przebiciu wyładowaniami o napięciu większym od jej napięcia nominalnego, aby po rozładowaniu nadmiaru napięcia powrócić do pierwotnego stanu. Taki model Słońca staje się bardzo zrozumiały dla wszelkiej maści elektrotechników i elektroników. Na podobnej zasadzie działają generatory które nazywa pulsarami. Jaki sens mają w tym świetle usilne i kosztowne zabiegi uruchomienia reaktorów termojądrowych skoro nawet w gwiazdach nie funkcjonują??</div><div>Teraz możemy zacząć obserwować Słońce i cały z resztą Wszechświat na nowo. Jako twór nie tyle elektryczny co w istocie elektroniczny. Wręcz rzekłbym świadomy, jeśli mózg człowieka jest tworem bioelektronicznym, powtarzając słowo za słowem to co twierdził nasz rodak Ks. Włodzimierz Sedlak a dawniej sugerował spalony za to na stosie Giordano Bruno.</div><div>Zapraszam więc z tą wiedzą na nowo do teleskopów... :)</div></div></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div class="blogger-post-footer">„Analfabetami XXI wieku nie będą ci, którzy nie umieją pisać ani czytać, lecz ci, co nie potrafią oduczyć się wierutnych kłamstw, w które nauczono ich wierzyć i nie potrafią szukać ukrytej wiedzy, którą nauczono ich odrzucać”</div>#magnetartechprojecthttp://www.blogger.com/profile/00116426320285930090noreply@blogger.com1tag:blogger.com,1999:blog-1727701247933515471.post-7730449622195961602021-09-26T14:01:00.014+02:002023-02-25T19:17:55.766+01:00Elektryczna pogoda<p></p><div class="separator" style="clear: both; text-align: left;"><span style="background-color: black; color: #ffe599; font-family: inherit; font-size: large;"><br /></span></div><div class="separator" style="clear: both; text-align: left;"><span style="background-color: black; color: #ffe599; font-family: inherit; font-size: large;"><br /></span></div><div class="separator" style="clear: both; text-align: left;"><span style="background-color: black; color: #ffe599; font-family: inherit; font-size: large;"><br /></span></div><div class="separator" style="clear: both; text-align: left;"><span style="background-color: black; color: #ffe599; font-family: inherit; font-size: large;"><br /></span></div><div class="separator" style="clear: both; text-align: left;"><span style="background-color: black; color: #ffe599; font-family: inherit; font-size: large;"><br /></span></div><div class="separator" style="clear: both; text-align: left;"><span style="background-color: black; color: #ffe599; font-family: inherit; font-size: large;"><br /></span></div><div class="separator" style="clear: both; text-align: left;"><span style="background-color: black; color: #ffe599; font-family: inherit; font-size: large;"><br /></span></div><p></p>Poniższe fragmenty pochodzą z raportu opublikowanego w magazynie Instytutu Inżynierów Elektryków i Elektroników (IEEE), SPECTRUM. Raport pokazuje, że kiedy nauka zgubiła drogę, inżynierowie muszą wykorzystać swoją intuicję, aby zrobić postęp.<br /><br /> Elektryczna technologia wytwarzania deszczu, błogosławieństwem dla Meksyku.<br /><br /> Co najmniej od początku lat czterdziestych do końca XX wieku w stanie Jalisco w środkowym Meksyku zawsze padało więcej deszczu niż w sąsiednim Aguascalientes. Jednak w 2000 roku na skrawku spieczonych pastwisk w Aguascalientes pracownicy Electrificación Local de la Atmósfera Terrestre SA (ELAT) z siedzibą w Meksyku wznieśli osobliwe pole połączonych ze sobą metalowych słupów i drutów przypominających nieco szkielet karnawałowego namiotu. Od tego czasu na równiny Aguascalientes spadło mniej więcej tyle samo deszczu, co na jego bardziej bujną sąsiadkę. To był pomysł krnąbrnej grupy rosyjskich emigrantów, słupy i przewody są w rzeczywistości siecią przewodników, których zadaniem jest jonizacja powietrza. Jeśli technika jest wykonywana prawidłowo, naturalny prąd między ziemią a jonosferą jest wzmacniany, prowadząc – przez mechanizm, który nie jest w pełni zrozumiały – do opadów deszczu. Obecnie istnieje 36 takich instalacji w sześciu stanach w Meksyku, a agencje rządu federalnego zdecydowały się wesprzeć budowę i eksploatację kolejnych, potencjalnie zmieniając pogodę w większości wyschniętego północnego i środkowego Meksyku. Tymczasem do maja konkurent ELAT, Earthwise Technologies Inc. z Mexico City i Dallas, może zdobyć prawo do założenia stacji jonizacyjnych w ubogim w wodę hrabstwie Webb w południowo-zachodnim Teksasie, co uczyniłoby ją pierwszą tego typu instalacją w Stanach Zjednoczonych. <br />Naukowcy i autorytety różnią się co do tego, czy jonizacja powietrza może spowodować duże zmiany pogody. „Jonizacja jest wysoce niekonwencjonalna i nie widziałem żadnych konkretnych dowodów opublikowanych w recenzowanym czasopiśmie, ani nie widziałem wystarczającej wiarygodnej weryfikacji naocznych świadków, że technologia działa zgodnie z reklamą” – mówi George Bomar, meteorolog, któremu powierzono rząd Teksasu z licencjonowaniem projektów modyfikacji pogody w tym stanie.<br />Jest to powszechne zjawisko dysonansu poznawczego w nauce. Rosjanie przeprowadzają eksperyment pogodowy, który zgodnie z przyjętą teorią powinien zakończyć się niepowodzeniem. Dlatego naukowiec skarży się, że „nie widział żadnych konkretnych dowodów opublikowanych w recenzowanym czasopiśmie”. Ale skarga sprowadza się do kwestii wiary. Naukowcy nie wierzą, że energia elektryczna jest wkładem do systemów pogodowych. Ci, którzy uważają, że elektryczność atmosferyczna jest skutkiem, a nie przyczyną pogody, prawie na pewno znajdą podstawy do odrzucenia finansowania lub publikacji takiego eksperymentu. To samo dotyczy publikacji relacji wiarygodnych świadków. Przez dziesięciolecia piloci linii lotniczych byli świadkami dziwnych błyskawic nad burzami, ale zniechęcono ich do zgłaszania tego. Ignorancja i zaprzeczenie jest niesprawiedliwe i nienaukowe. Postępy pochodzą z kwestionowania ustalonych przekonań. <br />Technologia jonizacji nazywana jest IOLA (jonizacja lokalnej atmosfery) przez Earthwise lub ELAT (elektryfikacja atmosfery) przez firmę ELAT. <br />IOLA i ELAT konkurują z konwencjonalnym zasiewaniem chmur, które – choć również nie zostało udowodnione naukowo – jest stosowane w ponad 24 krajach i 10 stanach USA. Zasiewanie chmur zwykle polega na rozproszeniu środka chemicznego, takiego jak jodek srebra, w formacjach chmur, co pomaga w tworzeniu się kryształków lodu, prowadząc, jak się sądzi, do większych chmur i większych opadów niż bez zasiewania. Podejście jonizacyjne, według Bissiachi, obecnie wiceprezesa ds. badań i rozwoju w ELAT, wykonuje podobną pracę, ale dwukrotnie. Jony przyciągają wodę w atmosferze, tworząc aerozol wytwarzający chmury, a także ładują pył już w powietrzu, dzięki czemu cząstki stają się bardziej atrakcyjnymi jądrami dla kropelek wody, które łączą się i opadają na ziemię w postaci deszczu. Wydaje się, że podstawowym problemem w uzyskaniu akceptacji dla technologii jonizacji jest łatwy opis tego, co powoduje deszcz. I to jest problem odziedziczony po ekspertach – meteorologach i naukowcach zajmujących się atmosferą. Cząsteczka wody jest fascynująca, ponieważ w przeciwieństwie do cząsteczek azotu i tlenu w powietrzu jest spolaryzowana elektrycznie.<div class="separator" style="clear: both;"><div class="separator" style="clear: both; text-align: left;"><span style="background-color: black; color: #ffe599; font-family: inherit; font-size: large;"><br /></span></div><div class="separator" style="clear: both; text-align: left;"><span style="background-color: black; color: #ffe599; font-family: inherit; font-size: large;"><br /></span></div><div class="separator" style="clear: both; text-align: left;"><span style="background-color: black; color: #ffe599; font-family: inherit; font-size: large;"><br /></span></div><div class="separator" style="clear: both; text-align: left;"><span style="background-color: black; color: #ffe599; font-family: inherit; font-size: large;"><br /></span></div><div class="separator" style="clear: both; text-align: left;"><span style="background-color: black; color: #ffe599; font-family: inherit; font-size: large;"><br /></span></div><div class="separator" style="clear: both; text-align: left;"><span style="background-color: black; color: #ffe599; font-family: inherit; font-size: large;"><br /></span></div><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEg-OL5ljdLFpn-_4QGV12sSMvahFkAKHV9UvE3cvyqPRHaowK75WCr37ucLTc3rAQWlgoMkd4H2lmK7C34guj8vfl_Rvk2OTeXcWRvZxLm1cPqWgoQG2Vcmj66kXIsa4uOpn70GjOmDifA/s1196/20210926_132120.jpg" style="margin-left: 1em; margin-right: 1em;"><span style="background-color: black; color: #ffe599; font-family: inherit; font-size: large;"><img border="0" data-original-height="1196" data-original-width="1078" height="320" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEg-OL5ljdLFpn-_4QGV12sSMvahFkAKHV9UvE3cvyqPRHaowK75WCr37ucLTc3rAQWlgoMkd4H2lmK7C34guj8vfl_Rvk2OTeXcWRvZxLm1cPqWgoQG2Vcmj66kXIsa4uOpn70GjOmDifA/s320/20210926_132120.jpg" width="288" /></span></a></div><span style="background-color: black; color: #ffe599; font-family: inherit; font-size: large;"><div class="separator" style="clear: both;"><span style="background-color: black; color: #ffe599; font-family: inherit; font-size: large;"><br /></span></div><div class="separator" style="clear: both;"><span style="background-color: black; color: #ffe599; font-family: inherit; font-size: large;"><br /></span></div><br /></span><div class="separator" style="clear: both; text-align: left;"><span style="background-color: black; color: #ffe599; font-family: inherit; font-size: large;"><br /></span></div><div class="separator" style="clear: both; text-align: left;"><span style="background-color: black; color: #ffe599; font-family: inherit; font-size: large;"><br /></span></div><br /><br />Na rysunku strona tlenowa (niebieska) cząsteczki wody jest bardziej ujemna niż strona wodorowa (czerwona), tworząc dipol elektryczny. W polu elektrycznym cząsteczka wody będzie się obracać zgodnie z polem. Kiedy kondensuje się w chmurze, średni elektryczny moment dipolowy cząsteczki wody w kropli deszczu jest o 40 procent większy niż pojedynczej cząsteczki pary wodnej. To wzmocnienie wynika z dużej polaryzacji spowodowanej polem elektrycznym indukowanym przez otaczające cząsteczki wody. W atmosferycznym polu elektrycznym molekuły wody zostaną zrównane z dipolami skierowanymi pionowo i w sensie określonym przez polaryzację ładunku w chmurze. Warto zauważyć, że wierzchołki chmur burzowych są naładowane dodatnio, a podstawa jest ujemna. To jest odwrotność promieniowej polaryzacji ładunku w samej Ziemi. I to właśnie ta polaryzacja ładunku powoduje powstanie siły przyciągania niskiego rzędu, którą nazywamy grawitacją. Proponuje się więc, aby reakcje kropelek wody w chmurach nazywać efektem antygrawitacyjnym. Wydaje się, że jest to związane z „Efektem Biefielda-Browna”, w którym naładowany kondensator planarny wysokiego napięcia ma tendencję do poruszania się w kierunku elektrody dodatniej. Ten efekt może wyjaśniać, w jaki sposób miliony ton wody mogą być zawieszone kilometry nad ziemią, gdy krople chmur są około 1000 razy gęstsze niż otaczające powietrze. Oczywiście rodzi to kwestia separacji ładunków w chmurach. Konwencjonalny pogląd „odizolowanej Ziemi” mówi, że ładunek dodatni i ujemny są „w jakiś sposób” oddzielone pionowymi wiatrami w chmurach i że ten proces podczas burz jest odpowiedzialny za ładowanie jonosfery i wywoływanie atmosferycznego pola elektrycznego. Ale to nasuwa pytanie o przyczynę i skutek. Ostatnie loty balonem na dużych wysokościach wykazały, że ładunek nie jest gromadzony w chmurze, on już istnieje w jonosferze powyżej. Doskonale wyjaśnia to model ELEKTRYCZNEGO WSZECHŚWIATA.<br />„Burze to nie generatory prądu, to elementy pasywne w obwodzie międzyplanetarnym, jak samonaprawiający się, nieszczelny kondensator. Energia zmagazynowana w „kondensatorze” chmury jest uwalniana jako błyskawica podczas zwarcia. Zwarcia mogą wystąpić zarówno w chmurze, jak i w poprzek zewnętrznych ścieżek rezystancyjnych do Ziemi lub jonosfery. Ładunek w „kondensatorze” chmury powoduje powstawanie gwałtownych pionowych wiatrów elektrycznych wewnątrz chmury, a nie odwrotnie”.<br /> Ten pogląd jest zgodny z raportem (17 listopada 2003) w Geophysical Review Letters autorstwa Josepha Dwyera z Florida Institute of Technology, który mówi, że zgodnie z konwencjonalną teorią pola elektryczne w atmosferze po prostu nie mogą urosnąć na tyle, aby wywołać piorun. „Tradycyjny pogląd na to, jak powstaje piorun, jest błędny”. I tak oficjalnie „prawdziwe pochodzenie błyskawicy pozostaje tajemnicą”.<br />Para wodna we wznoszącym się powietrzu ochładza się i kondensuje, tworząc chmury. Konwencjonalne wyjaśnienie unoszenia się powietrza opiera się na ogrzewaniu słonecznym. Elektryczny model pogody ma dodatkowe źródło energii galaktycznej (to samo, które zasila Słońce), które napędza ruch powietrza. Jest to, to samo źródło energii, które napędza silne wiatry wysokopoziomowe na gigantycznych planetach zewnętrznych, gdzie energia słoneczna jest przecież bardzo słaba. Gdy para wodna skondensuje się w kropelki, bardziej prawdopodobne jest, że miliony ton wody mogą pozostać zawieszone kilometry nad Ziemią za pomocą zjawisk elektrycznych, a nie termicznych przeciągów. Czy możemy wyjaśnić, w jaki sposób „wzmacnia się naturalny prąd między Ziemią a jonosferą” i jak może to zwiększyć opady? Wydaje się, że wynika to naturalnie z elektrycznego modelu pogody, ponieważ generatory jonów dostarczają ruchome nośniki ładunku do dielektryka / atmosfery, co zwiększa prąd upływu między Ziemią a jonosferą. Pionowe prądy upływowe napędzają pionowy ruch powietrza. W niektórych przypadkach te niewidzialne prądy są prawdopodobnie odpowiedzialne za to niewidzialne zagrożenie dla samolotów — rzekome turbulencje powietrza. A najpoważniejsze wiatry pionowe znajdują się w burzach, gdzie energia elektryczna jest dramatycznie widoczna.<br />Instalacje Earthwise to konstrukcje o wysokości około 7 metrów, w kształcie krótkich, otwartych wież kontroli ruchu lotniczego, w których znajdują się generatory jonów i dmuchawy do podnoszenia jonów. Oddzielne anteny wzmacniają jonizację, manipulując lokalnymi polami elektrycznymi i elektromagnetycznymi. Instalacje ELAT działają w ten sam sposób, ale są bardziej prymitywne z wyglądu, składają się z 37-metrowej wieży centralnej otoczonej ośmiometrowymi słupami rozmieszczonymi heksagonalnie w odległości 150 metrów. Wieża i słupki są połączone ze sobą przewodami, które ustawione na wysokie napięcie prądu stałego przez 2-kilowatowy generator, jonizują cząsteczki powietrza takie jak azot i tlen. Według Bissiachi, gdy jony unoszą się w górę, wytwarzają około 1 miliampera prądu. Mówi, że prąd ten zalewa naturalny prąd Ziemi – około 1 pikoampera – i może wpływać na pogodę do 200 kilometrów od stacji!<br /> Podsumowując wszystkie testy przeprowadzone w latach 2000-2002, ELAT i jej amerykański i kanadyjski odpowiednik Ionogenics w Marblehead w stanie Massachusetts twierdzą, że jonizacja doprowadziła do około dwukrotności średnich opadów historycznych, stymulując między innymi 61-procentowy wzrost produkcji fasoli w Basen centralny Meksyku w ciągu ostatnich trzech lat. Dla porównania, zasiewanie chmur zwykle zapewnia jedynie 10-15 procentową poprawę w opadach deszczu.<br /><br /> Pomimo rzekomych sukcesów jonizacja ma swoich krytyków. Naukowcy zajmujący się atmosferą, którzy skontaktowali się w sprawie tego artykułu, zauważyli, że nawet cztery lata testów były zbyt krótkim okresem, aby udowodnić, że obserwowane efekty nie były spowodowane jakąś nadzwyczajną zmiennością lokalnej pogody. Bissiachi twierdzi, że krytyka prowadzi do głębszych uprzedzeń. „Meteorolodzy nie są przyzwyczajeni do myślenia, że zjawiska elektryczne mogą być ważne dla normalnego modelu hydrodynamicznego”, mówi.<br /> Technologia modyfikacji pogody zawsze miała trudności z poddaniem się rygorystycznym badaniom naukowym. Ross N. Hoffman, wiceprezes Atmospheric and Environmental Research Inc. w Lexington w stanie Massachusetts, pomógł w przygotowaniu naukowego przeglądu dotyczącego zasiewania chmur, który został opublikowany przez Narodową Radę ds. Badań Naukowych USA w Waszyngtonie w listopadzie 2003 r. że nawet po ponad 50 latach użytkowania, zasiewanie chmur pozostało nieudowodnione z naukowego punktu widzenia. „Jonizacja napotyka te same problemy, co rozsiewanie chmur” — mówi. Wśród nich są niepewność co do naturalnej zmienności opadów, niemożność dokładnego pomiaru opadów oraz potrzeba randomizacji i powtórzenia eksperymentów. To ostatnie jest szczególnie kłopotliwe, ponieważ firmy zajmujące się modyfikacją pogody są zazwyczaj zatrudniane do wywoływania deszczu, kiedy tylko mogą. Hoffman zauważa, że losowe włączanie lub wyłączanie systemu w celu udowodnienia działania, nie leży w interesie klienta. Jonizacja ma również wątpliwości co do swojej podstawowej wiarygodności. Brian A. Tinsley, fizyk z University of Texas w Dallas i ekspert od wpływu jonów i prądu w atmosferze, wskazuje, że jonosfera ma około 250 000 woltów w porównaniu do zerowego potencjału powierzchni ziemi. Ale wpływ powstałego prądu i zmian w nim spowodowanych przez promieniowanie kosmiczne i inne zjawiska na tworzenie się kropel i opady jest „stosunkowo mały” i ograniczony do pewnych typów chmur w określonych lokalizacjach, mówi. Biorąc pod uwagę wielkość naturalnego napięcia i skromność jego wpływu na opady, skuteczna modyfikacja pogody za pomocą jonizacji, jego zdaniem, wymagałaby ogromnego poboru mocy i setek kilometrów kwadratowych anten. Jednak jeśli konwencjonalna teoria nie wyjaśnia burz elektrycznych, nie można jej wykorzystać do dyskontowania wyników eksperymentów jonizacyjnych. Zamiast tego konwencjonalna teoria powinna mieć wątpliwości co do swojej podstawowej wiarygodności. Eksperci od pogody mają ograniczony pogląd na elektryczną naturę Ziemi i jej środowiska. „Ogromny wkład mocy” jest swobodnie dostępny z włókien plazmowych galaktyki. Ta galaktyczna energia elektryczna napędza systemy pogodowe na wszystkich planetach i procesy termojądrowe na Słońcu. Tak więc eksperyment z jonizacją przypomina raczej bramkę sterującą w tranzystorze, gdzie niewielki prąd płynący do bramki sterującej wpływa na całą moc wyjściową tranzystora. Ta metoda kontroli pogody powinna w końcu zmusić krytyków do ponownego przemyślenia koncepcji procesów kształtowania pogody.<br /><br /><br /><br /><br /><br /><br /><br /><br /></div><p></p><div class="blogger-post-footer">„Analfabetami XXI wieku nie będą ci, którzy nie umieją pisać ani czytać, lecz ci, co nie potrafią oduczyć się wierutnych kłamstw, w które nauczono ich wierzyć i nie potrafią szukać ukrytej wiedzy, którą nauczono ich odrzucać”</div>#magnetartechprojecthttp://www.blogger.com/profile/00116426320285930090noreply@blogger.com0tag:blogger.com,1999:blog-1727701247933515471.post-14836660935365065122021-09-12T13:15:00.095+02:002023-02-21T22:25:47.371+01:00Księżycowe kłamstwo?<p></p><p></p><p><br /></p><p><br /></p><p><br /></p><p><br /></p><p><br /></p><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiMfEpn01SNxsthBxV7VvkR9__2KQDl5HCzjenPYSaxqIYaM-gWlAJMKlVcsSLq1Ey2uRDYSiEpL-QQpM-xqK_Jyiql9ThCDnmlFzeSaBZz04wwvVIo37t6lqioDyPOLxYuNA6HhEB85Og/s700/592308_ludzie-otworzcie-oczy-w-koncu.jpg" style="margin-left: 1em; margin-right: 1em;"><img border="0" data-original-height="532" data-original-width="700" height="486" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiMfEpn01SNxsthBxV7VvkR9__2KQDl5HCzjenPYSaxqIYaM-gWlAJMKlVcsSLq1Ey2uRDYSiEpL-QQpM-xqK_Jyiql9ThCDnmlFzeSaBZz04wwvVIo37t6lqioDyPOLxYuNA6HhEB85Og/w640-h486/592308_ludzie-otworzcie-oczy-w-koncu.jpg" width="640" /></a></div><p></p><p><br /></p><p><br /></p><p><br /></p><br /> W świetle praw fizyki obowiązujących oficjalną naukę, lądowanie człowieka na Księżycu w 1969 roku nie mogło mieć miejsca w przeciwieństwie do bezzałogowego okrążenia Księżyca i nikt z obecnej cywilizacji nigdy ZAŁOGOWO nie mógł dotrzeć na Księżyc aż do dzisiaj. <div>Z kilku powodów. </div><div>Pomijając na razie wszelkie rozważania, o których dałoby się wiele więcej powiedzieć, jak dywagacje nad możliwym fałszowaniem filmów i zdjęć z Księżyca w które nie będę wnikał, do dzisiaj od tamtego czasu nie ma kontynuacji tej technologii lotu a tłumaczenie tego gigantycznymi finansami na rzecz zimnej wojny, nie przekonuje mnie brakiem jakichkolwiek efektów technologicznych przez blisko 50 lat! A przecież w wielu innych przypadkach tak się właśnie tłumaczy rozwój technologii, mimo początkowego jej użycia dla rywalizacji lub wręcz nawet wojny, nie wspominając o tym, jakim majątkiem dysponują dziś wielkie prywatne korporacje i osoby. Co mogłyby zrobić gdyby tylko chciały dysponując majątkiem większymi niż budżet nie jednego państwa? Zadziwiają też wieloletnie przygotowania do wznowienia księżycowych lotów kosmicznych. Czekałem na nie już jako nastolatek i od tamtej pory ... o rety! Nic się nie stało!<br /><br /><br /><br /><br /><br /><br /><br /><br /><a href="#"><img border="0" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEiGJ2Yath2K1qVRSLBcnTpv_qxPQrxPOnZsLKwjRw35u8tDIQd5unIPzHPZvgsjC1HvuSC4KTHl_sEuDshmrp18-oxApfqDkVWbVV4WCi9OHi6Cr_ok1RZUfxvoYGFukXPP0avWUCwtzGo/w640-h638/FB_IMG_1632230089822.jpg" /></a><br /><br /><br /><br /><br /><br /><br /><br /><br />Wszystko zamyka się wkoło prostej dedukcji. Zajmę się tu tylko fizycznymi warunkami lotu. Jeśli promieniowanie kosmiczne spoza Układu Słonecznego nie jest szkodliwe, po co Słońcu heliopauza? Jeśli jest szkodliwe, wtedy musielibyśmy się przed nim tym bardziej chronić im większe odległości mielibyśmy do pokonania a poza Ukłądem Słonecznycm chronić musielibyśmy się bezwzględnie! Dalej- jeśli promieniowanie pochodzące z wiatru słonecznego nie jest szkodliwe, możemy latać po całym Układzie Słonecznym w aluminiowej puszce o poziomie skomplikowania pralki automatycznej. Jeśli możemy, po co nam Ziemska magnetosfera? <div>Gdyby w odległości do Księżyca i z powrotem promieniowanie wiatru słonecznego nie było szkodliwe to i w locie na Marsa można by je również ostatecznie pominąć bo w tym przypadku cały czas oddalamy się od Słońca a wiatr słoneczny słabnie. </div><div>Odległość z Ziemi do Marsa to w najlepszym wypadku - po tej samej stronie Słońca- 50 milionów km. Odległość do Księżyca wynosi około 380 000 km. </div><div>Magnetosfera Ziemi jest spłaszczona od strony Słońca wiatrem słonecznym do 50 000 km, ale od strony poza słonecznej wydłużona do 500 000 km. </div><div>Tak więc tylko czasowo omiata swoim magnetycznym ogonem nasz Księżyc. Nie daje to pełnej ochrony. Nie wspominając o Pasach radiacyjnych Van Allena i o tym, że trudno wykonać taki pojazd ze względu na problemy techniczne: temperatura graniczna materiałów, naprężenia i wynikające z tego zakłócenia łączności, ale mało tego.<br /><br />Trzeba wspomnieć że Rosjanie tuż przed końcem przygotowań do swojej misji załogowej na Księżyc zauważyli problem niełatwy do przeskoczenia. Na wysokości ~1000 km lotu balistycznego promieniowanie powodowało oślepienie załogi, obojętnie czy przy otwartych, czy zamkniętych powiekach. Przypomnę tylko że Stacja Orbitalna ISS znajduje się na wysokości około 400 km, a już na tej wysokości promieniowanie jonizujące- lekkie atomy- tzw. jądra helu i podobne, porażają siatkówkę oka silnymi błyskami. Co działoby się z ludzkim okiem w przestrzeni kosmicznej całkowicie poza magnetosferą?? Na tej samej wysokości zanika również tzw. Rezonans Schumanna, częstotliwość 7,83 Hz bez której mózg ludzki wpada w niekontrolowane stany psychiczne. Więc trzeba tą częstotliwość symulować niezależnie na pokładzie każdej kosmicznej maszyny przeznaczonej do lotu na Marsa i dalej. Do tego dochodzi jeszcze aspekt psychologiczny. Kto w ogóle odważyłby się lecieć na dwa tygodnie w otwartą przestrzeń kosmiczną poza Ziemię jako pierwszy, nie wiedząc co go tam czeka skoro nikt przed nim tam nie był? Tylko szaleniec który postawi wszystko co ma, na jedną kartę a przecież to szkoleni piloci byli.<div><br /></div><div>No... chyba że załogowy lot nagrano w studiu Stanleya Kubricka... ktoś poleciał na wielkiej rakiecie, a po czasie misji wodował w oceanie. Księżycową wizję dograno w Hollywood i odtworzono równolegle wraz z relacją z orbity w TV. Mam przed oczami te posępne miny astronautów podczas udzielanego zaraz po powrocie, wywiadu dziennikarskiego. Zachowywali się dokładnie tak jakby nie dotarli do założonego przez Kennedy`ego celu...<br />Nieżyjący już Michael Collins razem z Neilem Armstrongiem i Buzzem Aldrinem należał do załogi statku Apollo 11, który 20 lipca 1969 roku (<a href="https://www.youtube.com/watch?v=HkzdoMGq0rY">niby</a>) wylądował na Księżycu. Dziwne tylko że podczas wywiadu zachowywali się tak, jakby przechodzili jakieś załamanie psychiczne. Od tamtego czasu nieco za długo odwleka się loty. </div><div><br /></div><div>Moim zdaniem NASA boi się lecieć na Marsa czy gdziekolwiek, bo dobrze tam wiedzą od czasu rzekomego lotu Apollo 11, że to się nie uda bez REALNEJ elektromagnetycznej ochrony przed promieniowaniem. Jak więc amerykanie w takich warunkach dolecieli do Księżyca? Więc albo promieniowanie kosmiczne i słoneczne JEST, albo NIE JEST szkodliwe dla człowieka. Pora się panowie z NASA zdecydować w zależności od opcji:<br /><br />- astronauci byli na Księżycu i nie przejmujemy się wpływem promieniowania, bo przecież wtedy NIE BYŁO przeciw niemu żadnej ochrony i jakoś dali radę,<br /><br />albo:<br /><br />-NIKT TAM NIE BYŁ (chyba że weźmiemy pod uwagę obcych) i musimy znaleźć sposób na ochronę przed promieniowaniem zanim polecimy na Księżyc czy Marsa.</div><div><br /></div><div>Całościowy wniosek jest jednoznaczny. Na powierzchni Księżyca przy ówczesnym stanie technologii mogły być zrealizowane jedynie automatyczne misje bezzałogowe. </div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgAVrKxLvQGZI6DhU3sYP5zwKi5jmu341Xfny38faSU3B36OjCiocR678cwGHubqjW9zAWgKI3WS7ohq6eh9Ko0hb0XMw9tBpU7IxD2py6aSL_yynFNUFm2Sk69ToJWHZj7VCOTUannR1M/s664/1lai8u.jpg" style="clear: left; margin-bottom: 1em; margin-right: 1em; text-align: center;"><img border="0" data-original-height="664" data-original-width="500" height="596" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgAVrKxLvQGZI6DhU3sYP5zwKi5jmu341Xfny38faSU3B36OjCiocR678cwGHubqjW9zAWgKI3WS7ohq6eh9Ko0hb0XMw9tBpU7IxD2py6aSL_yynFNUFm2Sk69ToJWHZj7VCOTUannR1M/w482-h596/1lai8u.jpg" width="482" /></a></div><div><br /></div><div>Proszę pana, ja i chłopcy mamy to wypracowane, jeśli zostawimy radiolatarnię i materiały do budowy szklarni, czy możemy zamiast tego wziąć samochód?</div><div><br /></div><div><br /></div><div>Jest jeszcze inna , trzecia możliwość. </div><div>Każda sfera pola magnetycznego chroni przed kolejnym coraz mniej szkodliwym poziomem promieniowania. Począwszy od pola elektromagnetycznego galaktyki które chroni życie gwiazd przez najbardziej szkodliwym promieniowaniem otwartego kosmosu, następnie pole elektromagnetyczne gwiazdy chroni przed mniej szkodliwym promieniowaniem wewnętrznym samej galaktyki i w końcu pole elektromagnetyczne planety chroni swoje życie przed promieniowaniem wewnętrznym swojej gwiazdy. W przypadku Ziemi przed polem E.M.Słońca. Logicznie rozumując, trzeba wziąć pod uwagę fakt że gdyby promieniowanie kosmiczne nie było szkodliwe dla istot żywych, Ziemia nie posiadałaby magnetosfery, bo nic w przyrodzie nie pojawia się „na zapas”, no może oprócz rozrodczego materiału genetycznego, chociaż wobec potwornie wielkich ilości przestrzeni w kosmosie względem materialnej części Wszechświata, to sprawa dyskusyjna czy aby tego materiału jest aż tak dużo.</div><div><br />Nie można inaczej ochronić się przed promieniowaniem na dłuższym dystansie lotu, jak zastosować generator dokładnie takiego samego pola, którym chroni nas Ziemia, lecz o większym natężeniu, a wtedy będzie w małym pojeździe nawet o wiele skuteczniejszy. Wszelkie pasywne osłony materiałowe są po pierwsze zbyt dużej masy aby były łatwe do wystrzelenia i skuteczne dla stosowania w przestrzeni kosmicznej. Po drugie nie powinno się promieniowania w nieskończoność pochłaniać. Trzeba je rozpraszać / odbijać. Do tego wystarcza nam ten sam uniwersalny, znany kosmitom elektromagnetyczny mechanizm niwelatora/rozpraszacza fotonowych strumieni elektromagnetycznych i grawitacyjnych, który jednocześnie przy ekstremalizacji tej siły, zaczyna przyciągać nas do pokładu statku. <br /><br />Na marginesie... Mars pola elektromagnetycznego nie posiada ( posiada jakieś szczątkowe w różnych miejscach o różnej sile), więc bez technologicznej symulacji takiego pola, nie ma mowy o stałym zasiedleniu tej czy podobnej planety o stałym gruncie.</div><div><br /></div><div>Budując pojazd zdolny do lotów kosmicznych należy wyposażyć go w ochronne pole magnetyczne.</div><div>Aby taki pojazd był ekonomiczny, można takie pole wzmacniać w pobliżu gwiazd lub dla oszczędności mocy pojazdu, osłabiać jak we wnętrzu wiru czarnej dziury lub w dalekiej od sieci galaktyk przestrzeni kosmicznej, ponieważ w obu tych miejscach panuje kompletna cisza- brak smogu elektromagnetycznego.<br /><br /><a href="https://zrzutka.pl/sjatmd">Projekt</a> który niedawno rozpocząłem, posiada stosunkowo proste wysokonapięciowe żyroskopowe siłowniki magnetyczne zakłócające grawitację jako doziemny ruch „elektro-grawito-fotonów” (nazwa własna), które jednocześnie są tarczą dla promieniowania, podobną działaniem do ziemskiej magnetosfery. Naśladują one proste podstawowe prawo natury, która wytwarza wszystko, co istnieje, za pomocą wiru i tak samo wirem oddziałują dla zakłócenia prądu złożonego z "elektro-grawito-fotonów". Ziemskie pole elektromagnetyczne opiera się wiatrowi słonecznemu tylko i wyłącznie dlatego, że jest to kontrakcja, przeciwdziałanie tym samym cząsteczkom lub ich pochodnym fraktalizacjom. Wiatr słoneczny wykazuje ruch falowy a pole magnetyczne toroidalny. To cała różnica. <br />Wniosek jest taki, że Wszechświat gdy się mu wnikliwie przyjrzeć, wygląda na zasadniczo elektryczny a w przestrzeń kosmiczną najbezpieczniej i najekonomiczniej jest lecieć wyłącznie maszynami elektromagnetycznymi, choć na pewno koncepcja konstrukcyjna prostych elektromechanicznych siłowników którymi będę niedługo dysponować na poziomie modelu, nie będzie odpowiednio wydajna i trwała dla lotów międzygwiezdnych. Dotychczasowe technologie są mało skuteczne, zarówno dla ochrony, tak jak stacje kosmiczne z aluminiowym korpusem, czy transportu, jak rakiety w lotach kosmicznych, które w istocie są kierowanymi w niebo większego kalibru pociskami. W każdym razie oczyszczenie naszego nieba zaśmieconego zbiornikami, osłonami i innej maści drobnym żelastwem pozostałym po technologii rakietowej, tego typu maszynami elektrycznymi, będzie wtedy przyjemnością i całkiem niezłym biznesem złomiarskim. <br /><br /><br /><a href="https://www.bitchute.com/video/vignVGNKbAdn/">Bitchute</a><br /></div></div></div><div class="blogger-post-footer">„Analfabetami XXI wieku nie będą ci, którzy nie umieją pisać ani czytać, lecz ci, co nie potrafią oduczyć się wierutnych kłamstw, w które nauczono ich wierzyć i nie potrafią szukać ukrytej wiedzy, którą nauczono ich odrzucać”</div>#magnetartechprojecthttp://www.blogger.com/profile/00116426320285930090noreply@blogger.com0tag:blogger.com,1999:blog-1727701247933515471.post-51350769606860587902021-09-11T12:03:00.026+02:002023-02-23T00:53:50.460+01:00"SummaTechnologiae" Technologia i człowiek- nieudolny naśladowca natury.<br /><br /><br /><br /><br /><br /><br /><br /><a href="#"><img border="0" height="640" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjZj9CbFXQBtSXAouHm36Dk5KnbRRjRfv_Hk9wEjlXXQFk0ogQ5JsUOh83UKGxKLQKeH1KXKwHmtUADxsyPBnVsr5rj53ydTLpDBq64-5POUav1T7f00pGHpDjuln4LvVu7mkKZAlHZeKs/w456-h640/phoca_thumb_l_Summa_Technologiae_Czech_Magnet_Press_1995.jpg" width="456" /></a><br /><br /><br /><br /><br /><br /><br /><br /><br /><br />I. Dylematy<br /><br />1.<br /><br />Mowa ma być o przyszłości. Ale czy rozprawiać o przyszłych różach nie jest zajęciem co najmniej niestosownym dla zagubionego w łatwopalnych lasach współczesności? A badanie kolców tych róż, doszukiwanie się kłopotów praprawnuka, gdy z ich dzisiejszym nadmiarem nie umiemy się uporać, czy taka scholastyka nie zakrawa aby na śmieszność? Gdybyż mieć chociaż takie usprawiedliwienie, że szuka się środków krzepiących optymizm albo że działa się z umiłowania prawdy, widzialnej ostro właśnie w przyszłości, wolnej od burz, także dosłownych, po opanowaniu klimatów. Uzasadnieniem tych słów nie jest jednak ani pasja akademicka, ani optymizm niewzruszony, nakazujący wiarę, że cokolwiek się stanie, koniec będzie pomyślny. Uzasadnienie to jest zarazem prostsze, bardziej trzeźwe i chyba skromniejsze, bo biorąc się do pisania o jutrze, robię po prostu to, co umiem, mniejsza nawet o to, jak dobrze umiem, skoro jest to moja umiejętność jedyna. A jeśli tak, to praca moja nie będzie ani mniej, ani bardziej zbędna od każdej innej pracy, bo każda na tym przecież się opiera, że świat istnieje i że dalej będzie istniał.<br /><br />Upewniwszy się tak, że zamiar wolny jest od nieprzyzwoitości, spytajmy o zasięg tematu i metodę. Mowa będzie o rozmaitych aspektach cywilizacji, dających się pomyśleć, wywiedzionych z przesłanek znanych dziś, jakkolwiek nikłe jest prawdopodobieństwo ich ziszczenia. Fundament naszych konstrukcji hipotetycznych stanowić mają z kolei technologie, to jest warunkowane stanem wiedzy i sprawności społecznej sposoby realizowania celów, przez zbiorowość upatrzonych, jak również takich, których przystępując do dzieła, nikt nie miał na oku.<br /><br />Mechanizm poszczególnych technologii, zarówno istniejących, jak i możliwych, nie interesuje mnie i nie musiałbym się nim zajmować, gdyby kreacyjna działalność człowieka wolna była, na podobieństwo boskiej, od wszelkich zanieczyszczeń mimowiednością — gdybyśmy, teraz czy kiedykolwiek, potrafili zrealizować nasz zamiar w stanie czystym, dorównując metodologicznej precyzji Genesis, byśmy, mówiąc “niech się stanie światło”, otrzymywali w postaci produktu końcowego samą tylko jasność bez niepożądanych domieszek. Jednakże wspomniane wyżej rozdwajanie się celów; a nawet zastępowanie upatrzonych innymi, jakże często nie chcianymi, jest zjawiskiem typowym. Malkontenci dopatrują się zbliżonych zakłóceń w dziele boskim nawet, zwłaszcza od uruchomienia prototypu istoty rozumnej i oddania tego modelu, Homo Sapiens, do produkcji masowej — ale tę część rozważań pozostawimy raczej teo–technologom. Dość, że czyniąc cokolwiek, człowiek prawie nigdy nie wie, co właściwie czyni — w każdym razie nie wie do końca. Aby sięgnąć od razu skrajności: zagłada Życia na Ziemi, tak dziś możliwa, nie była celem dążeń żadnego z odkrywców energii atomowej.<br /><br />Tak zatem technologie interesują mnie niejako z konieczności, gdyż określona cywilizacja obejmuje zarówno to wszystko, czego zbiorowość pragnęła, jak i to, co nie było niczyim zamiarem. Niekiedy, często nawet, technologię poczynał przypadek, gdy na przykład szukało się kamienia filozoficznego, a wynajdywało porcelanę, ale udział zamierzenia, świadomego celu, w całokształcie zabiegów, sprawczych względem technologii, rośnie w miarę postępów wiedzy. Co prawda, stając się rzadszymi, niespodzianki osiągać mogą za to bliskie apokaliptycznym rozmiary. Jak właśnie powiedziało się wyżej.<br /><br />Mało jest technologii wyzutych z obosieczności, jak wskazuje przykład kos, przytwierdzanych do kół hetyckich wozów bojowych, lub przysłowiowo na miecze przekuwanych lemieszy. Każda technologia jest w zasadzie sztucznym przedłużeniem naturalnej, przyrodzonej wszystkiemu, co żywe, tendencji do panowania nad otoczeniem, a przynajmniej do nieulegania mu w walce o byt. Homeostaza — jak uczenie nazywa się dążność do stanu równowagi, czyli do trwania na przekór zmianom — wykształciła oporne wobec sił ciążenia szkielety wapienne i chitynowe, ruchliwość dające nogi, skrzydła i płetwy, ułatwiające pożeranie kły, rogi, szczęki, układy trawienne, broniące przed nimi pancerze i kształty maskujące, aż doszła w uniezależnianiu organizmów od otoczenia do regulacji stałej ciepłoty ciała. W taki sposób powstały wysepki malejącej entropii w świecie jej powszechnego wzrostu. Do tego się ewolucja biologiczna nie ogranicza, z organizmów bowiem, z typów, klas i gatunków roślinnych i zwierzęcych buduje z kolei całości nadrzędne, nie wysepki już, lecz wyspy homeostazy, kształtując całą powierzchnię i atmosferę planety. Przyroda ożywiona, biosfera, jest zarazem współpracą i pożeraniem się, sojuszem zrośniętym nierozdzielnie z walką, jak wskazują wszystkie zbadane przez ekologów hierarchie: są to, wśród form zwierzęcych zwłaszcza, piramidy, u których szczytów królują wielkie drapieżcę, żywiące się zwierzętami niniejszymi, a te znów innymi, i dopiero u samego spodu, u dna państwa życia, działa wszechobecny na lądach i w oceanach, zielony transformator energii słonecznej w biochemiczną, który bilionem niepozornych źdźbeł utrzymuje na sobie zmienne, bo przemijające formami, ale trwałe, bo nie ginące jako całość, masywy życia.<br /><br />Homeostatyczna, technologiami, jako swoistymi organami, posługująca się działalność człowieka uczyniła go panem Ziemi, potężnym właściwie tylko w oczach apologety, którym jest on sam. Wobec zaburzeń klimatycznych, trzęsień ziemi, rzadkiego, ale realnego niebezpieczeństwa upadku wielkich meteorów człowiek jest w gruncie rzeczy tak samo bezradny, jak w ostatnim glacjale. Owszem — wytworzył technikę niesienia pomocy poszkodowanym takimi czy innymi kataklizmami. Niektóre umie — chociaż niedokładnie — przewidywać. Do homeostazy na skalę planety jest jeszcze daleko, a cóż dopiero mówić o homeostazie w wymiarze gwiazdowym. W przeciwieństwie do większości zwierząt, człowiek nie tyle przystosowuje siebie do otoczenia, ile otoczenie przekształca według swych potrzeb. Czy będzie to kiedykolwiek możliwe wobec gwiazd? Czy powstać może, niechby w najodleglejszej przyszłości, technologia zdalnego sterowania przemianami wewnątrzsłonecznymi, tak aby istoty, nie do wyobrażenia nikłe w stosunku do masy słonecznej, umiały dowolnie powodować jej miliardoletnim pożarem? Wydaje mi się, że to jest możliwe, a mówię to, nie aby wielbić i beze mnie dostatecznie sławiony geniusz ludzki, ale, przeciwnie, by utworzyć szansę kontrastu. Jak dotąd, człowiek nie wyogromniał. Wyogromniały tylko jego możliwości czynienia drugim dobra lub zła. Ten, kto będzie mógł zapalać i wygaszać gwiazdy, potrafi unicestwiać całe globy zamieszkałe, z astrotechnika stając się gwiazdobójcą, zbrodniarzem o randze nie byle jakiej, bo kosmicznej. Jeśli tamto, również i to jest, jakkolwiek nieprawdopodobne, jakkolwiek nikłą obciążone szansą ziszczenia, możliwe.<br /><br />Nieprawdopodobieństwo — dodam od razu niezbędne wyjaśnienie — nie wynika z mojej wiary w konieczny triumf Ormuzda nad Arymanem. Nie ufam żadnym przyrzeczeniom, nie wierzę w zapewnienia, podbudowane tak zwanym humanizmem. Jedynym sposobem na technologię jest inna technologia. Człowiek wie dzisiaj więcej o swych niebezpiecznych skłonnościach, niż wiedział sto lat temu, a za następnych sto lat wiedza jego będzie jeszcze doskonalsza. Uczyni z niej wówczas użytek.<br /><br /><br />2<br /><br />Przyspieszenie tempa rozwoju naukowo—technicznego stało się już tak wyraźne, że nie trzeba być specjalistą, aby je zauważyć. Myślą, że powodowana przez nie zmienność warunków życiowych jest jednym z czynników, wpływających ujemnie na formowanie się homeostatycznych układów obyczajowo–normatywnych współczesnego świata. Gdy całokształt życia następnego pokolenia przestaje być powtórzeniem żywotów rodzicielskich, cóż za wskazania i nauki może ofiarować młodym doświadczona starość? Co prawda to zakłócanie wzorców działalności i jej ideałów przez sam element nieustającej zmiany jest maskowane innym procesem, daleko wyrazistszym i na pewno poważniejszym w skutkach bezpośrednich, mianowicie przyspieszonymi oscylacjami tego systemu samowzbudnego o sprzężeniu zwrotnym dodatnim z bardzo słabą komponentą ujemną, jakim jest układ Wschód–Zachód, oscylujący na przestrzeni ostatnich lat między seriami kryzysów i odprężeń światowych.<br /><br />Wspomnianemu przyspieszeniu narastania wiedzy i powstawania nowych technologii zawdzięczamy, rzecz jasna, szansę poważnego zajmowania się naszym tematem głównym. Tego bowiem, że zmiany zachodzą szybko i gwałtownie, nie kwestionuje nikt. Każdy, kto opisałby rok dwutysięczny jako najzupełniej podobny do naszych dni, okryłby się natychmiast śmiesznością. Podobne rzutowanie (wyidealizowanego) stanu aktualnego w przyszłość nie było dawniej zabiegiem nonsensownym dla współczesnych, jak świadczyć może przykład utopii Bellamy’ego*, który lata dwutysięczne opisał z perspektyw drugiej połowy XIX wieku, świadomie bodaj lekceważąc wszelkie wynalazki możliwe, choć jego dniom nie znane. Jako prawy humanista uważał, że zmiany powodowane technoewolucją nie są istotne ani dla funkcjonowania społeczeństw, ani dla psychiki jednostkowej. Dzisiaj nie trzeba już czekać na wnuków, aby było się komu śmiać z takich naiwności prorokowania, każdy może zabawić się sam, odkładając na parę lat do szuflady to, co opisuje się teraz jako wierną podobiznę jutra.<br /><br />Tak więc, lawinowe tempo przemian, stając się bodźcem podobnych jak nasze roztrząsań, równocześnie redukuje szansę wszelkich przepowiedni. Nie mam nawet na myśli Bogu ducha winnych popularyzatorów, gdy grzeszą ich mistrzowie, uczeni P. M. S. Blackett, znany fizyk angielski, jeden ze współtwórców rachunku operacyjnego — prac wstępnych matematycznej strategii, a więc niejako przepowiadacz zawodowy — w książce z roku 1948 przepowiedział przyszły rozwój broni atomowych i wojenne ich konsekwencje do roku 1960 tak fałszywie, jak tylko można sobie wyobrazić. Nawet ja znałem wydaną w roku 1946 książkę austriackiego fizyka Thirringa, który pierwszy opisał publicznie teorię bomby wodorowej. Blackettowi wydawało się jednak, że broń nuklearna nie wyjdzie z zasięgu kilotonowego, ponieważ megatony (gdy pisał, ów termin notabene jeszcze nie istniał) nie miałyby celów godnych rażenia. Dzisiaj mówić się już zaczyna o “begatonach” (bilion ton TNT, tj. właściwie miliard, gdyż Amerykanie “bilionem” nazywają nasz miliard, czyli tysiąc milionów). Nie lepiej powiodło się prorokom astronautyki. Zachodziły też oczywiście i pomyłki odwrotne — około roku 1955 sądzono, że podpatrzona u gwiazd synteza wodoru w hel da energię przemysłową w najbliższej przyszłości. Teraz umieszcza się stos wodorowy w latach 90 naszego stulecia, jeśli nie później. Ale nie o rozruch tej czy innej technologii idzie — lecz o nieznane takiego rozruchu konsekwencje.<br /><br /><br />3<br /><br />Jak dotąd, dyskredytowaliśmy przepowiednie rozwoju, podcinając niejako gałąź, na której pragniemy dokonać szeregu śmiałych ćwiczeń, a zwłaszcza — rzutu oka w przyszłość: Ukazawszy, jak beznadziejne bywa takie przedsięwzięcie, należałoby na dobrą sprawę zająć się czymś innym, nie zrezygnujemy jednak zbyt łatwo, owszem, uwidocznione ryzyko może być przyprawą dalszych rozważań, poza tym zaś popełniwszy szereg gigantycznych omyłek, znajdziemy się w doskonałym towarzystwie. Z niezliczonej ilości powodów, czyniących przepowiadanie zajęciem niewdzięcznym, wyliczę kilka, szczególnie niemiłych artyście.<br /><br />Najpierw, przemiany decydujące o nagłym zwrocie istniejących technologii wyskakują nieraz ku zadziwieniu wszystkich ze specjalistami na czele, jak Atena z Jowiszowej głowy. Wiek XX został już kilka razy zaskoczony przez nowo objawiające się potęgi, jak choćby cybernetykę. Takiego deus ex machina nie cierpi artysta, rozmiłowany w oszczędności środków i uważający nie bez słuszności, że podobne chwyty są jednym z grzechów głównych przeciw sztuce kompozycji. Cóż mamy jednak począć, skoro Historia okazuje się tak mało wybredna?<br /><br />Dalej, skłonni jesteśmy zawsze przedłużać perspektywy nowych technologii liniami prostymi w przyszłość. Stąd, przezabawny dziś w naszych oczach, “świat uniwersalnie balonowy” albo “wszechstronnie parowy” utopistów i rysowników dziewiętnastowiecznych, stąd też i współczesne zaludnianie gwiazdowych przestworzy “statkami” kosmicznymi, z dzielną “załogą” na pokładzie, “wachtowymi”, “sternikami” i tak dalej. Nie o to chodzi, że tak pisać nie należy, lecz o to, że takie pisanie jest właśnie literaturą fantastyczną, rodzajem XIX–wiecznej powieści historyczne j “na odwrót”, bo jak wtedy przypisywało. się faraonom motywy i psychikę współczesnych monarchów, tak teraz prezentuje się “korsarzy” i “piratów” XXX wieku. Można i tak się bawić, pamiętając, że to jest właśnie tylko zabawa. Historia jednak nie ma z takimi symplifikacjami nic wspólnego. Nie ukazuje nam prostych dróg rozwoju, raczej wijące się zygzaki ewolucji nieliniowej, a więc i z kanonami eleganckiego budownictwa trzeba się niestety rozstać.<br /><br />Po trzecie wreszcie, utwór literacki ma początek, środek i koniec. Jak dotąd, tasowanie wątków, nicowanie czasów i inne zabiegi, mające prozę unowocześnić, fundamentalnego tego podziału jeszcze nie unicestwiły. W ogóle skłonni jesteśmy umieszczać każde zjawisko w ramach schematu zamkniętego. Proszę sobie wyobrazić myśliciela lat trzydziestych, któremu przedstawiamy następującą, wymyśloną sytuację: świat w roku 1960 podzielony jest na dwie części antagonistyczne, z których każda posiada straszliwą broń, zdolną unicestwić drugą połowę tego świata. Jaki będzie rezultat? Odpowiedziałby niechybnie: całkowita zagłada albo całkowite rozbrojenie (ale nie omieszkałby pewno dodać, że koncept nasz jest lichy przez swą melodramatyczność i niewiarygodność). Tymczasem, jak dotąd, nic z takiego proroctwa. Przypominam, że od powstania “równowagi strachu” upłynęło już ponad piętnaście lat* — przeszło trzy razy więcej, aniżeli trwało wyprodukowanie pierwszych bomb atomowych. Świat jest w pewnym sensie jak człowiek chory, który sądzi, że albo wnet wyzdrowieje, albo niebawem umrze, i nawet do głowy mu nie przychodzi, że może, kwękając, z okresowymi pogorszeniami i poprawami dożyć późnej starości. Porównanie ma jednak krótkie nogi… chyba, że wymyślimy lek, który wyleczy radykalnie tego człowieka z choroby, lecz obdarzy go całkiem nowymi zmartwieniami, płynącymi stąd, że będzie miał wprawdzie sztuczne serce, ale umieszczone na wózeczku, połączonym z nim giętką rurką. To oczywiście bzdura, ale chodzi o cenę wyzdrowienia: za wyjście z opresji (za atomowe uniezależnienie się ludzkości od ograniczonych zapasów ropy naftowej i węgla na przykład) zawsze trzeba płacić, przy czym rozmiary i terminy tej płatności, jak również sposoby jej egzekwowania z reguły są niespodzianką. Masowe stosowanie energii atomowej w celach pokojowych niesie z sobą ogromny problem radioaktywnych popiołów, z którymi do dziś nie bardzo wiadomo, co robić. Rozwój zaś broni nuklearnych może nas wprowadzić niebawem w sytuację, w której dzisiejsze propozycje rozbrojenia, na równi z “propozycjami zagłady”, okażą się anachronizmem. Czy będzie to zmiana na gorsze czy na lepsze, trudno orzec. Zagrożenie totalne może wzrosnąć (to znaczy, dajmy na to, zasięg rażenia w głąb wzrośnie i wymagać będzie schronów opancerzonych milowym betonem), ale szansa jego urzeczywistnienia — zmaleć, albo na odwrót. Możliwe są i inne kombinacje. W każdym razie układ globalny jest niezrównoważony, nie tylko w tym znaczeniu, że może się przechylić ku wojnie, bo to nie jest żadne “novum”, ale w tym przede wszystkim, że jako całość ewoluuje. Na razie jest jak gdyby “straszniej” niż w epoce kiloton, skoro są już megatony, lecz i to jest faza przejściowa, i wbrew pozorom, nie należy sądzić, że wzrost mocy ładunków, szybkości ich przenoszenia i akcja “rakiety przeciw rakietom” stanowią jedyny możliwy gradient tej ewolucji. Wchodzimy na coraz to wyższe piętra technologii militarnej, wskutek czego przestarzałe stają się nie tylko konwencjonalne pancerniki i bombowce, nie tylko strategie i sztaby, ale sama istota światowego antagonizmu. W jakim kierunku będzie ewoluowała, nie wiem. Przedstawię za to fragment powieści Stapledona, obejmującej “akcją” dwa miliardy lat ludzkiej cywilizacji.<br /><br />Marsjanie, rodzaj wirusów, zdolnych do łączenia się w na poły galaretkowate “chmury rozumne” —zaatakowali Ziemię. Ludzie walczyli z inwazją długo, nie wiedząc, że mają do czynienia z inteligentną formą życia, a nie z kosmicznym kataklizmem. Alternatywa “zwycięstwo lub klęska” nie spełnia się. Po wiekach walk wirusy uległy zmianom tak dogłębnym, że weszły w skład plazmy dziedzicznej człowieka, i tak wytworzyła się nowa odmiana Homo Sapiens.<br /><br />Myślę że jest to piękny model zjawiska historycznego o skali nam dotąd nie znanej’. Prawdopodobieństwo samego zjawiska nie jest istotne, chodzi mi o jego strukturę. Historii obce są trójczłonowe schematy zamknięte typu początek, środek i koniec”. Tylko w powieści przed słowem “koniec losy bohaterów nieruchomieją w figurze, napawającej autora estetycznym zadowoleniem Tylko powieść musi mieć koniec, dobry czy zły, ale w każdym razie zamykający rzecz kompozycyjnie. Otóż takich zamknięć definitywnych, takich “ostatecznych końców” historia ludzkości nie znała i mam nadzieję, nie zazna.<br /><br /><br /><br /><br />II. Dwie ewolucje<br /><br /><br />Wstęp<br /><br />Wyniknięcie zamierzchłych technologii było procesem, który trudno nam zrozumieć. Ich użytkowy charakter i teleologiczna struktura nie ulegają wątpliwości, a jednak nie miały indywidualnych swych twórców, wynalazców. Dociekanie źródeł pratechnologii jest zajęciem niebezpiecznym. Skuteczne technologie miewały za “podstawę teoretyczną” mit, przesąd: wtedy albo zastosowanie ich poprzedzał rytuał magiczny (lecznicze zioła miały np. zawdzięczać swą własność formule, wypowiadanej przy ich zbieraniu bądź aplikowaniu) lub też same stawały się rytuałem, w którym pierwiastek pragmatyczny splata się nierozerwalnie z mistycznym (rytuał budowy łodzi, w którym receptę produkcyjną realizuje się liturgicznie). Co się tyczy uświadomienia celu końcowego, struktura zamierzenia podjętego przez zbiorowość może dziś zbliżać się do realizacji zamierzenia jednostki; dawniej tak nie było i o zamiarach technicznych społeczności zamierzchłych można mówić tylko przenośnie.<br />Przejście od paleolitu do neolitu, rewolucja neolityczna, dorównująca atomowej pod względem rangi kulturotwórczej, nie zaszła w ten sposób, że jakiś Einstein epoki kamiennej “wpadł na pomysł” uprawy roli i “przekonał” współczesnych do tej nowej techniki. Był to proces nadzwyczaj powolny, przekraczający długość życia wielu pokoleń, pełzające przechodzenie od użytkowania, jako żywności, pewnych napotykanych roślin, poprzez coraz bardziej zamierające, osiedlaniu się ustępujące koczownictwo. Zmiany zachodzące w ciągu życia pojedynczych pokoleń równały się praktycznie zeru. Inaczej mówiąc, każde pokolenie zastawało technologię z pozoru niezmienną i “naturalną”, jak wschody i zachody słońca. Ten typ wynikania praktyki technologicznej nie zaginął całkowicie, ponieważ kulturotwórczy wpływ każdej wielkiej technologii sięga znacznie dalej aniżeli granice życia pokoleń i dlatego zarówno pogrążone w przyszłości konsekwencje tych wpływów natury ustrojowej, obyczajowej, etycznej, jak i sam kierunek, w którym ludzkość popychają, nie tylko nie są przedmiotem niczyjego świadomego zamierzenia, lecz skutecznie uświadomieniu obecności i określeniu istoty takiego typu wpływów urągają. Straszliwym tym (co się stylu, a nie treści tyczy) zdaniem otwieramy ustęp, poświęcony metateorii gradientów ewolucji technologicznej człowieka. “Meta” — ponieważ na razie jeszcze nie o samo wytyczenie jej kierunków, ani określenie istoty skutków powodowanych nam idzie, lecz o fenomen ogólniejszy, bardziej nadrzędny. Kto powoduje kim? Technologia nami, czy też my — nią? Czy to ona prowadzi nas, dokąd chce, choćby do zguby, czy też możemy zmusić ją do ugięcia się przed naszym dążeniem? Ale co, jeśli nie myśl technologiczna określa owo dążenie? Czy zawsze jest tak samo, czy też sam stosunek “ludzkość — technologia” jest zmienny historycznie? Jeśli tak, dokąd zmierza ta wielkość niewiadoma? Kto zdobędzie przewagę, przestrzeń strategiczną dla cywilizacyjnego manewru, ludzkość dowolnie wybierająca z arsenału środków technologicznych do jej dyspozycji, czy też technologia, która automatyzacją zwieńczy proces obezludniania swych obszarów? Czy istnieją technologie do pomyślenia, lecz —teraz i zawsze nierealizowalne? Co by o takiej niemożliwości przesądzało —struktura świata, czy nasze ograniczenia? Czy istnieje inny możliwy, poza technologicznym, kierunek rozwoju cywilizacji? Czy nasz jest w Kosmosie typowy, czy stanowi normę — czy aberrację?<br />Spróbujemy poszukać odpowiedzi na te pytania — chociaż poszukiwanie to nie zawsze da rezultat jednoznaczny. Za punkt wyjścia posłuży nam poglądowa tabela klasyfikacji efektorów, to jest układów zdolnych do działania, którą Pierre de Latil zamieszcza w swojej książce Sztuczne myślenie*. Rozróżnia on trzy główne klasy efektorów. Do pierwszej, efektorów zdeterminowanych, należą narzędzia proste (jak młotek), złożone (maszyny do liczenia, maszyny klasyczne) i sprzężone (ale nie zwrotnie) z otoczeniem — np. automatyczny detektor pożarów. Druga klasa, efektorów zorganizowanych, obejmuje układy o sprzężeniu zwrotnym: automaty z wbudowanym determinizmem działania (regulatory samoczynne, np. maszyny parowej), automaty ze zmiennym celem działania (programowane z zewnątrz, np. mózgi elektryczne) i automaty samoprogramujące się (układy zdobię do samoorganizacji). Do tych ostatnich należą zwierzęta i człowiek. O jeszcze jeden stopień swobody bogatsze są układy, które zdolne są, dla osiągnięcia celu, same siebie zmieniać (de Latil nazywa to swobodą “kto”, w tym sensie, że podczas kiedy człowiekowi organizacja i materiał jego ciała “jest dany”, układy tego wyższego typu mogą — nie posiadając swobody już tylko w zakresie materiału, budulca — przekształcać radykalnie własną organizację systemową: przykładem może być żyjący gatunek w stanie ewolucji biologicznej). Hipotetyczny efektor latilowski jeszcze wyższego rzędu posiada także swobodę w zakresie wyboru materiału, z którego “sam siebie buduje”. De Latil proponuje w postaci przykładu takiego efektora o swobodzie najwyższej —mechanizm samotworzenia materii kosmicznej według teorii Hoyle’a. Łatwo dostrzec, że daleko mniej hipotetycznym i łatwiej sprawdzalnym układem tego rodzaju jest ewolucja technologiczna. Wykazuje ona wszystkie cechy układu o sprzężeniu zwrotnym, programowanego “od wewnątrz”, tj. samoorganizującego się, opatrzonego nadto zarówno swobodą w zakresie całkowitego przekształcania się (jak żywy gatunek ewoluujący), jak i swobodą wyboru materiału budowlanego (gdyż technologii stoi do dyspozycji to wszystko, co zawiera Wszechświat).<br />Proponowaną przez de Latila systematykę układów o zwiększającej się ilości stopni swobody działania uzwięźliłem, usuwając z niej pewne szczegóły podziału wysoce dyskusyjne. Zanim przejdziemy do dalszych rozważań, nie od rzeczy byłoby może dodać, że systematyka ta nie jest, w przedstawionej formie, pełna. Można wyobrazić sobie układy obdarzone dodatkowym jeszcze stopniem swobody: albowiem wybór spośród materiałów zawartych we Wszechświecie jest siłą rzeczy ograniczony do “katalogu części”, jakim Wszechświat dysponuje. Do pomyślenia jest atoli taki układ, który ni( zadowalając się wyborem spośród tego, co jest dane, stwarza materiały “spoza katalogu”, we Wszechświecie nie istniejące. Teozof skłonny byłby może za taki “układ samoorganizujący się o maksymalnej swobodzie” uznać Boga; hipoteza ta nie jest nam jednak niezbędna, ponieważ wolno sądzić w oparciu nawet o skromną wiedzę dnia dzisiejszego, że stwarzanie “część pozakatalogowych” (np. pewnych podatomowych cząstek, których Wszechświat “normalnie” nie zawiera) jest możliwe. Dlaczego? Ponieważ Wszechświat nie realizuje wszystkich możliwych struktur materialnych, i jak wiadomo, nie wytwarza np. w gwiazdach, ani gdzie indziej, maszyn do pisania wszelako “potencja” takich maszyn w nim tkwi — i nie inaczej jest, wolno się domyślać, ze zjawiskami obejmującymi nierealizowalne przez Wszechświat (przynajmniej w obecnej fazie jego istnienia) stany materii i energii w unoszących je przestrzeni i czasie.<br /><br /><br />Podobieństwa<br /><br /><br />O prapoczątkach ewolucji nic pewnego nam nie wiadomo. Dokładnie natomiast znamy dynamikę powstawania nowego gatunku, od jego narodzin poprzez kulminację świetności, po zmierzch. Dróg ewolucji było niemal tak wiele, co rodzajów, a wszystkim wspólne są liczne charakterystyczne cechy. Nowy gatunek przychodzi na świat niepostrzeżenie. Jego wygląd zewnętrzny jest wzięły od już istniejących i to zapożyczenie zdaje się świadczyć o bezwładzie inwencji Konstruktora. Mało co wskazuje początkowo, że ten przewrót organizacji wewnętrznej, któremu gatunek będzie zawdzięczał swój późniejszy rozkwit, już się w zasadzie dokonał. Pierwsze egzemplarze są zwykle drobne, posiadają też szereg cech prymitywnych, jakby ich narodzinom patronowały pośpiech i niepewność. Przez jakiś czas wegetują na pół skrycie, z trudem tylko wytrzymując konkurencję z gatunkami istniejącymi już ot dawna i optymalnie przystosowanymi do stawianych przez świat zadań. Aż wreszcie, za sprawą zmiany równowagi ogólnej, wywołanej nikłymi na pozór przesunięciami w obrębie otoczenia (a otoczeniem jest dla gatunku nie tylko świat geologiczny, ale i wszystkie inne wegetujące w nim gatunki) ekspansja nowego rodzaju rusza z miejsca. Wkraczając w obszary już zajęte, dobitnie l ukazuje swą przewagę nad konkurentami walki o byt. Gdy zaś wchodzi l w przestrzeń pustą, nie opanowaną przez nikogo, wybucha promieniście rozchodzącą się radiacją ewolucyjną, dając początek całemu wachlarzowi odmian naraz, u których zanikaniu ostatków prymitywizmu towarzyszy bogactwo nowych rozwiązań ustrojowych, coraz śmielej podporządkowujących sobie kształt zewnętrzny i nowe funkcje. Tą drogą zmierza gatunek ku szczytom rozwoju, staje się tym, od którego cała epoka weźmie swoje miano. Okres panowania na lądzie, w morzu, czy w powietrzu trwa długo. Nareszcie znów przychodzi do zachwiania równowagi homeostatycznej. Nie jest ono jeszcze równoznaczne z przegraną. Dynamika ewolucyjna gatunku nabiera nowych cech, dotychczas nie obserwowanych. W jego trzonie głównym egzemplarze olbrzymieją, jakby w gigantyzmie szukały ratunku przed zagrożeniem. Zarazem ponawiają się radiacje ewolucyjne, tym razem często tknięte znamieniem hiperspecjalizacji.<br />Boczne odrośle usiłują wniknąć w środowiska, w których konkurencja jest względnie słabsza. Ten ostatni manewr nieraz wieńczy powodzenie i wtedy, gdy wszelki ślad już zaginie po olbrzymach, których produkcją rdzeń gatunku usiłował obronić się przed zagładą, kiedy zawiodą też podejmowane równocześnie próby przeciwstawne (bo niektóre pędy ewolucyjne w tym samym czasie dążą do pospiesznego skarlenia) — potomkowie tamtej, bocznej odrośli, szczęśliwie znalazłszy sprzyjające warunki w głębi peryferycznego obszaru konkurencji, trwają w nim uparcie prawie bez zmian, jako ostatnie świadectwo zamierzchłej bujności i potęgi gatunku.<br />Proszę wybaczyć ten styl z lekka napuszony, tę nie podpartą przykładami retorykę, ale ogólnikowość wzięła się stąd, że mówiłem o dwóch ewolucjach naraz: o biologicznej i technologicznej.<br />W samej rzeczy, nadrzędne prawidłowości ich obu obfitują w analogie zastanawiające. Nie tylko pierwsze płazy podobne były do ryb, a ssaki — do małych jaszczurów. Także pierwszy samolot, pierwsze auto czy radio zawdzięczały swój wygląd zewnętrzny kopiowaniu form, które je poprzedziły. Pierwsze ptaki były upierzonymi jaszczurkami latającymi; pierwsze auto żywo przypominało bryczkę ze zgilotynowanym dyszlem, samolot “ściągnięty” był z latawca (czy wręcz z ptaka…), radio — z wcześniej powstałego telefonu. Także rozmiary prototypów bywały z reguły niewielkie, a budowa ich raziła prymitywizmem. Drobny był pierwszy ptak, praszczur konia czy słonia, pierwsze lokomotywy parowe nie przekraczały rozmiarów zwykłego wozu, a pierwsza lokomotywa elektryczna była nawet jeszcze mniejsza. Nowa zasada konstrukcji biologicznej czy technicznej godna bywa zrazu z politowania raczej aniżeli entuzjazmu. Prawehikuły mechaniczne poruszały się wolniej od konnych, samolot zaledwie odrywał się od ziemi, a słuchanie audycji radiowych nie stanowiło przyjemności nawet w zestawieniu z blaszanym głosem patefonu. Podobnie pierwsze zwierzęta lądowe nie były już dobrymi pływakami, a nie stały się jeszcze wzorami rączych piechurowi Upierzona jaszczurka — archaeopteryx — nie tyle latała, co polatywała. Dopiero w miarę doskonalenia dochodziło do wspomnianych “radiacji”. Jak ptaki zdobyły niebo, a trawożerne ssaki — step, tak pojazd o silniku spalinowym zawładnął obszarem dróg, dając początek coraz lepiej wyspecjalizowanym odmianom. Auto nie tylko wyparło w “walce o byt” dyliżans, ale “zrodziło” autobus, ciężarówkę, spychacz, motopompę, czołg, pojazd terenowy, cysternę i dziesiątki innych. Samolot, opanowując “niszę ekologiczną powietrza, rozwijał się bodaj jeszcze prężniej, zmieniając kilkakrotnie ustalone już kształty i formy napędu (silnik tłokowy zastępuje turbotłokowy, turbina, wreszcie odrzutowy, płatowiec znajduje na mniejszych dystansach groźnego przeciwnika w śmigłowcu, itp.). Warto też zauważyć, że jaj strategia drapieżnika wpływa na strategię jego ofiary, tak samolot “klasyczny” broni się przed inwazją śmigłowca: przez wytworzenie prototypu płatowców, które, dzięki zmianie kierunku odrzutu, mogą startować i lądować pionowo. Jest to walka o maksymalny uniwersalizm funkcji, doskonal znana każdemu ewolucjoniście.<br />Oba nazwane środki transportu jeszcze nie dotarły do szczytowej faz; rozwoju, nie można więc mówić o ich formach późnych. Inaczej stało się z balonem sterowanym, który w obliczu zagrożenia przez maszyny cięższe od powietrza przejawił elefantiazę, tak typową dla przedzgonnego rozkwitu obumierających gałęzi ewolucyjnych. Ostatnie zeppeliny lat trzydziestych naszego stulecia można śmiało zestawiać z atlantozaurami i brontozaurami kredowymi. Ogromnych rozmiarów dosięgły także ostatnie egzemplarze towarowych parowozów, zanim wyparła je trakcja dieslowska i elektryczna. W poszukiwaniu przejawów ewolucji schodzącej w dół, wtórnymi radiacjami usiłującej wydostać się z zagrożenia, zwrócić się możemy do radia i filmu Konkurencja telewizji wywołała gwałtowną “radiację zmienności” radioodbiorników, pojawienie się ich w nowych “niszach ekologicznych”, i tak, powstały aparaty zminiaturyzowane, kieszonkowe, oraz równocześnie innej tknięte hiperspecjalizacją, jak “high fidelity” z dźwiękiem stereofonicznym, z wbudowaną aparaturą do zapisu wysokiej jakości itp. Samo zaś kino, walcząc z telewizją, powiększyło znacznie swój ekran, a nawet wykazuje] tendencję do “otoczenia” nim widza (videorama, circarama). Dodajmy, że można sobie wyobrazić dalszy rozwój pojazdu mechanicznego, który uczynią przestarzałym napęd kołowy. Gdy auto współczesne wyparte zostanie ostatecznie przez jakiś “powietrzny poduszkowiec”, jest wcale prawdopodobne, że ostatnim wegetującym jeszcze w “bocznej linii” potomkiem auta “klasycznego” będzie, dajmy na to, napędzana motorkiem spalinowym mała kosiarka do przystrzygania gazonów i konstrukcja jej będzie odległym odzwierciedleniem epoki automobilizmu, podobnie jak pewne okazy jaszczurów z archipelagów Oceanu Indyjskiego są ostatnimi żyjącymi potomkami wielkich gadów mezozoicznych.<br />Morfologiczne analogie dynamiki bio– i technoewolucji, które można na wykresie przedstawić linią krzywą, pnącą się powoli w górę, aby ze wzgórza kulminacji zejść na powrót w dół, ku zagładzie, podobieństwa takie nie wyczerpują wszystkich zbieżności między tymi dwiema wielkimi dziedzinami. Odnaleźć można zbieżności inne, jeszcze bardziej zastanawiające. Tak na przykład istnieje szereg wielce osobliwych cech organizmów żywych, których powstania i przetrwania nie da się wytłumaczyć ich wartością przystosowawczą. Można tu wymienić, oprócz doskonale znanego koguciego grzebienia, wspaniałe upierzenie samcze niektórych ptaków, np. pawia, bażanta, a nawet pewne podobne do żagli wyrostki kręgosłupowe gadów kopalnych*. Analogicznie, większość wytworów określonej technologii posiada cechy z pozoru bezpotrzebne, afunkcjonalne, nie dające się uzasadnić ani warunkami ich pracy, ani celem działania. Zachodzi tu nader ciekawe i w pewnym sensie zabawne podobieństwo inwazji, w głąb konstruktorstwa biologicznego oraz technologicznego — w pierwszym przypadku, kryteriów doboru płciowego, w drugim zaś — mody. Jeśli ograniczymy się dla wyrazistości do rozpatrzenia sprawy na przykładzie współczesnego samochodu, ujrzymy, że główne cechy auta dyktuje projektantowi bieżący stan technologii, więc, dajmy na to, przy zachowaniu napędu na koła tylne z silnikiem umieszczonym z przodu, konstruktor musi umieścić tunel wału kardanowego wewnątrz pomieszczenia pasażerów. Jednakże pomiędzy tym dyktatem nienaruszalnego schematu “narządowej” organizacji pojazdu a wymaganiami i gustami odbiorcy rozpościera się przestrzeń swobodna “luzu inwencyjnego”, bo można wszakże ofiarować owemu odbiorcy rozmaite kształty i barwy auta, nachylenie i rozmiary szyb, dodatkowe ozdoby, chromy itp. Odpowiednikiem zmienności produktu, wywołanej naciskiem mody, jest w bioewolucji niezwykła różnokształtność drugorzędnych cech płciowych. Cechy owe stanowiły pierwotnie wyniki zmian przypadkowych — mutacji — utrwaliły się zaś w następnych pokoleniach, ponieważ ich nosiciele podlegali uprzywilejowaniu jako partnerzy seksualni. Tak zatem odpowiednikiem samochodowych “ogonów”, ozdób chromowych, fantastycznie modelowanych wlotów powietrza chłodzącego, świateł przednich i tylnych, są godowe ubarwienia, pióropusze, osobliwe narośle czy — last but not least — określony rozkład tkanki tłuszczowej wraz z takimi rysami twarzy, które wywołują aprobatę seksualną.<br />Oczywiście, bezwładność “mody seksualnej” jest w bioewolucii nieporównanie większa niż w technologii, gdyż konstruktor–Natura nie może zmieniać produkowanych przez się modeli z roku na rok. Istota jednak zjawiska, to jest osobliwy wpływ czynnika “niepraktycznego; nieistotnego”, “ateleologicznego”, na kształt i rozwój osobniczy istot żywych i produktów technologii daje się wykryć i sprawdzić na olbrzymiej liczbie dowolnie wybranych przykładów.<br />Można by odnaleźć inne, jeszcze mniej rzucające się w oczy podobieństwa obu wielkich drzew ewolucyjnych. Tak np. znane jest w bioewolucji zjawisko mimikry, to jest upodobniania się jednych gatunków do drugich, kiedy się to okazuje dla “imitatorów” korzystne. Niejadowite owady przypominać mogą do złudzenia gatunki odległe, ale groźne, a nawet “udają” tylko jedną część ciała jakiejś istoty, nic już z owadami nie mającej wspólnego — myślę tu o niesamowitych “kocich oczach” na skrzydłach pewnych motyli. Analogie mimikry można odkryć także w technoewolucji. Lwia część ślusarstwa i kowalstwa XIX–wiecznego powstała pod znakiem imitowania form roślinnych (żelazo konstrukcji mostowych, poręczy, latarni, sztachet, nawet “korony” na kominach starych lokomotyw “udawały” motywy roślinne). Przedmioty codziennego użytku takie, jak wieczne pióra, zapalniczki, lampy, maszyny do pisania, wykazują w naszych czasach często znamiona “opływowości”, udając formy wykształcone w przemyśle lotniczym, w technice wielkich szybkości. Co prawda tego rodzaju mimikrze brak głębokich uzasadnień jej biologicznego odpowiednika, mamy raczej do czynienia z wpływaniem technologii kluczowych na podrzędne, wtórne, poza tym i moda ma tu niejedno do powiedzenia. Zresztą, wykryć, w jakiej mierze dany kształt determinowała podaż konstruktorska, a w jakiej — nabywczy popyt, najczęściej nie można. Mamy tu bowiem do czynienia z procesami kołowymi, w których przyczyny stają się skutkami, a skutki — przyczynami, gdzie działają liczne sprzężenia zwrotne dodatnie i ujemne: organizmy żywe w biologii czy kolejne produkty przemysłowe w cywilizacji technicznej są tylko drobnymi cząstkami owych procesów nadrzędnych.<br />Stwierdzenie to wyjawia zarazem genezę podobieństwa obu ewolucji. Obie są procesami materialnymi o prawie takiej samej ilości stopni swobody i zbliżonych prawidłowościach dynamicznych. Procesy te zachodzą w układzie samoorganizującym się, którym jest i cała biosfera Ziemi, i całokształt technicznych działań człowieka — a układowi takiemu jako całości właściwe są zjawiska “postępu”, to jest wzrostu sprawności homeostatycznej, która zmierza do ultrastabilnej równowagi jako do celu bezpośredniego*.<br />Sięganie do przykładów biologicznych okaże się pożyteczne i płodne także w dalszych naszych rozważaniach. Oprócz podobieństw jednak cechują obie ewolucje także daleko idące różnice, których zbadanie może ukazać zarówno ograniczenia i ułomności tak rzekomo doskonałego Konstruktora, jakim jest Natura, jak i niespodziewane szansę (ale i niebezpieczeństwa), jakimi brzemienny jest lawinowy rozwój technologii w rękach człowieka. Powiedziałem “w rękach człowieka”, ponieważ nie jest ona (na razie przynajmniej) bezludna, całość stanowi dopiero “uzupełniona ludzkością”, i tutaj tkwi różnica może najistotniejsza: bioewolucja jest bowiem ponad wszelką wątpliwość procesem amoralnym, czego o technologicznej powiedzieć niepodobna.<br /><br /><br />Różnice<div><br />1.<br />Pierwsza różnica obu naszych ewolucji jest genetyczna i dotyczy pytania o siły sprawcze. “Sprawcą” bioewolucji jest Natura, technologicznej — Człowiek, Wyjaśnienie “startu” bioewolucji nastręcza po dziś dzień największe kłopoty. Problem powstania życia zajmuje w naszych rozważaniach poważne miejsce, ponieważ rozwikłanie go będzie czymś więcej od ustalenia przyczyn określonego faktu historycznego, odnoszącego się do dalekiej przeszłości Ziemi. Nie chodzi nam o ów fakt sam w sobie, lecz o jego konsekwencje jak najbardziej aktualne dla dalszego rozwoju technologii. Rozwój jej doprowadził do sytuacji, w której dalsza droga nie będzie możliwa bez dokładnej wiedzy o zjawiskach nadzwyczaj złożonych — tak złożonych, jak życie. I nie w tym także rzecz, abyśmy mieli “imitować” żywą komórkę. Nie imitujemy mechaniki lotu ptaków, a przecież latamy. Nie naśladować pragniemy, lecz zrozumieć. I właśnie próby “konstruktorskiego” zrozumienia biogenezy napotykają ogromne trudności.<br />Tradycyjna biologia przywołuje, jako kompetentnego sędziego sprawy, termodynamikę. Ta powiada, że typowy jest bieg zjawisk od większej ku mniejszej złożoności. Powstanie życia było procesem odwrotnym. Jeśli nawet przyjmiemy za prawo ogólne hipotezę o istnieniu “progu minimalnej komplikacji”, po której przekroczeniu system materialny może nie tylko zachowywać aktualną organizację wbrew zewnętrznym zakłóceniom, ale nawet przekazywać ją, nie zmienioną, organizmom potomnych, to taka hipoteza wcale nie stanowi wyjaśnienia genetycznego. Kiedyś bowiem jakiś organizm musiał pierwej ów próg przekroczyć. Otóż nadzwyczaj doniosła jest kwestia, czy stało się to za sprawą tak zwanego przypadku, czy też przyczynowej konieczności? Innymi słowy, czy “start” życia był zjawiskiem wyjątkowym (jak główna wygrana w loterii), czy typowym (jak przegrana na niej)?<br />Biologowie, zabierający głos w sprawie samorództwa życia, powiadają, że musiał to być proces stopniowy, złożony z szeregu etapów, przy czym urzeczywistnienie każdego kolejnego etapu na drodze do powstania prakomórki posiadało własne, określone prawdopodobieństwo. Powstanie aminokwasów w pierwotnym oceanie pod wpływem elektrycznych wyładowań było na przykład wcale prawdopodobne; powstanie z nich peptydów — nieco mniej, ale obarczone przecież sporą szansą ziszczenia; spontaniczna natomiast synteza fermentów, tych katalizatorów życia, sterników jego reakcji biochemicznych stanowi — w takim ujęciu — przypadek nader niezwykły (chociaż dla powstania życia konieczny). Tam, gdzie rządzi prawdopodobieństwo, mamy do czynienia z prawidłowościami statystycznymi. Termodynamika właśnie reprezentuje taki typ praw. Z jej punktu widzenia woda w garnku, postawionym na ogień, zagotuje się, ale nie na pewno. Istnieje możliwość zamarznięcia owej wody na ogniu, wyrażalna co prawda szansą astronomicznie nikłą. Otóż, argumentacja takiego typu, że zjawiska najbardziej nawet termodynamicznie nieprawdopodobne zdarzają się w końcu zawsze, byle tylko czekać dostatecznie cierpliwie, ewolucja zaś życia mi; “ dosyć “cierpliwości”, ponieważ trwała miliardy lat, argumentacja taka! brzmi przekonywająco, dopóki nie weźmiemy jej na warsztat matematyczny. Owszem: termodynamika może przełknąć nawet spontaniczne powstanie białek w roztworach aminokwasów, ale na samorództwo fermentów się nie godzi. Gdyby cała Ziemia była oceanem—roztworem białkowym, gdyby miała promień 5 razy większy niż w rzeczywistości, jeszcze by tej masy ni wystarczyło dla przypadkowego powstania takich ściśle wyspecjalizowanych fermentów, jakie są dla uruchomienia życia niezbędne. Ilość możliwych! fermentów jest większa od ilości gwiazd w całym Wszechświecie. Gdyby białka w pierwotnym oceanie miały czekać na ich spontaniczne powstanie] mogłoby to z powodzeniem trwać całą wieczność. Tak zatem, dla wyjaśnienia] realizacji pewnego etapu biogenezy, trzeba uciec się do postulowania zjawiska nadzwyczaj nieprawdopodobnego — właśnie owej “głównej wygranej” na! kosmicznej loterii.<br />Powiedzmy sobie szczerze: gdybyśmy wszyscy, wraz z uczonymi, byli rozumnymi robotami, a nie istotami z krwi i kości, to uczonych skłonnych przyjąć taki, probabilistyczny wariant hipotezy o powstaniu życia można by policzyć na palcach jednej ręki. To, że jest ich więcej, wynika nie tyle z powszechnego przekonania o jej prawdziwości, co z tego prostego faktu, żel żyjemy, sami więc stanowimy dowodny, choć pośredni argument na rzecz biogenezy. Bo dwa, albo i cztery miliardy lat, to dosyć dla powstania gatunków i ich ewolucji, ale nie dla stworzenia żywej komórki — drogą powtarzających się, ślepych “ciągnień” ze statystycznego worka wszechmożliwości.<br />Sprawa w takim ujęciu jest nie tylko niewiarygodna z punktu widzenia — metodologii naukowej (która zajmuje się zjawiskami typowymi, a nie losowymi o posmaku nieobliczalności), ale stanowi zarazem całkiem jednoznaczny wyrok, skazujący na niepowodzenie wszelkie próby “inżynierii życia czy choćby tylko “inżynierii systemów bardzo złożonych”, skoro powstaniem ich rządzi nadzwyczaj rzadki przypadek.<br />Całe szczęście, że ujęcie to jest fałszywe. Wynika ono stąd, że znamy tylko dwa rodzaje systemów: bardzo proste, typu budowanych przez nas dotąd maszyn, i niezmiernie skomplikowane, jakimi są wszystkie istoty żywe. Brak wszelkich ogniw pośrednich sprawił, że nazbyt kurczowo trzymaliśmy się wykładni termodynamicznej zjawisk, nie uwzględniającej stopniowego wynikania praw systemowych w układach dążących do stanu równowagi. Jeżeli ten stan jest tak wąski, jak w przypadku zegara, i równoznaczny z zatrzymaniem się jego wahadła, brak nam materiału dla ekstrapolacji na systemy o wielu możliwościach dynamicznych, jak planeta, na której rozpoczyna się biogeneza, albo jak laboratorium, w którym uczeni konstruują samoorganizujące się układy.<br />Układy takie, dziś jeszcze stosunkowo proste, stanowią właśnie poszukiwane ogniwa pośrednie. Wynikanie ich, na przykład pod postacią organizmów żywych, nie jest żadną “główną wygraną na loterii przypadku”, lecz stanowi manifestowanie się koniecznych stanów równowagi dynamicznej w obrębie systemu obfitującego w bardzo wiele różnorodnych elementów i tendencji. Tak zatem procesy samoorganizacji odznaczają się nie wyjątkowością, ale typowością, a powstanie życia jest zaledwie jednym z wielu przejawów pospolitego w Kosmosie procesu organizacji homeostatycznej. Termodynamicznego bilansu Wszechświata w niczym to nie narusza, gdyż jest to bilans globalny, dopuszczający mnóstwo takich zjawisk, jak na przykład powstawanie pierwiastków ciężkich (więc bardziej złożonych) z lekkich (więc prostszych).<br />Tak zatem hipotezę typu “Monte Carlo”, kosmicznej ruletki, stanowiącą naiwne metodologiczne przedłużenie rozumowania opartego na znajomości elementarnie prostych mechanizmów, zastępuje teza “panewolucjonizmu kosmicznego”, która z istot skazanych na bierne oczekiwanie nadzwyczajnych trafów zmienia nas w konstruktorów, zdolnych do dokonywania wyboru spośród oszałamiającego mrowia możliwości, zawartych w ogólnikowej na razie dyrektywie budowania układów samoorganizujących się o coraz to większej komplikacji.<br />Osobna jest sprawa, jak przedstawiać się może częstość występowania w Kosmosie owych postulowanych “parabiologicznych ewolucji” — i tego, czy ich zwieńczeniem koniecznym bywa powstanie psychiki w naszym, ziemskim rozumieniu. Ale jest to temat dla osobnych rozważań, wymagających przyciągnięcia obszernego materiału faktycznego z zakresu obserwacji astrofizycznych.<br />Wielki Konstruktor, Natura, dokonuje od miliardoleci swych eksperymentów, wywodząc z raz na zawsze danego materiału (to jednak także pytanie…) wszystko, co jest możliwe. Człowiek, syn matki Natury i ojca Przypadku, podglądając tę niezmożoną działalność, stawia od wieków pytanie o sens owej kosmicznej, śmiertelnie poważnej, bo ostatecznej zabawy. Zapewne — daremnie, jeśliby miał na zawsze pozostać pytającym. Inna rzecz, jeżeli sam sobie zaczyna odpowiadać, przejmując od Natury jej zawiłe arkana i na własny obraz i podobieństwo wszczynając Ewolucję Technologiczną.<br /><br /><br />2.<br />Druga różnica obu rozpatrywanych ewolucji jest metodyczna i dotyczy pytania “w jaki sposób”. Ewolucja biologiczna dzieli się na dwie fazy.<br />Pierwsza obejmuje okres od “startu” z materii martwej do wyniknięcia wyraźnie odgraniczonych od otoczenia żywych komórek. Podczas kiedy prawidłowości ogólne i liczne konkretne przebiegi ewolucji w jej fazie drugiej, powstawania gatunków, znamy wcale dobrze, o tym okresie wstępnym nie możemy powiedzieć właściwie nic pewnego. Okres ten był długo niedoceniany, zarówno co się tyczy jego rozpiętości czasowej, jaki zachodzących w nim zjawisk. Dziś sądzimy, że obejmował co najmniej połowę całego trwania ewolucji, to jest około dwu miliardów lat, a mimo to niektórzy specjaliści skarżą się na jego krótkość. Rzecz w tym, że wtedy właśnie skonstruowana została komórka, elementarna cegiełka budulca biologicznego, taka sama w swym schemacie głównym u trylobitów sprzed miliarda lat, co u współczesnego rumianku, stułbi, krokodyla czy człowieka. Najbardziej zdumiewający i właściwie niepojęty jest uniwersalizm tego budulca. Komórka pantofelka, mięśnia ssaków, liścia roślinnego, gruczołu śluzowego ślimaka czy węzła brzusznego owada posiada te same układy podstawowe, jak jądro, z całym jego doprowadzonym do granic możliwości molekularnej mechanizmem przekazywania informacji dziedzicznej, jak enzymalny układ mitochondriów, jak aparat Golgiego, i w każdej zawarta jest potencja dynamicznej homeostazy, wybiórczej specjalizacji i zarazem hierarchicznej budowy wielokomórkowców. Jedną z podstawowych prawidłowości bioewolucji jest doraźność jej działania, każda bowiem zmiana służy bezpośrednio aktualnym potrzebom przystosowawczym; ewolucja nie może dokonywać zmian takich, które byłyby tylko przygotowawczym wstępem do innych, nadejść mających za miliony lat, ponieważ nic o tym, co za miliony lat będzie, “nie wie”, ponieważ jest konstruktorem ślepym, działającym metodą “prób i błędów”. Nie może też ona, jak inżynier, “zatrzymać” niesprawnej maszyny życia, aby po gruntownym przemyśleniu głównego szkieletu konstrukcyjnego, za jednym zamachem wziąć się do radykalnej jego przebudowy.<br />Tym bardziej właśnie zdumiewa nas i poraża jej “wstępna dalekowzroczność”, którą wykazała, stwarzając w introdukcji do wieloaktowego dramatu rodzajów budulec o nieporównywalnej z niczym wszechstronności i plastyczności. Ponieważ, jak powiedzieliśmy, nie może ona dokonywać nagłych, radykalnych rekonstrukcji, wszystkie mechanizmy dziedziczności, jej ultra—stabilność wraz z ingerującym w nią losowym elementem mutacji (bez których nie byłoby zmiany, więc rozwoju), rozdział płci, potencje rozrodcze, i nawet te właściwości tkanki żywej, które z najwyższą wyrazistością przejawiają się w ośrodkowym układzie nerwowym, wszystkie one włożone już zostały niejako w komórkę archeozoiczną przed miliardami lat. I taką dalekosiężność przewidywania wykazał Konstruktor bezosobowy, bezmyślny, troszczący się pozornie tylko o jak najbardziej momentalny stan rzeczy, o przetrwanie danej, chwilowej generacji praorganizmów — jakichś mikroskopijnych kropelek śluzowo—białkowych, które umiały tylko jedno: trwać w płynnej równowadze procesów fizykochemicznych i dynamiczną strukturę tego trwania przekazywać następnym!<br />O pradramatach tej fazy, przygotowawczej względem właściwej ewolucji gatunków, nie wiemy nic, nie pozostawiła żadnych, ale to żadnych śladów. Jest zupełnie możliwe, że w owych milionleciach powstawały kolejno i ginęły formy prażycia, najzupełniej różne zarówno od współczesnych, jak i najstarszych kopalnych. Być może, dochodziło do wielokrotnego powstawania większych “prawie—żywych” konglomeratów, które rozwijały się przez czas jakiś (mierzony zapewne znowu milionami lat), i dopiero na dalszym etapie walki o byt twory te ulegały nieubłaganemu wyparciu ze swoich nisz ekologicznych przez sprawniejsze, bo bardziej uniwersalne. Oznaczałoby to, teoretycznie możliwą, prawdopodobną nawet, wstępną różnorodność i rozbieżność dróg, na które wstępowała samoorganizująca się materia, z nieustającą eksterminacją jako ekwiwalentem myśli planującej finalny uniwersalizm. I zapewne ilość konstrukcji, które uległy zagładzie, tysiące razy przewyższa garstkę tych, które ze wszystkich prób wyszły zwycięsko.<br />Metoda konstrukcyjna ewolucji technologicznej jest zupełnie inna. Natura — mówiąc obrazowo — musiała założyć w biologicznym budulcu wszystkie daleko później realizowane potencje — człowiek natomiast wszczynał swoje technologie i porzucał je, aby przejść do nowych; będąc w wyborze materiału budowlanego względnie wolnym, mając do dyspozycji temperatury wysokie i niskie, metale i minerały, ciała gazowe, stałe i płynne, mógł pozornie więcej niż Ewolucja, która skazana była zawsze na to, co zostało jej dane: na letnie roztwory wodne, na kleiste substancje wielkocząsteczkowe, na skąpą stosunkowo ilość pierwiastków, które występowały w archeozoicznych morzach i oceanach, ale z tak ograniczonego zestawu wstępnego wycisnęła bezwzględnie wszystko, co tylko było możliwe. W rezultacie ostatecznym “technologia” materii ożywionej bije po dziś dzień na głowę naszą, ludzką, inżynieryjną, wspieraną wszystkimi zasobami społecznie zdobytej wiedzy teoretycznej.<br />Mówiąc inaczej, uniwersalność naszych technologii jest minimalna. Ewolucja techniczna poruszała się dotąd w kierunku odwrotnym niejako od biologicznej, wytwarzając wyłącznie urządzenia wyspecjalizowane wąsko Modelem dla większości narzędzi była ręka ludzka, za każdym razem tylko jeden jej wszakże ruch czy gest: obcęgi, wiertło, młotek imitują kolejno —zwierające się palce, jeden palec wyprostowany i obracany wzdłuż długiej osi dzięki ruchom w stawie nadgarstkowym i łokciowym, pięść wreszcie. Tak zwane uniwersalne obrabiarki są w gruncie rzeczy także urządzeniami wąsko wyspecjalizowanymi, nawet fabryki–automaty, które dopiero powstają, pozbawione są plastyczności zachowania prostych żywych organizmów Szansę uniwersalności zdają się spoczywać w dalszym rozwoju teorii układów samoorganizujących się, zdolnych do przystosowawczego samoprogramowania i funkcjonalne ich podobieństwo do samego człowieka nie jest, naturalnie, przypadkiem.<br />Ale kresem tej drogi nie jest, jak sądzą niektórzy, “powtórzenie” konstrukcji człowieka, czy innych żywych organizmów, w elektrycznej maszynerii urządzeń cyfrowych. Jak dotąd, technologia życia wyprzedza nas o wiele! długości. Musimy ją dogonić, nie po to, aby małpować jej płody, ale żeby pójść dalej, niż sięga jej tylko pozornie nieprześcigniona doskonałość.<br /><br /><br />3.<br />Osobnym rozdziałem metodologii ewolucyjnej jest ten, który obejmuje stosunek teorii do praktyki, wiedzy abstrakcyjnej do urzeczywistnianych technologii. Stosunek ten naturalnie w bioewolucji nie istnieje, ponieważ, rzecz jasna, przyroda “nie wie, co czyni”, a tylko po prostu realizuje to, co możliwe, co samorzutnie wypływa z danych materialnych warunków. Człowiekowi niełatwo przyszło pogodzić się z takim stanem rzeczy, choćby dlatego, że i on należy do “niechcianych”, “mimowiednych” dzieci matki Przyrody.<br />Właściwie nie jest to rozdział, ale olbrzymia biblioteka. Próba streszczenia jej przedstawia się dość beznadziejnie. Zagrożeni otchłanią eksplikacyjną, musimy stać się szczególnie lakoniczni. Pratechnologowie żadnej wiedzy teoretycznej nie posiadali, między innymi dlatego, bo nie wiedzieli, że coś takiego jest w ogóle możliwe. Przez tysiąclecia wiedza teoretyczna rozwijała się bez udziału eksperymentu, wynikając z myślenia magicznego, które jest swoistą formą indukcji, tyle że fałszywie stosowanej; zwierzęcym jej poprzednikiem jest odruch warunkowy, to jest typ reagowania o schemacie “Jeżeli A, to B”. Oczywiście i taki odruch, i magię poprzedzać musi obserwacja. Zdarzało się nierzadko, że sprawna technologia sprzeczna była z fałszywą wiedzą teoretyczną swego czasu, stwarzano więc łańcuch pseudowyjaśnień, mających obie z sobą pogodzić (to, że wody nie można pompami wznieść powyżej dziesięciu metrów, “wyjaśniano” lękiem Natury przed próżnią). Wiedza, we współczesnym rozumieniu, jest badaniem prawidłowości świata, technologia zaś — ich wykorzystywaniem dla zaspokojenia potrzeb człowieka, w zasadzie takich samych dziś, jak w Egipcie faraonów. Odziać nas, wyżywić, dać dach nad głową, przenosić z miejsca na miejsce, chronić od chorób — oto jej zadania. Wiedza troszczy się o fakty — atomowe, cząsteczkowe, gwiazdowe — nie o nas, przynajmniej nie tak, żeby jej kompasem była służebność rezultatów bezpośrednia. Trzeba zauważyć, że bezinteresowność dociekań teoretycznych była dawniej czystsza niż dzisiaj. Dzięki doświadczeniu wiemy, że nie ma wiedzy bezużytecznej w najbardziej pragmatycznym znaczeniu, ponieważ nigdy nie wiadomo, kiedy jakaś informacja o świecie przyda się, ba, okaże się niezwykle potrzebna i cenna. Jedna z najbardziej “zbędnych” gałęzi botaniki, lichenologia, poświęcona pleśniom, okazała się życiodajna dosłownie od chwili odkrycia penicyliny. Badacze–idiografowie, niezmordowani zbieracze faktów, opisywacze i klasyfikatorzy, nie liczyli w dawnych czasach na takie sukcesy. A jednak człowiek, stworzenie, którego niepraktyczność dorównuje czasem tylko jego ciekawości, pierwej zainteresował się kwestią policzenia gwiazd i budowy Kosmosu aniżeli teorią uprawy roli i działania własnego ciała. Z mrówczego, nieraz maniackiego wręcz trudu zbieraczy i kolekcjonerów obserwacji wyrósł z wolna wielki gmach nauk nomotetycznych, uogólniających fakty w prawa systemowe zjawisk i rzeczy. Dopóki wiedza teoretyczna ciągnie się daleko w tyle za praktyką technologiczną, konstruktorska działalność człowieka pod wieloma względami przypomina stosowaną przez Ewolucję metodę “prób i błędów”. Jak ewolucja “wypróbowuje” przystosowawcze możliwości zwierzęcych i roślinnych “prototypów” — mutantów, tak inżynier bada realne możliwości nowych wynalazków, urządzeń latających, pojazdów, maszyn, często uciekając się do budowania modeli redukcyjnych. Ten sposób odsiewu empirycznego rozwiązań fałszywych i ponawiania wysiłków patronował powstaniu wynalazków XIX wieku: żarówki o włóknie węglowym, fonografu, dynamomaszyny Edisona, a wcześniej jeszcze — lokomotywy i statku parowego.<br />Spopularyzowało to koncepcję wynalazcy jako człowieka, któremu oprócz iskry bożej, zdrowego rozsądku, wytrwałości, obcęgów i młotka niczego więcej dla osiągnięcia celu nie trzeba. Jest to jednak sposób rozrzutny, tak rozrzutny prawie, jak właśnie działalność bioewolucji, której empiryczne praktyki milionletnie pochłaniały hekatomby ofiar, tych jej “fałszywych rozwiązań” stawianego przez nowe warunki problemu zachowania życia. Istotą “empirycznej ery” technologii był nie tyle brak rozwiązań teoretycznych, ile ich wtórność. Najpierw powstała maszyna parowa, a potem jej termodynamika, najpierw samolot, potem teoria lotu, najpierw budowano mosty, a potem nauczono się je obliczać. Można by zaryzykować twierdzenie, że empiria technologiczna rozwija się dopóty, dopóki to jest w ogóle możliwe. Edison usiłował wynaleźć cos w rodzaju “silnika atomowego”, ale nic z tego nie wynikło i nie mogło wyniknąć: można bowiem zbudować metodą prób i błędów dynamomaszynę, ale nie — reaktor atomowy. Empiria technologiczna nie jest naturalnie ślepym miotaniem się od jednego nieprzemyślanego eksperymentu do drugiego. Wynalazca–praktyk ma jakąś koncepcję, albo raczej — dzięki temu, czego już dokonał (albo czego inni dokonali przed nim), dostrzega mały skrawek drogi przed sobą. Sekwencja jego działań regulowana jest ujemnym sprzężeniem zwrotnym (fiasko eksperymentu wyjaśnia każdorazowo, że nie tędy droga); w efekcie droga jego jest zygzakowata, ale dokądś dąży, ma określony kierunek. Zdobycie wiedzy teoretycznej pozwala na dokonanie nagłego skoku naprzód. Niemcy w czasie ostatniej wojny światowej nie posiadali teorii balistycznego lotu rakiet naddźwiękowych i kształt swych “V 2” wywiedli przez sita empirycznych prób (dokonywanych na modelach redukcyjnych w tunelu aerodynamicznym). Znajomość odpowiedniej formuły uczyniłaby oczywiście budów wszystkich tych modeli zbędną.<br />Ewolucja nie posiada innej “wiedzy” oprócz “empirycznej”, zawartej w informacyjnym zapisie genetycznym. Jest to przy tym “wiedza” dwojaka. Po pierwsze, ta, która określa i determinuje z góry wszystkie możliwości przyszłego organizmu (“wiedza wrodzona” tkanek o tym, jak mają działać aby procesy życiowe biegły, jak mają zachowywać się jedne tkanki i organ w stosunku do drugich, ale także, jak się ma zachowywać organizm jak całość wobec otoczenia — ta informacja ostatnia jest równoznaczna z “instynktami”, reakcjami obronnymi, tropizmami itp.). Po wtóre, jest wiedza “potencjalna”, nie gatunkowa, lecz osobnicza, nie zdeterminowana, lecz możliwa do wyuczenia w toku osobniczego żywota, dzięki posiadanemu przez organizm systemowi nerwowemu (mózgowi). Ewolucja może pierwszy rodzą wiedzy do pewnego stopnia (ale tylko do pewnego stopnia właśnie) kumulować: gdyż budowa współczesnego ssaka odzwierciedla milionoletnie “do świadczenie” konstruowania kręgowców wodnych i lądowych, które g poprzedziły. Zarazem jednak prawdą jest, że ewolucja “gubi” nieraz w swej drodze skądinąd doskonałe rozwiązania problemów biologicznych. Dlatego plan budowy określonego zwierzęcia (albo i człowieka) bynajmniej ni stanowi jakiejś sumy wszystkich dotychczasowych rozwiązań optymalnych. Brakuje nam przecież nie tylko siły mięśniowej goryla, ale i regeneracyjnych potencji płazów, czy ryb, zwanych “niższymi”, albo mechanizmu ciągłej odnowy uzębienia, jakim odznaczają się gryzonie, czy wreszcie takiej uniwersalności przystosowania do środowiska wodnego, jaką posiadły ziemno wodne ssaki. Tak zatem nie należy przeceniać “mądrości” ewolucji biologicznej, która nieraz już wprowadzała całe gatunki w ślepy zaułek rozwoju, która powtarzała nie tylko rozwiązania korzystne, ale równie często i błędy wiodące ku zgubie. Wiedza ewolucji jest empiryczna i doraźna, a swą pozorną doskonałość zawdzięcza olbrzymim otchłaniom przestrzeni i czasu, które przemierzyła, w których więcej było jednak, jeśli próbować bilansowani! klęsk od sukcesów. Wiedza człowieka wynurza się dopiero, i to nie w wszystkich dziedzinach (najwolniej — w biologii i medycynie bodajże z okresu empirycznego, ale dzisiaj już dostrzegamy, że to, do czego wystarczały cierpliwość i upór, rozświetlane przebłyskiem intuicji, zostało już w zasadzie dokonane. Wszystko inne, wymagające najwyższej jasności myśli teoretycznej, jest jeszcze przed nami.<br /><br /><br />4.<br />Ostatni problem, który przyjdzie nam poruszyć, dotyczy moralnych aspektów technoewolucji. Płodność jej ściągnęła już na siebie surowe krytyki, powiększa bowiem rozziew między dwiema głównymi sferami naszej działalności — regulowaniem Przyrody i regulowaniem Ludzkości. Zgodnie z takim poglądem, energia atomowa dostała się do rąk człowieka przedwcześnie. Przedwczesny jest i jego pierwszy krok w Kosmos, zwłaszcza że wymaga już u zarania astronautyki ogromnych nakładów, uszczuplających i tak niesprawiedliwy podział globalnego dochodu Ziemi. Sukcesy medycyny spowodowały, przez spadek śmiertelności, gwałtowny wzrost populacyjny, którego wobec braku kontroli urodzeń nie sposób pohamować. Technologia ułatwień życia staje się narzędziem jego zubożenia, ponieważ z posłusznego powielacza dóbr duchowych stają się środki masowej informacji producentem tandety kulturalnej. Pod względem kulturalnym jest technologia w najlepszym razie bezpłodna — słyszymy; w najlepszym, ponieważ jednoczenie ludzkości (które jej zawdzięczamy) odbywa się ze szkodą dla duchowego dziedzictwa minionych wieków i twórczości aktualnej. Sztuka, pochłonięta przez technologię, zaczyna podlegać prawom ekonomiki, wykazuje objawy inflacji i dewaluacji, a ponad technicznym rozlewiskiem masowej rozrywki, która musi być łatwa, bo wszechułatwienie jest dewizą Technologów, wegetuje zaledwie garstka indywidualności twórczych; wysiłki ich zmierzają do ignorowania bądź do wyszydzania stereotypów zmechanizowanego życia. Jednym słowem, technoewolucja niesie więcej zła niż dobra; człowiek okazuje się więźniem tego, co sam stworzył, istotą, która w miarę zwiększania swej wiedzy, w coraz mniejszym stopniu może decydować o swoim łosie.<br />Sądzę, że choć lakoniczny, byłem wobec tego poglądu lojalny i przedstawiłem cały zarys jego druzgocącej postęp techniczny oceny.<br />Czy można jednak, czy należy z nim dyskutować? Wyjaśniać, że technologia może być równie dobrze używana, jak i nadużywana? Że od nikogo, a więc i od niej nie można żądać rzeczy sprzecznych? Ochrony życia — więc w konsekwencji, jego przyrostu — równocześnie z tego przyrostu zmniejszaniem? Kultury elitarnej, a zarazem upowszechnionej? Energii, zdolnej przenosić góry, która jednak i dla muchy byłaby nieszkodliwa?<br />Byłoby to chyba nierozumne. Powiedzmy sobie najpierw, że technologię można rozpatrywać rozmaicie. W pierwszym przybliżeniu, technologia jest wypadkową działań człowieka i Natury, realizuje on bowiem to, na co świat materialny daje swą milczącą zgodę. Uznamy ją wówczas za narzędzie osiągania rozmaitych celów, których wybór zależy od stopnia rozwoju cywilizacji, ustroju społecznego, i podlega ocenom moralnym. Wybór tylko —nie technologia. Nie o to zatem chodzi, aby ją potępiać lub chwalić, ale o to, by zbadać, w jakiej mierze można ufać jej rozwojowi i w jakiej wpływać na jego kierunek.<br />Każde inne rozumowanie opiera się na przyjętej milcząco błędnej przesłance, jakoby technoewolucja stanowiła aberrację rozwoju, jego kierunek tyleż fałszywy, co fatalny.<br />Otóż to nie jest prawdą. Istotnie: kierunek rozwoju nie był przez nikogo ustalany ani przed Rewolucją Przemysłową, ani po niej. Kierunek ów, d Mechaniki, więc maszyn “klasycznych”, z astronomią pojętą mechaniczni jako wzorem dla naśladowcy–konstruktora, poprzez Ciepło, z jego silni: na paliwa chemiczne, i Termodynamikę, ku Elektryczności, stanowił zarazem przechodzenie w sferze poznawczej od praw singularnych do statystycznych, od sztywnego kauzalizmu do probabilizmu i — jak .{o dopiero te; rozumiemy — od prostoty, jak najbardziej “sztucznej” w tym sensie, w Naturze nic nie jest proste — do złożoności, której narastanie unaoczniło nam, że głównym kolejnym zadaniem jest Regulacja.<br />Jak widzimy, było to przechodzenie od rozwiązań prostszych do coraz trudniejszych, przez ich złożoność. Tak więc tylko ujmowane w odosobnieniu,—fragmentarycznie, poszczególne kroki na tej drodze— odkrycia, wynalazki — wydają się skutkami szczęśliwych zbiegów okoliczności, przypadków trafów pomyślnych. W całości była to droga najbardziej prawdopodobni i zapewne — gdyby można zestawić cywilizację ziemską z hipotetycznym cywilizacjami Kosmosu — typowa.<br />Że taka żywiołowość daje w kumulatywnym efekcie po wiekach obok skutków pożądanych takie, których szkodliwości nikt nie przeczy, trzebi uznać za nieuniknione.<br />Tak więc potępienie technologii jako źródła zła winna zastąpić apologia, lecz zwykłe zrozumienie tego, że era przedregulacyjna zmierza swemu końcowi. Kanony moralne winny patronować dalszym naszym poczynaniom, jako doradcy w wyborze spośród alternatyw, które ukazuje i producent, amoralna technologia. Ona dostarcza środków i narzędzi; zasługą lub winą jest dobry albo zły sposób ich użycia.<br />Jest to pogląd dość rozpowszechniony, dobry zapewne jako pierwsze przybliżenie, ale też nic nadto. Podział taki nie daje się utrzymać, zwłaszcza na dłuższy dystans. Nie dlatego, że to my stwarzamy technologię; dlatego przede wszystkim, że ona kształtuje nas i nasze postawy, także moralne. Oczywiście, za pośrednictwem ustrojów społecznych, jako ich baza wytwórcza, ale nie o tym chcę mówić. Może ona działać i działa także bezpośredni Nie przywykliśmy do tego, by istniały związki bezpośrednie między a moralnością, a jednak tak jest. Przynajmniej tak być może. Aby nie być gołosłownym: oceny moralne czynów zależą przede wszystkim od ich nieodwracalności. Gdybyśmy mogli wskrzeszać umarłych, zabójstwo, nie przestając być czynem złym, przestałoby być zbrodnią, jak nie jest nią wymierzeni drugiemu człowiekowi w gniewie uderzenie. Technologia jest bardziej agresywna, aniżeli zazwyczaj sądzimy. Jej ingerencje w życie psychiczne, próbie! my związane z syntezą i metamorfozą osobowości, którym poświęcimy osobną uwagę, aktualnie tylko są klasą zjawisk pustą. Wypełni ją dalszy postęp. Sczeźnie wówczas wiele nakazów moralnych, dziś uważanych za niewzruszone, wyłonią się za to nowe zagadnienia, nowe dylematy etyczne!<br />Oznaczałoby to, że nie ma moralności ponadhistorycznej. Różne są tylko skale trwania zjawisk; w końcu jednak nawet łańcuchy górskie upadają, obrócone w piasek, bo taki jest świat. Człowiek, istota nietrwała, chętnie posługuje się pojęciem wieczności. Wieczne mają być pewne dobra duchowe, wielkie dzieła sztuki, systemy moralne. Nie łudźmy się jednak: i one są śmiertelne. Nie jest to zastąpienie ładu chaosem ani konieczności wewnętrznej — bylejakością. Moralność zmienia się powoli, ale się zmienia i dlatego tym trudniej zestawiać z sobą dwa kodeksy etyczne, im większa dzieli je otchłań czasu. Jesteśmy bliscy Sumeryjczykom, ale moralność człowieka kultury lewaloaskiej przeraziłaby nas.<br />Postaramy się ukazać, że nie ma systemu ocen pozaczasowych, jak nie ma ani newtonowskiego, absolutnego układu odniesienia, ani absolutnej równoczesności zjawisk. Nie oznacza to zakazu wypowiadania takich ocen w odniesieniu do zjawisk przeszłych bądź przyszłych: człowiek zawsze wypowiadał sądy wartościujące ponad swój stan i realne możliwości. Oznacza to tylko, że każdy czas ma swoją rację, z którą można się zgadzać lub nie zgadzać, ale którą pierwej trzeba zrozumieć.</div><div><br /></div><div><br /><br />Pierwsza przyczyna<br /><br /><br />Żyjemy w fazie przyspieszenia technoewolucji. Czy wynika z tego, że cała przeszłość człowieka, od ostatnich zlodowaceń, poprzez paleolit i neolit, przez starożytność i wieki średnie była w swej istocie przygotowaniem, gromadzeniem sił do tego skoku, który unosi nas dzisiaj w niewiadomą przyszłość?<br />Model cywilizacji dynamicznej powstał na Zachodzie. Zadziwiającą rzeczą jest studiowanie historii i przekonywanie się, jak rozmaite narody dochodziły do pobliża obszarów “startu technologicznego” i jak się u jego przedproży zatrzymywały. Stalownicy współcześni uczyć by się mogli u cierpliwych rzemieślników Lidii, którzy stworzyli słynną nierdzewną kolumnę metalową w Kitabie metodą proszkowej metalurgii, odkrytą po raz drugi dopiero w naszych czasach. O wynalezieniu przez Chińczyków prochu i papieru wie każdy. Nieodzowne nauce narzędzie myślowe, matematyka, wielki swój rozwój zawdzięcza uczonym arabskim. A jednak z owych odkryć, tak rewolucyjnych, nic nie wynikło w sensie cywilizacyjnego pchnięcia, zapoczątkowania lawinowego postępu. Obecnie cały świat przejmuje od Zachodu jego model rozwojowy. Technologię importują narody, mogące szczycić się posiadaniem kultur starszych i bardziej złożonych od tej, która technologię wydała. Nasuwa się fascynujące pytanie: co by było, gdyby Zachód nie dokonał technologicznego przewrotu, gdyby nie ruszył Galileuszami, Newtonami, Stephensonami ku przemysłowej rewolucji?<br />Jest to pytanie o “pierwszą przyczynę”. Czy źródła jej nie kryją się w konfliktach wojennych? Moc napędowa wojen jako motorów technoewolucji jest znana i osławiona. Z upływem wieków technika militarna traci swój wyodrębniony z całokształtu wiedzy charakter, w tym sensie, że staje się uniwersalna. Podczas kiedy balisty i tarany były wyłącznie, narzędziami wojennymi, proch strzelniczy mógł już służyć przemysłowi (np. w górnictwie), a w większej mierze dotyczy to technologii transportu, bo nie ma środka komunikacji, od pojazdu kołowego po rakietę, który, zmodyfikowany, nie mógłby służyć celom pokojowym. Technologia zaś atomowa, cybernetyczna, astronautyczna wykazują całkowite niemal zrośnięcie potencjałów militarnych z pokojowymi.<br />A jednak wojowniczych skłonności człowieka nie można uznać za motory napędowe ewolucji technologicznej. Z reguły powiększały jej tempo; były wielkim wykorzystaniem zasobów wiedzy teoretycznej swojego czas ale trzeba odróżnić czynnik przyspieszający od inicjującego. Wszystkie narzędzia wojenne zawdzięczają swe powstanie fizyce Galileusza i Einsteina, chemii osiemnasto– i dziewiętnastowiecznej, termodynamice, optyce i atomistyce, ale doszukiwać się militarnej genezy takich dziedzin teoretyczny byłoby nonsensem. Bieg raz uruchomionej technoewolucji można bez wątpienia przyspieszać lub hamować. Amerykanie postanowili zainwestować 2 miliardów dolarów w lądowanie pierwszych swych ludzi na Księżycu około roku 69. Gdyby byli gotowi przesunąć ów termin o lat dwadzieścia, realizacji projektu “Apollo” kosztowałaby zapewne daleko mniej, ponieważ technologia prymitywna przez swą młodość pochłania nakłady nieproporcjonalni wielkie w stosunku do tych, jakich wymaga osiągnięcie analogicznego celi w fazie jej dojrzałości.<br />Gdyby jednak Amerykanie gotowi byli wydatkować nie 20, lecz 2 miliardów dolarów, na pewno nie wylądowaliby na Księżycu za sześć miesięcy, podobnie jak żadnymi, choćby i bilionowymi nakładami, urzeczywistni się w najbliższych latach lotu do gwiazd. A zatem inwestując wielkie sumy i koncentrując wysiłki można dojść do pułapu szybkość technoewolucji, po czym dalsze nakłady już efektów nie dadzą. Stwierdzenie to, o posmaku oczywistości, pokrywa się z analogicznymi prawidłowościam rządzącymi bioewolucją. Ona również zna tempo ewoluowania maksymalne, w żadnych okolicznościach nie dające się przekroczyć.<br />Ale myśmy pytali o “pierwszą przyczynę”, a nie o tempo maksymalne j działającego procesu. Dociekanie, z takim zamiarem, praźródeł technolog! jest zajęciem dosyć rozpaczliwym, wędrówką w głąb historii, która notują tylko fakty, ale nie wyjaśnia ich przyczyn. Dlaczego to olbrzymie drzewo ewolucji technologicznej, którego korzenie sięgają bodaj ostatniego zlodowacenia, a korona zanurzona jest w nadchodzących tysiącleciach, wyrastające we wczesnych fazach cywilizacji, w paleolicie i neolicie, na całej kuł ziemskiej mniej więcej jednakowo, właściwy swój, potężny rozkwit przeżyli w obrębie Zachodu?<br />Levi–Strauss próbował, jakościowo tylko, bez analizy matematycznej, która wobec złożoności zjawiska nie jest możliwa, odpowiedzieć na to pytanie. Rozpatrywał wyniknięcie technoewolucji statystycznie, stosując dla jej genetycznego wyjaśnienia — teorię prawdopodobieństwa.<br />Technologię pary i elektryczności, a potem — chemii syntez i atomu zapoczątkował szereg dociekań, zrazu od siebie niezależnych, które przemierzały kręte nieraz i dalekie drogi, także z Azji, aby zapładniać umysły wokół basenu Morza Śródziemnego. Doszło w ciągu kilkuset lat do “utajonego” narastania wiedzy, aż przejawił się kumulatywny efekt wydarzeń takich, jak obalenie arystotelizmu jako dogmatu i uznanie za dyrektywę wszelkiej działalności poznawczej — empirii, jak podniesienie eksperymentu technicznego do rangi zjawiska o wymiarze społecznym, jak upowszechnienie fizyki mechanistycznej. Procesom tym towarzyszyło powstawanie wynalazków, społecznie potrzebnych; to ostatnie zjawisko jest niezwykle doniosłe, ponieważ potencjalnych Einsteinów, czy Newtonów miał każdy naród i każda epoka, ale brak było gleby, warunków, brak zbiorowego rezonansu, wzmacniającego wyniki ich jednostkowych działań.<br />Levi–Strauss sądzi, że na drogę przyspieszenia postępu wprowadza zbiorowość określona “passa” następujących po sobie zjawisk. Istnieje jak ;dyby pewna wielkość krytyczna, pewien współczynnik “rozmnażania się” koncepcyj i ich społecznych realizacji (budowanie pierwszych maszyn parowych, powstanie energetyki węgla, wyniknięcie termodynamiki itd.), który doprowadza nareszcie do lawinowego wzrostu odkryć, uwarunkowanych tamtymi pierwszymi, tak samo, jak istnieje pewna krytyczna wielkość współczynnika “rozmnażania się” neutronów, która, w masie ciężkiego pierwiastka, powoduje, po przekroczeniu pewnego progu, reakcję łańcuchową. My właśnie przeżywamy cywilizacyjny odpowiednik takiej reakcji, i może wręcz “eksplozję technologiczną”, która znajduje się w pełnej ekspansji. O tym, czy jakaś społeczność wejdzie na taką drogę, czy zapoczątkuje reakcję łańcuchową, decyduje właściwie według francuskiego etnologa przypadek. Podobnie jak gracz, rzucając kośćmi, może liczyć na wyrzucenie sekwencji samych szóstek, byle tylko grał dostatecznie długo, tak samo też, z probabilistycznego punktu widzenia, każda społeczność ma, przynajmniej w zasadzie, jednakie szansę wstąpienia na drogę szybkiego postępu materialnego.<br />Należy zauważyć, że Levi–Straussowi szło o coś innego niż nam. Pragnął wykazać, że najbardziej różniące się od siebie cywilizacje, więc także atechnologiczne, są równoprawne i nie wolno ich wartościować, uznawać jednych za “wyższe” od innych tylko dlatego, że poszczęściło im się w nazwanej “grze”, dzięki czemu dotarły do startu reakcji łańcuchowej. Model to piękny przez swą metodologiczną prostotę, wyjaśnia, czemu poszczególne, wielkie nawet odkrycia mogą zawisać, co się tyczy ich technogennych efektów społecznych, w próżni — jak to było z metalurgią proszkową Hindusów czy prochem Chińczyków. Dla zapoczątkowania reakcji łańcuchowej zabrakło jej dalszych, niezbędnych ogniw. Z hipotezy tej wynika jasno, Wschód był po prostu graczem “mniej szczęśliwym” od Zachodu, przynajmniej w sprawie prymatu technologicznego i że — to wniosek logiczny — przy nieobecności na scenie dziejów Zachodu na taką samą drogę wkroczyłby prędzej czy później Wschód. O słuszność owej tezy spróbujemy posprzeczam się w innym miejscu; teraz skoncentrujemy się na probabilistycznym modelu! wynikania cywilizacji technologicznej.<br />Otóż odwołując się do naszego wielkiego analogu, ewolucji biologicznej, zauważymy, że odmiany, gatunki i rodziny powstawały w toku ewolucji | nieraz równolegle na oddzielonych od siebie kontynentach. Można przyporządkować poszczególnym trawożernym czy drapieżcom Starego Świata j formy Nowego Świata, które nie są z nimi spokrewnione (przynajmniej blisko), ale które ewolucja wymodelowała podobnie, ponieważ działała na ich praprzodków podobnymi warunkami otoczenia i klimatu. Natomiast ewolucja typów była z reguły monofiletyczna, takie jest przynajmniej zdanie poważnej większości fachowców. Raz jeden powstały kręgowce, raz ryby, raz na całej kuli ziemskiej płazy i gady, i ssaki. Jest to zastanawiające. Jak widzimy, wielki przewrót organizacji cielesnej, taki “wyczyn konstruktorski”, zdarzał się zawsze w skali planety tylko raz.<br />Można i to zjawisko potraktować jako podległe statystyce: powstanie ssaka czy ryby było tak mało prawdopodobne, że podobna “główna wygrana” wymagająca “wyjątkowego szczęścia”, zbiegu licznych przyczyn i warunków, stanowiła fenomen niezmiernie rzadki. Im zaś zjawisko rzadsze, tym bardziej nieprawdopodobne jest jego powtórzenie się. Dodajmy, że jeszcze jedną cechę wspólną możemy dostrzec u obu ewolucji. W obu powstały formy wyższe i niższe, mniej i bardziej złożone, które dotrwały do dzisiaj. Z jednej strony, ryby na pewno poprzedziły płazy, a te znów gady, ale dzisiaj żyją przedstawiciele wszystkich tych klas. Z drugiej strony, ustrój rodowo—plemienny poprzedził niewolniczy i feudalny, a ten — kapitalistyczny, ale jeśli nie do dzisiaj, to do dnia wczorajszego istniały na Ziemi obok siebie wszystkie te ustroje, wraz z najprymitywniejszymi, których resztki można jeszcze odkryć na archipelagach mórz południowych.<br />Otóż co się tyczy bioewolucji, zjawisko wyjaśnić jest łatwo: zmianę wywołuje w niej zawsze potrzeba. Jeżeli otoczenie tego nie wymaga, jeśli pozwala istnieć jednokomórkowcom, będą one płodzić kolejne pokolenia najprostszych przez sto czy pięćset milionów lat.<br />Co jednak powoduje przemiany ustrojów społecznych? Wiemy, że motorem jest zmiana narzędzi produkcji, tj. technologii. A więc znów powracamy do punktu wyjścia, bo jasne jest, że ustroje nie zmieniają się, jeśli niezmiennie posługują się tradycyjnymi technologiami, choćby one pochodziły prosto z neolitu.<br />Problemu nie rozstrzygniemy definitywnie. Niemniej, można orzec, że hipoteza probabilistyczna “reakcji łańcuchowej” nie uwzględnia swoistości struktury społecznej, w której ma do takiej reakcji dojść. Ustroje o bardzo podobnej bazie wytwórczej wykazują znaczne nieraz różnice w obszarze kulturowej nadbudowy. Niezamierzone jest bogactwo wyrafinowanych rytuałów socjalnych, skomplikowanych nieraz do udręki, przyjętych i rygorystycznie narzucanych norm postępowania w życiu rodzinnym, plemiennym i tak dalej; zafascynowanego miriadami tych zależności wewnątrz-cywilizacyjnych antropologa winien zastąpić socjolog—cybernetyk, który, świadomie lekceważąc wewnątrzkulturowe, semantyczne znaczenie wszystkich takich praktyk, zbada ich strukturę jako układu o sprzężeniach zwrotnych, układu, którego celem jest stan równowagi ultrastabilnej, a zadaniem dynamicznym — zmierzająca do utrwalenia tego stanu regulacja.<br />Jest wysoce prawdopodobne, że pewne z owych struktur, z owych systemów wzajemnie posprzęganych zależności międzyludzkich, restrykcjami nałożonymi na swobodę czynów i myśli mogą bardzo skutecznie przeciwdziałać wszelkiej wynalazczości naukowo—technicznej. Jak również, że są i takie struktury, które, może i nie wspomagając tej wynalazczości, otwierają dla niej przynajmniej pewien, jakkolwiek ograniczony przestwór. Oczywiście — podstawowe rysy feudalizmu europejskiego były zadziwiająco zbliżone do feudalizmu Japonii jeszcze XIX—wiecznej. A jednak oba modele — azjatycki i europejski — tego samego ustroju wykazywały też określone różnice, mające w aktualnej dynamice społecznej znaczenie drugo–, a może i trzeciorzędne, które jednak sprawiły, że to Europejczycy, a nie Japończycy, rozłamali nową technologią feudalizm i stworzyli na jego gruzach pierwociny przemysłowego kapitalizmu*.<br />W takim ujęciu technologiczną reakcję łańcuchową zapoczątkowuje nie seria przypadków jednorodnych (kolejnych odkryć pewnego typu na przykład), lecz nałożenie się na siebie dwóch ciągów wydarzeń, z których pierwszy (cybernetycznie pojęta struktura nadbudowy) ma charakter masowo–statystyczny w wyższym stopniu niż drugi (pojawienie się, u jednostek, zainteresowań empiryczno–technicznych). Dwa te ciągi muszą się skrzyżować, aby powstała szansa startu technoewolucji. Jeśli do takiego spotkania nie dojdzie, to poziom cywilizacji neolitycznej może się okazać pułapem nie do przekroczenia.<br />I ten szkicowy obraz jest na pewno grubym uproszczeniem, ale rzecz wyjaśnią dopiero przyszłe prace badawcze.</div><div><br /><br /><br />Kilka naiwnych pytań<br /><br /><br />Każdy rozsądny człowiek układa plany życiowe. W określonych granicach ma swobodę wyboru wykształcenia, zawodu, sposobów życia. Jeśli się na to zdecyduje, może zmienić wykonywaną pracę, a nawet, do pewnego stopnia, własne postępowanie. Nie można powiedzieć tego o cywilizacji. Nikt jej, przynajmniej do końca XIX wieku, nie planował. Powstawała żywiołowo, rozpędzała się w technologicznych skokach neolitu i rewolucji przemysłowej, zastygała na tysiąclecia, jedne kultury narastały i przemijały, na ich gruzach powstawały inne. Cywilizacja “sama nie wie”, kiedy, w którym momencie swych dziejów, dzięki serii odkryć naukowych i ich społecznej eksploatacji, wchodzi na drogę rosnącego przyśpieszenia rozwoju. Rozwój ten wyraża się w zwiększonym zakresie homeostazy, we wzroście użytkowanych energii, w coraz bardziej skutecznej ochronie jednostki i zbiorowości przed zakłóceniami wszelkich możliwych rodzajów (choroby, katastrofy żywiołowe, itp.). Ten rozwój umożliwia kolejne opanowanie żywiołowych sił Natury i społeczeństwa, dzięki aktom regulacji, ale zarazem opanowuje i kształtuje losy ludzkie. Cywilizacja nie działa tak, jak chce, ale tak, jak musi działać. Dlaczego mamy właściwie rozwijać cybernetykę? Między innymi dlatego, ponieważ niedługo natrafimy zapewne na “barierę informacyjną”, która zahamuje wzrost nauki, jeśli nie dokonamy w sferze umysłowej przewrotu, jaki dokonał się w sferze pracy fizycznej w ciągu ostatnich dwu stuleci. Ach, więc to tak. Nie będziemy zatem robili tego, co zechcemy, lecz to, czego wymaga od nas osiągnięta faza dynamiki cywilizacyjnej. Uczony powie, że w tym właśnie przejawia się obiektywne działanie rozwojowego gradientu. Czy cywilizacja nie może jednak, jak jednostka, zdobyć swobody wyboru dalszej drogi? Ale jakie warunki muszą być spełnione, aby taka swoboda nastała? Społeczeństwo musi uniezależnić się od technologii problemów elementarnych. Zagadnienia podstawowe każdej cywilizacji — żywności, odzieży, transportu, a także: startu życiowego, dystrybucji dóbr, ochrony zdrowia i mienia, muszą się rozwiać. Muszą się stać niewidzialne, jak powietrze, którego obfitość była jedynym dotąd nadmiarem, towarzyszącym ludzkiej historii. Bez wątpienia, to da się zrobić. Ale to tylko warunek wstępny, bo wtedy dopiero w całej okazałości wyłoni się pytanie “co dalej?” Sensem życia obdarza jednostkę społeczeństwo. Ale kto albo co obdarza sensem, określoną treścią życiową, cywilizację? Kto ustala hierarchię jej wartości? Ona sama. Od niej zależy ów sens, owa treść, z chwilą wkroczenia w obszar swobody. Jak można sobie wyobrazić tę swobodę? Jest to, rozumie się, wolność od klęsk, od nędzy, od nieszczęść — ale czy ten ich brak, ta nieobecność dotychczasowych nierówności, nie zaspokojonych głodów i pragnień, oznacza szczęście? Gdyby tak miało być, ideał godny urzeczywistnienia stanowiłaby cywilizacja konsumująca maximum dóbr, jakie potrafi wytworzyć. Jednakże zwątpienie w uszczęśliwiającą moc takiego konsumpcyjnego raju na ziemi jest powszechne. Nie o to chodzi, że należy świadomie dążyć do ascezy, albo głosić jakąś nową wersję russowskiego “powrotu do natury”. To byłaby już nie naiwność, ale głupota. Konsumpcyjny “raj” ze swą natychmiastowością powszechnego spełniania wszelkich życzeń i zachcianek doprowadziłby prawdopodobnie szybko do duchowej “stagnacji i tego “zwyrodnienia”, któremu von Hörner w statystyce swych kosmicznych cywilizacji przypisuje rolę “gasiciela” psychozoików. A skoro ten fałszywy ideał odrzucamy, co pozostaje? Cywilizacja twórczej pracy? Ale sami czynimy przecież wszystko, co jest w naszej mocy, aby wszelką pracę mechanizować, automatyzować, usamoczynniać; granicą tego postępu jest oddzielenie człowieka od technologii, jej zupełna alienacja, w rozumieniu cybernetycznym, a więc obejmującym także sferę działalności psychicznej. Powiada się, że zautomatyzować będzie można tylko pracę umysłu nietwórczą. Gdzie na to dowody? Powiedzmy wyraźnie: nie ma ich, i co więcej, nie może być. Tak gołosłownie wyrażona “niemożliwość” nie przedstawia wartości większej od biblijnego twierdzenia, że człowiek będzie zawsze zdobywał swój chleb w pocie czoła. Byłoby to doprawdy osobliwym sposobem pocieszania się głosić, że zawsze będziemy mieli coś do roboty, nie dlatego, ponieważ pracę uważamy za wartość samą w sobie, ale dlatego, ponieważ sama istota świata, w którym żyjemy, zmusza nas, i zawsze będzie zmuszała, do pracy.<br />Z drugiej strony, jak może człowiek robić coś, co tak samo, a może nawet lepiej od niego zrobi maszyna? Dziś postępuje w ten sposób z konieczności, gdyż Ziemia urządzona jest nad wyraz niedoskonale i na wielu kontynentach trud ludzki jest tańszy, bardziej opłacalny ekonomicznie od maszynowego. Ale rozważamy przecież perspektywy przyszłości, i to bardzo odległej. Czy ludzie mają w jakiejś chwili powiedzieć sobie: “Dość, nie będziemy już automatyzować takich a takich rodzajów pracy, choć to możliwe — zahamujemy Technologię, aby ocalić pracę człowieka, aby nie poczuł się zbędnym?” Byłaby to dziwaczna swoboda,” dziwne korzystanie z niej, wywalczonej po wiekach.<br />Pytania takie, przy całej ich pozornej rzeczowości, są w istocie bardzo naiwne, ponieważ swobody, w jakimś absolutnym sensie, nie będzie można zdobyć nigdy. Ani jako absolutnej wolności wyboru działań, ani jako wolności od wszelkiego działania (wywołanej “wszechautomatyzacją”). Pierwszego rodzaju swobody nie będzie, ponieważ to, co z pozycji dnia wczorajszego wydawało się swobodą, przestaje być nią dzisiaj. Sytuacja wyjścia spod przymusu działań mających zaspokoić potrzeby elementarne umożliwia określony wybór dalszej drogi, ale nie będzie niepowtarzalnym wydarzeniem historycznym. Sytuacje wyboru będą się powtarzać, na kolejno osiąganych, coraz wyższych poziomach. Zawsze będzie to jednak wybór spośród skończonej ilości dróg, a więc i osiągnięta każdorazowo swoboda będzie względna —albowiem wydaje się niemożliwe, by wszystkie naraz ograniczenia opadły z człowieka, pozostawiając go sam na sam z wszechmocą i wszechwiedzą, które wreszcie zyskał. Fikcją jest również ów drugi, niepożądany rodzaj swobody — rzekomy skutek pełnej alienacji Technologii, która swą cybernetyczną potęgą stworzyć ma syntetyczną cywilizację, rugującą ludzkość ze wszystkich sfer działania.<br />Lęk przed bezrobociem, jako skutkiem automatyzacji, jest uzasadniony zwłaszcza w wysoko rozwiniętych krajach kapitalistycznych. Nie można jednak uznać za uzasadniony — lęku przed bezrobociem powstałym z “nadmiernego dobrobytu” konsumpcyjnego. Wizja cybernetycznego Schlaraffenlandu jest fałszywa dlatego, ponieważ zakłada zastąpienie pracy ludzkiej przez pracę maszyn, zamykające człowiekowi wszystkie drogi, podczas kiedy jest akurat na odwrót. Do takiego zastąpienia zapewne dojdzie, ale otworzy ono nowe, dziś zaledwie niejasno przeczuwane drogi. Nie w tym wąskim rozumieniu, że robotników i techników zastąpią programiści maszyn cyfrowych, bo następne pokolenia, nowe gatunki owych maszyn nie będą już wymagały programistów. Nie będzie to tylko zmiana jednych, dawnych zawodów na nowe, inne, choć w zasadzie do tamtych podobne, lecz głęboki przewrót, kto wie czy nie dorównujący przewrotowi, w którym antropoidy przekształciły się w ludzi. Człowiek bezpośrednio nie może bowiem podjąć rywalizacji z Naturą: jest ona zbyt złożona, aby mógł jej sam sprostać. Mówiąc obrazowo, człowiek musi między sobą a Naturą zbudować cały system ogniw, z których każde następne będzie potężniejsze, jako wzmacniacz Rozumu, od poprzedniego. Jest to więc droga wzmagania nie siły, lecz myśli, umożliwiająca w perspektywie owładnięcie niedostępnymi wprost dla mózgu ludzkiego własnościami materialnego świata. Zapewne: w jakimś sensie te ogniwa pośrednie działania będą “mądrzejsze” od ich ludzkiego konstruktora, ale “mądrzejsze” nie oznacza jeszcze “nieposłuszne “.Będziemy, na prawach domysłu, mówić i o tych obszarach, w których tak wzmożone działanie człowieka dorówna działaniom Natury. Nawet wówczas człowiek będzie podlegał ograniczeniom, których materialnego charakteru, uwarunkowanego technologią przyszłości, nie możemy przewidzieć, ale których psychologiczne efekty potrafimy choć w drobnej mierze pojąć, ponieważ sami jesteśmy ludźmi. Więź tego zrozumienia urwie się dopiero wówczas, kiedy człowiek, za tysiąc lub milion lat, zrezygnuje, na rzecz doskonalszej konstrukcji, z całej swej zwierzęcej schedy, ze swojego niedoskonałego, nietrwałego, śmiertelnego ciała, kiedy przekształci się w istotę o tyle od nas wyższą, że już nam obcą. Na zarysowaniu początków owej autoewolucji gatunku będzie .się zatem musiało zakończyć to nasze podglądanie przyszłości.</div><div><br /><br /><br />III. Cywilizacje kosmiczne<br /><br /><br />Sformułowanie problemu<br /><br /><br />W jaki sposób szukaliśmy kierunku, w którym będzie szła nasza cywilizacja? Badając jej przeszłość i teraźniejszość. Dlaczego od ewolucji technologicznej odwoływaliśmy się do biologicznej? Ponieważ stanowi ona jedyny, dostępny nam, proces doskonalenia regulacji i homeostazy układów bardzo złożonych — wolny od ludzkiej ingerencji, która mogłaby wypaczyć rezultaty obserwacji i wysnuwane z nich wnioski. Postępowaliśmy jak ktoś, kto chcąc poznać własną przyszłość i własne możliwości bada siebie i swoje otoczenie. A przecież istnieje, przynajmniej w zasadzie, inna możliwość. Młodzieniec może los swój odczytać z losu innych ludzi. Obserwując ich, dowie się, jakie drogi stoją przed nim otworem, jakie ma możliwości wyboru i jakie są tego wyboru ograniczenia. Młody Robinson na wyspie bezludnej, obserwując śmiertelność tworów przyrody — małży, ryb, roślin, dociekłby może własnego ograniczenia w czasie. Ale o własnych możliwościach więcej powiedziałyby mu światła lub dymy dalekich statków albo samoloty przelatujące nad jego wyspą: doszedłby z nich istnienia cywilizacji, stworzonej przez podobne do niego istoty.<br />Ludzkość jest takim Robinsonem, osadzonym na samotnej planecie. Zapewne, jej dociekliwość wystawiły warunki na próbę daleko cięższą, ale czy nie warto jej podjąć? Gdybyśmy dostrzegli przejawy kosmicznej działalności innych cywilizacji, dowiedzielibyśmy się zarazem czegoś o własnym losie. Gdyby udało się nam coś podobnego, nie bylibyśmy już zdani wyłącznie na domysł, oparty na skąpym ziemskim doświadczeniu: fakty kosmiczne stworzyłyby ogromny obszar odniesienia. Ponadto wyznaczylibyśmy własne miejsce na “krzywej rozkładu cywilizacyjnego”. Dowiedzielibyśmy się, czy stanowimy zjawisko przeciętne, czy skrajne, czy jesteśmy w skali Wszechświata czymś zwykłym, normą rozwoju, czy jego dziwolągiem.<br />Od uzyskania materiałów o biogenezie w skali systemu słonecznego dzielą nas, jak wolno sądzić, zaledwie lata — najwyżej dziesiątki lat. Istnienie wysoko rozwiniętych cywilizacji jest w nim jednak prawie w stu procentach niemożliwe. Tak popularnych u schyłku XIX wieku prób sygnalizowania naszej obecności mieszkańcom Marsa czy Wenery nie podejmujemy obecnie nie dlatego, ponieważ to nie jest możliwe, ale dlatego, ponieważ byłoby to daremne. Albo nie istnieją, albo też na planetach tych mieszkają takie formy życia, które nie wytworzyły technologii. W przeciwnym razie odkryłyby już naszą obecność. Jest ona dostrzegalna w skali planetarnej dzięki promieniowaniu w paśmie krótkich fal: emisja radiowa Ziemi, w zakresie fal metrowych (przechodzących swobodnie przez atmosferę), dorównuje już całkowitej emisji Słońca, w tym samym zakresie — dzięki nadajnikom telewizyjnym… Tak więc każda, przynajmniej dorównująca ziemskiej, cywilizacja w obrębie systemu słonecznego dostrzegłaby naszą obecność, i bez wątpienia nawiązałaby z nami kontakt — świetlny, radiowy czy materialny. Ale takich cywilizacji w nim nie ma. Problem ten, jakkolwiek fascynujący, obecnie nas nie interesuje, ponieważ nie pytamy o cywilizacje w ogóle, lecz tylko o takie, które ziemski stopień rozwoju już przekroczyły. Z nich tylko, z ich istnienia, moglibyśmy wyprowadzić wnioski, określające własną naszą przyszłość. Ponieważ odpowiedź, opierająca się na obserwacjach kosmicznych, uczyniłaby większość naszych, z natury rzeczy spekulatywnych, analiz całkiem zbędnymi. Robinson, który może porozumieć się z innymi istotami rozumnymi, a chociażby tylko obserwować z daleka ich działalność, przestaje być skazany na niepewność skomplikowanych domysłów. Jest naturalnie coś groźnego w podobnej sytuacji. Odpowiedzi nazbyt wyraźne, zbyt jednoznaczne ukazałyby nam, że jesteśmy niewolnikami rozwojowego determinizmu, a nie istotami skazanymi na coraz większą wolność, która oznacza nieograniczoną niczym możliwość wyboru, tym bardziej pozorną, im bardziej zbieżne byłyby drogi powstających we wszystkich Galaktykach społeczności.<br />Tak więc otwarcie osobnego, rozszerzonego na Kosmos, rozdziału naszych dociekań, jest tyleż pociągające, co niebezpieczne. Od “istot niższych”, zwierząt, różnimy się nie tylko cywilizacją, ale i wiedzą o własnych ograniczeniach, z których największym jest śmiertelność. Kto może wiedzieć, w jak bardzo wątpliwy sposób bogatsze są istoty, od nas samych z kolei wyższe. Jakkolwiek mają się te sprawy, należy podkreślić, że chodzi nam o fakty i ich interpretację, zgodną z metodami nauki, a nie o fantazjowanie. Dlatego nie będziemy w ogóle brali pod uwagę tych wszystkich niezliczonych “przyszłości”, jakie Ziemi czy innym ciałom niebieskim wyprorokowali pisarze, parający się tak bujnym dziś gatunkiem Sience–Fiction. Jak wiadomo, nie leży w zwyczajach literatury, nawet fantastyczno–naukowej, operowanie metodami ścisłymi, stosowanie kanonów matematycznych i metodologicznych, czy rachunku prawdopodobieństwa. Nie mówię tego, aby oskarżyć fantastykę o grzeszenie przeciwko prawdzie naukowej, a jedynie żeby podkreślić, jak bardzo zależy nam na odcięciu się od wszelkiej dowolności. Będziemy opierali się na astrofizycznym materiale obserwacyjnym i na metodzie, obowiązującej uczonego, która ma bardzo mało wspólnego z metodą artysty. Nie Dlatego nawet, żeby ten drugi był bardziej skory do podejmowania ryzyka od pierwszego, a tylko ponieważ ideał naukowca — dokładne wyizolowanie tego, co przedstawia, od świata własnych przeżyć, oczyszczenie obiektywnych faktów i wniosków z subiektywnych emocji, ideał ten jest artyście obcy. Inaczej mówiąc, człowiek jest uczonym tym bardziej, w im większym stopniu zmusi własne człowieczeństwo do milczenia, tak aby przemawiała przezeń niejako sama Natura, artysta natomiast jest nim tym bardziej, im potężniej narzuca nam samego siebie, całą wielkością i ułomnością swego niepowtarzalnego istnienia. To, że postaw tak czystych nigdy nie spotykamy, świadczy o niemożliwości ich pełnego urzeczywistnienia, bo w każdym bodaj uczonym jest coś z artysty i w każdym artyście coś z uczonego — mówimy jednak o kierunku dążeń, a nie olch nieosiągalnej granicy.</div><div><br /><br /><br />Sformułowanie metody<br /><br /><br />Prace naukowe, poświęcone omawianemu tematowi, rozmnożyły się w ostatnich latach, rozsiane jednak po czasopismach fachowych, są na ogół trudno dostępne. Lukę tę wypełnia praca astrofizyka rosyjskiego, J. Szkłowskiego, Wszechświat–Życie–Rozum*. Jest to, o ile wiem, pierwsza monografia poświęcona kwestii kosmicznych cywilizacji, to znaczy książka, w której sprawy ich istnienia i rozwoju, możliwości ich wzajemnego kontaktu, częstości ich występowania w naszej Galaktyce i w innych układach gwiazdowych nie stanowią tylko marginesów wywodu kosmologicznego bądź kosmogonicznego, ale są tematem głównym. Profesor Szkłowski, w przeciwieństwie do innych fachowców, zajmuje się nadto owym tematem w skali największej, poświęcając zagadnieniom biogenezy w systemie słonecznym tylko jeden rozdział swej pracy. Jest ona tym cenniejsza, że referuje poglądy i wyniki obliczeń szeregu astronomów, głównie radioastronomów, którzy dla uzyskania cywilizacyjnej “gęstości” w Kosmosie zastosowali metody probabilistyczne i spróbowali uzgodnić rezultaty swych prac ze stanem współczesnych obserwacji i teorii.<br />Ze względu na nasze bieżące zainteresowania, uwzględnimy bogaty materiał, przytoczony przez Szkłowskiego, tylko o tyle, o ile wiąże się z problemami “kosmicznej technoewolucji”. Przedyskutujemy także pewne założenia wstępne, na których autorzy (angielscy, amerykańscy, niemieccy) oparli swe obliczenia — do czego o tyle jesteśmy uprawnieni, że te założenia są, w znacznej mierze, dowolne i hipotetyczne.<br />Astronomia współczesna nie jest w stanie ani bezpośrednio (na przykład wizualnie), ani pośrednio nawet stwierdzić obecności planet wokół gwiazd, chyba, że to są gwiazdy najbliższe, planety zaś przedstawiają ciała o masie daleko większej od masy Jowisza. Tylko wówczas istnienie takich ciał, odległych o dziesiątki lat świetlnych, wywieść można z zakłóceń torów gwiazdowych. To, że w podobnej sytuacji w ogóle wolno mówić o jakichś pretendujących do ścisłości wynikach poszukiwania “innych cywilizacji”, może wzbudzić co najmniej zdziwienie. Trudno jednak nie przystać na wstępne przynajmniej człony rozumowania, które stanowi podstawę prac tego rodzaju.<br />Dwie są możliwości dostrzeżenia kosmicznej egzystencji “innych”. Po pierwsze, odbiór wysłanych przez nich sygnałów (radiowych, świetlnych bądź materialnych, w rodzaju “obcych” sond rakietowych, itp.). Po wtóre, dostrzeżenie “cudów”. Terminem tym określa Szkłowski zjawiska tak samo niemożliwe, to jest niewytłumaczalne z punktu widzenia astronomii, jak niemożliwa jest, z punktu widzenia geologii, autostrada, przecinająca krajobraz planety. I podobnie jak geolog z jej obecności wnioskowałby o istnieniu istot rozumnych, które ją zbudowały, tak samo astronom, odkrywszy odchylenia od oczekiwań, jakie dyktuje mu jego wiedza, odchylenia, nie dające się wyjaśnić w żaden sposób “naturalny”, musiałby orzec, że w polu widzenia jego przyrządu znajdują się wytwory działalności celowej.<br />Byłyby zatem “cuda” nie sygnalizacją rozmyślną, mającą zawiadomić ewentualnych obserwatorów kosmicznych o obecności życia, lecz produktem ubocznym istnienia wysoko rozwiniętej cywilizacji, towarzyszącym jej tak, jak łuna, rozświetlająca w promieniu mil nieboskłon, towarzyszy nocą istnieniu wielkiej metropolii. Prosty rachunek dowodzi, że obserwowalność swoją z dystansu dziesiątków co najmniej, jeżeli nie setek lat świetlnych, zjawiska takie zawdzięczać by musiały nakładom energetycznym dorównującym mocy gwiazd. Jednym słowem, astronomicznie dostrzegalne mogą być tylko przejawy “gwiezdnej inżynierii”.<br />Wyniknięcie jej w takiej czy innej formie, na określonym etapie rozwoju, uważają za pewne wszyscy autorzy (Dyson, Sagan, von Hörner, Bracewell jak również sam Szkłowski). Jeśli przyjąć, że energetyka ziemska będzie wzrastała rocznie o 1/3 procentu (szacunek, w stosunku do przyrostów współczesnych, skromny), to globalna produkcja energii za 2500 lat będzie dziesięć miliardów razy przekraczała dzisiejszą, wynosząc, w roku 4500, jedną dziesięciotysięczną całej mocy słonecznej. Nawet obrócenie wodoru oceanów w energię pokryłoby takie potrzeby ledwo na parę tysięcy lat. Astrofizycy widzą rozmaite możliwości. Dyson — zużytkowanie całej mocy Słońca, przez zbudowanie “sfery Dysona”, to jest pustej kuli cienkościennej, o promieniu równym promieniowi obiegu Ziemi wokół Słońca. Materiału budowlanego miałyby dostarczyć wielkie planety, głównie Jowisz. Wewnętrzna, zwrócona ku Słońcu powierzchnia tej sfery odbierałaby całą emisję słoneczną (4 * 1033 ergów na sekundę). Szkłowski widzi też możliwość użytkowania energii słonecznej w inny sposób, a nawet wpływania na bieg wewnętrznych przemian jądrowych Słońca w sposób zgodny z wymaganiami astroinżynierów przyszłości. Oczywiście nie wiemy, czy pobór mocy będzie istotnie wzrastał podczas nadchodzących tysiącleci tak, jak obecnie, ale już dzisiaj można<br />Sformułowanie metody wskazać na potencjalnych odbiorców energii tak olbrzymiej: jedyny, wyobrażamy dziś teoretycznie wehikuł do podróży gwiazdowych i galaktycznych w czasie równym długości życia ludzkiego, rakieta fotonowa, wymaga właśnie zainstalowania mocy wymienionego rzędu. Jest to oczywiście tylko przykład poglądowy.<br />Ponieważ Słońce jest gwiazdą, także pod względem swego wieku, całkiem przeciętną, powinniśmy sądzić, że gwiazd do niego podobnych, starszych wiekiem, a posiadających rodziny planetarne, jest mniej więcej tyle samo, co gwiazd od Słońca młodszych. Z czego wniosek, że tyle samo kosmicznych cywilizacji winno wyprzedzać nas w rozwoju, co pozostawać w tyle za nami.<br />Rozumowanie biorące za podstawę przekonanie o naszej przeciętności okazało się dotychczas niezawodne: albowiem i samo położenie Słońca w układzie Drogi Mlecznej jest “przeciętne” (ani na samym jej krańcu, ani nazbyt blisko centrum), i Droga Mleczna, czyli Galaktyka nasza, jest taką samą typową spiralną galaktyką, jak miliardy innych, uwidocznionych w ogromnym katalogu mgławic. Tak więc mamy poważne powody dla uznania cywilizacji ziemskiej za dosyć typową, zwyczajną, z rodzaju spotykanego najczęściej.<br />Bracewell i von Hörner przeprowadzili niezależnie obliczenia statystyczne “cywilizacyjnej gęstości” w Kosmosie, wychodząc z założenia, że w Galaktyce naszej tylko jedna gwiazda na 150 posiada planety. Ponieważ gwiazd liczy Galaktyka około 150 miliardów, systemów planetarnych winno w niej krążyć około jednego miliarda. Jest to szacunek raczej skromny. Jeśli na każdej z miliarda planet wynikła kiedyś ewolucja życia, osiągającego po pewnym czasie “fazę psychozoiczną”, z obliczeń wynika, że gdyby rozciągłość tej fazy (trwanie ery technologicznej) zależała tylko od długości trwania macierzystych słońc, to znaczy, gdyby przeciętna cywilizacja mogła istnieć tak długo, jak długo otrzymuje niezbędną dla życia energię od swej gwiazdy, wówczas przeciętna odległość od siebie dwu cywilizacji wynosiłaby mniej niż dziesięć lat świetlnych.<br />Wniosek ten, matematycznie nieodparty, nie znajduje potwierdzenia w faktach. Przy takim zagęszczeniu cywilizacyjnym powinniśmy już obecnie odbierać sygnały z pobliża gwiazdowego, i to nie tylko specjalną aparaturą, jakiej od roku 1960 używała grupa radioastronomów pod kierunkiem Drake’a w obserwatorium Green Bank (USA). Aparatura ta mogła odebrać sygnały o maksymalnej sprawności, na jaką by stać dzisiaj nadajniki ziemskie, z dystansu dziesiątka lat świetlnych. Oczywiście, radioteleskop Amerykanów odebrałby sygnały z odległości nawet sto razy większej, gdyby tylko wzdłuż kierunku, w którym “patrzała” jego 27–metrowa antena, nadany został sygnał odpowiednio większej mocy. Tak więc z milczenia przyrządów wynika nie tylko od razu oczywisty fakt “próżni cywilizacyjnej” wokół gwiazd Epsilon Eridana i Tau Wieloryba, ale także braku idących w naszą stronę sygnałów silniejszych z głębin Kosmosu poza tymi gwiazdami. Grupa uczonych pod kierownictwem Drake’a urzeczywistniła pierwszą w historii astronomii próbę “cywilizacyjnego nasłuchu” gwiazdowego, podejmując ideę, wypowiedzianą przez innych astronomów amerykańskich— Cocconiego i Morrisona. Uczeni zastosowali aparaturę, zbudowaną specjalnie dla odbioru sygnałów “sztucznych”, i umożliwiającą odróżnienie ich od “galaktycznego szumu”, gdyż fale radiowe generuje cała Droga Mleczna, zarówno jej gwiazdy, jak międzygwiezdna materia. Był .to eksperyment ścisły — poszukiwanie jakiejkolwiek regularności w docierających do nas falach radiowych, regularności, która oznaczałaby, że pęk wysyłanych fal jest modulowany, czyli stanowi nośnik informacji, wysłanej przez istoty rozumne. Była to próba pierwsza, ale na pewno nie ostatnia, choć oczekiwania astrofizyków nie spełniły się i przyrządy ich rejestrowały, dzień za dniem, tydzień za tygodniem, tylko jednostajny, martwą materią wytwarzany, szum kosmiczny.</div><div><br /><br /><br />Statystyka cywilizacji kosmicznych<br /><br /><br />Jakeśmy powiedzieli, przypisanie cywilizacjom gwiezdnym trwania, dorównującego trwałości ich gwiazd macierzystych, oznaczające praktycznie, że raz powstała cywilizacja istnieje przez miliardy lat, nieuchronnie wiedzie do wniosku o takim “zagęszczeniu cywilizacyjnym” Kosmosu, że ledwo kilka lat świetlnych dzieli od siebie dwa światy zamieszkałe. Wniosek ten sprzeczny jest z całokształtem obserwacji, na które składają się negatywne rezultaty radiowego nasłuchu Wszechświata, nieobecność innego rodzaju sygnałów (na przykład “obcych” sond rakietowych), a wreszcie — zupełny brak “cudów”, to jest zjawisk wywołanych działalnością astroinżynieryjną. Taki stan rzeczy skłonił Bracewella i von Hörnera, jak również Szkłowskiego, do przyjęcia hipotezy o krótkości trwania cywilizacyjnego w stosunku do trwania gwiazdowego. Jeżeli przeciętne trwanie cywilizacji wynosi “tylko” sto milionów lat, to (wskutek nieuchronnego rozrzutu w czasie ich istnienia) statystycznie najbardziej prawdopodobna odległość dwóch cywilizacji wynosi około 50 lat świetlnych. To także jest nadzwyczaj wątpliwe. Dlatego wymienieni autorzy skłaniają się do hipotezy, uznającej kilka do kilkunastu tysięcy lat za przeciętną trwania cywilizacji. Wtedy dwa światy wysoko rozwinięte oddziela odległość rzędu tysiąca lat świetlnych, co czyni już fiasko nasłuchu i obserwacji zrozumiałym.<br />Tak zatem, im większej liczbie planet Galaktyki przypisujemy szansę biogenezy, zwieńczonej powstaniem “psychozoiku”, tym krótszy zmuszeni jesteśmy ustalić przeciętny żywot poszczególnej cywilizacji, aby nie wejść w sprzeczność z obserwacjami. Obecnie przyjmuje się, że na 150 miliardów gwiazd Galaktyki około miliarda posiada planety, zdolne do zrodzenia życia.<br />Jednakże nawet dziesięciokrotne zmniejszenie tej liczby nie zmienia w istotny sposób rezultatów probabilistycznego rachunku. Rzecz wydaje się całkowicie niezrozumiałą, bo skoro ewolucja życia w jego formach przedcywilizacyjnych trwa miliardy lat, trudno pojąć, dlaczego “psychozoik” ma po wspaniałym swoim starcie kończyć się już po kilkudziesięciu wiekach? Gdy uświadomimy sobie, że nawet milion lat stanowi ledwo drobny ułamek czasu, przez który przeciętna cywilizacja mogłaby dalej się rozwijać, gdyż jej gwiazda macierzysta zapewnia stałą dostawę mocy promienistej przez wiele miliardów lat, pojmiemy w całej pełni tajemniczość tego zjawiska, którego wyjaśnienie urąga na razie naszej dociekliwości.<br />W świetle takich rozważań życie rozumne wydaje się w Kosmosie fenomenem rzadkim. Nie życie w ogóle, dodajmy, ale współczesne nam, albowiem nie o to chodzi, jakie miriady cywilizacji powstały i zgasły podczas całego istnienia Galaktyki (czas rzędu 15 miliardów lat), ale o to, wiele z nich współistnieje obecnie z nami.<br />Przyjmując, jako fakt do wyjaśnienia efemeryczność “psychozoików”, von Hörner wylicza cztery możliwe jego przyczyny: 1) całkowita zagłada życia na planecie, 2) zagłada tylko istot wysoko zorganizowanych, 3) degeneracja psychiczna lub fizyczna, 4) utrata zainteresowań naukowo–technicznych.<br />Przypisawszy każdej z tych przyczyn wybrany arbitralnie współczynnik prawdopodobieństwa, von Hörner uzyskuje jako przeciętną istnienia cywilizacji 6500 lat, jako odległość między nimi — tysiąc lat świetlnych, nareszcie, z obliczeń jego wynika, że najprawdopodobniejszy wiek cywilizacji, z którą nawiążemy pierwszy kontakt, równać się będzie 12 000 lat. Prawdopodobieństwo kontaktu (pierwszego) z cywilizacją w tej samej fazie rozwoju, co ziemska, wynosi ledwo 0,5%, jest zatem znikome. Von Hörner uwzględnia, między innymi, ewentualność kilkakrotnego powstawania i zamierania cywilizacji na tej samej planecie.<br />Fiasko amerykańskiego nasłuchu staje się, w świetle takich wyników, oczywiste. Również sprawa wymiany informacji, gdyby nawet sygnały udało się odebrać, staje pod znakiem zapytania, skoro po zadaniu pytania trzeba czekać na odpowiedź 2000 lat…<br />Von Hörner uważa za możliwy efekt “dodatniego sprzężenia zwrotnego”, gdyby ze względu na statystyczny charakter rozrzutu życia w Galaktyce powstało lokalne skupisko kosmicznych cywilizacji. Kiedy czas oczekiwania odpowiedzi staje się (w takim miejscowym “zagęszczeniu psychozoików”) niewielkim stosunkowo ułamkiem całokształtu cywilizacyjnego istnienia, może dojść do efektywnej wymiany informacji między cywilizacjami, co z kolei mogłoby przedłużyć ich trwanie (wymiana doświadczeń, itp.).<br />Szkłowski zwraca uwagę na podobieństwo takiego procesu do lawinowego rozmnożenia organizmów w sprzyjającym środowisku. Proces taki, gdyby się w jakimś miejscu Galaktyki rozpoczął, mógłby, obejmując coraz większe obszary, wciągać w swą orbitę rosnącą liczbę galaktycznych cywilizacji i wytworzyłoby się z nich coś w rodzaju “superorganizmu” Najdziwniejsze, a prawdę mówiąc, zupełnie niepojęte jest to, że taka możliwość dotychczas się nie zrealizowała. Przyjmijmy na wet na chwilę katastroficzną hipotezę von Homera za prawidłowość kosmiczną. Statystyczny charakter tej prawidłowości czyni w najwyższym stopniu prawdopodobnym istnienie — niechby i nielicznej — garstki cywilizacji wyjątkowo długowiecznych. Dopuścić bowiem, że absolutnie żadna cywilizacja nie może dotrwać miliona lat, byłoby przekształceniem regularności statystycznej w jakiś tajemniczy, fatalistyczny determinizm, w demoniczną zgoła nieuchronność szybkiej zagłady. A jeśli tak, to nawet kilka z owych wyjątkowo długowiecznych, milionoletnich cywilizacji winno by już od dawna opanować obszary gwiazdowe, nadzwyczaj odległe od ich planet ojczystych. Innymi słowy, garść tych cywilizacji stałaby się decydującym czynnikiem galaktycznego rozwoju, a wtedy postulowane “dodatnie sprzężenie zwrotne” byłoby realnością. W samej rzeczy powinno ono działać już od tysięcznych wieków. Dlaczego zatem brak sygnałów takich cywilizacji? Przejawów ich gigantycznej, astro–inżynieryjnej działalności? Wyprodukowanych przez nie niezliczonych sond informacyjnych zaludniających próżnię, samorozmnażających się automatów penetrujących najodleglejsze zakątki naszego gwiazdowego układu? Dlaczego, jednym słowem, nie obserwujemy “cudów”?</div><div><br /><br /><br />Katastrofizm kosmiczny<br /><br /><br />Droga Mleczna jest typową galaktyką spiralną, Słońce — typową gwiazdą, typową zapewne planetą — Ziemia. W jakiej jednak mierze wolno nam ekstrapolować na Kosmos zachodzące na niej zjawiska cywilizacyjne? Czy doprawdy należy sądzić, że kiedy patrzymy w niebo, mamy nad sobą otchłanie, wypełnione światami, które obróciły się już w popiół mocą samobójczej inteligencji, albo znajdują się na prostej drodze ku takiemu finałowi? Von Hörner jest tego właśnie zdania, gdyż hipotezie “autolikwidacji psychozoików” przypisuje aż 65 szans na sto możliwych. Jeśli uświadomimy sobie, że galaktyk, podobnych do naszej, istnieją miliardy, jeśli przyjmiemy, ze względu na analogiczność ich atomowego budulca i praw dynamicznych, że ewolucje planetarne i psychozoiczne toczą się w nich wszystkich zbliżonymi drogami, dochodzimy do obrazu trylionów cywilizacji, które rozwijają się po to, aby się po czasie, równym w skali astronomicznej mgnieniu, unicestwić. To statystyczne piekło wydaje mi się nie do przyjęcia, nie dlatego, aby było zbyt przerażające, ale dlatego, ponieważ jest zbyt naiwne. Tak więc von Hörnerowskiej hipotezie Kosmosu, jako maszyny wytwarzającej roje atomowych rzeźni, zarzucić należy nie katastrofizm, i nie moralne oburzenie winno nas skłonić do jej odrzucenia, gdyż emocjonalne reakcje nie mogą uczestniczyć w analizie, pretendującej do ścisłości. Rzecz w tym, że hipoteza ta zakłada całkiem nieprawdopodobną zbieżność przebiegów planetarnych. Nie uważamy wcale, że Ziemia, z jej krwawą historią wojen, że człowiek, ze wszystkimi występnymi i mrocznymi właściwościami swej natury, stanowią jakiś niechlubny wyjątek kosmiczny i że gwiazdowe obszary zaludniają istoty od samego zarania swych dziejów od nas doskonalsze. Jednakowoż ekstrapolacja procesów zbadanych na nie zbadane, tak cenna w kosmologii, w astronomii, w fizyce, może łatwo obrócić próbę socjologii metagalaktycznej we własną reductio ad absurdum.<br />Zauważmy tylko dla przykładu, że losy świata mogły potoczyć się zupełnie inaczej, gdyby ludobójcza polityka Trzeciej Rzeszy wyłączyła ze sfery eksterminacji Żydów niemieckich, a przynajmniej, gdyby dyktatura hitlerowska wcześnie doceniła wagę pewnych eksperymentów fizykalnych i możliwość wyniknięcia z nich, tak pożądanej przez władców Niemiec, “cudownej broni”. Mogło przecież do tego dojść choćby za sprawą “wieszczego snu”, z rodzaju tych, jakie miewał Hitler; nareszcie Einstein mógł nie być Żydem; w każdym razie można sobie doskonale wyobrazić sytuację, w której zasoby państwa hitlerowskiego zostałyby rzucone w latach czterdziestych na front badań atomowych. Zapewne, uczeni niemieccy wzdragaliby się przed włożeniem w ręce faszystów bomb jądrowych, ale wiemy skądinąd, że skrupuły tego rodzaju można łamać przy wszystkich zastrzeżeniach wobec stawianych po wojnie Heisenbergowi zarzutów nie można oprzeć się, kiedy się te sprawy bada dokładnie, wrażeniu, że on jednak usiłował zbudować pierwszy stos nuklearny i że miało to pewien związek z jego ambicjami nie tylko naukowymi). Stało się, jak wiemy, inaczej: bombę atomową pierwsi wyprodukowali Amerykanie — rękami i mózgami emigrantów z ni Rzeszy. Gdyby ci ludzie pozostali w Niemczech, Hitler zyskałby może tę straszliwą broń, o której marzył. Nie będziemy wdawać się w pozbawione podstaw snucie dalszych przypuszczeń — szło nam o ukazanie, jak określony zbieg przypadków doprowadził do szybkiej klęski Niemiec i wyłonienia się, ponad ich zbombardowanymi zgliszczami, ostatnich dwóch potencjalnych przeciwników, socjalizmu i kapitalizmu. Bez względu na to, czy Niemcom, dzięki prymatowi nuklearnemu, udałoby się zyskać władzę światową, czy nie, czynnik jądrowy, jako olbrzymia siła technologii wojennej, zmieniłby równowagę w skali planety. Być może doszłoby do całej epoki wojen, z której ludzkość wychynęłaby zdziesiątkowana, ale i zjednoczona; supozycje te, jałowe i niewiele znaczące, jeśli je uznajemy za rodzaj uprawianej w fotelu “gdybologii”, nabierają znaczenia przy ekstrapolacji w Kosmos, ponieważ wyniknięcie, w historycznym procesie jednoczenia zbiorowości zrazu rozdrobnionych, jednego wielkiego hegemona może zachodzić równie często, jak współpowstanie dwóch równych siłami antagonistów. Wolno przypuszczać, że pewne światło rzuci na tę sprawę możliwe w niedalekiej przyszłości modelowanie procesów socjoewolucyjnych w maszynach cyfrowych. Mam na myśli zwłaszcza wspomniane zjawisko planetarnego jednoczenia zbiorowości, których wzajemne antagonizmy lub izolacjonizmy likwiduje wzrastający nacisk technoewolucji. Ponieważ opanować Naturę jest łatwiej niż dokonać aktu globalnej regulacji społecznej, możliwe, że wyprzedzanie socjoewolucji przez technoewolucję stanowi typową cechę dynamiczną takich procesów. Trudno atoli przyjąć, żeby opóźnienie regulowania sił społecznych względem regulacji sił przyrody musiało być zawsze takie samo w wymiarze kosmicznym i przedstawiało jakąś wielkość stałą dla wszystkich możliwych cywilizacji. A przecież rozmiary tego opóźnienia wchodząc, jako parametr istotny, w obręb społecznych zjawisk na Ziemi, uformowały rozpoczęty proces planetarnego zjednoczenia ludzkości w taki sposób, że wynikło z niego równoczesne powstanie dwu wielkich koalicji antagonistycznych. Nie mówiąc nawet o tym, że i taki typ rozwoju wcale nie prowadzi do zagłady totalnej, jako do konieczności, wolno chyba przypuszczać, iż w poważnym odsetku “światów” (przypominam, że o modelach mowa) rozkład sił będzie tak bardzo różny od ziemskiego, iż nawet szansa unicestwiającego starcia przeciwników nie powstanie; starcie takie może też mieć charakter poronny i po przejściowym regresie, będącym jego konsekwencją, dojdzie do z jednoczenia wszystkich społeczeństw “planety”.<br />Co wtedy? Wtedy — odpowie zwolennik hipotezy von Hörnera — rozpocznie się działanie innych czynników, skracających czas trwania technologicznego. Przejawią się, na przykład, tendencje “zwyrodnieniowe” — przecież hedonistyczno–konsumpcyjny charakter celów, ku którym zmierza dziś znaczna część świata, jest niezaprzeczalny! O możliwościach “hedonistycznego zatamowania” rozwoju będziemy jeszcze mówili, jak również o bardziej prawdopodobnym, okresowym ustawaniu “przyspieszenia technologiczriego”. Ale tym innym przyczynom von Hörner przypisuje łącznie tylko 35 szans na sto możliwych. My jednak przedstawiliśmy określoną możliwość teoretycznego, matematyczno—modelarskiego obalenia hipotezy von Hörnera o autolikwidacji jako regule egzystencjalnej większości cywilizacji kosmicznych. Jeśliby zresztą von Hörner miał nawet więcej słuszności, aniżeli sądzimy, to — jak jużeśmy wspomnieli — statystyczny typ ustanowionych przezeń “prawidłowości” musi, właśnie ze względu na swój charakter probabilistyczny, zezwalać na istnienie wyjątków. Niech 990 milionów planet na ich galaktyczny miliard w samej rzeczy cechuje krótkotrwałość ery technologicznej. Niechaj z pozostałych dziesięciu milionów tylko sto tysięcy, albo zaledwie jeden tysiąc, wymknie się “prawu cywilizacyjnej efemeryczności”. Wówczas ów tysiąc planet będzie rozwijać cywilizacje przez setki milionów lat. Będziemy mieli wtedy przed sobą osobliwy, tym razem już kosmiczny, analog ziemskiej bioewolucji: albowiem właśnie w taki sposób przejawia się jej działanie. Ilość gatunków zwierzęcych, która zginęła w trakcie ewolucji, jest niezrównanie większa od tej, która przetrwała. Każdy wszakże gatunek, który zachował się, dał początek ogromnej ilości nowych. I taką właśnie ewolucyjną radiację”, ale już nie biologicznego, tylko kosmicznego i cywilizacyjnego rzędu, mamy prawo postulować. Hipoteza nasza nie zawiera wcale w konieczny sposób pierwiastków “sielskich”. Owszem, niech te miliardoletnie cywilizacje w trakcie swojej ekspansji gwiazdowej stykają się po to, aby ze sobą walczyć: ale wtedy winni byśmy obserwować ich wojny jako wygaszanie całych gwiazdozbiorów, jako olbrzymie erupcje wywołane pękami unicestwiającego promieniowania, jako takie czy inne “cuda” astroinżynierii, wszystko jedno, pokojowej czy niszczącej.<br />Tak więc znowu powracamy do postawionego na wstępie pytania: dlaczego nie obserwujemy “cudów”? Proszę zauważyć, że w ostatnim ustępie naszych rozważań gotowi byliśmy przyjąć nawet bardziej, w pewnym sensie, “katastroficzny” obraz cywilizacyjnego rozwoju, aniżeli to czyni von Hörner. Twierdzi on bowiem nie tylko i nie tyle, że się kosmiczne cywilizacje same zabijają, ale że czynią to w fazie rozwoju, wcale podobnej do osiągniętej przez ludzkość (tzn. astronomicznie niedostrzegalnej). Mam wrażenie, że to już nie jest stosowanie metod probabilistycznych do zjawisk socjogenezy, ale po prostu przyodziewanie lęków współczesnego człowieka (którym jest wszakże i uczony astrofizyk) w maski powszechności kosmicznej.<br />Astrofizyka nie potrafi udzielić nam odpowiedzi na postawione pytanie. Spróbujemy więc poszukać jej gdzie indziej.</div><div><br /><br /><br />Metateoria cudów<br /><br /><br />Na czym właściwie mogłyby polegać dotąd ogólnikowo wspomniane przez nas “cuda”, jako przejawy astroinżynierii? Szkłowski wymienia, jako “możliwe cuda” tego rodzaju, sztucznie wywoływane wybuchy gwiazd Supernowych albo obecność widmowych linii pierwiastka technetu w widmach niektórych rzadkich gwiazd. Ponieważ technet nie występuje w Naturze (na Ziemi wytwarzamy go sztucznie) i występować nie może, gdyż jest to pierwiastek rozpadający się szybko (w ciągu kilku tysięcy lat), wynikałoby stąd, że jego obecność w promieniowaniu gwiazdy może być wywołana… “podsypywaniem” go w jej ognisko, oczywiście przez astroinżynierów. Nawiasem mówiąc, dla uwidocznienia linii spektralnej pierwiastka w emisji gwiazdowej potrzebne są jego ilości w skali astronomicznej znikome — rzędu kilku milionów ton.<br />Hipotezę tę jednak, na równi z hipotezą “sztucznych wybuchów Supernowych” wypowiada Szkłowski na poły żartobliwie. Przyczyna, dla której tak postępuje, jest jednak wcale poważna. Oto jedną z fundamentalnych zasad metodologicznych nauki jest “brzytwa Ockhama”, czyli teza głosząca, że entia non sunt multiplicanda praeter necessitatem. Budując hipotezy nie wolno mnożyć “bytów” ponad niezbędność. Przez “byty” rozumie się tu wprowadzane do teorii podstawowe pojęcia, nieredukowalne już do innych. Zasada ta przestrzegana jest tak powszechnie, że obecność jej w każdym dociekaniu naukowym trudno nawet zauważyć. Nowe pojęcie wolno wprowadzić do teoretycznego modelu rzeczywistości w okolicznościach nadzwyczajnych: gdy zagrożone zostają nieliczne tezy, stanowiące fundament całej naszej wiedzy. Gdy w pewnych zjawiskach rozpadu jądrowego zagrożone zostało prawo zachowania masy (wyglądało na to, że część jej “znika” bez śladu), Pauli, aby to prawo uratować, wprowadził po jecie “neutrina”, cząstki zrazu czysto hipotetycznej, której istnienie dopiero później wykazał eksperyment. “Brzytwa Ockhama”, inaczej zasada oszczędności myślenia, żąda, aby uczony starał się wyjaśnić każde zjawisko w sposób możliwie najprostszy! bez wprowadzania “dodatkowych bytów”, to jest hipotez niekoniecznych. Skutkiem stosowania tej zasady jest tendencja unifikacji wszystkich nauk przejawia się ona w wyjaśnieniu różnorodności przez nieustające sprowadzanie jej do pojęć elementarnych, takich, jakimi operuje fizyka. Poszczególne nauki sprzeciwiają się nieraz temu redukowaniu: tak na przykład przez długi czas biologowie utrzymywali, że dla wyjaśnienia zjawisk życia niezbędne jest pojęcie “entelechii”, “siły witalnej”; podobnie taką “dodatkową hipotezą” jest nadprzyrodzony akt stwórczy, który ma wyzwolić nas od wszystkich kłopotów, związanych z wyjaśnieniem początków biogenezy albo | powstania świadomości. Pojęcia takie okazują się jednak, po jakimś czasie,: grzechami przeciwko zasadzie Ockhama i zostają odrzucone, jako zbędne. Astronom, patrzący w gwiazdowe niebo, dostrzega wiele zjawisk, które umie; już wyjaśnić przez odwołanie się do określonych modeli teoretycznych (na przykład modelu ewolucji gwiazd, modelu ich budowy wewnętrznej), jak również szereg innych zjawisk, jeszcze nie wyjaśnionych. Olbrzymie wypływy międzygwiezdnego wodoru z obrębu jądra Galaktyki albo potężne radioemisje niektórych mgławic pozagalaktycznych nie znalazły jeszcze swego teoretycznego wyjaśnienia. Niemniej uczony wzdraga się przed oświadczeniem: “to jest dla nas niezrozumiałe, a zatem jest to przejaw działalności istot” rozumnych”. Postępowanie takie byłoby zbyt niebezpieczne, zamykałoby bowiem drogę wszelkim próbom wyjaśnienia takich zjawisk “naturalnego”. Jeżeli na samotnym brzegu morskim podczas przechadzki dostrzeżemy leżące w regularnych odstępach grupy głazów, przy czym uderzy nas symetria ich rozkładu, to gotowi jesteśmy przypuszczać, że jest to rezultat jakiegoś zjawiska, którego zbadanie może okazać się nadzwyczaj dla nauki płodne: czyżby to był nie znany jeszcze przejaw działania hydrodynamicznych sił przypływu? Ale jeśli uznamy, że przed nami jakiś człowiek szedł tą samą drogą i układał te kamienie, bo tak mu się podobało, cała nasza wiedza fizyczna czy geologiczna nie będzie miała pola do popisu. Dlatego najbardziej nawet odbiegające od “galaktycznej normy” zachowanie niektórych mgławic spiralnych uczony skłonny jest uważać za przejaw działania Natury, a nie za skutek ingerencji Rozumu.<br />Hipotezy o “cudach” można dowolnie mnożyć. Słyszało się więc na przykład, że promieniowanie kosmiczne to rozsiany po całej Galaktyce efekt odrzutu olbrzymich “kwantolotów”, których trasy przecinają we wszystkich kierunkach obszary próżni. Jeśli przyjąć, że z rozmaitych odległych planet startują w ciągu milionleci rakiety fotonowe, to można uznać część emisji radiowej, przychodzącej do nas z Galaktyki, za ślady ich promieniowania, przesuniętego aż ku falom radiowym wskutek efektu Dopplera (ponieważ rzekome źródła tych fal, owe rakiety poruszają się z prędkościami przyświetlnymi). Gwiazdy, które z szybkościami rzędu setek kilometrów na sekundę “wylatują” nagle z obrębu pewnych gromad, mogą tak mknąć wskutek efektu “procy”, wywołanego naturalnym wybuchem ich gwiazdowych towarzyszy, ale towarzysze ci mogli też zostać unicestwieni zabiegami astroinżynierów. Nareszcie część eksplozji Supernowych w samej rzeczy mogłaby być sztucznego pochodzenia… ale “brzytwa Ockhama” nieubłaganie zakazuje nam przyjmowania podobnych hipotez. Nawiasem mówiąc, jednym z grzechów głównych Science–Fiction jest mnożenie “bytów dodatkowych”, to jest hipotez, bez których nauka doskonale się obchodzi. Całe mnóstwo utworów S–F przyjmuje, jako założenie wstępne, że rozwój życia na Ziemi (albo tylko — przemiana niższych ssaków w człowieczego przodka) nastąpił dzięki zewnętrznej ingerencji: kiedyś, w zamierzchłej przeszłości, wylądowała na Ziemi rakieta “innych”, którzy, uznawszy, iż warunki “uprawy życia” są pod naszym słońcem dobre, zasadzili na planecie jego pierwociny. Może uważali, że spełniają dobry uczynek, może był to eksperyment, może tylko “lapsus” jednego z gwiezdnych przybyszów, który, wracając na pokład rakiety, uronił probówkę z zarodnikami życia… Tego rodzaju konceptów można płodzić ilości całkiem niezliczone. Rzecz w tym, że są one, w ockhamowskim rozumieniu, zakazane, jako zbędne, skoro biogenezę da się wyjaśnić i bez przywołania “teorii odwiedzin kosmicznych”, jakkolwiek (Szkłowski wspomina o tym w swej książce) rzecz w zasadzie wykluczyć się nie daje i kto wie, czy człowiek sam nie będzie kiedyś rozpowszechniał życia na powierzchni innych planet. Wspomniany już astronom amerykański Sagan proponuje plan uczynienia Wenery zdatną do kolonizacji przez rozmnożenie na niej pewnych ziemskich glonów… A zatem rezultat analizy metodologicznej jest jednoznaczny. Uczony, poszukujący działań “astroinżynieryjnych” w Kosmosie, może od dawna je dostrzega, ale odrębnego, zakwalifikowania ich, odcięcia od strefy zjawisk naturalnych i przypisania ich genezy Rozumowi — zabrania mu ta właśnie nauka, której służy. Czy jednak z dylematu tego nie ma wyjścia? Czy nie są do pomyślenia “cuda jednoznaczne”, w nietechnologiczny sposób wyjaśnić się nie dające?<br />Bez wątpienia, tak. Ale wspólne musi im być (prócz oczywistego użycia olbrzymich, więc dostrzegalnych astronomicznie mocy) postępowanie, w jakiś, niechby najogólniejszy i najbardziej odległy sposób, podobne do naszego. W jaki sposób rozumowaliśmy, poszukując “cudów”? Przez podniesienie do potęgi naszych współczesnych możliwości. Jednym słowem, postęp pojmowaliśmy jako poruszanie się po linii wstępującej, a przyszłość jako erę coraz Większych i Potężniejszych Rzeczy. Czego oczekiwałby, po ziemskiej, lubi pozaziemskiej przyszłości, człowiek jaskiniowy? Olbrzymich, wspaniale łupanych krzemieni. A starożytny, czego spodziewałby się na innych planetach? Zapewne galer o wiosłach kilometrowej długości. Może tu kryje się błąd naszego myślenia? Może wysoko rozwinięta cywilizacja oznacza nie — najwyższą energię, ale — najdoskonalszą regulację? Czy odkryte tak niedawno! podobieństwo stosów i bomb jądrowych do gwiazd jest równoznaczne! z wytyczeniem drogi? Czy cywilizacja najwyższa jest tym samym, co najliczniejsza? Chyba nie. A jeśli nie, to socjostaza jej nie musi być rosnącą żarłocznością energetyczną. Co robił pierwotny człowiek u rozpalonego własnymi rękami ogniska? Wrzucał w nie wszystko, co palne, tańcząc, i krzycząc u płomieni, oszołomiony takim przejawem własnej potęgi. Czy nie jesteśmy aby zanadto do niego podobni? Być może. Mimo wszystkie jednak takie “odtłumaczenia”, należałoby oczekiwać rozmaitych dróg rozwoju, a pośród nich — i ekspansywnych, bliskich naszej heroicznej koncepcji wiekuistego pokonywania coraz to rozlegle j szych obszarów materii i przestrzeni. A zatem powiedzmy sobie prawdę: nie “cywilizacji wszelkich” poszukujemy, lecz przede wszystkim — antropomorficznych. Wprowadzamy w Naturę ład i porządek eksperymentu i po zjawiskach takiego rodzaju pragniemy poznać istoty do nas podobne. Jednakże nie obserwujemy takich zjawisk. Czy nie ma ich…? Doprawdy, jest coś głęboko zasmucającego w odpowiadającym na to pytanie milczeniu gwiazd, tak bezwzględnym, że jakby wiecznym.</div><div><br /><br /><br />Unikalność człowieka<br /><br /><br />Uczony radziecki Baumsztejn zajmuje w omawianym przez nas zagadnieniu pozycję przeciwstawną względem pozycji Szkłowskiego. Uważa on, że trwanie cywilizacji raz powstałej jest prawie nieograniczone w czasie, to jest wynosić musi miliardy lat. Częstość natomiast biogenezy ma za nadzwyczaj nikłą. Rozumuje on w ten sposób. Prawdopodobieństwo, że z jakiegoś jajeczka ikry dorsza powstanie dojrzała ryba, jest niezwykle małe. Jednakże dzięki temu, że ikry tej jest bardzo wiele (około trzech milionów jajek w jednym miocie), prawdopodobieństwo, że przynajmniej z jednego lub dwóch jajek powstaną ryby, dorównuje jedności. Ten przykład zjawiska nadzwyczaj mało prawdopodobnego w każdym, oddzielnie wziętym przypadku, lecz nader prawdopodobnego przy rozpatrywaniu sumy takich przypadków, zestawia on z procesami bio– i antropogenezy. W rezultacie obliczeń, których nie będziemy przytaczali, dochodzi do wniosku, że z miliarda planet Galaktyki, zaledwie kilka, a może nawet tylko jedna, Ziemia, wytworzyła “psychozoik”. Baumsztejn posługuje się teorią prawdopodobieństwa, powiadającą, że przy bardzo nikłej szansie ziszczenia pewnego zjawiska niezbędne jest tak mnogie powtórzenie warunków, względem niego wstępnych, aby się ono w końcu musiało urzeczywistnić. Tak na przykład jest niezwykle mało prawdopodobne, aby jeden gracz, rzucając dziesięć kości, wyrzucił dziesięć szóstek. Jednakże, jeśli równocześnie miliard graczy będzie rzucać kości, prawdopodobieństwo, że chociaż jeden wyrzuci dziesięć szóstek, jest już daleko większe. Powstanie człowieka uwarunkowane było niezmiernie wielką liczbą czynników. Tak na przykład, pierwej musiał powstać wspólny przodek wszystkich kręgowców, ryba; hegemonia skąpomózgich gadów ustąpić musiała erze ssaków, z kolei — spośród ssaków wyłonić się musiały Naczelne, a powstaniu z nich człowieka w decydujący sposób, jak wolno przypuszczać, sprzyjały epoki lodowcowe, które zwiększyły gwałtownie selekcję i stawiały organizmom ogromne wymagania co się tyczy przejawianych przez nie zdolności regulacyjnych; doprowadziło to do energicznego rozwoju “regulatora homeostatycznego drugiego typu” — mózgu*.<br />Wywód ów jest słuszny z jednym, ale nader istotnym zastrzeżeniem. Autor jego w samej rzeczy udowodnił, że pewne organizmy mogły powstać tylko na planecie, posiadającej wielki i samotny księżyc (który wywołuje zjawiska odpływów i przypływów, co z kolei wytwarza swoiste warunki wegetacji w stref ach przybrzeżnych), że “cefalizację”, wzrost mózgu praczłowieka, prawdopodobnie poważnie przyspieszył zakłócający i zarazem wzmagający ciśnienie selekcyjne — wpływ epok lodowcowych (wywołany z kolei, jak się sądzi, zachodzącymi co kilkaset milionów lat, spadkami promienistej emisji słonecznej). Jednym słowem, autor ów udowodnił istotnie rzadkość antropogenezy, ale udowodnił ją dosłownie, to znaczy wykazał, jak bardzo nieprawdopodobna byłaby hipoteza o powstaniu, na planetach najrozmaitszych słońc, organizmów człekokształtnych.<br />Wywód ten nie przesądza jednak bynajmniej zagadnienia częstości kosmicznej biogenezy i bioewolucji. Tutaj probabilistyczny model rozwoju jednego dorsza z milionów rzuconej ikry nie ma już zastosowania. Że z trzech milionów jajeczek ikry powstaje jeden osobnik, na to zgoda — jednakże niepowstanie ryby z jajeczka równoznaczne jest z zagładą tego jajeczka. Natomiast niepowstanie gatunku Homo Sapiens z Naczelnych wcale by jeszcze nie przekreśliło możliwości wyniknięcia na Ziemi istot rozumnych. Początek im dać by mogły na przykład gryzonie. Model probabilistyczny typu gry w kości nie znajduje zastosowania względem systemu samoorganizującego się, jakim jest ewolucja. Model ten uwzględnia zawsze tylko albo przegraną, albo wygraną, czyli jest to gra według zasady “wszystko albo nic”, ewolucja natomiast jest skłonna do wszelkich możliwych kompromisów; jeśli “przegrywa ‘ na lądzie, rozmnaża inne swe organizmy w wodzie lub w powietrzu, jeżeli cała gałąź zwierząt ulega zagładzie, miejsce jej niebawem zastępują, dzięki radiacji ewolucyjnej, inne organizmy. Ewolucja nie jest graczem skorym do uznania swojej przegranej, nie jest ona jak przeciwnik, który albo; pokona przeszkodę, albo padnie, jak twardy pocisk, który może tylko roztrzaskać się o mur albo go przebić. Jest ona raczej podobna do rzeki, która przeszkody omija, zmieniając kierunek swego biegu. I, tak samo, jak nie ma na Ziemi dwu rzek o dokładnie analogicznym przebiegu i kształcie koryta, tak samo zapewne nie ma w Kosmosie dwu zupełnie tożsamych rzek (czy też drzew) ewolucyjnych. Tak więc wymieniony autor udowodnił coś innego,! aniżeli zamierzał. Wykazał on nieprawdopodobieństwo powtórzenia! ewolucji ziemskiej w innych systemach planetarnych, a przynajmniej powtórzenia wiernego, dokładnego w każdym szczególe, który doprowadził dal ukształtowania takiego człowieka, jakiego znamy. 1<br />Inna rzecz, że o tym, co jest w bioewolucji kształtującym wpływem przypadkowym (a przypadkowa jest, w takim rozumieniu, obecność wielkiego Księżyca Ziemi), a co wynikiem koniecznym działania praw systemu homeostatycznego, nie wiemy prawie nic. Najwięcej bodaj do myślenia dają i te “powtórzenia”, te “nieświadome autoplagiaty”, które ewolucja popełniała, powtarzając po milionleciach proces przystosowania organizmów do środowiska, które dawno już opuściły. Wieloryby wtórnie upodobniły się, przynajmniej kształtem zewnętrznym, do ryb; coś podobnego stało się z pewnymi żółwiami, które najpierw posiadały skorupę, potem utraciły ją całkowicie, a wreszcie wytworzyły ją, po dziesiątkach tysięcy pokoleń, od nowa. Skorupy żółwi “pierwotnych” i “wtórnych” są wcale podobne, ale. jedne powstały z wewnętrznego szkieletu kostnego, drugie natomiast z rogowaciejących tkanek skórnych. Sam jednak fakt wskazuje na to, że modelujący nacisk środowiska walnie przyczynia się do wynikania form pod względem konstrukcyjnym zbliżonych. Motorami każdej chyba ewolucji są, po pierwsze, zmiany przekazywanej z pokolenia na pokolenie informacji dziedzicznej i, po drugie, zmiany środowiskowe. Wpływ czynnika kosmicznego na przekaz informacji dziedzicznej podkreśla Szkłowski, który wysunął niezmiernie oryginalną hipotezę, jakoby natężenie promieniowania kosmicznego (stanowiącego istotny regulator ilości zachodzących mutacji) było zmienne i zależało od zbliżenia się planety wytwarzającej życie do gwiazdy Supernowej; natężenie promieniowania kosmicznego może wówczas przekroczyć “normalne”, to jest przeciętne dla całej Galaktyki, dziesiątki, a nawet setki razy. Zastanawiająca jest odporność pewnego rodzaju organizmów na niszczący informację genetyczną wpływ takiego promieniowania: tak na przykład owady mogą znosić dawki promieniowania setki razy większe od dawek śmiertelnych dla ssaków. Ponadto u organizmów żyjących dłużej promieniowanie takie zwiększa częstość mutacji w poważniejszym stopniu aniżeli u krótkowiecznych (co mogło nawet mieć pewien wpływ na “ujemną selekcję” potencjalnych Matuzalemów świata organicznego). Szkłowski wysuwa hipotezę, że masową zagładę wielkich gadów w mezozoiku wywołało przypadkowe zbliżenie Ziemi do wybuchającej właśnie gwiazdy Supernowej. Tym samym, jak widzimy, czynnik środowiskowy okazuje się bardziej uniwersalnym, aniżeli bylibyśmy skłonni sądzić, ponieważ decydować może nie tylko o ciśnieniu selekcji, ale także o częstości imitowania cech genetycznych. Ogólnie możemy powiedzieć, że tempo ewolucji jest minimalne, a nawet zbliża się do zera, gdy warunki środowiskowe pozostają praktycznie niezmienne przez setki milionów lat. Środowiska takie to przede wszystkim głębie oceaniczne, w których zachowały się do dzisiaj pewne formy zwierzęce (ryb), prawie nie zmienione od czasów kredy i jury. Otóż, planety o znaczniejszej, niż ziemska, stabilizacji klimatycznej i geologicznej, jednym słowem takie, które gotowi byśmy uznać za “raj”, co się tyczy ich “przychylności” dla zjawisk życia, w istocie przedstawiać mogą obszary homeostatycznego zastoju; życie bowiem ewoluuje nie dzięki wbudowanej w nie tendencji “postępu”, ale tylko w obliczu bezwzględnego zagrożenia. Z drugiej strony, wahania nazbyt gwałtowne, występujące na przykład wokół gwiazd zmiennych lub podwójnych, zdają się albo wykluczać możliwość wyniknięcia życia, albo też stanowią stałą groźbę jego niespodziewanej zagłady.<br />Ewolucje, jak sądzimy, występują zatem na licznych ciałach niebieskich. Nasuwa się pytanie, czy muszą one .kulminować zawsze, albo przynajmniej prawie zawsze, w wyniknięciu rozumu, czy też i jego pojawienie się stanowi przypadek, względem prawidłowości dynamicznych procesu niejako zewnętrzny, coś w rodzaju akcydentalnego wejścia w uliczkę rozwoju, otwartą za sprawą zbiegu okoliczności. Kosmos nie może nam, niestety, udzielić odpowiedzi na to pytanie i zapewne nieprędko to uczyni: jesteśmy zatem, wraz z całą naszą problematyką, ponownie na Ziemi, skazani na wiedzę, jaką czerpać można z zachodzących na niej tylko wydarzeń.</div><div><br /><br /><br />Inteligencja: przypadek czy konieczność?<br /><br /><br />Zwierzęta “nieinteligentne” i rośliny mogą przystosowywać się do zmian wywoływanych czynnikami środowiskowymi — na przykład porami roku. Ewolucyjny katalog rozwiązań homeostatycznych tego zadania jest ogromny. Okresowa utrata liści, pozostawianie przetrwalników, sen zimowy, metamorfozy owadów — to tylko nieliczne z możliwych przykładów. Rzecz jednak w tym, że mechanizmy regulacyjne, determinowane informacją dziedziczną, potrafią sprostać takim tylko zmianom, które wyselekcjonowały je w tysiącach poprzednich pokoleń. Precyzja zachowania instynktownego staje się daremna, kiedy zachodzi potrzeba rozwiązania zadań nowych, przez gatunek nie pokonanych i tym samym nie utrwalonych genetycznie. Roślina, bakteria albo owad, jako “homeostat pierwszego stopnia”, ma sposoby reagowania na zmiany wbudowane od chwili swego powstania: w języku cybernetyki powiemy, że układ (osobnik) jest “z góry zaprogramowany”, co się tyczy zakresu możliwych zmian, jakie winien regulacyjnie przezwyciężyć, dla kontynuacji własnej i gatunku. Zmiany takie mają najczęściej charakter rytmiczny (zmiana dnia i nocy, pór roku, przypływów i odpływów), a przynajmniej okresowy (zbliżenie się drapieżcy, które uruchamia gotowe mechanizmy obrony: ucieczkę albo znieruchomienie w “udanej śmierci”, itp.). Gdy przychodzi do zmian, wytrącających organizm z jego środowiskowej równowagi “programowaniem” instynktów nieprzewidzianych, odpowiedź “regulatora pierwszego stopnia” okazuje się niewystarczającą i rozpoczyna się kryzys. Z jednej strony, gwałtownie zwiększa się umieralność nieprzystosowanych i zarazem ciśnienie selekcyjne uprzywilejowuje pewne formy nowe (mutanty) — co może doprowadzić w końcu do wcielenia w “programowanie genetyczne” sposobów reagowania niezbędnych dla przeżycia. Z drugiej strony, powstaje wyjątkowa szansa dla organizmów, obdarzonych “regulatorem drugiego typu”, to jest mózgiem, który, w zależności od potrzeb, może zmieniać “program działania” (“samoprogramowanie dzięki uczeniu się”). Przypuszczalnie istnieje taki typ zmian, takie ich tempo i taka sekwencja (można by ją nazwać “labiryntową”, mając na myśli labirynty, w których uczeni badają inteligencję zwierząt, na przykład szczurów), której ewolucyjna plastyczność regulatorów, determinowanych genetycznie, instynktów, sprostać już nie jest w stanie. Uprzywilejowuje to procesy rozbudowy ośrodkowego układu nerwowego, jako urządzenia homeostatycznego “drugiego stopnia”, jako systemu, którego działanie polega na wytwarzaniu próbnych modeli sytuacji. Organizm już “na własną rękę”, nie opierając się na programach działania gotowych, albo przystosowuje siebie do zmienionego środowiska (szczur uczy się znajdować wyjście z labiryntu), albo — środowisko do siebie (człowiek buduje cywilizację). Istnieje też, naturalnie, możliwość trzecia, przegranej: kiedy, stworzywszy model sytuacji błędny, organizm nie osiąga przystosowania i ginie.<br />Organizmy pierwszego typu “wszystko wiedzą z góry”, drugiego — muszą się dopiero właściwego postępowania uczyć. Wygody pierwszego rozwiązania okupuje organizm jego wąskością, drugiego — ryzykiem. “Kanał”, przez który przekazywana zostaje informacja dziedziczna, ma ograniczoną pojemność, wskutek czego ilość z góry zaprogramowanych działań nie może być bardzo wielka: to mieliśmy na myśli, mówiąc o “wąskości” regulacyjnej. Uczenie się natomiast zakłada okres wstępny, podczas którego organizm jest szczególnie narażony na pomyłki, mogące łatwo kosztować go bardzo wiele, z utratą życia włącznie. Dlatego zapewne po dziś dzień przetrwały w świecie zwierzęcym oba te główne typy regulatorów: istnieją środowiska, w których zachowanie stereotypowe, ale “umiane od kolebki”, popłaca bardziej, aniżeli trudy kosztownej nauki na własnych błędach. Stąd, nawiasem mówiąc, bierze się “cudowna doskonałość” instynktów. Wszystko to brzmi nieźle, ale co wynika z tego dla ogólnych prawidłowości encefalogenezy? Czy ewolucja zawsze musi wytworzyć w końcu tak potężne, ,regulatory drugiego stopnia”, jakimi są wielkie mózgi człekokształtnych, czy też, jeśli na planecie do “zmian krytycznych” nie dochodzi, mózgi, jako niepotrzebne, na niej nie powstają?<br />Odpowiedź na tak postawione pytanie nie jest łatwa. Pobieżna znajomość ewolucji skłania zazwyczaj do naiwnej koncepcji postępu: ssaki miały “większe mózgi” od gadów, to jest “większą inteligencję” i dlatego je ostatecznie wyparły. Jednakowoż ssaki współistniały z gadami przez setki milionów lat, stanowiąc marginesowe, drobne formy wobec królujących gadów. Ostatnio znów stwierdzono, jak znaczną, w stosunku do wszystkich innych organizmów żyjących w oceanie, inteligencję posiadają delfiny. Mimo to bynajmniej nie opanowały one w wyłączny sposób królestwa wód. Jesteśmy skłonni do przeceniania wagi inteligencji, jako “wartości samej w sobie”. Ashby podaje tu szereg ciekawych przykładów. Szczur “tępy”, nieskory do uczenia się, znalezione pożywienie próbuje ostrożnie. Szczur “bystry”, nauczywszy się, że pożywienie znajduje się zawsze na tym samym miejscu i o tej samej porze, pozornie ma większą szansę przeżycia. Ale jeśli tym pożywieniem będzie trutka, szczur “tępy”, który “niczego się nie nauczył”, dzięki swej instynktownej nieufności przeżyje szczura “bystrego”, który naje się i zdechnie. Nie każde zatem środowisko uprzywilejowuje “inteligencję”. Mówiąc ogólnie, ekstrapolacja doświadczenia (jego “transfer”) jest nader przydatna w środowisku ziemskim. Możliwe są jednak i środowiska, w których cecha ta staje się minusem. Wiadomo, że wytrawny strateg pokonać może mniej wytrawnego, ale może też przegrać z całkowitym fuszerem, ponieważ pociągnięcia tego ostatniego są “nieinteligentne”, to jest całkiem nieobliczalne. Zastanawiające jest, że ewolucja, tak “oszczędna” w każdej dziedzinie informacyjnego przekazu, wytworzyła mózg człowieka, urządzenie o takim stopniu “nadmiarowości”, bo mózg ten, który dzisiaj, w XX wieku, jeszcze doskonale sprawia się z problematyką potężnej cywilizacji, jest anatomicznie, biologicznie taki sam, jak mózg naszego prymitywnego, “barbarzyńskiego” przodka sprzed stu tysięcy lat. W jaki sposób ta olbrzymia “potencja prospektywna rozumu”, ta “nadmiarowość”, gotowa jak gdyby u samego zarania dziejów do podjęcia budowy cywilizacji, powstała w trakcie działania probabilistycznej gry ewolucyjnej dwu wektorów, ciśnienia mutacyjnego i selekcyjnego?<br />Ewolucjonizmowi brak na to pytanie pewnej odpowiedzi. Doświadczenie wykazuje, że mózg każdego właściwie zwierzęcia odznacza się poważną “nadmiarowością”, która wyraża się w tym, że zwierzę potrafi rozwiązywać zadania, jakich w normalnym życiu nigdy nie spotyka, dopóki nie zada mu ich uczony–eksperymentator. Faktem jest także wzrost masy mózgowia powszechny: współczesne płazy, gady, ryby, w ogóle wszyscy przedstawiciele świata zwierzęcego, mają mózgi większe od ich paleozoicznych czy mezozoicznych przodków. W tym sensie podczas trwania ewolucji “zmądrzały” wszystkie zwierzęta — tendencja równie powszechna zdaje się świadczyć o tym, że, byle tylko proces ewolucji trwał dostatecznie długo, masa mózgowia musi wreszcie przekroczyć “wielkość krytyczną”, która zapoczątkuje i lawinową reakcję socjogenezy.<br />Od pospiesznej “ekstrapolacji na Kosmos” tego procesu “ciążenia ku rozumowi”, jako konstrukcyjnej tendencji procesów ewolucyjnych, winniśmy się jednak powstrzymać. Pewne czynniki natury “materiałowej”, bądź “wstępno–budowlanej”, mogą w samym zaraniu ewolucji tak ograniczyć jej przyszłe możliwości i tak wyznaczyć jej rozwojowy pułap, że do wyniknięcia “regulatorów drugiego typu” w ogóle nie dojdzie. Przykładem mogą być owady, jeden z najstarszych, najbardziej żywotnych i płodnych szczepów zwierzęcych; Ziemia liczy dzisiaj ponad 700 000 ich gatunków, przy 80 000 gatunków wszystkich kręgowców. Owady stanowią przeszło trzy czwarte całego królestwa zwierząt — a jednak nie wytworzyły inteligencji. Owady istniały poza tym przez taki sam mniej więcej okresu czasu, co kręgowce, więc, ze względu na dziesięciokrotnie większą liczebność gatunkową, ze statystycznego punktu widzenia (gdyby on tylko decydował) miałyby dziesięć razy więcej szans na realizację “regulatorów drugiego typu”. To, że się tak nie stało, świadczy dobitnie o niestosowalności rachunku prawdopodobieństwa, jako kryterium decydującego, do zjawisk psychogenezy. A zatem: jest ona możliwością, ale bynajmniej nie zjawiskiem nieuchronnym, stanowi rozwiązanie jedno z lepszych, ale nie zawsze i nie dla wszystkich światów optymalne. Dla skonstruowania rozumu Ewolucja musi dysponować czynnikami tak różnorodnymi, jak niezbyt wielka grawitacja, względnie stałe natężenie kosmicznego promieniowania, nie nazbyt energicznego, zmienność środowiskowa nie tylko o charakterze cyklicznym, i wieloma zapewne innymi, nie znanymi nam jeszcze czynnikami. Ich zejście się na powierzchniach planet nie jest jednak chyba czymś wyjątkowym. Tak zatem, mimo wszystko, wolno nam oczekiwać w Kosmosie rozumu, choć formy jego manifestacji mogą urągać wszystkim naszym współczesnym wyobrażeniom.</div><div><br /><br /><br />Hipotezy<br /><br /><br />Sytuacja jest paradoksalna. Szukając oparcia dla naszych prób zajrzenia w przyszłość cywilizacji ziemskiej, nadspodziewanie zyskaliśmy pomoc astrofizyki, która analizą statyczną bada częstość występowania życia rozumnego w Kosmosie, za czym wyniki takich prac natychmiast zakwestionowaliśmy. Astrofizyk mógłby spytać, jakim prawem uczyniliśmy to, skoro jego kompetencja w sprawie kluczowej — odróżniania zjawisk astronomicznych “naturalnych” od “sztucznych” — jest nieporównanie większa od naszej. Taki, wcale prawdopodobny, zarzut wymaga odpowiedzi. Po części odpowiedź ta była już rozsiana w poprzednich częściach tego cyklu i teraz pozostaje nam tylko ją usystematyzować.<br />Należy zauważyć, że radioastronomia dopiero się rozwija. Próby kosmicznego nasłuchu kontynuuje się (m. in. w ZSRR będzie to robił jeden ze współpracowników prof. Szkłowskiego). Jeśli w nadchodzących latach odkryje się fenomeny astroinżynieryjne, bądź sygnalizacyjne, będzie to miało oczywiście wielkie znaczenie. Jednakże zupełny brak wszelkich danych pozytywnych będzie miał znaczenie większe, i to tym większe, im dłużej takie próby będą kontynuowane i im czulszej użyje się do tego aparatury. Po pewnym, dostatecznie długim czasie zupełny brak takich zjawisk zmusi nas do rewizji poglądów na bio– i psychogenezę w Kosmosie. Dziś jest na to jeszcze za wcześnie. Niemniej uważamy się za związanych — przy wypowiadaniu hipotez — obecnym stanem wiedzy. Przyjmujemy do wiadomości brak “cudów” i sygnałów kosmicznych, tak samo, jak to czyni astrofizyk. Nie kwestionujemy zatem materiału obserwacyjnego, a tylko jego interpretację. Wyjaśnienia “próżni psychozoicznej” dostarcza każda z trzech hipotez, które wyliczymy.<br />I. Cywilizacje powstają w Kosmosie rzadko, ale są długotrwałe. Częstość ich występowania wynosi kilka do kilkunastu na jedną Galaktykę. Tak więc jedna planeta z “psychozoikiem” wypada na miliardy gwiazd. Na równi z astrofizykami odrzucamy tę hipotezę, gdyż jest sprzeczna z powszechnie przyjętymi poglądami na typowość powstawania układów planetarnych i życia w ich obrębie. Zastrzegamy się jednak, że, jakkolwiek nieprawdopodobna, nie musi być nieprawdziwa. Ponieważ galaktyki różnią się od siebie wiekiem, tak jak gwiazdy, w galaktykach starszych od naszej powinno dochodzić do działań astroinżynieryjnych, których przejawy, po odpowiednim udoskonaleniu aparatury, można by dostrzec. Zakładamy przy tym, podobnie jak astrofizycy, że wszystkie lub prawie wszystkie, jakkolwiek nieliczne cywilizacje, rozwijają się w kierunku technologicznym, który doprowadza po dostatecznie długim czasie do astroinżynierii.<br />II. Cywilizacje powstają w Kosmosie często, ale są krótkotrwałe. Wynika to a) z ich tendencji “autolikwidacyjnych”, b) z ich tendencji “zwyrodnieniowych”, c) z przyczyn całkowicie dla nas niepojętych, które zaczynają działać na pewnym etapie rozwoju. Tym właśnie hipotezom najwięcej uwagi poświęca w swej monografii Szkłowski. Dla nas najważniejsze jest wskazanie założeń, na jakich się te hipotezy opierają. Można je sprowadzić do dwóch: 1) przyjmuje się, że kierunek rozwoju ogromnej większości cywilizacji jest taki, jak ziemski, to jest technologiczny; 2) że podobne jest, w skali astronomicznej przynajmniej, gdzie odchylenie rzędu miliona lat nie ma znaczenia, tempo rozwoju. Tak zatem, wstępnym założeniem tej grupy hipotez jest ortoewolucyjny charakter rozwoju wszystkich niemal cywilizacji. Milcząco przyjmuje się, że przyspieszenie postępu technologicznego, jakie obserwujemy od mniej więcej dwustu lat na Ziemi, jest procesem dynamicznie trwałym, który zahamować mogą jedynie czynniki destrukcyjne (“zwyrodnienie”, “samobójstwo” cywilizacji). Podstawową cechą dynamiczną wszystkich cywilizacji ma więc być wzrost wykładniczy (do potęgi), który prostą drogą wiedzie ku działalności astroinżynieryjnej. Oba te założenia można atakować. Jednakże brak nam jakichkolwiek danych dla rozważenia, czy kierunek technologiczny jest w samej rzeczy przejawem prawa rozwojowego “psychozoików”. Może i nie jest. Niemniej, zgodnie z zasadą Ockhama, nie wprowadzamy “zbędnych bytów”, to jest nie opartych na żadnych faktach hipotez. Przyjmujemy, że jest to kierunek typowy dlatego, ponieważ uważamy samych siebie i własną naszą historię za zjawisko kosmicznie przeciętne, zwyczajne, a więc i typowe.<br />Inna sprawa z drugim założeniem. Wprawdzie dotychczasowa historia ii wykazuje trwały od Rewolucji Przemysłowej wzrost wykładniczy naszej cywilizacji, niemniej istnieją określone, i to ważkie fakty, przemawiające za prawdopodobieństwem jego zmiany. Gdy zakwestionujemy rzekomą stałość (w skali astronomicznej) tempa technoewolucji, otwiera się możliwość nowego rozwiązania. Możemy mówić o trzeciej grupie hipotez, zgodnych z obserwowanymi (czy raczej — nie obserwowanymi…) faktami.<br />III. Cywilizacje powstają w Kosmosie często i są długotrwałe, ale nie rozwijają się ortoewolucyjnie. Krótkotrwałe jest nie ich istnienie, a jedynie pewna jego faza, odznaczająca się wzrostem wykładniczym. Ta ekspansywna faza trwa, w skali astronomicznej, bardzo krótko: kilka, do kilkunastu tysięcy lat (jak się potem okaże, jest prawdopodobne, że trwa nawet krócej). Po tym okresie charakterystyka dynamiczna rozwoju zmienia się. Zmiana owa nie ma jednak nic wspólnego ani z “autolikwidacją”, ani ze “zwyrodnieniem”. Odtąd drogi rozmaitych cywilizacji mogą się już poważnie od siebie różnić. Ta różnorodność dalszego rozwoju warunkowana jest przyczynami, które omówimy osobno. Omówienie to nie będzie grzechem przeciwko 1 zakazowi jałowej spekulacji, ponieważ czynniki, odmieniające dynamikę j rozwoju, w postaci zalążkowej można wykryć już w świecie współczesnym. Są one natury pozaspołecznej, pozaustrojowej i wynikają po prostu z samej struktury świata, w którym żyjemy, z tego, że jest taki, jaki jest. Przedstawimy możliwe zmiany zachowania, jakie wykazuje cywilizacja po osiągnięciu określonego etapu rozwoju. Ponieważ w pewnych granicach ma ona swobodę wyboru strategii dalszego postępowania, nie zdołamy naturalnie przewidzieć tego, co się z cywilizacją stanie. Z wielu rozmaitych wariantów wybierzemy takie, które czynią zadość faktom, to jest godzą wielość zamieszkałych światów, istniejących bardzo długo, z ich astronomiczną niedostrzegalnością.<br />W ten sposób, z jednej strony, uzyskany obraz będzie odpowiadał wymaganiom astrofizyka (to jest będzie zgodny z brakiem “cudów” i kosmicznych sygnałów), z drugiej zaś, unikniemy katastroficznego fatalizmu von Hörnerowskich hipotez. Sądzę, iż warto powtórzyć motywy, skłaniające nas do odrzucenia tej “statystycznej nieuchronności zagłady”, jaka z owych hipotez wynika. Jeżeli kierunek i tempo rozwoju wszystkich cywilizacji w Galaktyce są zbliżone i jeżeli przeciętna trwania cywilizacji wynosi kilka tysięcy lat, to ż tego wcale nie wynika, aby nie mogły istnieć cywilizacje milionoletnie, stanowiące skrajne odchylenia od normy. Statystyka von Hörnera jest podobna do statystyki gazu. Gaz w temperaturze pokojowej liczy najwięcej cząstek o szybkościach rzędu kilkuset metrów na sekundę, ale istnieją w nim nieliczne cząstki o szybkościach wiele razy większych. Otóż, obecność garstki szybkich cząstek nie wpływa wcale na zachowanie letniego gazu. Natomiast obecność kilku zaledwie “anormalnie” długowiecznych cywilizacji w zbiorze galaktycznym wpływałaby na całą Galaktykę, ponieważ te cywilizacje dałyby początek potężnym, ekspansywnym radiacjom w coraz to większe obszary gwiazdowe. Tym samym, astroinżynieria byłaby do zaobserwowania — co przecież nie zachodzi. Tak więc von Hörner zakłada milcząco, że statystyka jego obejmuje zjawiska tak samo skończone w czasie i względnie krótkotrwałe, jak życia ludzkie. Bo istnieją wprawdzie statystyczne odchylenia od przeciętnej długości życia, wynoszącej około 60 lat, ale żaden człowiek nie może żyć 200 lub 300 lat. Jednakże powszechna, po kilku dziesięcioleciach, śmiertelność ludzi wynika z właściwości ich organizmów, czego doprawdy nie można powiedzieć ó organizmach społecznych. Każda rozwijająca się cywilizacja może bez wątpienia przechodzić przez fazy “kryzysów” (związanych, powiedzmy, z odkryciem energii atomowej, a potem z innymi jakimiś przemianami, których nie znamy), ale należałoby oczekiwać proporcjonalności odwrotnej niż ta, którą obserwujemy w populacji biologicznej: bo w takiej populacji osobnik z tym większym prawdopodobieństwem niebawem zemrze, im dłuższy już osiągnął żywot, natomiast długowieczna cywilizacja winna być właśnie “mniej śmiertelna”, mniej narażona na zakłócenia od krótkowiecznej, ponieważ zdobywa coraz to rozleglejszą wiedzę, a dzięki niej — kontrolę nad własną homeostazą. Tak zatem, wszechśmiertelność cywilizacyj jest dodatkowym założeniem, wziętym z powietrza. Von Hörner wprowadza je do swych żaren matematycznych, zanim jeszcze weźmie się do rachunków. Uważamy to założenie za bezzasadną dowolność. Tak więc metodologia, a nie optymizm (który może być w Kosmosie nie na miejscu) nakazuje zwrócić się ku innym wyjaśnieniom “próżni psychozoicznej” Wszechświata.</div><div><br /><br /><br />Votum separatum<br /><br /><br />Mieliśmy wprawdzie powrócić na Ziemię, ale pozostaniemy jeszcze na chwilę w niebiosach, gdyż chciałbym wypowiedzieć moje osobiste przekonanie w omawianej kwestii. Zapowiedź ta wzbudzi może zdziwienie, bo czy nie mówiłem przez cały czas od siebie, wstępując w spory z rozmaitymi hipotezami? Otóż spieszę z wyjaśnieniem, że zachowywałem się jak sędzia, samozwańczy wprawdzie, ale przestrzegający paragrafów nie przez siebie ułożonych kodeksów. Mam na myśli moją uległość względem surowych nakazów ścisłości naukowej, przejawiającą się w ucinaniu, Ockhamowską brzytwą, wszelkich spekulacji. Było to chyba rozsądne. Jednakże człowiekowi chce się czasem nie być rozsądnym, na przekór oczywistościom. Dlatego; przedstawię tu mój punkt widzenia, obiecując, że potem na nowo stanę się; pokornym sługą metodologii.<br />A zatem, cywilizacje kosmiczne… Dopóki pytania, zadawane Naturze przez Naukę, były bliskie zjawiskom skali nam równorzędnej (mam na myśli; wyrobioną w nas, dzięki codziennemu doświadczeniu, umiejętność upodabniania zjawisk badanych do tego, co pojmujemy bezpośrednio zmysłami), dopóty odpowiedzi jej brzmiały dla nas sensownie. Gdy jednak zapytano eksperymentem: “materia, to fala czy cząsteczka?” — uważając sformułowanie za ścisłą alternatywę, odpowiedź okazała się tyleż nieoczekiwana, co trudna do przyjęcia. Więc, gdy na pytanie: “cywilizacje kosmiczne częste —czy rzadkie?” — albo: “długowieczne czy efemeryczne?” — padają odpowiedzi niezrozumiałe, pełne pozornych sprzeczności, sprzeczności owe wyrażają nie tyle stan rzeczywisty, co naszą nieumiejętność stawiania Naturze pytań właściwych. Bo człowiek stawia Naturze mnóstwo pytań, z “jej punktu widzenia” bezsensownych, pragnąc otrzymać odpowiedź jednoznaczną i mieszczącą się w drogich mu schematach. Jednym słowem, usiłujemy odkryć nie Porządek w ogóle, ale pewien określony porządek, mianowicie oszczędny (“brzytwa Ockhama”!), jednoznaczny (aby go nie można rozmaicie interpretować), powszechny (aby panował w całym Kosmosie), niezależny od nas (to jest niezawisły od tego, czy i kto go postrzega), i niezmienny (to jest, by prawa Natury same nie zmieniały się z upływem czasu). Ale to wszystko są przecież postulaty badawcze, a nie prawdy objawione. Kosmos nie został stworzony dla nas ani my — dla niego. Jesteśmy ubocznym produktem gwiazdowych przemian i produktów, jakie Wszechświat wytwarzał i wytwarza ilości niezliczone. Bez wątpienia, nasłuchy, obserwacje trzeba kontynuować, w nadziei, że spotkamy Rozum, tak podobny do naszego, że poznamy go po jego znakach. Ale to właśnie jest tylko nadzieja — ponieważ Rozum, który kiedyś odkryjemy, może być tak odmienny od naszych pojęć, że nie zechcemy nazwać go Rozumem.<br />W tym miejscu cierpliwość życzliwego Czytelnika wyczerpuje się. Być może, powiada, że Natura udziela nam odpowiedzi niejasnych, ale pan nie jest przecież Naturą! Zamiast wypowiedzieć wyraźnie swój sąd o cywilizacjach kosmicznych, skomplikował pan całą sprawę, mówiąc o Prawach Natury, o Porządku itp., aby na koniec uciec do semantyki — jak gdyby istnienie tych jakichś rozumnych istot we Wszechświecie zależało od tego, co pojmujemy przez “rozum”! Jest to czystej wody subiektywizm, a nawet rzeczy jeszcze gorsze! Czy nie byłoby uczciwiej oświadczyć, że pan po prostu nic nie wie?<br />Naturalnie — odpowiadam — że brak mi wiedzy pewnej, bo i skąd ją wziąć? Być może też, mylę się i urzeczywistnione w nadchodzących latach kontakty “socjokosmiczne” ośmieszą mnie i moje wywody. Proszę mi jednak pozwolić na wyjaśnienie. Sądzę, że kosmicznej obecności Rozumu możemy nie zauważyć nie dlatego, że go nigdzie nie ma, ale ponieważ zachowuje się on odmiennie od naszych oczekiwań. Takie odmienne zachowanie da się z kolei wytłumaczyć dwojako. Najpierw można przyjąć, że nie istnieje jeden tylko Rozum, ale że możliwe są “rozmaite Rozumy”. Potem, przyjąwszy, że istnieje tylko jeden Rozum, taki jak nasz, można rozważyć, czy podczas ewolucji cywilizacyjnej nie zmienia się do tego stopnia, że wreszcie przestaje być w swych przejawach podobny do własnego stanu początkowego.<br />Przykładem sytuacji pierwszego typu jest zbiorowość ludzi różniących się od siebie temperamentem, charakterem itp.<br />Przykładem sytuacji drugiego typu jest zbiór następujących po sobie w czasie różnych stanów tego samego człowieka, jako niemowlęcia, dziecka, osobnika dojrzałego, wreszcie — starca.<br />Sytuację drugiego typu będziemy omawiali osobno dlatego, ponieważ istnieją określone fakty, przemawiające za taką właśnie wykładnią “kosmicznego stanu rzeczy”. Skoro zaś będzie pokrycie w faktach, możemy spodziewać się przyzwolenia — na to rozważanie — Metodologii.<br />Sytuacja pierwszego typu nie ma, niestety, żadnego w faktach oparcia: jest czystej wody spekulatywnym “gdybaniem”. Stąd wszystkie zastrzeżenia, jakimi obwarowałem jej omówienie.<br />Tak więc — rozmaite Rozumy. Nie śmiem nawet rzec, że chodzi o różne, a więc i nietechnologiczne kierunki rozwoju —bo o pojęcie Technologii można się pokłócić równie dobrze, jak o pojęcie Rozumu. W każdym razie Rozumy odmienne nie oznaczają “głupszych” czy “mądrzejszych” od ludzkiego. Za Rozum uważamy homeostatyczny regulator drugiego stopnia, zdolny sprawić się z zakłóceniami środowiska, w którym istnieje, dzięki działaniom, podejmowanym w oparciu o historycznie nabytą wiedzę. Rozum człowieka doprowadził go do Ery Technologicznej, ponieważ środowisko ziemskie odznacza się szeregiem cech szczególnych. Czy Rewolucja Przemysłowa byłaby możliwa, gdyby nie Karbon, ten okres geologiczny, w którym zapasy słonecznej energii zostały zmagazynowane w zatopionych, zwęglających się lasach? Gdyby nie powstałe, w toku innych przemian, złoża ropy naftowej? —Cóż z tego? — słyszę. — Na planetach, które nie miały swego Karbonu, możliwe jest użycie innych rodzajów energii, na przykład słonecznej, atomowej… a zresztą odchodzimy od tematu. Mieliśmy mówić o Rozumie.<br />Ależ mówimy o nim. Dotrzeć do Ery Atomu bez poprzedzającej ją Ery Węgla i Elektryczności byłoby niemożliwe. A w każdym razie, inne środowisko wymagałoby innej kolejności odkryć; oznacza to coś więcej od przestawienia kalendarza Einsteinów i Newtonów innych planet. W środowisku o zakłóceniach bardzo gwałtownych, przekraczających społeczne możliwości regulacyjne, Rozum może się przejawić nie w postaci ekspansywnej, nie jako dążenie do opanowania środowiska, ale jako dążenie do podporządkowania mu się. Mam na myśli wykształcenie technologii biologicznej przed fizyczną: istoty takiego świata przekształcają siebie, aby mogły istnieć w danym środowisku, zamiast, jak ludzie, przekształcać środowisko, aby im służyło. — Ależ to nie jest już działalność rozumna — to nie jest Rozum! —pada replika. — Tak zachowuje się przecież każdy gatunek biologiczny w trakcie ewolucji…<br />Gatunek biologiczny nie wie, co czyni — odpowiadam. — Nie on sobą rządzi, lecz Ewolucja — nim, ciskając go hekatombami na sita Naturalnego Doboru. Miałem na myśli działalność świadomą: planowaną i sterowaną autoewolucję, jak gdyby “odwrót przystosowawczy”. W naszym pojęciu nie przypomina on działalności rozumnej, ponieważ dewizą człowieka jest heroiczny atak na otaczającą go materię. Ale to jest właśnie przejaw naszego antropocentryzmu. Im bardziej różnią się od siebie warunki, panujące na światach zamieszkałych, tym większa musi być na nich różnorodność Rozumu. Jeśli ktoś sądzi, że istnieją wyłącznie drzewa iglaste, w najgęstszej dąbrowie daremnie będzie poszukiwać “drzew”. Cokolwiek dobrego można rzec o naszej cywilizacji, jedno jest pewne: rozwój jej nie ma nic wspólnego z harmonią. Przecież ta cywilizacja, zdolna unicestwić w ciągu paru godzin całą biosferę planety, pod wpływem jednej sroższej nieco zimy zaczyna trzeszczeć w spojeniach! Nie mówię tego, by “kalać gniazdo”, przeciwnie: nierównomierność rozwoju jest zapewne normą kosmiczną. Jeśli nie istnieje “jeden Rozum”, ale jego niezliczone odmiany, jeśli “kosmiczna stała intelektualna” jest fikcją, to brak sygnałów, nawet przy znacznej gęstości cywilizacyjnej, łatwiej można zrozumieć. Mnogość Rozumów, ależ tak, tylko uwikłanych we “własne sprawy planetarne”, poruszających się rozmaitymi drogami, porozdzielanych sposobami myślenia, działania, odmiennymi celami. Jak wiadomo, człowiek może być sam w nieprzeliczonym tłumie. Czyżby ten tłum nie istniał? I czy taka samotność wynika jedynie z “semantycznego nieporozumienia”?</div><div> <br /><br /><br />Perspektywy<br /><br /><br />O istnieniu cywilizacji kosmicznych w roku 1966* nadal nic konkretnego nie wiadomo. Niemniej, zagadnienie staje się przedmiotem badań planowania. W USA i w ZSRR odbywały się konferencje uczonych, poświęcone wyłącznie problematyce “innych” i kontaktu z nimi. Oczywiście pytanie o to, czy “inni w ogóle istnieją, pozostaje kwestią fundamentalną. Z pozoru, wobec braku danych empirycznych, wybór odpowiedzi wciąż jeszcze zależy od osobistych poglądów, od “gustu” uczonego. Z wolna jednak coraz to większa liczba uczonych dochodzi do przeświadczenia, że totalna “pustka psychozoiczna” Kosmosu stałaby w sprzeczności nie do pogodzenia z całokształtem naszej wiedzy przyrodniczej, która wprawdzie explicite istnienia “innych” nie postuluje, czyni to jednak implicite, albowiem wyniki badań przyrodoznawczych każą uznać zjawiska astrogenezy, planetogenezy, wreszcie — biogenezy za procesy dla Kosmosu normalne, to jest, przeciętne, “typowe”, i dlatego wykazanie empiryczne (mniejsza w tej chwili o to, jak i czy możliwe), że “innych” w dostrzegalnej przez nas Metagalaktyce nie ma, nie oznaczałoby tylko obalenia pewnej izolowanej hipotezy (o swoistej częstości występowania w Kosmosie życia i rozumu), ale stanowiłoby metodologicznie bardzo poważne zagrożenie fundamentów naszej wiedzy przyrodniczej. Konstatacja takiej pustki równałaby się bowiem ustaleniu, że oparta na ekstrapolacji powszechnie w nauce przyjętej ciągłość przechodzenia od jednych zjawisk materialnych do innych, więc od powstawania gwiazd do powstawania planet, od tego ostatniego — do narodzin życia, jego ewolucji, itp., ciągłość, która stanowi niewzruszoną podstawę całej nauki, nie jest przez świat dozwolona, czyli, że istnieje w nim gdzieś dla nas niepojęte pęknięcie w badanych i postulowanych prawidłowościach najogólniejszych, przy czym taka konstatacja wymagałaby rewizji niejednej z teorii, powszechnie uznawanych dziś za prawdziwe. Aby zacytować słowa J. Szkłowskiego, wypowiedziane w 1964 roku na konferencji w Biurakanie: “Dla mnie największym, prawdziwym «cudem» byłby dowód, że żadnych «cudów kosmicznych» nie ma. Tylko astronom–specjalista może w pełni pojąć znaczenie [ewentualnego] faktu, że spośród l021 gwiazd tworzących obserwowalną część Wszechświata (ok. 1010 galaktyk, po 1010 do ok. 1011 gwiazd w każdej) ani jedna nie ma wokół siebie rozwiniętej dostatecznie cywilizacji, mimo że procent gwiazd, posiadających systemy planetarne, jest dostatecznie wysoki”.<br />Jeden z młodych astrofizyków radzieckich, Kardaszew, dzielił, występując na wspomnianej konferencji, hipotetyczne cywilizacje na trzy typy, zaliczając do pierwszego ziemiopodobne (zużycie energii roczne ok. 4 * l019 ergów), do drugiego — cywilizacje, zużywające energię rzędu 4 * 1033 ergów, do trzeciego zaś “supercywilizacje”, które opanowały energetycznie swoje galaktyki (energia rzędu 4 * 1044 ergów). Przy tym czas, niezbędny dla powstania cywilizacji I typu, szacował na kilka miliardów lat (za przykładem Ziemi), przejście od I do n typu miałoby trwać ledwie kilka tysięcy lat (szacunek, oparty na tempie przyrostu energetycznej produkcji Ziemi w ciągu ostatnich wieków), od n zaś do ni typu — miałoby trwać kilka dziesiątków milionów lat. Ustalenie ostatnie spotkało się z krytyką innych fachowców, jako że — przy takich “tempach psychogenezy” — praktycznie wszystkie galaktyki musiałyby posiadać już swe “supercywilizacje”, a wskutek tego niebo byłoby obszarem bardzo intensywnej działalności “gwiezdnoinżynieryjnej”, rojącym się od “kosmicznych cudów”, co — prawie że ponad wszelką wątpliwość — nie zachodzi. Tak więc, albo powstanie (wszelkiej) cywilizacji jest zjawiskiem bardzo mało prawdopodobnym, a przez to i rzadkim, dzięki czemu powstają w niektórych tylko galaktykach (tym samym, moglibyśmy być w naszej — samotni), albo też poziom energetycznego (technologiczne — rozwoju hamuje jakieś zjawisko (bariera?), bądź szereg zjawisk, dokładnie dla nas zagadkowych.<br />Oczywiście, zagadka ta może zyskać wyjaśnienie stosunkowo trywialne. Tak więc, jakeśmy już o tym wspominali, być może, drogi rozwoju, wspólne do pewnego etapu (porównywalnego, powiedzmy, ze współczesnym ziemskim), później rozchodzą się, jakąś radiacją rozwojowych kierunków, przy czym kontynuować wykładnicze tempa wczesnego rozwoju może jedynie drobny ułamek procentu wszystkich “startujących”. Taka bariera rozwojowa, mająca charakter probabilistyczny, jest czymś radykalnie odmiennym od jakiegoś “zakazu” tajemniczego, opatrzonego znamieniem aż fatalistycznego zdeterminowania. Podobne, statystyczne, ujęcie przywraca Kosmosowi jego charakter miejsca gry i walki o dalszy wzrost, trudnej i niebezpiecznej, lecz wartej zachodu, podczas kiedy obraz deterministyczny przedstawiałby się jako zawieszony nad nami z góry, tajemniczy wyrok, którego żaden wysiłek i poznawczy ani emocjonalny przezwyciężyć nie może.<br />Takie rozstrzyganie sprawy w duchu probabilistycznym (a nie tylko “pocieszeniowym”) także ze względów metodologicznych wydaje się dzisiaj! jak najbardziej właściwe.<br />Jedno uogólnienie możemy sformułować jako konstatację, obarczoną prawie 100–procentową pewnością: oto — poczynając od planetogenezy, która, o tym wiemy, jest zjawiskiem kosmicznie raczej typowym, dalsza zbieżność procesów (bio–, później psychogenezy, wreszcie i powstawania oraz kierunku rozwojowego cywilizacji) w którymś miejscu tej drogi zanika, nie wiemy jednak, czy chodzi raczej o jeden “próg” zapoczątkowanej rozbieżności wyraźny, czy też może o całe mnóstwo etapów, na których dochodzi do sumowania się kolejnych — od “wzorca” ziemskiego — odchyleń kierunkowych. Wymowa statystyki zdaje się powiadać, że systemów planetarnych w ogóle jest daleko więcej, niż rodzących życie, tych ostatnich z kolei — więcej od dających początek cywilizacji, itd. aż do etapu “koronowania” cywilizacji osiągnięciami technologicznymi, już aż kosmicznie dostrzegalnymi.<br />Ze zrozumiałych względów uczeni poświęcają powyższym hipotezom stosunkowo niewiele uwagi, koncentrując się raczej na fizyko–technicznych zagadnieniach międzycywilizacyjnego kontaktu. W przedmiocie tym warto zauważyć chyba tylko tyle. Po pierwsze, przepowiadanie lotów gwiazdowych człowieka, np. statkami fotonowymi, nie jest obecnie ani “modne”, ani teoretycznie opracowywane, ponieważ bilansujące analizy energetyczne (np. von Hörnera) wykazały, że nawet użycie anihilacji jako źródła napędu nie rozwiązuje niesamowitych problemów energetycznych takich podróży. Ilość materii bowiem, jaką należałoby anihilować, aby przelecieć z jednej galaktyki do drugiej w “rozsądnym” czasie (życia ludzkiego), więc z szybkością przyświetlną, jest niemal rzędu masy naszego Księżyca. Tak więc uważa się dziś podobne loty za nierealne nawet w najbliższych stuleciach. Co prawda zwracano uwagę na to, że statek “przyświetlny” mógłby choć część deficytu masy początkowej pokrywać dzięki materii kosmicznej, która, przy całym swoim rozrzedzeniu, dla pojazdu równie szybkiego stanowi przecież potencjalne paliwo nie do pogardzenia. Kto wie także, czy nie zostaną odkryte inne źródła energetyczne napędu; w każdym razie trudności na drogach astronautyki mają odmienny charakter od tych, które udaremniają np. budowę perpetuum mobile, nie zakazują bowiem astronautyki prawa natury, a kiedy się nawet udowadnia, że galaktyczny statek musiałby mieć masę początkową, bliską księżycowej, wskazuje się na przeraźliwe trudności techniczne, ale nie na niemożliwość zasadniczą, choćby dlatego, że istnieje Księżyc i gdyby się któreś z przyszłych pokoleń ziemskich dostatecznie uparło, być może, wyprawiłoby w odpowiednią podróż naszego szacownego satelitę, którego tak życzliwie przygotowała nam planetogeneza systemu słonecznego.<br />Po wtóre, sprawa zajmująca uczonych najbardziej, to jest kontaktów radiowych (ewentualnie i laserowych) z “innymi”, wymaga, jak się okazuje, dla swej realizacji poważnych materialnych inwestycji (budowy wielkiej ilości urządzeń “nasłuchu kosmicznego”, ewentualnie i stacji nadawczych, bo, jak słusznie zauważono, gdyby wszystkie cywilizacje przez oszczędność pracowały tylko na nasłuchu, nikt by nikogo nie usłyszał). Inwestycje te przewyższałyby nawet wkłady, aktualnie lokowane w badaniach energetyki nuklearnej.<br />Niewątpliwie uczeni muszą sobie dopiero “wychować” generację rządzących, która skłonna będzie dostatecznie głęboko sięgnąć do państwowych skarbnic, i to dla celów tak niepokojąco podobnych do tradycyjnej tematyki Science–Fiction. Poza tym, materialnym, ma, kontakt radiowy ciekawe aspekty informacyjne. Chodzi o to, że im dokładniej wykorzystuje przekaz wysłany pojemność kanału informacyjnego, to jest w im większym stopniu zredukowana zostaje nadmiarowość tego przekazu, tym bardziej upodabnia się on do szumu i odbiorca, nie znający systemu kodowania, praktycznie miałby olbrzymie trudności nie tylko z rozszyfrowaniem przybywających informacji, ale nawet z rozpoznaniem ich, jako informacji właśnie, w odróżnieniu od szumowego tła kosmicznego. Nie jest tedy wykluczone, że jako szumy odbieramy już dzisiaj naszymi radioteleskopami fragmenty “międzygwiazdowych rozmów”, prowadzonych przez “supercywilizacje”. Cywilizacje takie, abyśmy w ogóle zdołali je wykryć, winny nadawać także sygnały innego całkiem charakteru, nie wykorzystujące w pełni pojemności kanałów przesyłowych, a więc specjalne “hasła wywoławcze” o względnie prostej, wyraźnie uporządkowanej i stale się powtarzającej strukturze. Ponieważ zaś tego rodzaju “hasła” mogą stanowić tylko ułamek całokształtu ich emisji informacyjnych, budowa znacznej ilości wyspecjalizowanych urządzeń odbiorczych na Ziemi raz jeszcze okazuje się sprawą wielkiej wagi (i, jak się powiedziało, wielkich kosztów).<br />Tak więc jedyną zagadką, jakiej dotąd nawet w przybliżeniu pojąć: umiemy, pozostaje nieobecność “cudów kosmicznych”, w którym to problemie kryje się jednak, zauważmy, niejaki paradoks. To bowiem, co dotychczas było proponowane jako “model” takiego “cudu”, np. sfera Dysona, według wszelkiego prawdopodobieństwa (jak o tym mówimy gdzie indziej) w ogóle; nigdzie realizowane nie jest. Skądinąd wiadomo, że niemało zjawisk, zachodzących w galaktykach i gwiazdach, oczekuje dopiero swego wyjaśnienia,) przy czym nikt z fachowców nie kwapi się opatrywać nieznanego mianem “kosmicznego cudu”. Jedna sprawa, to wymyślać takie fenomeny (w rodzaju sfery Dysona), które stwarzałyby dla nas jako obserwatorów wygodne warunki do dychotomicznego rozstrzygnięcia (alternatywy “naturalne” “sztuczne”), a znów co innego, wytwarzać rzeczywiście zjawiska, będące mniej lub bardziej ubocznym produktem uruchomionych energetyk gwiazdowych, neutrinowych czy wręcz jakichś “kwarkowych”.<br />Dla hipotetycznej supercywilizacji energetyka jej nie stanowi swoistej aparatury, poświęconej sygnalizowaniu na Wszechświat obecności tej cywilizacji, i dlatego może, niejako przypadkiem, dochodzić do pewnego rodzaju j “kamuflażu”, który sprawia, że to, co przez “innych” wywołane sztucznie my będziemy interpretowali jako stworzone siłami Natury, o ile tylko jej znane nam prawidłowości na taką interpretację zezwalają. Niespecjaliście trudno zrozumieć, jakie w ogóle wątpliwości można żywić w tym przedmiocie. Gdyby znalazł kartkę jakiegoś listu, niechby napisanego w niezrozumiałym języku i alfabecie, nie miałby przecież wątpliwości, czy ów list sporządziła istota rozumna, czy też powstał on dzięki zjawiskom naturalnym, “bezludnym”. Tymczasem okazuje się, że tę samą sekwencję gwiazdowego “szumu” można uznawać za “sygnały” albo za promieniowanie materii martwej —dotyczyła taka kontrowersja widma pewnych szczególnie odległych obiektów, które Kardaszew, w niezgodzie z większością innych astrofizyków, próbował identyfikować z nadającymi supercywilizacjami. Prawdopodobnie oni, a nie on, mieli słuszność.<br />I wreszcie uwaga końcowa. Dla ogromnej większości żyjących, wraz z uczonymi, z wyjątkiem bardzo jeszcze szczupłej garstki zainteresowanych specjalistów, cały problem “innych” ma wyraźny posmak fantastyczny, i co więcej, a co też daleko ważniejsze, pozbawiony jest prawie zupełnie emocjonalnego aspektu. Olbrzymia większość ludzi przywykła do obrazu zaludnionej Ziemi i bezludnego (poza bajkami) Kosmosu, jako do oczywistej normy, którą uznaje się za jedynie możliwą. Dlatego to właśnie ujęcia, w myśl których bylibyśmy w Kosmosie samotni, bynajmniej nie robią na ludziach wrażenia aż monstrualnej rewelacji, a przecież to właśnie stanowisko przedstawiają zacytowane wyżej słowa Szkłowskiego, z którymi w pełni się solidaryzuję. Notabene dla lojalności dodajmy, że samotność nasza będzie raczej monstrualna, tajemniczo–przerażająca dla materialisty i empiryka, a raczej cudowna i może nawet “uspokajająca” dla spirytualisty. Dotyczy to nawet i uczonych. Przywykliśmy w naszej codzienności do wyłącznego istnienia ludzi w klasie “istot rozumnych”, istnienie zaś innych, na które nie tylko zgodę wyraża, ale które niezliczonymi implikacjami postuluje, jak się rzekło, przyrodoznawstwo, ma dla nas charakter wybitnie abstrakcyjny. Ten antropocentryzm nie może ustąpić łatwo miejsca jakiemuś galaktocentryzmowi, co tym bardziej zrozumiałe, że ludziom z ludźmi trudno jak dotąd współżyć na jednej Ziemi, więc w tej sytuacji postulowanie uniwersalizmu aż kosmicznego nabiera łatwo posmaku baśniowo—ironicznej czy też nieodpowiedzialnej fantazji, do której grupka jakichś dziwaków namawiać usiłuje okrutnie z sobą skłóconych Ziemian.<br />Zdaję sobie z tego dobrze sprawę i nie wzywam do poprawiania, w duchu przedstawionych wywodów, podręczników szkolnych. Niemniej, wydaje mi się, że trudno być w II połowie XX wieku pełnym człowiekiem, jeśli się nie pomyśli chociaż czasem o owej, dotąd nie znanej wspólnocie rozumnych, do której ponoć należymy.</div><div><br /><br /><br />IV. Intelektronika<br /><br /><br />Powrót na ziemię<br /><br /><br />Mamy rozważyć, czy przejawiająca się w technoewolucji działalność rozumna jest dynamicznym procesem trwałym, nie zmieniającym swego ekspansywnego charakteru przez czas dowolnie długi, czy też musi się ona przekształcać, aż jej podobieństwo do własnego stanu początkowego znika. Chciałbym podkreślić, że rozważanie to będzie się różniło w istotny sposób od cyklu kosmicznego, który je poprzedził. Wszystko, cośmy mówili o cywilizacjach gwiezdnych, nie było płodem jałowych spekulacji — niemniej rozpatrywane hipotezy opierały, się z kolei na innych hipotezach, przez co prawdopodobieństwo wysnuwanych wniosków bywało nieraz nikłe. Zjawiska, o których będziemy mówić teraz, stanowią prognozy, oparte na faktach doskonale znanych i dokładnie zbadanych. Tak więc prawdopodobieństwo procesów, jakie przedstawimy, jest nieporównanie większe od tego, jakie cechowało dyskusję gęstości cywilizacyjnej Wszechświata.<br />Rozpatrzymy przyszłość cywilizacji — pod kątem możliwości rozwojowych nauki. Łatwo powiedzieć, że nauka będzie się rozwijała “zawsze”, że im więcej będziemy poznawali, tym więcej stanie przed nami nowych problemów. Czy ten proces nie będzie miał żadnych ograniczeń? Wydaje się, że tak —że lawinowe tempo poznania ma swój pułap i że, co więcej, już niedługo do niego dotrzemy.<br />Rewolucja Przemysłowa rozpoczęła się w wieku XVII. Korzenie jej, czy raczej lonty — była bowiem podobna bardziej do wybuchu aniżeli do powolnego dojrzewania — sięgają daleko w przeszłość. Na pytanie o “pierwszą j przyczynę” nauki Einstein odpowiedział w sposób tyleż zabawny, co celny: “Nikt się nie drapie, jeśli go nie swędzi”. Naukę, jako siłę napędową ; technologii, uruchomiły potrzeby społeczne. Uruchomiły, upowszechniły, ) nadały jej przyśpieszenie, ale jej nie stworzyły. Prapoczątki nauki sięgają j czasów babilońskich i greckich. Zaczęła się od astronomii, od badania l mechaniki niebios. Wielkie regularności tej mechaniki powołały do życia pierwsze systemy matematyczne, nieporównanie bardziej zawiłe od tych pierwocin rachunku, jakich wymagała starożytna technologia (pomiarów gruntu, budowli itp.). Przy tym Grecy wytworzyli formalne systemy aksjomatyczne (geometria Euklidesa), Babilończycy zaś — niezależną od geometrii arytmetykę. Pierworództwo astronomii w rodzinie nauk dostrzega historyk nauki po dzień dzisiejszy. Druga po niej narodziła się fizyka eksperymentalna, powstała w znacznej mierze pod wpływem pytań stawianych przez astronomię. Fizyka z kolei zapłodniła chemię i wyrwała ją — jakże późno — z mitologicznego snu alchemików. Ostatnią bodaj z dyscyplin przyrodniczych, która już na przełomie naszego wieku wyszła z mgły niesprawdzalnych pojęć, była biologia. Wskazuję tu tylko na przyczyny powstania doniosłe, ale nie wyłączne, ponieważ wzajemne krzyżowanie się wyników poszczególnych nauk przyśpieszało ich wzrost i powstanie nowych ich gałęzi. Z powiedzianego wynika dobitnie, że zarówno “matematyczny duch” nauki współczesnej, jak i jej materialne narzędzie — metoda eksperymentu — istniały już, jakkolwiek zalążkowe, przed Rewolucją Przemysłową. Rewolucja ta nadawała nauce rozmach, ponieważ połączyła wiedzę teoretyczną i praktykę wytwórczą; dzięki temu Technologia od trzystu lat łączy się dodatnim sprzężeniem zwrotnym z Nauką. Uczeni przekazują odkrycia Technologom, a jeśli rezultaty okazują się owocne, badania natychmiast ulegają “wzmocnieniu”. Sprzężenie jest dodatnie, gdyż negatywna postawa Technologów wobec jakiegoś odkrycia Uczonych jeszcze nie oznacza likwidacji badań teoretycznych w tym kierunku. Zresztą świadomie uprościłem charakter związków między obiema dziedzinami: są bardziej zawiłe, aniżeli mógłbym je tu przedstawić.<br />Ponieważ nauka jest zdobywaniem informacji, o tempie jej rozwoju wcale dokładnie świadczy ilość wychodzących periodyków fachowych. Ilość ta wzrasta wykładniczo od XVII wieku. Co 15 lat ilość pism naukowych podwaja się. Zazwyczaj wzrost wykładniczy jest fazą przejściową i nie trwa długo. Tak jest przynajmniej w Naturze. Wykładniczo, to jest do potęgi, rośnie przez krótki czas embrion albo kolonia bakterii na pożywce. Można obliczyć, jak szybko kolonia bakterii obróciłaby w swe ciała masę całej Ziemi.<br />W rzeczywistości środowisko rychło ograniczą taki typ wzrostu, wskutek czego przechodzi on w liniowy albo w stagnację ze spadkiem liczebności. Rozwój nauki, określony przez wzrost liczby informacji naukowych, jest jedynym znanym nam zjawiskiem, które przez trzysta lat nie zmienia swego zdumiewającego tempa. Prawo wzrostu wykładniczego powiada, że dany zbiór rośnie tym szybciej, im jest liczebniejszy. Jego przejawy w nauce powoduje to, że każde odkrycie rodzi całą serię nowych odkryć, przy czym ilość takich “narodzin” jest ściśle proporcjonalna do rozmiarów “populacji odkryć” w danym czasie. Obecnie wychodzi ponad 100 000 periodyków naukowych. Jeśli tempo przyrostu się nie zmieni, w roku 2000 będzie ich wychodziło milion.<br />Ilość uczonych także rośnie wykładniczo. Jak obliczono, gdyby wszystkie uniwersytety i uczelnie USA od dzisiaj jęły produkować wyłącznie fizyków, zabraknie ludzi (nie kandydatów na studentów, ale w ogóle ludzi, wliczając w to dzieci, starców i kobiety) z końcem następnego stulecia. Taki więc, przy obecnym tempie przyrostu naukowego, za jakichś 50 lat każdy mieszkaniec Ziemi byłby uczonym. To jest “pułap bezwzględny”, którego, oczywiście przekroczyć nie można, bo wtedy jeden człowiek musiałby być jednocześnie kilkoma uczonymi naraz.<br />A zatem wzrost wykładniczy nauki zahamuje brak rezerw ludzkich. Początki tego zjawiska obserwuje się już dziś. Kilkadziesiąt lat temu odkrycie Roentgena przyciągnęło na front badania promieni X znaczną część fizyki światowej. Odkrycia nie mniejszej miary przyciągają obecnie ledwo ułamek procentu wszystkich fizyków, ponieważ wskutek niepomiernego rozszerzenia się frontu badań naukowych, ilość ludzi, przypadających na jego jeden odcinek, zmalała.<br />Ponieważ wiedza teoretyczna wyprzedza stale wiedzę już zrealizowaną w przemyśle, to gdyby nawet ustał proces przyrostu teorii, jej nagromadzone zasoby starczyłyby dla dalszych udoskonaleń technologii na jakieś sto lat. Ten “bezwładnościowy” efekt postępu technologicznego (żywionego już zgromadzonymi, a jeszcze nie wyzyskanymi wynikami nauki) ustałby wreszcie i doszłoby do kryzysu rozwojowego. Gdy dojdzie do “naukowego nasycenia” w skali planety, ilość zjawisk, wymagających zbadania, a leżących—dla braku ludzi — odłogiem, będzie rosła. Przyrost teorii nie ustanie, lecz będzie zahamowany. Jak można sobie wyobrazić dalszy los cywilizacji, której nauka wyczerpała wszystkie rezerwy ludzkie, a wymaga ich nadal?<br />Globalne usprawnienia technologii wynoszą dziś około 6% w stosunku rocznym. Przy tym potrzeby poważnej części ludzkości nie są w pełni zaspokajane. Zwolnienie przyrostu technologicznego, przez ograniczenie tempa rozwoju nauki, okazałoby się — wobec utrzymującego się przyrostu naturalnego — nie stagnacją, lecz początkiem regresu. Uczeni*, z których prac wyjąłem fragmenty przedstawionej perspektywy, patrzą w przyszłość nie bez niepokoju. Przewidują bowiem sytuację, w której trzeba będzie decydować, jakie badania muszą być kontynuowane, a jakie należy, z konieczności, porzucić. Sprawa, kto ma o tym decydować, sami uczeni czy politycy, na pewno istotna, ustępuje na drugi plan wobec tego, że bez względu na to, kto będzie decydował, decyzje mogą być błędne. Cała historia nauki wskazuje, że wielkie postępy technologiczne wynikają z odkryć, zyskanych w badaniu “czystym”, które nie miało na oku żadnych celów praktycznych. Proces odwrotny natomiast, wynikania nowej wiedzy z technologii już uprawianej, był zjawiskiem tak rzadkim, że wyjątkowym. Otóż ta nieprzewidywalność, z jakich to teoretycznych dociekań wyniknie coś cennego dla technologii, sprawdzona historycznie od Rewolucji Przemysłowej, nie opuściła nas. Powiedzmy, że pewna loteria wydaje milion losów, z których tysiąc zyskuje nagrody. Jeśli wszystkie losy się rozprzeda, społeczność, która je nabyła, na pewno otrzyma wszystkie nagrody. Jeżeli jednak społeczność ta wykupi tylko połowę losów, może się okazać, że wygrana nie padnie na żaden z nich. Podobną “loterią” jest dziś nauka. Ludzkość “obstawia” wszystkie “losy” uczonymi. Padające wygrane oznaczają nowe cywilizacyjnie, technologicznie cenne odkrycia. Gdy w przyszłości trzeba będzie ustalić arbitralnie, jakie dziedziny badań mają być “obstawione”, a jakie nie, może się okazać, że właśnie te “nie obstawione” byłyby szczególnie płodne nie dającymi się na razie przewidzieć rezultatami. Zresztą świat przeżywa już początki takiej “gry hazardowej”. Koncentracja fachowców w dziedzinie balistyki rakietowej, atomistyki itp. jest tak wielka, że cierpią na tym—rozmaite inne dziedziny badań.<br />To, cośmy przedstawili, nie jest przepowiednią upadku cywilizacji. Tak sądzić może ten, kto przez Przyszłość rozumie tylko spotęgowany Czas Teraźniejszy, kto nie widzi innej możliwości postępu poza ortoewolucyjnym, w przeświadczeniu, że cywilizacja może być albo taka jak nasza, lawinowo rosnąca od trzystu lat — albo żadna. Miejsce, w którym krzywa wzrostu zmienia swój stromy wzlot w zagięcie “nasycenia”, oznacza zmianę charakterystyki dynamicznej systemu, to jest nauki. Nauka nie zniknie — zniknie tylko ta jej postać, pozbawiona ograniczeń wzrostu, jaką znamy. Tak wiać faza wybuchowa stanowi tylko etap dziejów cywilizacji. Czy jedyny w jej historii? Jak wygląda cywilizacja “posteksplozywna”? Czy wszechkierunkowość działań Rozumu, którą uważaliśmy za jego cechę trwałą, musi ustąpić miejsca pąkowi działań wybiórczych? Będziemy szukali odpowiedzi i na to pytanie, ale już to, cośmy ukazali, rzuca osobliwe światło na problem gwiazdowych psychozoików. Wzrost wykładniczy może być prawem dynamicznym cywilizacji w przeciągu tysiącleci, ale nie — milionów lat. Wzrost taki trwa, w skali astronomicznej, chwilę, podczas której zapoczątkowany proces poznania doprowadza do kumulatywnej reakcji łańcuchowej. Cywilizację, wyczerpującą własne rezerwy ludzkie w “eksplozji naukowej”, można porównać do gwiazdy, spalającej swą materię w jednym rozbłysku, po czym dochodzi do stanu odmiennej równowagi — albo do procesów, które niejedną może cywilizację kosmiczną doprowadziły do milczenia.<br /><br /><br /><br />Bomba megabitowa<br /><br /><br />Porównaliśmy cywilizację ekspansywną do gwiazdy Supernowej. Jak gwiazda w eksplozji spala swoje zasoby materialne, tak cywilizacja zużywa rezerwy ludzkie w “łańcuchowej reakcji” lawinowego wzrostu nauki. Może jednak — spyta ktoś sceptyczny — przesadziłem w tym porównaniu? Może wyolbrzymiłem nad miarę konsekwencje zahamowania wzrostu nauki? Gdy osiągnięty zostanie stan “nasycenia”, nauka u pułapu ludzkich swych rezerw będzie rosła dalej, już nie do potęgi, lecz proporcjonalnie do liczby wszystkich żyjących. Co się zaś tyczy zjawisk leżących odłogiem, pomijanych w badaniach, to istniały one w historii nauki zawsze. W każdym razie główne fronty nauki, życiowo ważne kierunki technologicznego natarcia, będą dzięki racjonalnemu planowaniu, nadal dysponować armiami specjalistów. Tak więc dowód, jakoby przyszłe oblicze cywilizacji miało być zupełnie odmienne od znanego nam, ponieważ wysoko rozwinięty Rozum, przestaje być podobny do własnego stanu początkowego, dowód ten nie został przeprowadzony. A już szczególnie fałszywy jest model “gwiezdny” cywilizacji, ponieważ wyczerpanie zasobów materialnych oznacza zgaśniecie gwiazdy, natomiast “blasku” cywilizacji nie zmniejsza wyczerpanie eksploatowanych przez nią źródeł energii. Może ona przecież przejść do użytkowania innych jej źródeł.<br />Takie ujęcie leży, nawiasem mówiąc, u podstawy poglądów na astroinżynieryjną przyszłość każdej cywilizacji. Zgoda na to, że model gwiazdowy był uproszczeniem: gwiazda jest bowiem tylko maszyną energetyczną, cywilizacja natomiast — energetyczną i zarazem informacyjną. Dlatego gwiazda jest daleko bardziej zdeterminowana rozwojowo od cywilizacji. Ale z tego nie wynika, by cywilizacja była pozbawiona w swym rozwoju wszelkich ograniczeń. Różnią się one tylko charakterem: cywilizacja posiada “swobodę” energetyczną dopóty, dopóki nie natrafi na “barierę informacyjną”. W zasadzie są nam dostępne wszystkie źródła energii, jakimi tylko dysponuje Kosmos. Ale czy zdołamy — albo raczej: czy zdążymy do nich dotrzeć?<br />Przejście od jednych, wyczerpujących się źródeł energii do nowych — od sił wody, wiatru i mięśni do węgla, ropy naftowej — a od tych z kolei do atomowych — wymaga uprzedniego zdobycia odpowiedniej informacji. Dopiero kiedy ilość tej informacji przekroczy pewien “punkt krytyczny”, wytworzona w oparciu o nią, nowa technologia odmyka nam nowe zasoby energii i nowe obszary działania.<br />Gdyby zapasy węgla i ropy wyczerpano, dajmy na to, u schyłku XIX wieku, jest wielce wątpliwe, czy w połowie naszego stulecia dotarlibyśmy do technologii atomu, ponieważ urzeczywistnienie jej wymagało ogromnych mocy, instalowanych najpierw laboratoryjnie, a potem w skali przemysłowej. I tak jednak ludzkość nawet dziś nie jest jeszcze w pełni gotowa przejść na wyłączne eksploatowanie energii atomów. Zresztą, użytkowanie przemysłowe energii atomowej “ciężkiej” (płynącej z rozszczepiania ciężkich jąder) przy —obecnym tempie wzrostu pochłanianych mocy doprowadziłoby do “spalenia” wszystkich zasobów uranu i pierwiastków doń zbliżonych w ciągu paru wieków. Użytkowanie zaś energii syntezy jądrowej (wodoru w hel) jeszcze nie zostało zrealizowane. Trudności okazały się większe od przewidywanych. Z powiedzianego wynika, po pierwsze, że cywilizacja winna dysponować znacznymi rezerwami energetycznymi, aby mieć czas dla zdobycia informacji, która umożliwi jej otwarcie wrót nowej energii, i po wtóre, że cywilizacja musi uznać prymat zdobywania tego rodzaju informacji nad wszystkimi innymi. W przeciwnym razie może wyczerpać dostępne jej zasoby energii, zanim nauczy się eksploatowania nowych. Przy tym doświadczenie przeszłości wskazuje, że koszty energetyczne zdobywania nowej informacji rosną w miarę przechodzenia od poprzednich źródeł energii do następnych. Stworzenie technologii węgla i ropy było o wiele “tańsze” energetycznie od stworzenia technologii atomowej.<br />Tak więc kluczem do wszelkich źródeł energii, jak w ogóle do zasobów poznania, jest informacja. Gwałtowny wzrost liczby uczonych od Rewolucji Przemysłowej wywołało zjawisko dobrze cybernetykom znane. Ilość informacji, jaką można przesłać określonym jej kanałem, jest ograniczona. Nauka jest takim kanałem, łączącym cywilizację ze światem zewnętrznym (i jej własnym, wewnętrznym, bada bowiem zarówno otoczenie materialne, jak samo społeczeństwo i człowieka). Wzmagająca się do potęgi ilość uczonych oznacza ciągłe zwiększanie przepustowości owego kanału. Było ono konieczne dlatego, ponieważ ilość informacji, jaką należało przekazać, rosła wykładniczo. Większa ilość uczonych wzmagała ilość powstającej informacji, to wymagało “rozszerzenia” kanału informacyjnego przez “równoległe podłączenie” nowych kanałów, czyli rekrutację nowych uczonych, to z kolei wywoływało dalszy wzrost informacji do przesłania, itd. Był to proces o dodatnim sprzężeniu zwrotnym.<br />W końcu musi jednak dojść do stanu, w którym dalsze zwiększanie przesyłowej pojemności nauki w tempie, dyktowanym wzrostem ilości informacji, okaże się niemożliwe. Zabraknie kandydatów na uczonych. To właśnie jest sytuacja “bomby megabitowej”, albo, jeśli kto woli, “bariery informacyjnej”. Nauka nie może przekroczyć tej bariery, nie może wchłonąć obruszonej na siebie lawiny informacyjnej.<br />Strategia nauk? jest probabilistyczna. Nigdy prawie nie wiemy na pewno, jakie badania opłacą się, a jakie nie. Odkrycia bywają tak przypadkowe, —jak mutacje w genotypie. I mogą tak samo prowadzić do radykalnych i gwałtownych zmian. Przykłady penicyliny, promieni Roentgena czy wreszcie “zimnych”, to jest zachodzących w niskich temperaturach, reakcji jądrowych (które, choć na razie nieurzeczywistnialne, może sprowadzą w przyszłości nowy przewrót w energetyce), potwierdzają tę losowość odkryć. Jeśli więc “nic z góry nie wiadomo”, trzeba “badać, co się tylko da”. Stąd wszechkierunkowa ekspansja, tak charakterystyczna dla nauki. Prawdopodobieństwo odkryć jest tym większe, im większa ilość uczonych prowadzi badania. Badania — czego? Wszystkiego, co w ogóle potrafimy badać. Sytuacja, w której nie badamy jakiegoś X, ponieważ nie wiemy, czy X istnieje (iksem może być na przykład zależność ilości bakterii w organizmie chorego od obecności w jego krwi penicyliny), jest całkiem różna od sytuacji, w której przypuszczamy, że X dałoby się może wykryć, gdybyśmy pierwej zbadali szereg zjawisk: R, S, T, V, X, Z — ale nie możemy tego zrobić, bo nie mamy kim. Tak zatem, po osiągnięciu pułapu ludzkich rezerw, do badań nie podejmowanych, ponieważ wcale nie wiemy o ich możliwości, dodadzą się te wszystkie leżące odłogiem badania, które będziemy musieli pominąć świadomie, dla braku uczonych sytuacja pierwsza — to tyraliera, która; wchodząc w coraz większy obszar, utrzymuje mimo to stałą odległość między dwoma idącymi, ponieważ dołączają się do nich wciąż nowi ludzie.<br />Sytuacja druga — to tyraliera, która, im bardziej rozciągnięta, tym staje się rzadsza.<br />Należy przy tym dodać, że obserwuje się dodatkowe, niekorzystne zjawisko: oto ilość dokonywanych odkryć nie jest proporcjonalna do ilości badaczy (jeśli dwa razy więcej badaczy, to dwa razy więcej odkryć). Jest raczej tak: ilość odkryć podwaja się w ciągu trzydziestu lat, ilość uczonych natomiast — już w ciągu dziesięciu. Pozornie jest to sprzeczne z tym, cośmy powiedzieli o wykładniczym wzroście informacji naukowej. Tak nie jest: ilość odkryć także rośnie wykładniczo, ale wolniej (do mniejszej potęgi) od ilości uczonych, wszystkie zaś w ogóle odkrycia stanowią tylko niewielką cząstkę całej informacji, zdobywanej przez naukę. Wystarczy przejrzeć zakurzone zwały prac i dysertacji, podjętych dla uzyskania stopnia naukowego w jakimś archiwum uniwersyteckim, by się przekonać, że na ich setki czasem ani jedna nie doprowadziła do choć trochę wartościowego rezultatu. Tak zatem osiągnięcie granic informacyjnej pojemności nauki oznacza istotne zmniejszenie prawdopodobieństwa dokonywania odkryć. Co więcej, współczynnik tego prawdopodobieństwa winien się odtąd zmniejszać stale w miarę, jak krzywa rzeczywistego wzrostu liczby uczonych opadając będzie się oddalać od hipotetycznej krzywej dalszego (już niemożliwego) wzrostu wykładniczego.<br />Z badaniami naukowymi jest trochę jak z genetycznymi mutacjami: cenne i przełomowe stanowią tylko drobną część zbioru wszystkich mutacji i wszystkich badań. I podobnie jak populacja, nie dysponująca pokaźną rezerwą “ciśnienia mutacyjnego”, jest narażona na utratę równowagi homeostatycznej, tak i cywilizacja, w której “ciśnienie odkrywcze” słabnie, musi wszelkimi sposobami dążyć do odwrócenia tego gradientu, gdyż od równowagi trwałej wiedzie on do coraz bardziej chwiejnej.<br />A zatem — środki zaradcze. Ale jakie? Czy mogłaby należeć do nich cybernetyka, stworzycielka “sztucznych badaczy” albo “Wielkich Mózgów” — Generatorów i Przekaźników Informacji? Czy też może rozwój poza “barierą informacyjną” wiedzie do cywilizacyjnej specjacji? Ale co to znaczy? Niewiele — bo wszystko, o czym będziemy mówili, jest fantazją. Nie jest nią tylko te esowate zagięcie, ten spadek krzywej wykładniczego wzrostu, oddalony od nas o trzydzieści do siedemdziesięciu lat.<br /><br /><br /><br />Wielka gra<br /><br /><br />Co dzieje się z cywilizacją, która osiąga “szczyt informacyjny”, to jest wyczerpie przesyłową pojemność nauki jako “kanału łączności”? Przedstawimy trzy możliwe wyjścia z takiego stanu. Nie będą to wszystkie możliwości. Wybieramy trzy, ponieważ odpowiadają rezultatom gry strategicznej, w której biorą udział, pod postacią przeciwników, Cywilizacja i Natura. Pierwszą fazę “rozgrywki” znamy: cywilizacja dokonuje takich “pociągnięć”, że wytwarza wzrastającą ekspansywnie naukę i technologię. W fazie drugiej przychodzi do informacyjnego kryzysu. Cywilizacja może albo przezwyciężyć go, to jest wygrać i tę fazę, albo ponieść w niej klęskę, albo wreszcie uzyskać wynik, “remisowy”, który nazwiemy raczej swoistym kompromisem.<br />Wygrana lub remis bez urzeczywistnienia możliwości, jakie przedstawia cybernetyka, są nieosiągalne. Wygrana oznacza stworzenie kanałów o przepustowości dowolnie wielkiej. Użycie cybernetyki dla stworzenia “armii sztucznych uczonych”, jakkolwiek wydaje się obiecujące, jest w istocie kontynuowaniem strategii fazy poprzedniej; struktura nauki nie ulega zasadniczo zmianie, tyle, że front badawczy wspierają “intelektronowe posiłki”. Jest to więc wbrew pozorom rozwiązanie w duchu tradycyjnym. Ilości “syntetycznych badaczy” nie można bowiem powiększać w nieskończoność. W ten sposób można odwlec kryzys, ale nie przezwyciężyć go. Wygrana rzeczywista żąda radykalnej przebudowy nauki jako systemu zbierającego i przekazującego informację. Możemy ją sobie wyobrazić bądź pod postacią, jaka narzuca się dziś wielu cybernetykom — budowania coraz potężniejszych “wzmacniaczy inteligencji’’ (które nie byłyby tylko, “sojusznikami” uczonych, ale rychło pozostawiłyby ich w tyle, dzięki swej “intelektronicznej” supremacji nad mózgiem ludzkim) — bądź w postaci różniącej się radykalnie od wszelkich rozpatrywanych dziś ujęć.<br />Byłoby to całkowite odrzucenie tradycyjnego podejścia do zjawisk, wytworzonych przez naukę. Koncepcję leżącą u podstaw takiej “rewolucji informacyjnej” można wyrazić zwięźle: chodzi o to, żeby “ekstrahować” informację z Natury bez pośrednictwa mózgów, ludzkich czy elektronowych — aby stworzyć coś na kształt “hodowli”, czy też “ewolucji informacyjnej”. Ta koncepcja brzmi dziś zupełnie fantastycznie, a zwłaszcza już w sformułowaniu tak heretyckim wobec dominujących poglądów. Niemniej, omówimy ją, nieco później i osobno, wymaga bowiem dodatkowych rozważań wstępnych, a zrobimy to nie tyle ze względu na zaufanie, jakie może wzbudzić (jest w najwyższym stopniu hipotetyczna), ile dlatego, ponieważ tylko ona zapewniłaby radykalne “przebicie bariery informacyjnej”, to jest pełne zwycięstwo strategiczne w grze z Naturą. Tu wskażemy jedynie na proces naturalny, który ukazuje zasadniczą możliwość takiego rozwiązania. Zajmuje się nim genetyka, rozpatrywana ewolucyjnie. Jest to sposób, w jaki Natura gromadzi i przekształca informację, powodując jej wzrost poza jakimkolwiek mózgiem — bo w substancji dziedzicznej żywych organizmów. Ale, jakeśmy się zastrzegli, o takiej “molekularnej biochemii informacyjnej” porozprawiamy osobno.<br />Drugi możliwy rezultat gry — to remis. Każda cywilizacja wytwarza dla siebie sztuczne otoczenie, przekształcając powierzchnię swej planety, jej wnętrze i pobliże kosmiczne. Proces ten nie odcina jej radykalnie od Natury, a tylko ją od niej oddala. Można go jednak tak kontynuować, aby doszło do swoistego “otorbienia” cywilizacji względem całego Kosmosu. “Otorbienie”, urzeczywistnione dzięki specyficznie zastosowanej cybernetyce, umożliwia “tamponadę” nadmiaru informacji i zarazem wytworzenie informacji całkiem nowego typu. O losach zwykłej cywilizacji decydują przede wszystkim : jej regulacyjne wpływy na sprzężenia zwrotne z Naturą. Sprzęgając z sobą rozmaite zjawiska naturalne (utleniania węgla, rozpadu atomów) można dojść aż do inżynierii gwiezdnej. Cywilizacja w fazie kryzysu informacyjnego, posiadająca już dostęp do takich sprzężeń z Naturą, do takich źródeł energii, że zapewniają jej trwałość na miliony lat, pojmując zarazem, że “wyczerpanie informacyjnego potencjału Natury” nie jest możliwe, kontynuowanie zaś dotychczasowej strategii może doprowadzić do przegranej (gdyż bezustanny pochód “w głąb Natury” doprowadzi w końcu do rozsypki hiperspecjalizacyjnej nauk i możliwej przez to utraty kontroli nad własną homeostazą) — cywilizacja taka może skonstruować całkiem nowy typ sprzężeń zwrotnych, już we własnym łonie. Tak wytworzone “otorbienie” oznacza zbudowanie “świata w świecie”, autonomicznej rzeczywistości cywilizacyjnej, z materialną rzeczywistością Natury bezpośrednio nie związanej. Powstała “cybernetyczno–socjotechniczna” skorupa zamyka w sobie cywilizację, istniejącą i rozwijającą się nadal, ale już w sposób niedostrzegalny dla zewnętrznego obserwatora (zwłaszcza astronomicznego).<br />Brzmi to nieco enigmatycznie, ale rzecz, przynajmniej w zasadzie, daje się już obecnie naszkicować, i to w rozmaitych wariantach. Jeden lub dwa rozpatrzymy potem nieco bardziej szczegółowo, podkreślając w tej chwili to tylko, że taki kompromis nie jest fikcją. Nie jest nią, gdyż między naszą wiedzą obecną a taką, jaka byłaby niezbędna dla urzeczywistnienia “remisu”, brak zakazów Natury. W tym rozumieniu fikcją jest na przykład budowa perpetuum mobile albo lot z szybkościami nadświetlnymi.<br />I wreszcie — przegrana. Co stanie się z cywilizacją, która kryzysu nie pokona? Przekształci się z badającej “wszystko” (jak nasza teraz) w wyspecjalizowaną tylko w nielicznych kierunkach. Przy tym ilość tych kierunków malałaby stale, lecz powoli, w miarę jak po kolei i w nich dawałby się odczuć brak ludzkich rezerw. Cywilizacje, bliskie wyczerpania źródeł energetycznych, bez wątpienia koncentrowałyby badania na tym właśnie froncie. Inne, zasobniejsze, mogą specjalizować się odmiennie. To właśnie miałem na myśli, mówiąc przedtem o “specjacji”, to jest powstawaniu gatunków, nie biologicznych jednak, lecz cywilizacyjnych. W takim ujęciu Kosmos zaludniają mnogie cywilizacje, z których część jedynie poświęca się zjawiskom astroinżynieryjnym, czy w ogóle kosmicznym (na przykład kosmonautyce). Być może, dla niektórych prowadzenie badań astronomicznych jest już “luksusem”, na jaki nie mogą sobie pozwolić — przez brak badaczy. Możliwość taka wydaje się z pozoru mało prawdopodobna. Jak wiadomo, im wyższy jest rozwój nauki, tym powszechniejsze związki łączą jej poszczególne gałęzie. Nie można ograniczać fizyki bez szkody dla chemii czy medycyny i na odwrót, nowe problemy mogą przybywać do fizyki spoza niej, na przykład z biologii. Jednym słowem, ograniczenie tempa rozwoju dziedziny badań, uznanej za mniej doniosłą, może się odbić ujemnie na tych właśnie, dla których dobra tamtą postanowiliśmy poświęcić. Poza tym wąskość specjalizacji zmniejsza zakres równowagi homeostatycznej. Cywilizacje, odporne na zakłócenia aż gwiazdowe, ale podległe na przykład epidemiom, albo pozbawione “pamięci” (to jest rezygnujące z badań własnej historii) byłyby to twory kalekie, narażone na niebezpieczeństwa, proporcjonalne do rozmiaru owych specjalizacyjnych jednostronności. Argumenty te są słuszne. A jednak pewnego rodzaju “specjacji” nie wolno wykluczyć z obszaru możliwych rozwiązań. Czy nasza cywilizacja, choć jeszcze nie osiągnęła “bariery informacyjnej”, nie wykazuje pewnych hiperspecjalizacyjnych przerostów, i czy jej potencjał militarny nie przypomina potężnych szczęk i pancerzy gadów mezozoicznych, których sprawność w wielu innych zakresach była tak nikła, że przesądziła o ich losie? Zapewne, współczesną hiperspecjalizację wywołały czynniki natury politycznej, a nie informacyjno–naukowej, i po zjednoczeniu ludzkości proces ów dałby się odwrócić. W czym, nawiasem mówiąc, przejawiłaby się różnica między specjalizacją biologiczną a cywilizacyjną: druga może być, pierwsza — nigdy nie jest w pełni odwracalna.<br />Rozwój nauki przypomina wzrost drzewa, którego konary dzielą się na gałęzie, a te z kolei na gałązki. Gdy ilość uczonych przestaje wzrastać wykładniczo, ilość nowych “gałązek” natomiast, nowych dyscyplin, dalej rośnie, musi dojść do powstania rozziewów, do nierównomierności informacyjnych zysków, planowanie zaś badań może tylko ów proces przesuwać z jednej strony w drugą. Jest to “sytuacja przykrótkiej kołdry”. Po tysiącleciach mogą wyłonić się tak uwarunkowane trzy kierunki cywilizacyjnych specjalizacji: społeczny, biologiczny i kosmiczny. Na pewno nie występują nigdzie w postaci czystej. Na rachunek głównego rozwoju wpływają warunki panujące na planecie, historia danej cywilizacji, płodność bądź jałowość odkrywcza pewnych działów wiedzy, itp. W każdym razie odwracalność raz powstałych zmian, będących skutkami podjętych decyzji (o zaniechaniu bądź kontynuowaniu określonych badań), z upływem czasu zmniejsza się, aż dochodzi do przemożnego wpływu owych, dawnych decyzji na całokształt życia. Zmniejszenie ilości stopni swobody cywilizacji jako całości zmniejsza też osobiste swobody jej członków. Konieczne mogą się okazać ograniczenia przyrostu naturalnego oraz ograniczenie w dziedzinie wyboru zawodu. Jednym słowem, specjacja brzemienna jest nie dającymi się przewidzieć niebezpieczeństwami (bo trzeba z konieczności pobierać decyzje, których skutki mogą się ujawnić po setkach lat). Dlatego właśnie uznaliśmy ją za przegraną w grze strategicznej z Naturą. Oczywiście, wystąpienie zakłóceń, nie podległych doraźnie regulacji, nie oznacza jeszcze upadku czy wręcz zagłady. Rozwój takiej społeczności przedstawiałby się zapewne jako szereg oscylacji, wzniesień i upadków, rozciągających się na stulecia.<br />Jakeśmy jednak powiedzieli, przegrana jest wynikiem niezastosowania lub zastosowania niewłaściwego tych możliwości, jakie otwiera potencjalny uniwersalizm cybernetyki. Ona będzie decydowała w ostatniej instancji o wynikach Wielkiej Gry, do niej więc zwrócimy się teraz, z nowymi pytaniami.</div><div><br /><br /><br />Mity nauki<br /><br /><br />Cybernetyka liczy sobie dwadzieścia lat życia, jest więc nauką młodą, ale rozwija się z zadziwiającą szybkością. Ma swoje szkoły i kierunki, swoich entuzjastów i sceptyków; pierwsi wierzą w jej uniwersalizm, drudzy szukają granic jej zastosowania. Zajmują się nią lingwiści i filozofowie, fizycy i lekarze, inżynierowie łączności i socjologowie. Nie jest już jednolita, bo nastąpił w niej rozdział na liczne gałęzie. Specjalizacja postępuje w niej naprzód, jak w innych naukach. A ponieważ każda nauka stwarza własną mitologię, ma ją i cybernetyka. Mitologia nauki, brzmi to jak contradictio in adiecto, jak irracjonalizm empirii. Niemniej każda, najściślejsza nawet dyscyplina, rozwija się nie tylko dzięki nowym teoriom i faktom, ale także dzięki domysłom i nadziejom uczonych. Rozwój sprawdza tylko ich część. Reszta okazuje się złudą i przez to podobna jest do mitu. Miała swój mit mechanika klasyczna, upostaciowany w demonie Laplace’a, który, znając aktualny pęd i położenie wszystkich atomów Kosmosu, mógł rzekomo przewidzieć całą jego przyszłość. Zapewne, nauka oczyszcza się z takich błędnych wiar, towarzyszących jej pochodowi, jednakże o tym, co jest w niej domysłem trafnym, a co problemem pozornym, dowiadujemy się dopiero ex post, z perspektywy historycznej. W trakcie takich przemian niemożliwe staje się możliwe, ale, co daleko istotniejsze, zmieniają się same ścigane cele. Uczony dziewiętnastowieczny, spytany, czy transmutacja rtęci w złoto, ów sen alchemików, jest możliwa, zaprzeczyłby kategorycznie. Uczony dwudziestego wieku wie, że atomy rtęci można przemieniać w atomy złota. Czy z tego wynika, że alchemicy mieli rację, przeciwko uczonym? Nie, ponieważ to, co miało być celem głównym, złoto, pałające w retortach, straciło — w obrębie atomistyki — wszelkie znaczenie. Energia atomowa jest nie tylko nieskończenie cenniejsza od złota, przede wszystkim jest ona czymś zupełnie nowym, niepodobnym do najśmielszych rojeń alchemików, a do jej odkrycia doprowadziła metoda stosowana przez uczonych, a nie magiczne sposoby ich — alchemicznych rywali.<br />Dlaczego o tym mówię? W cybernetyce błąka się dzisiaj mit średniowieczny homunculusa, sztucznie stworzonej istoty rozumnej. Spór o możliwość stworzenia sztucznego mózgu, przejawiającego cechy ludzkiej psychiki, nieraz wciągał już w swą orbitę filozofów i cybernetyków. Jest to spór jałowy. Czy możliwa jest przemiana rtęci w złoto? — pytamy nukleonika. — Tak, odpowiada, ale wcale się tym nie zajmujemy. Taka transmutacja nie jest dla nas istotna i nie wpływa na kierunek naszych prac.<br />Czy można będzie kiedyś zbudować mózg elektroniczny jako nieodróżnialną kopię żywego mózgu? Zapewne, ale nikt tego nie będzie robił.<br />Tak więc należy odróżnić możliwości od realnych celów. Możliwości zawsze miały w nauce swych “negatywnych proroków”. Ilość ich nieraz mnie zadziwiała, na równi z zapalczywością, z jaką dowodzili daremności budowania maszyn latających, atomowych lub myślących. Najrozsądniejszą rzeczą, jaką można uczynić, jest powstrzymanie się od sporów z przepowiadaczami niemożliwości, nie dlatego że należy wierzyć we wszechspełnienie, a tylko dlatego, ponieważ ludzie, wciągnięci w płonne dyskusje, mogą łatwo stracić z oczu problemy realne. “Antyhomunkuliści” są przekonani, że, negując możliwość syntetycznej psychiki, bronią wyższości człowieka nad jego dziełami, które w ich mniemaniu nigdy nie powinny prześcignąć ludzkiego geniuszu. Obrona taka o tyle tylko miałaby sens, gdyby ktokolwiek chciał rzeczywiście zastąpić człowieka — maszyną, nie u konkretnego warsztatu pracy, ale w obrębie całej cywilizacji. Ale to nie jest niczyim zamiarem. Nie o to chodzi, by skonstruować syntetyczną ludzkość, a jedynie o to, by otworzyć nowy rozdział Technologii — systemów o dowolnie wielkim stopniu komplikacji. Ponieważ sam człowiek, jego ciało i mózg, należą do klasy takich właśnie systemów, nowa Technologia oznaczać będzie całkowitą władzę człowieka nad sobą samym, nad własnym organizmem, co z kolei umożliwi realizację takich odwiecznych marzeń, jak pożądanie nieśmiertelności, a może nawet — odwracania procesów, uważanych obecnie za nieodwracalne (jak procesy biologiczne, a w szczególności — starzenia się). Inna rzecz, że cele te może okażą się fikcyjne, jak złoto alchemików. Jeśli nawet człowiek może wszystko, to na pewno nie w dowolny sposób. Jeśli tego zapragnie, osiągnie w końcu każdy cel — ale wcześniej pojmie może, że cena, jaką przyszłoby zapłacić, czyni osiągnięcie tego celu absurdem.<br />My bowiem wyznaczamy punkt dojścia, ale drogę ku niemu wyznacza Natura. Możemy latać, ale nie za rozłożeniem rąk. Możemy chodzić po wodzie, ale nie tak, jak to przedstawia Biblia. Może zdobędziemy długowieczność, praktycznie dorównującą nieśmiertelności, ale trzeba będzie dla niej zrezygnować z tej formy cielesnej, jaką dała nam przyroda. Może zdołamy, dzięki hibernacji, podróżować swobodnie poprzez miliony lat — ale obudzeni z lodowego snu znajdą się w obcym im świecie, bo podczas ich odwracalnej śmierci przeminie ten świat i ta kultura, która ich ukształtowała. Tak więc przy spełnianiu życzeń świat materialny wymaga od nas postępowania, które ziszczenie uczynić może jednakowo podobnym do zwycięstwa, jak do klęski. Nasza władza nad otoczeniem opiera się na sprzęganiu procesów naturalnych, dzięki czemu węgiel wynurza się z kopalń, wielkie ciężary przebywają ogromne przestrzenie, a lśniące samochody opuszczają taśmę produkcyjną: wszystko, ponieważ Natura powtarza się w niewielu prostych prawach, poznanych przez fizykę, termodynamikę czy chemię.<br />Systemy złożone, jak mózg, jak społeczeństwo, nie dają się opisać językiem tych prostych praw. W tym rozumieniu prosta jest jeszcze teoria względności i jej mechanika, ale nie jest nią już mechanika procesów myślowych. Cybernetyka koncentruje swą uwagę na tych procesach dlatego, ponieważ dąży do zrozumienia i opanowania złożoności, a mózg jest najbardziej złożonym ze wszystkich znanych nam układów materialnych. Prawdopodobnie, a właściwie na pewno, możliwe są systemy jeszcze bardziej od niego złożone. Poznamy je, gdy nauczymy się je konstruować. Cybernetyka jest więc przede wszystkim nauką o osiąganiu celów, których w prosty sposób osiągnąć nie można.<br />“Widzieliśmy — powiadamy inżynierowi — schemat urządzenia, złożonego z ośmiu bilionów elementów. Urządzenie to posiada własną centralę energetyczną, układy lokomocyjne, hierarchię regulatorów oraz władający wszystkim uniwersalny rozrząd, złożony z piętnastu miliardów części. Urządzenie to potrafi wykonywać tyle funkcji, że nie wymienilibyśmy ich w ciągu życia. Niemniej, schemat, który nie tylko umożliwił zbudowanie tego urządzenia, ale który sam je zbudował, cały mieścił się w objętości ośmiu tysięcznych milimetra sześciennego”.<br />Inżynier odpowiada, że to niemożliwe. Myli się, ponieważ szło o główkę ludzkiego plemnika, zawierającą, jak wiadomo, pełną informację potrzebną dla wyprodukowania egzemplarza gatunku Homo Sapiens.<br />Cybernetyka zajmuje się takimi “schematami” nie przez ambicje “homunkuliczne”, ale ponieważ przygotowuje się do rozwiązywania zadań konstrukcyjnych podobnego rzędu. Jest jeszcze bardzo, ale to bardzo daleka od szans takiej konstrukcji. Istnieje jednak od dwudziestu lat. Ewolucja potrzebowała dla swych rozwiązań z górą dwóch miliardów. Powiedzmy, że cybernetyce trzeba będzie jeszcze stu albo tysiąca lat, aby ją doścignąć: różnica skali czasowej i tak przemawia na naszą korzyść.<br />Co się tyczy “homunkulistów” i “antyhomunkulistów”, spory ich przypominają namiętne dyskusje epigenetyków i preformistów w biologii. Znamionują dziecięcy czy wręcz niemowlęcy okres nowej nauki i nie pozostanie po nich, w jej dalszym rozwoju, ani śladu. Nie będzie sztucznych ludzi, ponieważ jest to niepotrzebne. Nie będzie też “buntu” maszyn myślących przeciwko człowiekowi. U podstaw tej koncepcji spoczywa inny stary mit —sataniczny — ale żaden Wzmacniacz Inteligencji nie będzie Elektronowym Antychrystem. Wszystkie te mity mają wspólny, antropomorficzny mianownik, do którego muszą się rzekomo sprowadzać myślowe akty maszyn. Istna kopalnia nieporozumień! Zapewne: niewierny, czy po przekroczeniu pewnego “progu komplikacji” automaty nie poczną przejawiać znamion swoistej “osobowości”. Jeśli tak się stanie, osobowość ich będzie czymś tak różnym od ludzkiej, jak ciało człowieka różne jest od stosu atomowego. Możemy być przygotowani na niespodzianki, kłopoty i niebezpieczeństwa, których nie umiemy sobie dziś wyobrazić — ale nie na powrót przebranych w larwy techniczne demonów i maszkar rodem ze średniowiecza. Powiedziałem, że nie możemy sobie tych przyszłych kłopotów wyobrazić: większości, na pewno. Niektóre jednak spróbujemy ukazać, w kilku myślowych eksperymentach.</div><div><br /><br /><br />Wzmacniacz inteligencji<br /><br /><br />Ogólna tendencja matematyzacji nauk, także i takich, które dotychczas tradycyjnie narzędzi matematycznych nie używały, po biologii, psychologii i medycynie obejmuje z wolna nawet humanistykę, na razie co prawda pod postacią raczej osamotnionych prób partyzanckich, jakie obserwować można na przykład w dziedzinie językoznawstwa (lingwistyki teoretycznej), czy teorii literatury (zastosowanie teorii informacji do badania tekstów literackich, w szczególności — poetyckich). Zarazem jednak natrafiamy na pierwsze oznaki zjawiska niezwykłego i raczej nieoczekiwanego, mianowicie niewystarczalności matematyki (wszelkiej) dla realizacji pewnych, zaledwie niedawno sformułowanych celów na froncie dociekań najbardziej zaawansowanym spośród wszystkich najnowszych; chodzi tu o zadania stawiane samoorganizującym się układom homeostatycznym. Wymieńmy, przykładowo raczej, kilka podstawowych problemów, w których po raz pierwszy specjaliści zetknęli się z ową niedomogą matematyki. Będą to — zbudowanie wzmacniacza inteligencji, samoprogramującego się automatu sterującego dla przemysłu, wreszcie — to zadanie najszersze — uniwersalnego homeostatu o złożoności porównywalnej z naszą własną, ludzką.<br />Wzmacniacz inteligencji, po raz pierwszy postulowany jako realny program konstrukcyjny bodajże przez Ashby’ego, ma stanowić w dziedzinie działań umysłowych ścisły odpowiednik wzmacniacza siły fizycznej, jakim jest każda sterowana przez człowieka maszyna. Wzmacniaczem siły jest samochód, koparka, dźwig, obrabiarka, w ogóle każde urządzenie, w którym człowiek “podłączony jest” do układu sterującego jako źródło regulacji, a nie siły. Wbrew pozorom, odchylenia indywidualnego poziomu inteligencji od przeciętnej nie są większe od takich odchyleń w zakresie sprawności fizycznej. Przeciętny iloraz inteligencji (mierzony najczęściej stosowanymi testami psychologicznymi) wynosi około 100 do 110; u osób wybitnie inteligentnych dochodzi do 140–150, a górna granica, osiągana nadzwyczaj rzadko, leży około 180–190. Otóż wzmacniacz inteligencji o takim mniej więcej mnożniku, jak przeciętna uwielokrotnienia siły robotnika przez obsługiwaną przezeń maszynę w przemyśle, wykazałby iloraz inteligencji rzędu 10 000. Możliwość skonstruowania takiego wzmacniacza jest nie mniej realna od możliwości zbudowania maszyny sto razy silniejszej od człowieka. Co prawda, szansę konstrukcji są na razie niezbyt wielkie, w znacznej mierze dlatego, że pierwszoplanowa jest raczej budowa innego urządzenia — wspomnianego już automatu sterującego dla przemysłu (“homeostatycznego mózgu fabryki automatycznej”). Zatrzymam się jednak na przykładzie wzmacniacza dlatego, ponieważ lepiej można na nim uwidocznić podstawową trudność, na jaką natyka się tu konstruktor. Rzecz w tym, że musi on zbudować urządzenie “mądrzejsze od niego samego”. Jasne jest, że jeśliby chciał postępować zgodnie z metodą, w stosowanej cybernetyce już tradycyjną, to jest sporządzić odpowiedni program działania dla maszyny, zadania postawionego nie rozwiąże, ponieważ ten program zakreśla już granice “inteligencji”, jaką może osiągnąć budowane urządzenie. Pozornie —ale tylko pozornie — problem wydaje się nierozwiązalnym paradoksem, w rodzaju propozycji, żeby samego siebie podnieść za włosy (i to jeszcze, mając do nóg przywiązany stutonowy ciężar…). Istotnie, problem jest nierozwiązalny, przynajmniej według dzisiejszych kryteriów, jeżeli postulować konieczność poprzedzającego budowę wzmacniacza sporządzenia teorii, siłą rzeczy matematycznej. Istnieje jednak, na razie znane tylko jako możliwość hipotetyczna, całkiem odmienne podejście do zadania. Szczegółowa wiedza o konstrukcji wewnętrznej wzmacniacza inteligencji nie jest nam dostępna. Być może, jest ona całkiem zbędna. Być może, wystarczy potraktować ów wzmacniacz jako “czarną skrzynkę”, jako urządzenie, o którego planie wewnętrznym i kolejnych stanach nie mamy najbledszego wyobrażenia, natomiast interesować nas będą wyłącznie końcowe rezultaty działania. Wzmacniacz ów posiada, jak każde szanujące się urządzenie cybernetyczne, “wejścia” i “wyjścia”. Pomiędzy nimi rozpościera się strefa naszej ignorancji, ale co to szkodzi, jeżeli tylko będzie ta maszyna rzeczywiście zachowywać się jak intelekt o ilorazie inteligencji rzędu 10 000?<br />Ponieważ metoda jest nowa i dotychczas nigdy nie stosowana, brzmi, przyznaję, nieco jak koncept z absurdalnej komedii raczej aniżeli technologiczna recepta produkcyjna. Ale oto przykłady, które być może zastosowanie jej uprawdopodobnią. Można, dajmy na to (robiono to) do małego akwarium, w którym znajduje się kolonia wymoczków, wsypać nieco sproszkowanego żelaza. Wymoczki, wraz z pożywieniem, pochłaniają też drobne ilości owego żelaza. Gdy teraz przyłożymy z zewnątrz do akwarium pole magnetyczne, będzie ono w określony sposób wpływało na ruchy wymoczków. Otóż zmiany natężenia pola, to są zmiany “sygnałów” na “wejściu” naszego “homeostatu”, stany “wyjścia” zaś determinuje samo zachowanie się wymoczków. Nie o to chodzi, że na razie nie wiemy, do czego by dało się ów “wymoczkowo–magnetyczny” homeostat zastosować, ani że nie ma on w tej postaci nic wspólnego z hipotetycznym wzmacniaczem inteligencji. Istota rzeczy w tym, że chociaż nie znamy wcale rzeczywistej złożoności poszczególnego wymoczka, chociaż nie umiemy bynajmniej narysować jego schematu konstrukcyjnego tak, jak się rysuje schemat maszyny, to jednak udało się z tych, nie znanych nam szczegółowo, elementów złożyć pewną nadrzędną całość, podlegającą prawom systemowym, posiadającą “wejścia” i “wyjścia” sygnałów. Zamiast wymoczków można zastosować na przykład pewne rodzaje koloidów albo przepuszczać prąd elektryczny przez wielofazowe roztwory, przy czym pewne substancje mogą się wówczas wytrącać, zmieniając przewodliwość roztworu jako całości, co z kolei dać może efekt “dodatniego sprzężenia zwrotnego”, to jest wzmocnienia sygnału. Przyznajmy zaraz, że jak dotąd próby te nie dały jakichś przełomowych rezultatów i że jest sporo cybernetyków, którzy nieprzychylnie patrzą na to heretyckie odejście od tradycyjnego operowania elementami elektronowymi, to poszukiwanie nowych materiałów, nowych budulców pod pewnymi względami zbliżonych do budulca żywych ustrojów (co wcale nie jest przypadkowe!)*.<br />Nie przesądzając rezultatu takich dociekań, rozumiemy teraz już nieco lepiej, jak można z elementów “niezrozumiałych” budować układy funkcjonujące tak, jak nam to odpowiada. Zachodzi tu, u samych podstaw konstruktorskiej działalności, zasadnicze przesunięcie metodyczne. Inżynieria dotychczasowa zachowuje się trochę jak ktoś, kto nie spróbuje nawet przeskoczyć przez rów, dopóki nie ustali wpierw teoretycznie wszystkich istotnych parametrów i ich związków — a więc, dopóki nie zmierzy lokalnej siły grawitacji, sprawności własnych mięśni, nie pozna dokładnie kinematyki poruszeń swego ciała, charakterystyki procesów sterowania zachodzących w móżdżku, itd. itp. Technolog–heretyk ze szkoły cybernetycznej natomiast zamierza po prostu przez rów przeskoczyć i sądzi, nie bez słuszności, że jeżeli mu to się uda, problem tym samym zostanie rozwiązany.<br />Powołuje się on przy tym na fakt następujący. Byle działanie fizyczne, jak ów wspomniany skok, wymaga przygotowawczej i realizacyjnej pracy mózgu, która jest niczym innym, jak tylko niezmiernie zawiłą sekwencją matematycznych procesów (gdyż do nich sprowadza się w ogóle wszelka praca mózgowej sieci neuronów). Jednakże ten sam skoczek, który przecież “ma w głowie” całą ową mózgową matematykę skoku, w ogóle nie będzie umiał wypisać na papierze jej teoretyko–matematycznego odpowiednika, jakim byłaby odpowiednia ilość ścisłych wzorów i przekształceń. Wynika to zdaje się stąd, że ta “biomatematyka”, którą praktykują wszystkie w ogóle żywe organizmy z wymoczkiem włącznie, dla jej werbalizacji matematycznej w rozumieniu klasycznym, szkolnym czy uniwersyteckim, wymaga kilkakrotnego przełożenia tworzących całe systemy impulsów z języka na język —z bezsłownego i “automatycznego” języka procesów biochemicznych i przepływu neuronowych pobudzeń na język symboliczny, którego formalizowaniem i konstruowaniem zajmują się całkiem inne połacie mózgu, aniżeli te, które bezpośrednio tamtą, “wrodzoną matematykę” nadzorują i realizują. Otóż, klucz zagadnienia w tym właśnie, żeby wzmacniacz inteligencji nie musiał formalizować, konstruować, werbalizować, ale żeby działał tak automatycznie i “naiwnie”, ale też zarazem tak sprawnie i niezawodnie, jak procesy neuronowe naszego skoczka — żeby nie robił niczego oprócz transformowania bodźców wpływających przez “wejścia”, aby dostarczyć na “wyjściach” gotowe rozwiązanie. Ani on, ów wzmacniacz, ani konstruktor jego, ani nikt zgoła nie będzie wiedział, jak on to robi — ale będziemy mieli to, na czym nam wyłącznie zależy: rezultaty.<br /><br /><br /><br />Czarna skrzynka<br /><br /><br />W czasach zamierzchłych każdy człowiek znał zarówno funkcję, jak i strukturę swych narzędzi: młota, strzały, łuku. Postępujący podział pracy redukował tę indywidualną wiedzę, aż w nowożytnym społeczeństwie przemysłowym przebiega wyraźna granica między tymi, którzy urządzenia obsługują (technicy, robotnicy), albo z nich korzystają (człowiek w windzie, przy telewizorze, prowadzący samochód), a tymi, którzy znają ich konstrukcję. Żaden z żyjących dzisiaj nie zna budowy wszystkich urządzeń, jakimi dysponuje cywilizacja. Niemniej, istnieje ktoś, kto taką wiedzę posiada: społeczeństwo. Wiedza, cząstkowa w odniesieniu do jednostek, jest pełna, jeśli uwzględnić wszystkich członków danej społeczności.<br />Proces alienacji, wyobcowania wiedzy o urządzeniach ze świadomości społecznej, postępuje jednak dalej. Cybernetyka kontynuuje ów proces, przenosząc go na wyższy poziom — w zasadzie bowiem możliwe jest powstawanie takich jej wytworów, których struktury nie zna już nikt. Urządzenie cybernetyczne staje się (termin chętnie przez fachowców używany) “czarną skrzynką”. “Czarna skrzynka” może być regulatorem, włączonym w określony proces (produkcji dóbr, ich ekonomicznego obiegu, koordynacji transportu, leczenia choroby, itp.). Niezbędne jest, aby pewnym stanom “wejść” odpowiadały pewne stany “wyjść”, i na tym koniec. Na razie buduje się “czarne skrzynki” tak proste,, że inżynier–cybernetyk zna charakterystykę związku między parami owych wielkości. Wyraża ją jakaś funkcja matematyczna. Możliwa jest jednak i sytuacja, w której nawet on nie będzie znać matematycznego wyrazu tej funkcji. Zadaniem konstruktora będzie zbudowanie “czarnej skrzynki”, spełniającej potrzebną czynność regulacyjną. Ale ani konstruktor, ani nikt inny nie będzie wiedział, jak “czarna skrzynka” tę czynność wypełnia. Nie będzie znał matematycznej funkcji, ukazującej zależność stanów “wejść” od stanów “wyjść”. A nie będzie znał nie tylko dlatego, ponieważ to niemożliwe, ile przede wszystkim dlatego, ponieważ to nie jest potrzebne.<br />Nie najgorszym wprowadzeniem w problematykę “czarnej skrzynki” jest historyjka o stonodze, którą spytano, jak może spamiętać, którą nogę winna podnieść po osiemdziesiątej dziewiątej. Stonoga, jak wiadomo, zastanowiła się, i nie potrafiąc udzielić odpowiedzi, zginęła z głodu, bo już nie mogła ruszyć się z miejsca. Stonoga jest w samej rzeczy “czarną skrzynką”, która wykonuje określone funkcje, chociaż “nie ma pojęcia”, jak to robi. Zasada działania “czarnej skrzynki” jest nadzwyczaj ogólna i z reguły prosta, w rodzaju “stonogi chodzą” albo “koty łapią myszy”. “Czarna skrzynka” posiada odpowiedni “program wewnętrzny” działania, któremu podporządkowane są jej poszczególne akty.<br />Technolog współczesny zaczyna pracę konstruktorską od sporządzenia odpowiednich planów i obliczeń. Most, lokomotywę, dom, odrzutowiec czy rakietę stwarza on więc niejako dwa razy, najpierw teoretycznie, na papierze, a potem w rzeczywistości, gdzie symboliczny język jego wzorów i planów, czyli algorytm postępowania, “tłumaczy się” na szereg działań materialnych.<br />“Czarnej skrzynki” nie można zaprogramować algorytmem. Algorytm jest to ułożony raz na zawsze program działań, który wszystko przewiduje z góry. Popularnie mówi się, że algorytm — to ścisły, powtarzalny, dający się reprodukować przepis, ukazujący krok za krokiem, w jaki sposób rozwiązuje się określone zadanie. Algorytmem jest zarówno każdy sformalizowany dowód tezy matematycznej, jak i program maszyny cyfrowej, tłumaczącej z języka na język. Pojęcie algorytmu pochodzi z matematyki i dlatego używam go w zastosowaniu do inżynierii nieco na przekór zwyczajom. Algorytm matematyka–teoretyka nigdy go nie zawodzi: kto raz sporządził algorytm dowodu matematycznego, może być pewien, że się ten dowód nigdy nie “zawali”. Algorytm stosowany, którego używa inżynier, bywa zawodny, ponieważ pozornie tylko “wszystko przewiduje z góry”. Wytrzymałość mostów oblicza się w oparciu o określone algorytmy — ale nie gwarantuje to ich trwałości absolutnej. Most może się zawalić, jeżeli działają nań siły większe od tych, które teoretycznie uwzględnił konstruktor. W każdym razie, jeśli mamy algorytm dowolnego procesu, możemy poznać — w zadanych granicach — wszystkie kolejne fazy, wszystkie etapy tego procesu.<br />Otóż, w odniesieniu do systemów bardzo złożonych, takich, jak społeczeństwo, mózg, albo jeszcze nie istniejące “bardzo wielkie czarne skrzynki”, poznanie takie nie jest możliwe. Układy takie nie mają algorytmów. Jak należy to rozumieć? Przecież każdy układ, więc i mózg, i społeczeństwo, zawsze zachowuje się w jakiś określony sposób. Sposób tego zachowania można by symbolicznie odwzorować. Bez wątpienia: ale nic by nam z tego nie przyszło, ponieważ algorytm musi być powtarzalny, musi pozwalać na przewidywanie stanów przyszłych, natomiast to samb społeczeństwo, postawione dwa razy w takiej samej sytuacji, wcale nie musi się zachować analogicznie. I tak się ma właśnie rzecz ze wszystkimi układami o wysokim stopniu komplikacji.<br />Jak zbudować “czarną skrzynkę”? O tym, że to jest w ogóle możliwe, że da się skonstruować układ o dowolnym stopniu złożoności bez żadnych wstępnych planów, obliczeń, bez poszukiwania algorytmów, wiemy, ponieważ my sami jesteśmy “czarnymi skrzynkami”. Ciała nasze są nam podwładne, możemy wydawać im określone rozkazy, a przecież nie znamy (to jest: nie musimy znać; ta wiedza nie jest niezbędna) ich wewnętrznego urządzenia. Powraca tu problem skoczka, który umie skakać, ale sam nie wie, jak to robi, to jest nie posiada wiedzy o dynamice nerwowo–mięśniowych przebiegów, której rezultatem jest skok. A zatem doskonałym przykładem urządzenia, którym można się posługiwać, nie znając jego algorytmu, jest każdy człowiek. Jednym z “najbliższych nam” w całym Kosmosie “urządzeń” jest nasz własny mózg: mamy go przecież w głowie. Niemniej po dzień dzisiejszy nie wiemy dokładnie, jak ten mózg działa. Badanie jego mechanizmów introspekcją jest — jak wskazuje historia psychologii — w najwyższym stopniu zawodne i prowadzi na manowce najnieprawdziwszych z wszystkich możliwych hipotez. Mózg jest tak zbudowany, że — ułatwiając nam działania — jednocześnie pozostaje “w ukryciu”. Oczywiście, nie jest to wynikiem perfidii działań naszego Konstruktora, Przyrody — a tylko skutkiem doboru naturalnego: obdarzył nas umiejętnością myślenia, gdyż była ewolucyjnie przydatna, i dlatego myślimy — chociaż nie wiemy, jak to się dzieje, że myślimy, ponieważ ofiarowanie nam takiej wiedzy nie leżało “w interesie” ewolucji. Nie ukryła przed nami niczego: wyrugowała tylko z obrębu swych dzieł wszelką wiedzę z jej “punktu widzenia” zbędną. Jeśli nie jest zbędna — z naszego punktu widzenia — musimy ją zdobyć sami.<br />Tak więc niezwykłość proponowanego przez cybernetykę rozwiązania, w którym maszyna jest całkowicie wyobcowana ze sfery wiedzy ludzkiej, niezwykłość tę spopularyzowała już i to od dawna Natura.<br />Być może — powie ktoś — ale człowiekowi jego “czarną skrzynkę”, jego ciało i mózg, dążące do optymalnego rozwiązywania życiowych problemów, dała Natura, skonstruowawszy je w rezultacie prób i błędów, trwających miliardy lat. Czy mamy dążyć do kopiowania jej płodów? A jeśli tak — to w jaki sposób? Przecież nie możemy poważnie rozpatrywać powtórzenia —tym razem, technicznego — ewolucji? Taka “ewolucja cybernetyczna” pochłonęłaby może, jeśli nie miliardy, to miliony, a choćby tylko — setki tysięcy lat… I jak w ogóle rozpocząć to dzieło? Czy atakować problem od strony biologicznej, czy abiologicznej?<br />Odpowiedzi nie znamy. Zapewne trzeba będzie próbować wszystkich możliwych dróg, tych zwłaszcza, które z różnych powodów były dla Ewolucji zamknięte. Ale nie jest naszym zamiarem fantazjowanie na temat możliwych, to jest dających się pomyśleć, “czarnych skrzynek”, jako twórców Technologii. Chcieliśmy tylko sformułować zadanie. Wiemy, że jedynie bardzo złożony regulator da sobie radę z bardzo złożonym systemem. Musimy zatem poszukiwać takich regulatorów — w biochemii, w żywych komórkach, w inżynierii molekularnej ciała stałego — wszędzie, gdzie to możliwe. Wiemy zatem, czego chcemy i czego szukamy, jak również wiemy — dzięki korepetycjom u Natury — że to zadanie można rozwiązać. Wiemy więc już tak wiele, że równa się to połowie sukcesu.<br /><br /><br /><br />O moralności homeostatów<br /><br /><br />Nadszedł czas wprowadzenia w obręb naszych cybernetycznych roztrząsań problematyki moralnej. Sytuacja jest w rzeczywistości odwrotna: to nie my wprowadzamy zagadnienia etyki w cybernetykę, to ona, rozrastając się, obejmuje swymi konsekwencjami wszystko, co uważamy za moralność, to znaczy system kryteriów, wartościujących działanie w sposób, z punktu widzenia czysto przedmiotowego, arbitralny. Moralność jest arbitralna jak matematyka, gdyż obie wyprowadza się drogą logicznego rozumowania z przyjętych aksjomatów. Można uznać za jeden z aksjomatów geometrii, że przez punkt, leżący poza prostą, da się przeprowadzić tylko jedna linia do niej równoległa. Można ten aksjomat odrzucić i otrzymamy wtedy geometrię nieeuklidesową. Istotne jest, żebyśmy sobie zdawali sprawę z tego, kiedy postępujemy w sposób umówiony z góry, jak to ma miejsce z wyborem aksjomatów geometrycznych, ponieważ ta umowa, ten wybór zależy od nas. Można uznać za jeden z aksjomatów moralnych, że dzieci, obarczone wrodzonym kalectwem, należy zabijać. Otrzymamy, znaną z historii, moralność “tarpejską”, której zaciekłe dyskutowanie i ostateczne odrzucenie wywołała w ostatnich czasach znana afera thalidomidu. Powiada się często, że istnieją dyrektywy moralne ponadhistoryczne. Z tego punktu widzenia “moralność tarpejską”, nawet w najbardziej złagodzonej formie (przejawiająca się na przykład jako postulowanie eutanazji wobec ludzi cierpiących męki wskutek nieuleczalnych chorób), jest niemoralnością, jest zbrodnią, złem. W gruncie rzeczy zachodzi tutaj ocena jednego systemu moralnego z pozycji innego systemu. Oczywiście, wybieramy ten inny, “nietarpejski” system, ale skoro zgodzimy się, że powstał w toku społecznej ewolucji człowieka, a nie został objawiony, należy uznać fakty historycznego praktykowania odmiennych systemów. Sprawa rozmijania się moralności głoszonej z moralnością praktykowaną wprowadza do zagadnienia komplikacje, które jednak nas nie interesują, ponieważ ograniczymy się tylko do przedstawienia realnych działań, pomijając ich, niewątpliwie możliwy, kamuflaż, czyli po prostu —dezinformację. Ten, kto dezinformuje, uprawia w słowach inną moralność, aniżeli w czynach. Sama potrzeba dezinformacji wskazuje, że określone aksjomaty moralne panują powszechnie w świadomości społecznej, w przeciwnym bowiem razie nie trzeba by zakłamywać faktów. Ale te same fakty mogą w różnych cywilizacjach znaleźć diametralnie przeciwstawną ocenę. Porównajmy moralne aspekty prostytucji współczesnej i babilońskiej. Babilońskie kapłanki—prostytutki oddawały się nie dla osobistego zysku, lecz dla “wyższych powodów”: takie postępowanie aprobowała ich religia. Były one w pełnej zgodzie z moralnością, dedukowaną z owej religii. Tym samym, w obrębie swego czasu i społeczeństwa, nie zasługiwały na potępienie, w przeciwieństwie do kurtyzan współczesnych, gdyż zgodnie z dzisiejszymi kryteriami, prostytucja jest moralnie zła. Taka sama zatem działalność znajduje, w obrębie dwu różnych cywilizacji, dwie krańcowo różne oceny.<br />Wprowadzenie automatyzacji cybernetycznej pociąga za sobą, raczej nieoczekiwanie, dylematy moralne. Stafford Beer, jeden z amerykańskich pionierów cybernetyzacji wielkich kapitalistycznych jednostek wytwórczych, postuluje budowę “kompanii—homeostatu” i jako jej przykład omawia szczegółowo teorię regulowania działań wielkiej stalowni. “Mózg” jej ma optymalizować wszystkie procesy, składające się na wytwarzanie stali, w taki sposób, żeby proceder ten był jak najbardziej wydajny, sprawny i uniezależniony zarówno od zakłóceń podaży (siły roboczej, rudy, węgla itp.) i popytu rynkowego, jak i od wewnętrznych niedomagań systemowych (nierównomierność produkcji, niepożądany wzrost kosztów własnych, maksymalna wydajność na jednego pracownika). W jego przedstawieniu taka jednostka produkcyjna ma być ultrastabilnym homeostatem, który wewnętrzną reorganizacją natychmiast reaguje na każde odchylenie od stanu równowagi i tym samym stan ten przywraca. Dyskutanci — fachowcy, którym przedstawiony został ów teoretyczny model, zwrócili uwagę na to, że brak mu “religii”. Beer świadomie wymodelował ową stalownię—homeostat według zasad działania żywego organizmu. Otóż, jedynym właściwie kryterium “wartości” organizmu w przyrodzie jest jego zdolność przetrwania — za wszelką cenę. To znaczy, ewentualnie i za cenę pożerania innych organizmów. Przyrodnik, pojmując, że Naturze brak “systemów oceny moralnej”, nie uważa postępowania głodnych drapieżców za “moralnie złe”. Pytanie brzmi zatem: czy “stalownia—organizm” może, to jest “ma prawo”, “pożerać” w razie potrzeby swoich konkurentów, czy nie? Pytań takich, może nieco mniej drastycznych, jest więcej. Czy taka homeostatyczna jednostka ma dążyć do maksymalnej produkcji, czy do maksymalnego zysku? A co, jeśli po upływie pewnego czasu, wskutek następujących przemian technologicznych, produkowanie stali okazuje się zbędne? Czy “tendencja przeżycia”, wbudowana w “mózg” tego systemu wytwarzającego, ma go doprowadzić do całkowitej przebudowy, tak aby na przykład sam siebie przeorganizował w producenta plastyków? Ale dlaczego akurat plastyków? Czym ma się kierować w tej reorganizacji totalnej — szansą maksymalnej użyteczności społecznej? Czy znów — zysku?<br />Beer wymija odpowiedź na te pytania, oświadczając, że ponad “mózgiem” stalowni jest jeszcze Rada Nadzorcza prywatnych właścicieli, która pobiera decyzje o charakterze ogólnym, najwyższego rzędu. Mózg tylko je optymalnie realizuje*.<br />Tym samym Beer sprzeniewierza się “autonomiczno–organicznej” zasadzie własnej koncepcji i przenosi wszystkie kwestie “moralne” poza układ “czarnej skrzynki” — w obręb Rady Nadzorczej. Ale ten unik jest pozorny. “Czarna skrzynka” nawet tak ograniczona będzie pobierała decyzje o charakterze moralnym, na przykład zwalniając robotników czy obniżając płace, skoro tego będzie wymagała zasada optymalnego działania stalowni jako całości. Łatwo też sobie wyobrazić, że dojdzie do “walki o byt” stalowni–homeostatu Beera z innymi, zaprojektowanymi przez innych cybernetyków, stojących na usługach innych korporacji. Albo będą one tak ograniczone w swych kompetencjach, że nieustannie zwracać się będą o decyzję do ludzkiego “managera” (czy zrujnować konkurenta, bo jest okazja, itp.), albo ich obarczona moralnymi konsekwencjami działalność będzie się rozszerzała. W pierwszym przypadku naruszona zostaje sama zasada autoregulacyjna homeostatu–producenta. W drugim — homeostaty zaczynają wpływać na losy ludzkie w sposób bardzo często nie przewidziany przez ich twórców, i może dojść do załamania gospodarki kraju jako całości dlatego, ponieważ jeden z homeostatów sprawia się z wyznaczonym mu zadaniem zbyt dobrze —rujnując wszystkich konkurentów…<br />Dlaczego w pierwszym przypadku naruszona zostaje zasada działania “czarnej skrzynki”? Dlatego, ponieważ taka “skrzynka”, taki regulator, bynajmniej nie jest podobny do człowieka, w tym sensie, żeby można mu zadawać pytania na każdym etapie pobieranych przezeń decyzji i żeby on na te pytania (o społeczne konsekwencje swych kolejnych działań) był w stanie odpowiedzieć. Nawiasem mówiąc, nawet człowiek — “manager” często tych odległych konsekwencji swych decyzji nie zna. “Czarna skrzynka”, która ma “utrzymać przy życiu” stalownię, reagując na wszelkie fluktuacje “wejść” (ceny węgla, rudy, maszyn, wysokości płac) i “wyjść” (rynkowa cena stali, popyt na jej poszczególne gatunki), i taka “czarna skrzynka”, która ponadto uwzględnia jeszcze interesy pracowników, a może nawet i konkurentów, to dwa całkiem różne urządzenia. Pierwsza będzie sprawniejsza jako producent od drugiej. Wprowadzenie do programu wstępnego, do “aksjomatycznego jądra” postępowania, ustawodawstwa pracy obowiązującego” wszystkich obecnych na rynku producentów działanie homeostatu na szkodę pracowników ogranicza, ale może je na przykład zwiększyć w odniesieniu do firm konkurencyjnych, albo wytwórców stali w innych krajach kapitalistycznych. v Najważniejsze jednak jest to, że “czarna skrzynka” wcale “nie wie” o tym, kiedy tak właśnie, z czyjąś szkodą, działa, i nie można od niej wymagać, żeby informowała o takich skutkach swych decyzji ludzi, ponieważ ex definitione jej stanów wewnętrznych nikt, włącznie z projektantem—konstruktorem, nie zna. Tego typu konsekwencje wprowadzenia homeostatycznych reguła torów miał właśnie na myśli Norbert Wiener, poświęciwszy w nowym wydaniu swej podstawowej pracy Cybernetics osobny rozdział nieobliczalnym skutkom ich funkcjonowania. Mogłoby się wydawać, że niebezpieczeństwa tego rodzaju zlikwiduje w zarodku uruchomienie “czarnej skrzynki” wyższego typu jako “maszyny do rządzenia” —nie ludźmi, ale podporządkowanymi jej “czarnymi skrzynkami” indywidualnych producentów. Rozważenie następstw takiego kroku okaże się nader interesujące.<br /><br /><br /><br />Niebezpieczeństwa elektrokracji<br /><br /><br />Tak zatem, aby uniknąć społecznie szkodliwych konsekwencji działania “czarnych skrzynek” jako regulatorów poszczególnych jednostek produkcji, wprowadziliśmy na tron władzy ekonomicznej Czarną Skrzynkę — Regulator najwyższego stopnia. Powiedzmy, że ogranicza ona swobodę produkcyjnych regulatorów, narzucając im programowaniem (równoważnym legislacji) przestrzeganie przepisów prawa pracy, zasad lojalności względem konkurentów, dążenie do zlikwidowania rezerwowej armii pracy (to jest bezrobocia), itp. Czy to jest możliwe? Teoretycznie — tak. W praktyce jednak postępowanie takie obciąży ogromna ilość przeróżnych — nazwijmy je tak eufemistycznie — niedogodności.<br />Czarna Skrzynka, jako układ bardzo złożony, jest nieopisywalna, algorytmu jej nikt nie zna i znać go nie może, działa ona probabilistycznie, a zatem postawiona dwa razy w tej samej sytuacji, wcale nie musi postąpić tak samo. Czarna Skrzynka jest poza tym — i to chyba najistotniejsze —maszyną, która uczy się, w toku konkretnie podejmowanych działań, na własnych błędach. Z samych podstaw cybernetyki wynika, że zbudowanie Czarnej Skrzynki — Władcy Ekonomicznego, który byłby natychmiast wszechwiedny i potrafił przewidzieć wszystkie możliwe konsekwencje pobieranych decyzji, jest niemożliwością. W miarę upływu czasu regulator będzie się zbliżał do tego ideału. Jak szybko — określić tego nie umiemy. Być może, najpierw wprowadzi państwo w szereg przeraźliwych kryzysów, z których je stopniowo wyprowadzi. Być może, oświadczy, że między wprowadzonymi w Program Działania aksjomatami zachodzi sprzeczność (na przykład: nie można równocześnie przeprowadzać ekonomicznie opłacalnej automatyzacji procesów produkcyjnych i dążyć do likwidacji bezrobocia, jeżeli zarazem nie będzie się robiło wielu innych rzeczy — na przykład, ‘ wprowadzało subwencjonowanego przez Państwo lub Kapitał przekwalifikowania tracących wskutek automatyzacji pracę, itp.). Co wtedy? Trudno nam wdać się w ścisłą analizę tak skomplikowanego zagadnienia. Powiedzieć można tyle: Czarna Skrzynka, już to jako regulator produkcji w jednym z jej ogniw podrzędnych, już to jako regulator uniwersalny w skali państwa, zawsze działa z pozycji wiedzy cząstkowej. Inaczej być nie może. Nawet, gdyby po wielu próbach i błędach, w których toku unieszczęśliwiła miliony ludzi, “czarna skrzynka” — władca ekonomiczny osiągnęła ogromną wiedzę, niezrównanie większą od wiedzy wszystkich kapitalistycznych ekonomistów razem wziętych, to i tak brak jakiejkolwiek gwarancji, że nie spróbuje ona przeciwdziałać kolejnej, nowymi przyczynami wywołanej fluktuacji, w sposób, który wszystkim, wraz z jej projektantami, postawi włosy na głowie. Musimy rozpatrzyć taką ewentualność na konkretnym przykładzie.<br />Powiedzmy, że prognostyczna część (“podsystem”) “czarnej skrzynki” —regulatora ekonomicznego dostrzega niebezpieczeństwo dla już szczęśliwie, po wielu oscylacjach, wprowadzonego stanu równowagi homeostatycznej. Niebezpieczeństwo to płynie stąd, że przyrost naturalny jest większy od przedstawianych, przez istniejący stan cywilizacji, możliwości zaspokajania potrzeb ludzkich, w tym sensie, iż stopa życiowa zacznie — przy danym przyroście — obniżać się, począwszy od przyszłego roku, albo od dzisiaj za trzydzieści lat. Zarazem okazuje się, że jednym z “wejść” wpłynęła do “czarnej skrzynki” informacja o pewnym, wykrytym, środku chemicznym, całkowicie nieszkodliwym dla zdrowia, który powoduje takie zmniejszenie tempa owulacji u kobiet, że przy stałym tego środka zażywaniu, kobieta zdolna jest do poczęcia nie, jak normalnie, około sto kilkadziesiąt razy w roku, ale zaledwie podczas nielicznych dni roku. “Czarna skrzynka” pobiera wówczas decyzję wprowadzenia tego środka w niezbędnych, mikroskopijnych ilościach, do wody pitnej we wszystkich systemach wodociągowych państwa. Oczywiście, ze względu na powodzenie tej akcji, powinna ona ów krok utrzymać w tajemnicy, w przeciwnym bowiem razie parametr przyrostu naturalnego znowu wykaże tendencję wzrostu — gdyż wielu ludzi zapewne będzie starało się pić wodę bez owego środka, na przykład z rzek, ze studzien. Tak zatem “czarna skrzynka” stanie przed alternatywą — albo informować społeczeństwo i liczyć się z jego sprzeciwem, albo nie informować, i tym samym uratować, dla powszechnego dobra, stan istniejącej równowagi. Powiedzmy, że dla ochrony społeczeństwa przed dążeniem “czarnej skrzynki” ku podobnym formom “kryptokracji”, jej program przewiduje publikowanie wszelkich zamierzonych zmian. “Czarna skrzynka” ma też wbudowany “hamulec bezpieczeństwa”, który uruchamia się każdorazowo przy wyniknięciu sytuacji takiej, jak opisana. Tak więc, “doradcze ciało” regulatora, złożone z ludzi, udaremni plan wprowadzenia do wody owej redukującej płodność substancji. Problem polega jednak na tym, że sytuacji równie prostych będzie raczej niewiele i w ogromnej większości wypadków “ciało doradcze” nie będzie wiedzieć, czy nie trzeba już aby ciągnąć za “hamulec bezpieczeństwa”. Zresztą zbyt często jego uruchamianie może całą regulacyjną działalność “skrzynki” uczynić iluzoryczną i wtrącić społeczeństwo w kompletny chaos. Nie mówię już nawet o tym, że w najwyższym stopniu jest niejasne, czyj właściwie interes będzie reprezentować to “ciało doradcze”. We współczesnych Stanach Zjednoczonych uniemożliwiłoby ono na przykład wprowadzenie bezpłatnej pomocy lekarskiej i systemu rent (co przecież uczynił tam Kongres, podczas gdy rolę proponującej takie zmiany “skrzynki” odegrał prezydent Kennedy, i został powstrzymany przez “pociągnięcie za hamulec bezpieczeństwa”). Nie mówię o tym, ponieważ “czarnej skrzynki” nie należy nie doceniać. Prawdopodobnie raz, drugi i trzeci “zahamowana” w swych działaniach, opracuje nową strategię. Będzie na przykład dążyła do tego, by małżeństwa zawierano możliwie późno, aby posiadanie małej ilości dzieci było szczególnie korzystne ekonomicznie, a jeśli i to nie da właściwych rezultatów, postara się zmniejszyć przyrost naturalny w sposób jeszcze bardziej okólny. Dajmy na to, że istnieje lekarstwo, zapobiegające próchnicy zębów, które wywołuje w pewnym procencie przypadków stosowania — taką mutację genów, że nowy gen (“zmutowany”) sam w sobie jeszcze rozrodczości nie zmniejsza, a czyni to dopiero, kiedy spotka się z innym genem, także zmutowanym, który powstał dzięki stosowaniu innego lekarstwa, używanego już od dość dawna. Tamto lekarstwo uwolniło, powiedzmy, męską połowę ludności od utrapień przedwczesnego łysienia. Otóż, “czarna skrzynka” wszelkimi sposobami upowszechni stosowanie leku na próchnicę zębów i w rezultacie dopnie swego: po pewnym czasie ilość obu (recesywnych) genów zmutowanych w populacji tak wzrośnie, że będą się one spotykać często i przez to dojdzie do spadku przyrostu naturalnego. Dlaczego — można spytać — “czarna skrzynka” nie poinformuje ogółu w porę o tym swoim kroku, przecież powiedzieliśmy, że zgodnie z wbudowaną w nią regułą działania, musi informować o wszelkich zmianach, jakie zamierza przeprowadzić?<br />Nie poinformuje ogółu nie dlatego, że powoduje nią “chytrość” czy “demonizm”, ale po prostu dlatego, że sama nie będzie wiedziała, co właściwie robi. Nie jest przecież żadnym “szatanem elektronowym”, wszechwiedną istotą, rozumującą jak człowiek, czy nadczłowiek, a tylko urządzeniem, które bezustannie poszukuje związków, statystycznych korelacji pomiędzy poszczególnymi zjawiskami społecznymi, których są miliony i tysiące milionów. Ponieważ, jako regulator, winna optymalizować stosunki ekonomiczne, stan wysokiej stopy życiowej ogółu jest stanem jej własnej równowagi. Przyrost naturalny zagraża owej równowadze. Dostrzeże kiedyś dodatnią korelację między spadkiem przyrostu naturalnego a stosowaniem leku na próchnicę zębów. Powiadomi o tym “radę”, ta przeprowadzi badania i stwierdzi, że lek ów nie wywołuje zmniejszenia rozrodczości (uczeni “rady” będą robić doświadczenia na zwierzętach, które wszak leków na łysinę nie używają). “Czarna skrzynka” niczego przed ludźmi nie ukryje, ponieważ sama nic nie wie o mutacjach, o genach, ani o związku przyczynowym między wprowadzeniem dwu rodzajów lekarstw a spadkiem rozrodczości. “Czarna skrzynka” wykryje tylko poszukiwaną korelację i będzie ją usiłowała wykorzystać. I ten przykład grzeszy prymitywizmem, choć nie jest nieprawdopodobny (jak o tym świadczy afera thalidomidu). “Czarna skrzynka” będzie w rzeczywistości, działała jeszcze bardziej pośrednio, stopniowo, “nie wiedząc, co czyni”, ponieważ dąży do stanu równowagi ultrastabilnej, a wykrywane przez nią i użytkowane, dla utrzymania tego stanu, korelacje zjawisk, są wyrazem procesów, których ona nie bada, nie zna (to jest nie musi znać) ich przyczyn — i w końcu może się, po stu latach, okazać, że ceną, jaką trzeba było zapłacić za wzrost stopy życiowej i spadek bezrobocia, jest ogonek, wyrastający każdemu szóstemu dziecku, albo ogólne obniżenie wskaźnika inteligencji w społeczeństwie (ponieważ bardziej inteligentni ludzie bardziej przeszkadzają maszynie w regulacyjnym działaniu i będzie dążyła do zmniejszenia ich liczby). Jak sądzę, jasne jest, że “aksjomatyka” maszyny nie zdoła uwzględnić z góry wszystkich możliwości, od “ogonka” aż po ogólne zidiocenie. Tym samym przeprowadziliśmy reductio ad absurdum teorii Czarnej Skrzynki jako Najwyższego Regulatora ludzkiej społeczności.<br /><br /><br /><br />Cybernetyka i socjologia<br /><br /><br />Fiasko “czarnej skrzynki” jako regulatora procesów społecznych powodowane jest kilkoma przyczynami.<br />Po pierwsze, co innego jest regulować układ zadany z góry, a więc np. domagać się takiego regulatora, który będzie podtrzymywał homeostazę społeczeństwa kapitalistycznego, a co innego znów — regulować układ zaprojektowany w oparciu o odpowiednią wiedzę socjologiczną.<br />Regulować można zasadniczo każdy układ złożony. Ale ani użyte metody, ani skutki ich nie muszą znaleźć uznania u regulowanego —jeżeli jest nim społeczeństwo. Jeżeli układ, jak właśnie kapitalistyczny, skłonny jest do popadania w oscylacje samowzbudne, zwane koniunkturami i kryzysami, to regulator może uznać za konieczne celem usunięcia oscylacji takie posunięcia, które wzbudzą gwałtowny sprzeciw. Łatwo sobie wyobrazić reakcję właścicieli “stalowni–homeostatu” Stafforda Beera, gdyby jej “mózg” oświadczył, że dla dalszej homeostazy niezbędne jest uspołecznienie środków produkcji, a chociażby tylko zmniejszenie zysków o połowę. Jeżeli dany jest układ, dane są i prawa jego zachowania w pewnym przedziale zmienności. Żaden regulator nie może zawieszać działania tych praw, gdyż byłoby to czynieniem cudów. Regulator może tylko wybierać między możliwymi do zrealizowania stanami układu. Regulator biologiczny — ewolucja — może zwiększać albo rozmiary organizmów, albo ich ruchliwość. Niemożliwy jest wieloryb o zwrotności pchły. Tak więc, regulator szukać musi rozwiązań kompromisowych. Jeżeli pewne parametry są “nietykalne” — jak np. własność prywatna — to wybór możliwych posunięć zmniejsza się i może być tak, że jedynym środkiem utrzymania układu w “równowadze” jest użycie siły. Umieściliśmy równowagę w cudzysłowie, bo jest to równowaga walącego się domu, spinanego klamrami żelaznymi. Ten, kto oscylacje samowzbudne systemu tłumi użyciem siły, porzuca zasady homeostazy, gdyż samoorganizację zastępuje przemocą. Tak powstawały historycznie znane formy władzy —tyrania, absolutyzm, faszyzm itp.<br />Po drugie, z punktu widzenia regulatora elementy systemu winny mieć taką tylko wiedzę, jaka jest niezbędna dla ich działania. Zasada ta, nie wywołująca sprzeciwu w maszynie czy organizmie żywym, sprzeczna jest z postulatami ludzi, my bowiem, jako elementy układu społecznego, pragniemy posiadać informację nie tylko dotyczącą tego, co mamy robić sami, ale odnoszącą się i do systemu jako całości.<br />Ponieważ podłączony do społeczeństwa regulator “nieludzki” (“czarna skrzynka”) ciąży ku takim czy innym przejawom kryptokracji, niepożądana jest wszelka forma homeostazy społecznej z zastosowaniem “rządzącej maszyny”. Jeśli bowiem zachodzi drugi z wymienionych wstępnie przykładów — regulacja układu zaprojektowanego w oparciu o wiedzę socjologiczną — to i wtedy brak gwarancji, że w przyszłości stan uzyskanej równowagi nie ulegnie zagrożeniu. Cele bowiem, jakie stawia sobie społeczeństwo, nie są we wszystkich czasach takie same. Homeostaza nie jest “trwaniem samym w sobie”, lecz jest zjawiskiem teleologicznym. Początkowo więc będą się pokrywać, podczas projektowania, cele regulatora i społeczeństwa mu podwładnego, ale potem mogą tu wystąpić antagonizmy. Społeczeństwo nie może pozbyć się ciężaru decydowania o swych losach, wyzbywając się tej wolności na rzecz regulatora cybernetycznego.<br />Po trzecie, ilość stopni swobody, jaką przedstawia społeczeństwo w rozwoju, jest większa od ilości tych stopni w obrębie ewolucji biologicznej. Społeczeństwo może dokonać nagłej zmiany ustroju, może poszczególne dziedziny działalności skokowo usprawnić, gdy wprowadzi w nie “cybernetycznych zarządców”, obdarzonych ograniczonym, lecz szerokim pełnomocnictwem. Wszelkie takie zmiany rewolucyjne są w bioewołucji niemożliwe. Tak zatem, społeczeństwo jest nie tylko obdarzone większą swobodą wewnętrznych działań od żywego organizmu, wziętego oddzielnie (do jakiego dawniej je nieraz porównywano), ale nawet od wszystkich wziętych razem organizmów w ewolucji.<br />Znane są z historii rozmaite ustroje; pod względem klasyfikacyjnym są one jak gdyby “typami”, jednostkami nadrzędnymi. Dynamikę sprzężeń wewnątrzustrojowych wyznacza ekonomika uprawiana, ale nie jednoznacznie. Tak więc, taki sam ustrój może realizować rozmaite “modele” ekonomiczne, w pewnym przedziale parametrów. Przy tym o typie ustroju nie decydują poszczególne wartości tych parametrów. W ustroju kapitalistycznym kwitnąć może spółdzielczość, ale nie przestaje on przez to być kapitalistycznym. Dopiero równoczesna zmiana szeregu parametrów istotnych zmienia nie tylko model ekonomiczny, ale i nadrzędny względem niego typ ustrojowy, bo wtedy przekształca się całokształt społecznych stosunków. Otóż, znów coś innego jest regulator ustroju danego, a co innego — taki regulator, który może przekształcić (jeżeli uzna to za wskazane) dany ustrój winny.<br />Ponieważ ludzie pragną decydować o tym, w jakim ustroju będą żyli, jak i o tym, jaki model ekonomiczny będą realizowali, a wreszcie i o tym, jakie cele ma realizować społeczeństwo, bo wszak to samo społeczeństwo może raczej rozwijać eksplorację kosmiczną, albo raczej zajmować się biologiczną autoewolucją, ze względu na to wszystko stosowanie regulacji maszynowej układów społecznych, będąc możliwym, jest niepożądane.<br />Inna sprawa z zastosowaniem takiej regulacji do rozwiązywania zadań poszczególnych (ekonomicznych, administracyjnych itp.), jak również do modelowania procesów społecznych w maszynach cyfrowych czy innych układach złożonych — celem dokładnego poznania ich praw dynamicznych. Co innego jest bowiem używać metod cybernetycznych do badania społecznych zjawisk, do ich usprawniania, a co innego wprowadzić płody cybernetycznego konstruktorstwa na tron władzy. Potrzebna więc jest socjologia cybernetyczna, a nie inżynieria budowy maszyn rządzących.<br />Jak należy sobie wyobrazić przedmiot socjologii cybernetycznej? Jest to temat zbyt obszerny, abyśmy mogli go choćby naszkicować. Aby jednak ów termin nie pozostał pusty, kilka orientacyjnych uwag.<br />Homeostaza cywilizacyjna jest produktem ewolucji społecznej człowieka. Wszelkie społeczności historyczne od czasów zamierzchłych uprawiały działalność regulacyjną, mającą na celu zachowanie systemowej równowagi. Oczywiście, ludziom nie był świadomy ów charakter ich zbiorowych poczynań, tak samo, jak nie zdawali sobie sprawy z tego, że ich byt ekonomiczno—produkcyjny kształtuje formę ustrojową. W społeczeństwach stojących na tym samym stopniu rozwoju materialnego, o analogicznej ekonomice, powstawały niejednakowe struktury w obrębie tego całokształtu życia pozaprodukcyjnego, który nazywamy nadbudową kulturalną. Można powiedzieć, że tak samo, jak dany stopień kooperacji grupowej na stopniu prymitywnym powoduje powstanie mowy, artykułowanego, rozczłonkowanego systemu porozumiewania się, ale nie determinuje, jaka to będzie mowa (język grupy ugrofińskiej czy jakiś inny), analogicznie dany stopień rozwoju środków produkcji powoduje powstanie klas społecznych, ale nie determinuje tego, jakie typy międzyludzkich więzi będą w nich obowiązywały.<br />Rodzaj języka tak samo, jak rodzaj tych więzi, powstaje losowo (probabilistycznie). Najbardziej irracjonalne — dla obserwatora z odmiennego kręgu kulturowego — typy społecznych więzi i zobowiązań, nakazów i zakazów zmierzały zasadniczo zawsze do tego samego celu — do zmniejszenia indywidualnej spontaniczności działań, a więc do redukowania różnorodności, która stanowi potencjalne źródło zakłócające stan równowagi. Antropolog interesuje się przede wszystkim treściami wierzeń, socjalną i religijną pragmatyką — procesami inicjacji, istotą panujących w danej społeczności stosunków rodzinnych, stosunków płci, stosunków pokoleniowych itd. Socjolog—cybernetyk winien, abstrahując w znacznej mierze od treści takich czy innych rytuałów, przepisów, kanonów zachowania, szukać głównych cech ich struktury, gdyż stanowi ona system sprzężeń zwrotnych, układ regulacyjny, którego charakterystyka wyznacza zakres swobody jednostki na równi z zakresem trwałości systemu, ujętego jako całość dynamiczna.<br />Od takiej analizy można przejść do oceny; człowiek bowiem, dzięki plastyczności swej natury, może przystosować się do życia w obrębie najrozmaitszych modeli kulturowych. Niemniej, większość ich odrzucamy, ponieważ ich struktura regulacyjna wywołuje nasz sprzeciw. Sprzeciw jak najbardziej racjonalny, posiadający obiektywne kryteria wartościowania, a nie tylko oparty na tym, co się nam, jako członkom pewnego kręgu kulturowego, podoba. Socjostaza bowiem nie wymaga koniecznie takiego zmniejszenia różnorodności działania i myślenia, więc osobistej swobody, jakie praktykowane było i jest jeszcze dzisiaj. Można powiedzieć, że większość systemów regulacyjnych zwłaszcza pierwotnych społeczeństw odznaczała się znaczną nadmiarowością restrykcji. Nadmiar takich restrykcji w życiu rodzinnym, towarzyskim, obyczajowym, erotycznym itp. jest równie niepożądany, jak ich niedobór. Bez wątpienia istnieje, dla danej społeczności, optimum regulacyjne nakazów i zakazów.<br />Jest to, bardzo lapidarnie naszkicowany, jeden z wielu tematów dla socjologa–cybernetyka. Uprawiana przez niego nauka zajmuje się badaniem ustrojów historycznych oraz stanowi teorię budowy optymalnych modeli socjostazy — optymalnych ze względu na parametry przyjęte z wyboru. Ponieważ ilość wchodzących w grę czynników jest olbrzymia, nie można stworzyć jakiejś matematycznej, “ultymatywnej formuły społeczeństwa”. Można tylko podchodzić do zagadnienia metodą kolejnych przybliżeń, poprzez studiowanie coraz bardziej złożonych modeli. Tak więc powracamy w zakończeniu do “czarnych skrzynek”, nie jako przyszłych “elektronowych wielkorządców”, ani też nadludzkich mędrców, ferujących wyroki o losach ludzkości, ponieważ będą one tylko doświadczalnym poligonem badaczy, narzędziem do znajdowania odpowiedzi na pytania tak zawiłe, że człowiek znaleźć ich bez tej pomocy nie zdoła. Każdorazowo wszakże decyzja ostateczna, jak i plany działania, winny być w rękach ludzi.<br /><br /><br /><br />Wiara i informacja<br /><br /><br />Od setek lat filozofowie usiłują uzasadnić logicznie prawomocność indukcji, rozumowania, antycypującego przyszłość w oparciu o doświadczenie przeszłe. Żadnemu się to nie udało. Nie mogło się udać, ponieważ indukcja, której zalążek stanowi odruch warunkowy ameby, jest usiłowaniem przekształcenia informacji niepełnej w pełną. Tym samym stanowi wykroczenie przeciwko prawu teorii informacji, które powiada, że w systemie izolowanym informacja może się zmniejszać lub zachować wielkość stałą, ale nie może wzrosnąć. Niemniej, indukcję, czy to w formie odruchu warunkowego (pies “wierzy”, że po dzwonku dostanie jeść, bo tak dotąd bywało, i “wiarę” tę wyraża, śliniąc się), czy w postaci hipotezy naukowej praktykują wszystkie żywe istoty wraz z człowiekiem. Działanie w oparciu o informację niepełną, uzupełnioną przez “zgadywanie” lub “domysł”, jest biologiczną koniecznością.<br />A więc systemy homeostatyczne przejawiają “wiarę” nie wskutek jakiejś anomalii. Jest na odwrót: każdy homeostat, czyli regulator, dążący do utrzymania swych zmiennych istotnych w granicach, których przekroczenie zagraża jego egzystencji, musi przejawiać “wiarę”, czyli działanie w oparciu o informację niepełną i niepewną tak, jakby była i pewna, i pełna.<br />Każde działanie wychodzi z pozycji wiedzy zawierającej luki. W obliczu takiej niepewności można albo powstrzymać się od działania, albo działać z ryzykiem. Powstrzymanie się od działania oznaczałoby ustanie procesów życiowych. “Wiara” oznacza oczekiwanie, że zajdzie to, czego się spodziewamy, że jest tak, jak myślimy, że model umysłowy równoważny jest z sytuacją zewnętrzną. “Wiarę’.’ mogą przejawiać tylko złożone homeostaty, ponieważ są to układy aktywnie reagujące na zmiany otoczenia, czego nie robi żaden przedmiot martwy. Takie przedmioty niczego nie “oczekują” ani nie antycypują; w układach homeostatycznych Natury antycypacja taka jest dużo wcześniejsza od myśli. Ewolucja biologiczna nie byłaby możliwa, gdyby nie ta szczypta “wiary” w skuteczność reakcji, wymierzanych ku stanom przyszłym, jaka wbudowana jest w każdą drobinę żywej substancji. Można by przedstawić ciągłe widmo “wiar”, manifestowanych przez homeostaty od jednokomórkowców aż po człowieka z jego teoriami naukowymi i systemami metafizycznymi. Potwierdzana wielokrotnie doświadczeniem wiara staje się coraz bardziej prawdopodobna i w ten sposób przekształca się w wiedzę. Postępowanie indukcyjne nie jest absolutnie pewne, a jednak jest usprawiedliwione, ponieważ w znacznej liczbie przypadków wieńczy je sukces. Wynika to z samej istoty świata, z tego, że przejawia on wiele rozmaitych regularności, które indukcja może wykryć, jakkolwiek niekiedy wyniki wnioskowania indukcyjnego okazują się błędne. Wytworzony przez homeostat model jest więc wówczas niezgodny z rzeczywistością, informacja jest fałszywa, fałszywa zatem i oparta na niej wiara (że jest tak a tak).<br />Wiara jest stanem przejściowym, dopóki podlega empirycznemu sprawdzeniu. Jeśli się od niego uniezależni, staje się konstrukcją metafizyczną. Osobliwość takiej wiary tkwi w tym, że działania realne podejmowane są dla osiągnięcia celu nierealnego, to znaczy albo w ogóle nie dającego się urzeczywistnić, albo urzeczywistnialnego, ale nie za pomocą działań podjętych. Osiągnięcie celu realnego można sprawdzić empirycznie, celu nierealnego — nie inaczej, jak dzięki wnioskowaniu, uzgadniającemu stany zewnętrzne lub wewnętrzne z dogmatami. Tak więc, można sprawdzić doświadczeniem, czy zbudowana maszyna działa, ale nie, czy człowiek będzie zbawiony. Działania, mające na celu osiągnięcie zbawienia, są realne (określony sposób zachowania się, posty, spełnianie dobrych uczynków etc.), cel natomiast jest nierealny (bo w tym wypadku znajduje się “na tamtym świecie”). Czasem ów cel znajduje się “tutaj”: kiedy np. zanosi się modły o powstrzymanie klęski żywiołowej. Trzęsienie ziemi może ustać; pozornie cel został więc osiągnięty, ale związek między modłami a ustaniem kataklizmu nie wynika z poznanych empirycznie związków Natury, lecz jest skutkiem wnioskowania, uzgadniającego stan modłów ze stanem skorupy ziemskiej. Wiara prowadzi zatem do swoistego nadużywania metody indukcyjnej, gdyż rezultaty indukcji są albo rzutowane w “tamten świat” (to jest w empiryczne “donikąd”), albo mają ustanowić związki w obrębie Przyrody, jakich w niej nie ma (codziennie wieczorem, gdy zaczynam smażyć jajecznicę, zapalają się gwiazdy na niebie; wniosek, jakoby istniał związek między moimi kolacyjnymi przygotowaniami a pojawianiem się gwiazd jest fałszywą indukcją, która może stać się przedmiotem wiary).<br />Cybernetyka, jak i żadna nauka, nie może nic orzec o istnieniu bytów lub związków transcendentnych. Niemniej wiara w takie byty i związki jest zjawiskiem całkowicie doczesnym i realnym. Wiara bowiem jest informacją, czasem prawdziwą (wierzę, że istnieje środek Słońca, choć go nigdy nie zobaczę), a czasem fałszywą. Otóż, a do tego zmierzaliśmy, informacje fałszywe, jako dyrektywa działania podejmowanego w obrębie środowiska, prowadzą zwykle do niepowodzenia. Jednakże takie same fałszywe informacje mogą w obrębie homeostatu wypełniać liczne ważkie funkcje. Wiara jest użyteczna zarówno na płaszczyźnie psychologicznej, jako środek osiągania duchowej równowagi (w czym przejawia się użyteczność wszelkich metafizyk), jak również w dziedzinie zjawisk cielesnych. Określone zabiegi, zmieniające stan mózgu materialny (wprowadzanie doń pewnych substancji za pośrednictwem krwi) lub funkcjonalny (modły, praktyki medytacyjne) sprzyjają powstaniu subiektywnych stanów, znanych we wszystkich czasach i religiach. Interpretacja takich stanów świadomości stanowi dowolność, spetryfikowaną w obrębie danego systemu metafizycznego w dogmat. Mówi się np. o “nadświadomości”, o “świadomości kosmicznej”, o zlewaniu się osobowego “ja” ze światem, unicestwieniu tegoż “ja” bądź o stanach łaski. Same jednak stany tego rodzaju są zjawiskiem całkowicie realnym w rozumieniu empirii, są one bowiem powtarzalne, bo dają się wywołać ponownie po zastosowaniu określonych praktyk. Nazewnictwo psychiatryczne odbiera owym stanom ich charakter mistyczny, co oczywiście nie zmienia faktu, że emocjonalna treść takich stanów może być dla przeżywającego je cenniejsza od wszelkich innych doznań. Nauka nie kwestionuje ani ich istnienia, ani wartości dla przeżywającego podmiotu, uważa jedynie, że stany takie, wbrew tezom metafizycznym, nie mogą stanowić aktu poznania, ponieważ poznanie oznacza zwiększenie zasobów informacji o świecie, a zwiększenie takie w nich nie zachodzi.<br />Należy zauważyć, że mózg, jako układ bardzo złożony, może przyjmować stany mniej lub bardziej prawdopodobne. Stany bardzo mało prawdopodobne, to takie, gdy w trakcie jego pracy kombinatorycznej dochodzi do sformułowania — w oparciu o zawartą w nim już informację — twierdzeń typu “energia równa się kwadratowi szybkości światła mnożonemu przez masę”. Twierdzenie to można potem sprawdzić, ewentualnie wywieść z niego rozliczne konsekwencje, wiodące wreszcie do astronautyki, do budowania urządzeń wytwarzających sztuczne pola grawitacyjne itd., itp.<br />Stany “nadświadomości” są też rezultatem kombinatorycznej pracy mózgu, jednakże, podczas kiedy przeżywanie ich może dawać najwznioślejsze doznania duchowe, ich informacyjny rezultat równa się zeru. Otóż, poznanie jest tym samym co zwiększenie ilości posiadanej informacji. Rezultat mistycznych stanów jest informacyjnie zerowy, co widać po tym, że treść owych stanów jest nieprzekazywalna i w żaden sposób nie może wzbogacić naszej wiedzy o świecie (aby ją można było wykorzystać, jak w powyższym przykładzie).<br />Przeciwstawienie powyższe nie ma służyć celom triumfującego ateizmu; nie o to nam chodzi. Istotne jest to tylko, że omawianym stanom towarzyszy poczucie przeżywania jakiejś ostatecznej prawdy, tak dojmujące i wszechogarniające, że potem człowiek pogardliwie lub z litością spogląda na nędznie krzątających się empiryków wokół błahych spraw materialnych. W związku z tym należy powiedzieć dwie rzeczy. Po pierwsze, rozmijanie się “prawdy przeżycia” z “prawdą nauki” byłoby może nieistotne, gdyby nie to, że ta pierwsza rości sobie prawa do jakiejś wyższości. A skoro tak, to zauważmy, że osoba przeżywająca nie istniałaby w ogóle, gdyby nie owa przyziemna empiria, zapoczątkowana w swoim czasie przez Australopiteka i jaskiniowców. Empiria ta bowiem, a nie stany “wyższego poznania”, umożliwiła, w ciągu kilkuset tysięcy lat, zbudowanie cywilizacji, a ono z kolei uczyniło człowieka gatunkiem panującym na Ziemi. W przeciwnym razie już pra–pra–człowiek, poprzeżywawszy nieco takich wyższych stanów, zostałby, w trakcie biologicznej konkurencji, wyparty przez inne gatunki zwierzęce.<br />Po wtóre, stany opisane można wywołać podawaniem różnych związków chemicznych, np. psylocybiny (wyciąg z pewnego rodzaju grzybków). Przy tym osoba badana, zdając sobie przez cały czas sprawę z amistycznego sposobu, jakim stan jej wywołano, przeżywa niezwykłe natężenie aury doznań emocjonalnych, w której najzwyklejsze w świecie bodźce zewnętrzne odbierane są jako wstrząsające rewelacje. Zresztą i bez psylocybiny można tego doświadczyć np. we śnie, kiedy ktoś budzi się z dogłębnym przeświadczeniem, iż mu się przyśniła prawda objawiona bytu; otrzeźwiawszy, uzmysławia sobie, że to było zdanie w rodzaju “maździory witosieją w terpentynie”.<br />Tak więc mózg fizjologicznie normalny może osiągać wyżyny doznań, zwanych mistycznymi, dopiero po przebyciu żmudnej drogi przepisanych określonym rytuałem zabiegów, albo też, wyjątkowo i rzadko, we śnie. Takie same stany, bez poprzedzającej wiary w ich charakter ponadzmysłowy, można też wywołać sposobem “ułatwionym” (psylocybiną, peyotlem, meskaliną). Ułatwień takich dostarcza na razie tylko farmakopea, ale — jak będziemy o tym mówili — należy sądzić, że neurocybernetyka utworzy w tej dziedzinie zupełnie nowe możliwości. Zaznaczam, że nie dyskutujemy tu kwestii, czy stany tego rodzaju sprowadzać należy, a mówimy tylko o tym, że ich realizacja w nieobecności jakiegoś “pogotowia mistycznego” jest całkiem możliwa.<br />Nie mniej rozległe od psychicznych są konsekwencje wiary cielesne. Tak zwane cudowne uzdrowienia, zbawienne skutki terapii znachorów, lecznicze wpływy sugestii w wypadkach sprawdzonych na tyle, że można wykluczyć mistyfikację, są skutkami działania określonej wiary. Niejednokrotnie dla uzyskania właściwego efektu nie są potrzebne żadne praktyki wstępne, tak np. znany jest zabieg polegający na tym, że lekarz, wypędzlowawszy pacjentowi brodawki obojętnym barwnikiem, zapewnia go autorytatywnie, że one wnet znikną, co istotnie często zachodzi. Kluczowe jest przy tym, że lekarz próżno stosowałby taki zabieg na sobie lub którymś z kolegów, albowiem wiedza o pozorności zabiegu, brak wiary w jego moc leczniczą sprawiają, że nie zostają uruchomione te mechanizmy nerwowe, które u “wierzącego” powodują skurcz naczyń odżywiających brodawkę i jej obumarcie. W pewnych więc okolicznościach informacja fałszywa może się, paradoksalnie, okazać bardziej skuteczną w działaniu od prawdziwej —z jednym istotnym zastrzeżeniem. Działanie takiej informacji kończy się na granicach organizmu i poza nimi najoczywiściej zawodzi. Wiara może uleczyć wierzącego, ale nie może przenieść góry, wbrew temu, co o tym skądinąd powiedziano. W Ladaku na szczytach górskich lamowie, specjalnie temu poświęceni, usiłują sprowadzać modłami deszcze na ów kraj, cierpiący odwieczne posuchy. Otóż modły jakoś nie skutkują, ale wierzący są przekonani, że to jakieś duchowe wpływy przeszkadzają lamom w zrealizowaniu ich zadania. Jest to piękny model rozumowania metafizycznego. I ja mogę zapewnić, że posiadam sztukę przenoszenia gór, dzięki pewnemu demonowi, a jedynie wpływ innego demona, czy też antydemona realizację górotransportu mi udaremnia.<br />Niekiedy wystarczy dla dokonania w obrębie ustroju pożądanych zmian sam akt wiary (leczenie brodawek). Czasem, jak stany mistyczne, wymagają takie skutki wstępnego treningu. Jednym z najdokładniej skodyfikowanych i najrozleglejszych jest hinduska yoga. Ma ona pośród swych poddziałów oprócz yogi ćwiczeń cielesnych, także yogę ćwiczeń ducha.<br />Jak się okazuje, człowiek może się nauczyć panowania nad swym organizmem w stopniu daleko wyższym, aniżeli zachodzi to normalnie. Może zawiadywać stopniem ukrwienia poszczególnych regionów ciała (co właśnie zresztą leży u podstawy “znikania” brodawek), a także działaniem narządów unerwionych przez układ autonomiczny (serce, jelita, układ moczopłciowy), hamując, przyspieszając, a nawet odwracając kierunki fizjologicznego działania w obrębie trzewi (odwracanie ruchu perystaltycznego jelit itp.). Jednakże i te, skądinąd zdumiewające, penetracje woli w obręb działań autonomicznych organizmu mają swe ograniczenia. Mózg bowiem, jako regulator nadrzędny, nawet podległym mu ciałem zawiaduje tylko częściowo. Nie może on np. hamować procesów starzenia się, choroby organicznej (miażdżycy, nowotworów), czy też wpływać na procesy zachodzące w plazmie rozrodczej (np. mutacje). Przemianę tkankową potrafi obniżać, ale w stosunkowo wąskim przedziale wartości parametrów, tak że np. historie o yoginach, przeżywających długotrwałe zakopanie w ziemi, okazują się po sprawdzeniu przesadzone bądź fałszywe, a nigdy nie ma mowy o takim zawieszaniu funkcji życiowych, jakie zachodzi u zwierząt hibernujących (nietoperz, niedźwiedź).<br />I tutaj zakres regulacji dostępny ludzkiemu organizmowi pozwala poważnie rozszerzyć biotechnika; stany hipotermiczne, a nawet bliskie śmierci klinicznej były już zabiegami farmakologicznymi i towarzyszącymi (ochładzanie ciała itp.) realizowane. Tym samym, osiągane z najwyższym samozaparciem po latach wysiłków i wyrzeczeń rezultaty będzie można ponad wątpliwość uzyskiwać dzięki “ułatwionej” metodzie biotechnicznej, przy czym w ten sposób można urzeczywistnić stany (odwracalnej śmierci np.) dla yogi, czy innej metody pozanaukowej, nieosiągalne.<br />Jednym słowem, technologia może w obu nazwanych dziedzinach skutecznie rywalizować z wiarą, jako źródłem równowagi duchowej, ingerencji w niedostępne normalnie obszary życiowych funkcji ustroju, a nawet jako sprawczynią “stanów nadświadomości”, “kosmicznego zachwycenia”.<br />Wracając do zagadnienia wiary i informacji, możemy teraz podsumować rezultaty. Wpływ wprowadzonej w homeostat informacji zależy nie tyle od tego, czy owa informacja jest obiektywnie fałszywa czy prawdziwa, ile z jednej strony od dyspozycji homeostatu do uznania jej za prawdziwą, a z drugiej od tego, czy charakterystyka regulacyjna homeostatu umożliwia mu reagowanie, zgodne z wprowadzoną informacją. Aby mogła ona działać, niezbędne jest spełnienie obu postulatów. Wiara może mnie uzdrowić, ale nie sprawi, że zacznę latać. Pierwsze bowiem leży w zakresie regulacyjnym mego organizmu (chociaż, nie zawsze w zakresie mej świadomej woli), a drugie — poza nim.<br />Względna niezawisłość podsystemów, z jakich składa się organizm, może sprawić, że mimo nieskuteczności materialnej leczenia, chory na raka, wierzący w zbawienność terapii, subiektywnie czuje się lepiej. To jednak mniemanie subiektywne, będące wynikiem antykrytycznego i selekcyjnego działania wiary (osoba chora nie będzie postrzegała pewnych znaków pogorszenia się, np. wzrostu macalnego guza, lub je jakoś sobie “odtłumaczy” itp.), nie może utrzymać się długo i kończy się gwałtownym upadkiem sił, kiedy rozziew między stanem ustroju rzeczywistym a wyobrażonym staje się zbyt wielki.<br />Interesujące jest, czemu informacja prawdziwa może niekiedy okazać się mniej skuteczną od fałszywej. Dlaczego wiedza biologiczna lekarza, który zna uruchomiony wiarą mechanizm (skurcz naczyń, powodujący obumarcie brodawki), nie może rywalizować z fałszywym przecież sądem pacjenta, który to sąd prowadzi jednak do wyleczenia? Możemy się tylko domyślać, czemu tak jest. Coś innego jest wiedzieć o czymś, a co innego — przeżyć owo coś. Można posiadać wiedzę o tym, czym jest miłość, ale z tego nie wynika, że się będzie ją mogło w oparciu o ową wiedzę przeżyć. Neuralne mechanizmy aktów poznawczych są inne od mechanizmów “emocjonalnego zaangażowania”. Pierwsze są tylko stacją przesyłową dla wiary, która jednoczesnym aktywowaniem drugich otwiera kanał informacyjny, umożliwiający poza—świadome skurczenie się naczyń skórnych. Dokładnie mechanizmu tego zjawiska nie znamy. Zbyt mało bowiem wiemy jeszcze o działaniu mózgu. Jest on nie tylko “maszyną gnostyczną”, ale także “maszyną wierzącą”, o czym ani psychologom i lekarzom, ani neurocybernetykom zapominać nie wolno.<br /><br /><br /><br />Metafizyka eksperymentalna<br /><br /><br />Przez metafizyczną rozumieć będziemy informację nie podlegającą sprawdzeniu empirycznemu już to dlatego, że jest ono niemożliwe (nie można empirycznie doświadczyć istnienia czyśćca bądź nirwany), już to dlatego, że informacja owa ex definitione kryteriom sprawdzalności eksperymentem nie podlega (tj. w języku potocznym, prawd religii empirycznie sprawdzać nie można lub nie wolno).<br />Jeśli tak, to sformułowanie “metafizyka eksperymentalna” nosi wszelkie cechy sprzeczności, jak bowiem można zajmować się eksperymentalnie czymś, co zgodnie z definicją eksperymentowi nie podlega i przesądzić się w oparciu o takowy nie daje?<br />Sprzeczność to pozorna, zadanie bowiem, jakie sobie stawiamy, jest stosunkowo skromne. Żadna nauka nie może nic powiedzieć o istnieniu lub nieistnieniu zjawisk transcendentnych. Może ona jedynie badać lub stwarzać warunki, w których się wiara w takie zjawiska przejawia, i o nich właśnie będziemy mówić.<br />Powstanie wiary metafizycznej w homeostacie oznacza stan, w którym dalsze zmiany jego wejść, jakkolwiek byłyby sprzeczne z utworzonym modelem sytuacji egzystencjalnej, naruszyć go już nie mogą. Modlitwy mogą nie być wysłuchane, reinkarnacja może być obalona dowodem wewnętrznej sprzeczności logicznej, teksty pism religijnych mogą zawierać oczywiste nieprawdy (w empirycznym rozumieniu), lecz takie fakty w niczym nie naruszają wiary. Owszem, teolog powie, że ten, kto by stracił wiarę pod wpływem przyjęcia ich do wiadomości, żywił wiarę “małą”, “lichą”, albowiem wiara prawdziwa polega właśnie na tym, ażeby jej nic, tj. żadne późniejsze stany “wejść” obalić nie były zdolne. W praktyce zachodzi często swoista selekcja. System metafizyczny nigdy nie jest bowiem prawdziwie konsekwentny, i przez nieodpartą chęć potwierdzenia go faktami empirycznymi zachodzi stan, w którym te zmiany wejść, jakie zdają się potwierdzać prawdziwość wiary, są akceptowane jako jej weryfikacja dodatkowa (ktoś modli się o czyjeś wyzdrowienie, za czym ta osoba zdrowieje; podczas posuchy składa się ofiarę i poczyna padać deszcz). Natomiast stany wejść, z wiarą sprzeczne, są ignorowane bądź “odtłumaczane” bogatym arsenałem argumentów, jakie system metafizyczny wytworzył w trakcie swego historycznego rozwoju.<br />Należy zauważyć, że sprawdzalność empiryczna jest jedynym, koniecznym i wystarczającym wyróżnikiem tez naukowych w przeciwieństwie do metafizycznych, natomiast nie przesądza charakteru tezy obecność w niej informacji nie sprawdzonej. Tak np. ogólna teoria pola, którą stworzył u schyłku życia Einstein, nie posiada żadnych takich konsekwencji, dających się z niej wywieść, które by można zbadać eksperymentalnie. Tym samym informacja, zawarta w teorii pola, jest nie sprawdzona, ale nie jest metafizyczna, ponieważ jej — na razie nie znane—konsekwencje, będą podlegać próbie doświadczenia, jeśli się tylko uda je z formuły wyprowadzić. Informacja zatem zawarta w Einsteinowskiej formule jest niejako “w zawieszeniu”, “latentna”, oczekująca szansy sprawdzenia. Samą formułę należy uważać za próbę wyrażenia pewnego ogólnego prawa o zjawiskach materialnych, próbę, której prawdziwości lub fałszu na razie się rozstrzygnąć nie dało. Oczywiście co innego jest, próbując, wyrażać przeświadczenie, że materia zachowuje się być może tak a tak, a co innego całkiem — wierzyć, że na pewno jest tak a tak. Teza uczonego może wynikać z przebłysku intuicji i jej uzasadnienie faktami może być w chwili sformułowania nad wyraz skąpe. Decyduje jednak gotowość uczonego do poddania owej tezy empirycznemu sprawdzeniu. A zatem nie ilością posiadanej informacji, ale stosunkiem do niej, postawą, różni się uczony od metafizyka.<br />Podziałowi pracy, właściwemu cywilizacji, towarzyszy zjawisko, które można by nazwać “podziałem informacji”. Nie tylko nie wszystko robimy sami, ale także nie o wszystkim sami się bezpośrednio dowiadujemy. Dowiadujemy się w szkole, że istnieje planeta Saturn, i wierzymy w to, choćbyśmy sami nigdy nie mieli go zobaczyć. Twierdzenia tego typu są jednak w zasadzie sprawdzalne doświadczeniem, chociaż nie zawsze bezpośrednio’. Można zobaczyć Saturna, ale nie można aktualnie doświadczyć istnienia Napoleona albo ewolucji biologicznej. Ale z bezpośrednio niesprawdzalnych tez naukowych wynikają logiczne konsekwencje, już empirycznie sprawdzalne (skutki historycznego istnienia Napoleona, fakty, przemawiające za ewolucją życia). Postawę empiryczną winien zajmować uczony. Każda zmiana wejść (nowe fakty) sprzeczna z modelem (teorią) winna wpłynąć na ów model (zwątpienie w jego adekwatność względem modelowanej sytuacji). Postawa taka jest ideałem raczej aniżeli rzeczywistością. Wiele poglądów, dosyć powszechnie uznanych dzisiaj za naukowe, posiada charakter czysto metafizyczny. Jak choćby większość tez psychoanalitycznych.<br />Nie możemy tu wdawać się w rozważania psychoanalizy, bo to sprowadziłoby nas z drogi, ale kilka słów jest chyba niezbędnych. Podświadomość nie jest pojęciem metafizycznym dla wielu powodów; jest ona czymś takim, co się tyczy kategorii pojęciowej, jak np. wał potencjału jądrowego. Tego wału nie można ani zobaczyć, ani zmierzyć bezpośrednio; można jedynie stwierdzić, że przyjęcie jego istnienia pozwala uzgodnić teorię z faktami empirycznymi. Tak samo liczne przesłanki przemawiają za istnieniem podświadomości. Zachodzą miedzy obu pojęciami pewne istotne różnice, których już doprawdy analizować nie możemy. Powiemy tylko, że można wykryć jej istnienie odpowiednimi metodami empirycznymi; natomiast tego, czy dziecko bardzo boi się w trakcie porodu, czy jego krzyk wyraża trwogę związaną z przebytymi cierpieniami podróży przez kanał porodowy, czy raczej zachwyt z powodu ujrzenia światła tego padołu, tego w żaden sposób nie można sprawdzić. Tak samo dowolna jest interpretacja symboli sennych, które w myśl freudowskiej szkoły panseksualnej oznaczają wyłącznie różne rodzaje kopulacji oraz narządów, bez których obejść się przy niej nie sposób;. uczniowie Junga mają inny “słownik symboli sennych” i prawdziwie budujące jest, że pacjenci freudystów śnią w myśl teoretycznych nakazów freudowskich, a psychoanalityków szkoły Junga — śnią “po linii” eksplikacyjnej tego uczonego. Ta eksplikacyjna monomania, jaką jest “analiza marzeń sennych”, czyni skądinąd cenne elementy psychoanalizy wysepkami trzeźwości w morzu najzupełniej dowolnych zmyśleń.<br />Gdy więc nawet uczeni, zawodowo niejako zobowiązani do wierności wobec zasad empirii, nieraz grzeszą przeciw podstawie metody naukowej, nic dziwnego, że większość ludzi cechuje “przesunięcie” od postawy empirycznej ku metafizycznej. W myśl naszej definicji, metafizyczne są przesądy, zabobony, utarte, lecz bezpodstawne przekonania, taka jednak metafizyka jest albo cechą wąskogrupową, albo nawet indywidualną. Szczególne znaczenie mają systemy metafizyczne upowszechnione społecznie jako religie. Każda bowiem religia, bez względu na to, czy takie tendencje uczestniczyły w jej powstaniu, stanowi społeczny regulator stosunków międzyludzkich, nie wyłączny naturalnie, dominują bowiem regulatory inne (pochodzenia ustrojowo–ekonomicznego), ale każda religia ciąży ku temu, aby się podobnym regulatorem stać. Zagadnienie pragmatycznej wartości religii dla jednostek, jej moc stwarzania równowagi duchowej jako narzędzia doskonałego pogodzenia z egzystencją schodzi na dalszy plan wobec — nieraz przez nikogo nie zamierzonych — konsekwencji jej oddziaływania zbiorowego.<br />To dominowanie religii w obrębie kultury duchowej społeczeństwa było zwłaszcza w epokach minionych wyjątkowo silne. Dlatego można nieraz utożsamiać określone kręgi kulturowe z określonymi religiami. Otóż urok starodawnej tajemnicy, urok systemów metafizycznych, które sprawiły, że ludzie wznieśli z ich powodu i dla nich najwspanialsze świątynie, stworzyli najtrwalsze dzieła sztuki, przepiękne mity i legendy, wszystko to działa nieraz nawet na skądinąd racjonalistycznie myślących badaczy. Tak np. wcale bliski marksizmowi Levi–Strauss uważa, w swych pracach, wszystkie właściwie cywilizacje za mniej więcej sobie równe (albo za nieporównywalne, co na jedno wychodzi). Wydaje mu się, że wartościom naszej, z jej technologicznym przyspieszeniem, co najmniej nie ustępują wartości cywilizacji staroazjatyckich, które, do czasów wtargnięcia na ów kontynent zaborczego kapitalizmu, trwały w zupełnym niemal (ekonomicznym, gospodarczym) zastoju.<br />Podobne sądy, uznające np. buddyzm za cenny w jego pogardzie wartości czysto materialnych, w lekceważeniu empirii, można spotkać nieraz i u innych uczonych Zachodu. Levi–Strauss dobitnie powiada, że każdy sąd w tej dziedzinie musi być względny, ponieważ wydający go postępuje w duchu własnych kulturowych tradycji, tak że za “gorsze” lub “lepsze” skłonny jest uważać to, co mniej lub bardziej podobne do rysów cywilizacji, która go wydała.<br />Mówimy tu o tym, ponieważ właśnie w Azji, a szczególnie już w Indiach, religia przez najdłuższy czas zastępowała wszelkie idee postępu naukowego czy technicznego i sposobami myślenia, wdrażanymi w kolejne pokolenia, zatamowała, jak można sądzić, wszelką możliwość zrodzenia się w tym kraju autonomicznej rewolucji działania i myślenia.<br />Nie ulega bowiem wątpliwości, że gdyby nie grecko—babilońskie odkrycie metody dedukcyjnej, jak również zwrot ku empirii, zwłaszcza czasów Odrodzenia europejskiego, nauka w dzisiejszej postaci nigdy by nie mogła powstać. Tymczasem zarówno logiczne myślenie (zasada wyłączonego środka, jednoznaczności pojęć, ich przyporządkowalności wzajemne jednoznacznej, itp.), jak i empiria techniczna są w głębokiej pogardzie mistycznych doktryn religijnych Wschodu. Nie o to idzie, aby z postawą taką wieść werbalne spory lub apologizować naukę. O to jedynie, by ukazać jak najbardziej realne konsekwencje społeczne tego stanu rzeczy. Cokolwiek przysporzyła złego, tylko nauka wydźwignęła znaczną część ludzkości z głodowego bytowania. Tylko współczesna technologia przemysłowa i biologiczna sprostać może problemom cywilizacji mas, a obojętność, tyleż wyniosła, co katastrofalna w skutkach, na problemy masowe właśnie, problemy bezustannie rosnących zbiorowości ludzkich, jest fundamentem doktryn religijnych azjatyckiego modelu. Wystarczy poczytać, co mają dziś do powiedzenia myśliciele tego kręgu religijnego, aby ujrzeć całą wstrząsającą nieodpowiedniość, cały koszmarny anachronizm ich nauk i zaleceń. Przeświadczenie bowiem, że wystarczy, aby jednostki praktykowały w życiu najpiękniejszą etykę, wywodzącą się z najbardziej harmonijnej religii, a wtedy automatycznie dojdzie już do powstania idealnej równowagi w skali społeczeństw, a może i całej ludzkości, jest tyleż kuszące, co fałszywe. Społeczeństwo trzeba traktować zarówno jako zbiorowość ludzką, jak też i jako system fizyczny. Kto traktuje je tylko jako zbiór jednostek, błądzi równie jak ten, kto chce postępować z nim jak ze zbiorem molekuł. Inne bowiem rzeczy są dobre dla człowieka, a inne dla społeczeństwa jako całości i tu potrzebne jest kompromisowe rozwiązanie, oparte na wszechstronnej wiedzy. W przeciwnym razie, jeśli każdy będzie czynił, co każe duch Boży, całość, która się z tego sama złoży, łatwo może okazać się czymś przerażającym. Oczywista już dziś klęska akcji religijno–filantropijnej Vinoby (w Indiach), który pielgrzymując i pukając do serc, pragnął zdobyć 50 milionów akrów darowizny dla bezdomnych i głodnych tego kraju, przesłonięta jest w oczach niektórych ludzi przez sam fakt zadziwiającej odwagi i duchowego piękna tego człowieka, który w taki sposób usiłował rozwiązać radykalnie palące problemy społeczne. Nie o to wcale idzie, że nie wyżebrał owych niezbędnych według swego obliczenia milionów, lecz o to, że gdyby i cel osiągnął, dałoby to poprawę krótkotrwałą, ponieważ przyrost naturalny w niedługim czasie unicestwiłby przemijającą poprawę warunków.<br />Przeświadczenie, że cywilizacja Zachodu ze swymi standardami kultury masowej i mechanicznego ułatwiania życia na każdym kroku niweczy w człowieku to potencjalne bogactwo duchowe, którego rozwój winien być treścią egzystencji, sprawia, iż wciąż od nowa rozmaici ludzie, nieraz i uczeni Zachodu, zwracają się ku starej Azji, ku Indiom zwłaszcza, w nadziei, że w kręgu buddyzmu kryją się panacea na bezduszność technokracji. Nic bardziej fałszywego. W taki sposób “zbawić się” mogą jednostki, i ci, którzy szukają ukojenia, mogą je znaleźć zapewne w klasztorach buddyjskich (o tym się słyszy), ale jest to zwyczajny eskapizm, ucieczka, aby nie powiedzieć —intelektualna dezercja. Żadna religia nie może nic uczynić dla ludzkości, ponieważ nie jest wiedzą empiryczną. Zmniejsza ona, owszem, “ból istnienia” jednostek, mimochodem zaś powiększa sumę nieszczęść trapiących ogół, właśnie przez swoją bezradność i bezczynność w obliczu problemów zbiorowości. Tak więc nie da się jej obronić nawet z pragmatycznego punktu widzenia, jako narzędzia użytecznego, ponieważ złe to narzędzie, które bezradne jest wobec kluczowych zagadnień świata.<br />Religie na Zachodzie coraz wyraźniej przemieszczają się ze sfery życia społecznego do prywatnego jednostek. A jednak głód metafizyki jest wielki, ponieważ powstanie swe zawdzięcza ona nie tylko zjawiskom społecznym. Systemy metafizyczne, czy to po wschodniemu mgliste i aforystycznie wieloznaczne, czy operujące po europejsku wykształconą logiką, jak scholastyczne, zawsze są proste, przynajmniej w zestawieniu z rzeczywistą złożonością świata. Tą właśnie prostotą, a zarazem bezapelacyjną ostatecznością swoich wyjaśnień (i uników) przyciągają ludzi. Każdy z owych systemów przecież natychmiast może nam powiedzieć (choć każdy inaczej), że świat powstał tak a tak, że stworzył go ten a ten, że przeznaczeniem człowieka jest to a to.<br />Logiczność budowy systemu judeo–chrześcijańskiego implikuje jego “determinizm mechaniczny”. Zgodnie z nim, każda dusza jest nieśmiertelna, każdy grzech będzie ukarany, itp. Teologia nie jest skłonna unowocześnić się metodologicznie, przez wprowadzenie, między “oboma światami”, relacji typu indeterministycznego. W takiej “probabilistycznej” metafizyce to, że modlitwy nie bywają wysłuchane, niczego by nie przesądzało, bo rządziłyby w niej tylko prawdopodobieństwa: dusze bywałyby nieśmiertelne, ale nie wszystkie, grzechy bywałyby karane, ale nie zawsze. Ale w religii między doczesnością a wiecznością obowiązuje raczej typ stosunków buchalteryjnych, aniżeli taki, jakie znamionują Przyrodę.<br />Trzeba zresztą lojalnie zauważyć, że religie europejskie, wszystkie odmiany chrześcijaństwa, stanowią wzory skonstruowanych racjonalnie i logicznie niesprzecznych systemów wobec buddyzmu w jego różnych odmianach. O właściwe przetłumaczenie znaczenia “nirwany” walczą religiolodzy od czasu, w którym Europa zetknęła się z tym pojęciem. Nie jest to nicość, słyszymy, ale nie jest to byt; odsyła się nas do przeróżnych paraboli, aforyzmów, uwag Buddy i głębokich sentencji, zawartych w świętych księgach. Śmierć jest końcem istnienia, ale i nie jest nim itd. Umysł nawet zaprawionego w średniowiecznej scholastyce teologa czuje się wewnątrz podobnych wywodów jak na torturach. Mistyczna treść kryć się ma właśnie w paradoksie, w sprzeczności logicznej. Ogniwa takie znajdują się i w systemie chrześcijańskim, ale ich rola jest odmienna.<br />Tu jednak widzę z przerażeniem, jak bardzośmy odeszli od właściwego tematu; mieliśmy mówić o metafizyce eksperymentalnej, a uprawiamy nieomal religiologię. Powiem więc tylko jeszcze, by uspokoić sumienie, że nie było moim zamiarem kalumniować buddyzm, jedną z piękniejszych religii, jakie znam. Zarzuty płyną stąd po prostu, że szukam w nim tego, czego w nim w ogóle nie ma; to jest, odpowiedzi na pytania, jakich w tym systemie nikt nigdy nie stawiał. Trzeba sobie tylko powiedzieć jasno, do czego się dąży; jeśli losy ludzkości są nam doskonale obojętne, jeżeli nie zmieniać świat pragniemy, ale samych siebie i to tak tylko, aby się, do istniejącego, jak najlepiej przystosować, na krótki przecież okres własnej egzystencji, buddyzm nie będzie chyba wyborem najgorszym. Ale jeżeli nad wszystko inne przekładamy tezę Benthama o “największej ilości dobra dla największej ilości ludzi”, ani etyczne, ani estetyczne walory jakiejkolwiek religii nie mogą przesłonić nam tego, że jest ona narzędziem do udoskonalania świata, do prostowania jego dróg nieprzydatnym, akurat tak samo archaicznym, jak byłoby hasło “powrotu do Natury”.<br />Wypadałoby powiedzieć, co to jest owo benthamowskie “dobro” — ale unikniemy tego, oświadczając, iż przede wszystkim chodzi o to, aby każdy człowiek mógł żyć, aby zaspokojenie potrzeb nie było problemem, nad którym mają się głowić rządy mocarstw i uczeni; najskromniejsze to dobro, taki brak głodu, nędzy, chorób, trwogi i niepewności, ale i tak jeszcze zbyt go mało na naszym niedoskonale urządzonym świecie.<br />A zatem — metafizyka eksperymentalna… Nie będziemy się zajmowali przekładaniem języka modeli metafizycznych na ich cybernetyczne odpowiedniki, bo choć to i możliwe, niewiele by z tego przyszło. Temu, kto wierzy, przekład własnego credo na język teorii informacji wyda się w najlepszym razie głupstwem, bo w gorszym — bluźnierstwem. Można by wprawdzie ukazać, w jaki sposób właściwie każdemu homeostatowi dążenie do równowagi ulega “krótkiemu spięciu”, dzięki któremu układ zyskuje równowagę aż wiekuistą, choć urzeczywistnioną dzięki informacji niesprawdzalnej bądź fałszywej. Wiara byłaby w takim ujęciu kompensacją wszystkich gnostyczno–egzystencjalnych ułomności homeostatów, umożliwiającą zgodę, triumfalną nawet, na istnienie. Tu panuje nieprawość? “Tam” wszystko będzie wyrównane. Tu z wieloma rzeczami nie możemy się pogodzić? “Tam” pojmiemy wszystko, przez co na wszystko wyrazimy zgodę. Itd. Cała ta egzegeza do niczego wszakże nie prowadzi, bo ukazanie kompensacyjnej genezy wiar nie obala ich twierdzeń. Choćbyśmy i udowodnili matematycznym aparatem teorii informacji, jak to się dzieje, że homeostat wytwarza namiastkowe, metafizyczne modele egzystencji, jak wynika w nim teogonia, sprawy samego istnienia desygnatów owych pojęć (więc Boga, żywota wiecznego, opatrzności) wywód ten nie przesądzi. Jeśli można było znaleźć Amerykę, szukając Indii, albo porcelanę, z pożądania złota alchemicznego, czemu nie można odkryć Boga, szukając nie wyjaśnienia — to daje nauka — ale usprawiedliwienia własnej egzystencji? Cóż pozostaje zatem cybernetykowi? Jedno tylko: konstruowanie takich homeostatów, które, nie będąc ludźmi, potrafią spontanicznie “wytwarzać” metafizykę. Jednym słowem, metafizyka eksperymentalna, to jest modelowanie dynamicznego procesu powstawania wiar w układach samoorganizujących się, powstawania, dodajmy, nie zaprogramowanego, ale samorzutnego, w oparciu o możliwości, jakimi te homeostaty dysponują, a mającego na celu optymalną adaptację do warunków bytu jak najbardziej doczesnego.<br />Przy całej nierozstrzygalności bowiem empirycznej istnienia desygnatów wiary, jej wartość przystosowawcza, jako źródła informacji uniwersalnej, nie ulega wątpliwości. Jak się już o tym bowiem przekonaliśmy, wartość adaptacyjna informacji nie zawsze zależy od tego, czy ta informacja jest prawdziwa, czy fałszywa. Przypuszczamy, że rozmaite homeostaty wytworzą różne “typy wiar”. I o takiej tylko, cybernetycznej metafizyce porównawczej będziemy mówili.<br /><br /><br /><br />Wierzenia elektromózgów<br /><br /><br />Postulowane przez nas, jako program przyszłych prac badawczych, konstruowanie homeostatów, zdolnych do stwarzania systemów metafizycznych, czyli “wierzących maszyn”, nie jest bynajmniej igraszką. Nie chodzi o karykaturalne odtworzenie genezy pojęć transcendentnych w obrębie maszyny. Zadanie to ma na celu wykrycie ogólnych prawidłowości powstawania metafizycznych modeli świata. Można sobie wyobrazić (na razie tylko wyobrazić) zbiór homeostatów, koloidowych, elektrochemicznych czy innych, ciążących, w trakcie swej ewolucji, ku wytworzeniu określonych wierzeń. Wierzenia owe powstaną nie dlatego, że owe homeostaty zostały umyślnie tak zaprogramowane. Podobne doświadczenie byłoby bez wartości. Będą one zdolne do samoprogramowania się, to jest będą posiadały zmienność celów, czyli cybernetyczny odpowiednik “wolnej woli”. Podobnie jak człowiek składa się z szeregu podsystemów hierarchicznie “podłączonych” do mózgu, tak każdy z owych homeostatów będzie posiadał rozmaite podsystemy odbiorcze (wejścia, “zmysły”) i wykonawcze (wejścia, efektory, np. układ lokomocyjny) oraz właściwy “mózg”, którego nie będziemy w żaden sposób predeterminowali ani ograniczali. Nie wprowadzimy doń żadnych instrukcji działania (oprócz niezbędnej, ale spontanicznie wynikającej w układzie homeostatycznym — tendencji przystosowawczej do środowiska). U początków działania homeostat będzie pusty, jak nie zapisana karta. Dzięki “zmysłom” będzie postrzegał otoczenie, a dzięki efektorom będzie mógł na nie wpływać. Ograniczenia będziemy wprowadzali jedynie w jego efektory (podsystemy wykonawcze, czyli w jego “ciało”, jego “somę”), aby się przekonać, w jakiej mierze charakterystyka tej “cielesności” wpływa na generowaną przez “mózg” metafizykę. Metafizyka ta będzie zapewne miała charakter, względem owych ograniczeń, wyrównawczy. Jak należy to rozumieć? Pozna—wszy swe ograniczenia, tj. swą “niedoskonałą doczesność”, homeostat stworzy sobie zapewne, według niej, pod postacią jej pomyślanych uzupełnień i przedłużeń, “doskonałość pozadoczesną”, taką, która umożliwi mu optymalne osiągnięcie wewnętrznej równowagi, czyli, w języku potocznym, zgodę na istniejący stan rzeczy. Ale źródła kompensacyjne nie wyczerpują wszystkich “generatorów” metafizyki. Poza wyrównawczymi w znaczeniu “egoistycznym”, będą też działały czynniki “gnostyczne” i genetyczne. Homeostat zorientuje się, że jego wiedza może być tylko przybliżona i niezupełna. Naturalne dążenie do zdobycia wiedzy dokładnej i pełnej doprowadzi go do takiego “modelu metafizycznego”, który umożliwi przeświadczenie, iż “wie już wszystko”, ponieważ zaś takiej wiedzy empirycznie zdobyć niepodobna, urzeczywistnienie jej przeniesie poza kres własnej, materialnej egzystencji. Jednym słowem, dojdzie do przekonania, iż posiada “duszę”, zapewne nieśmiertelną.<br />Nareszcie, czynniki “genetyczne” to poszukiwanie “sprawcy” samego siebie i świata otaczającego. Zadanie staje się w tym miejscu szczególnie interesujące dlatego, ponieważ cybernetyczne modelowanie pozwala uwzględnić, oprócz stworzenia homeostatów, także “stworzenie świata” dla nich. Przykładem najprostszym jest maszyna cyfrowa (ale znacznie bardziej złożona od istniejących), w której toczą się dwa, w pewien sposób uzależnione od siebie procesy. Można by je nazwać “procesem” i “antyprocesem”. “Proces” — to zjawisko samorganizacji układu, który po jakimś czasie staje się odpowiednikiem rozumnego organizmu. “Antyproces” — to jego “otoczenie”, to jego “świat”. Oczywiście, zarówno “rozumne istoty”, jak i “świat” ich, w owej sytuacji, to nie odpowiedniki materialne warunków naszej codzienności, a jedynie pewien ogromny zbiór procesów (elektrycznych, atomowych), zachodzących w maszynie; jak wyobrazić sobie taki stan rzeczy? Można go porównać do “przeniesienia” rzeczywistości w obręb mózgu człowieka, który śpi. Wtedy wszystkie przestrzenie, ogrody, pałace, które zwiedza, są w jego głowie, jak również znajdują się tam wszyscy ludzie, których we śnie spotyka; jego mózg jest zatem odpowiednikiem i przybliżeniem naszej “maszyny—świata”, bo i tu, i tam dzięki pewnym procesom (biochemicznym, elektronowym) zachodzi podział zjawisk na “otoczenie” i żyjące w nim “organizmy”. Różnica tylko ta, że sen jest sprawą prywatną jednostki, natomiast to, co się dzieje w maszynie, może kontrolować i badać każdy fachowiec.<br />Tak więc proces i antyproces. Zadanie polega na tym, aby “organizmy” przystosowały się do “środowiska”. Możemy dowolnie zmieniać teraz już nie tylko konstrukcyjne założenia “organizmu”, ale także jego “świata”. Może to być np. świat ścisłego determinizmu. Albo świat raczej statystyczny. Może to być wreszcie świat pośredni, powstały z nakładania się zjawisk obu typów, a przez to świat “maszynowy” byłby szczególnie podobny do naszego. Może być taki świat, w którym zdarzają się “cuda”, tj. zjawiska sprzeczne ze skądinąd obserwowalnymi prawidłowościami. Może być “cudów” pozbawiony. Może być “redukowalny”, “matematyczny” do końca, i może być “w sposób skończony — niepoznawalny”. Ponadto świat ów może manifestować rozmaite formy ładu. To będzie nas specjalnie interesowało, ponieważ wnioskowanie z istnienia ładu świata realnego o jego Konstruktorze stanowi jeden z istotnych wyróżników metafizyki osób zajmujących się badaniami naukowym (ten typ argumentacji na rzecz istnienia Stwórcy cechował np. Jeansa i Eddingtona).<br />Homeostaty, bytując w owych światach, wytworzyłyby zapewne i wiedzę empiryczną. Niewątpliwie też część spośród nich stałaby się “materialistami”, “agnostykami”, “ateistami”. “Spirytualistyczne” znów przejdą przez okresy różnych schizm. Schizma oznacza zmianę aksjomatycznego jądra postulowanej transcendencji. W każdym razie najistotniejsze jest to, że wprowadzając określone modyfikacje w podsystemy homeostatów, czyli ograniczając ich możliwości materialne (ale nigdy — duchowe, tj. swobodę myślowych operacji), można będzie doprowadzić do wynikania rozmaitych metafizyk. Zmieniając zaś charakterystykę “świata” oraz porównując uzyskane wyniki, będzie można się przekonać, czy i jakie typy “światów” preferują powstanie określonej struktury wierzeń metafizycznych. Jest, jak sądzę, wcale oczywiste, że rozumny homeostat (ale już “zwykły”, więc coś w rodzaju “robota”), wychowany nie pośród innych homeostatów, lecz wśród ludzi, i do tego wierzących, przejmie ich “metafizyczny model”, co doprowadziłoby do konfliktów raczej niezwykłych, ponieważ domagałby się równouprawnienia z wyznawcami tej religii, jaką by odtąd wyznawał. Zjawisko “przejmowania modelu metafizycznego” przez jednostkę od społeczności, w której się urodziła i żyje, jest tak typowe, że powyższa ekstrapolacja ma wszelkie szansę urzeczywistnienia. Ale takie domaganie się “równouprawnienia metafizycznego” z wyznawcami religii będzie zajmowało bardziej teologów (którzy muszą się wszak do niego jakoś ustosunkować) aniżeli badaczy–empiryków.<br />Dociekania naszkicowanego typu można rozbudowywać w rozmaity sposób. Tak np. w społeczności, złożonej z homeostatów “wyższych” — tj. umysłowo bardziej rozwiniętych — i “niższych”, może dojść do sytuacji, w której “solidarność metafizyczna” grupy czołowej nie będzie obejmowała homeostatów “niższych”, a zatem stosunek tych maszyn rozumnych do ich mniej złożonych towarzyszy będzie dokładnie odpowiadał relacji zachodzącej między człowiekiem a całą resztą świata ożywionego. Często słyszy się argument na rzecz metafizyki, sprowadzający jej konieczność do nadania sensu niezliczonym naszym ułomnościom, nieszczęściom, cierpieniom, pozbawionym doczesnej odpłaty. Obszar tej solidarności nie obejmuje nikogo poza człowiekiem (w chrześcijaństwie i zbliżonych doń religiach). Dla biologa, który zna bezdenność owego oceanu mąk, jaki przedstawiają dzieje życia na Ziemi, stanowisko takie jest tyleż śmieszne, co przerażające. Oto miliardoletnia historia gatunków zostaje wyrzucona poza granice naszej lojalności mitotwórczej i obejmować ma ową lojalność ledwo mikroskopijną cząstkę, kilka tysięcy lat istnienia jednej z gałęzi Naczelnych tylko dlatego, ponieważ my tę gałąź reprezentujemy.<br />Osobną, ciekawą możliwością jest pozbawienie homeostatów wiedzy o skończoności ich istnienia. Prawdopodobieństwo wyniknięcia metafizyki może by to zmniejszyło, ale nie sprowadzi go do zera. Teoria homeostatów odróżnia dwa ich typy: skończony (jedyny urzeczywistnialny, czy to przez Naturę, czy przez człowieka) i nieskończony (tak zwany “generalny automat Turinga”). Oczywiście, automat nieskończony, tj. pozbawiony kresu przechodzenia ze stanu w stan, jest tylko abstrakcją (trzeba by na to zarówno wieczności, jak i nieskończonej ilości materiału). Jednakże homeostaty naszego poligonu mogą być tak długowieczne, aby sąd o własnej wiekuistości wydał im się prawdopodobny. Każdy taki automat wolny jest od “gnostycznego uwarunkowania metafizyki własną skończonością”, skoro może żywić nadzieję, że sam w toku swej wiekuistości pozna “wszystko”. Ponieważ jednak oznacza to tylko likwidację źródeł metafizyki poznawczych, a nie kompensacyjnych, bezkresną swą doczesność może taki homeostat uznać za przeszkodę, broniącą wejścia w “lepszy świat”, do którego wrotami byłoby—w jego sytuacji — tylko samobójstwo.<br /><br /><br /><br />Duch w maszynie<br /><br /><br />“Duchem w maszynie” — the ghost in the machine —nazywają niektórzy filozofowie (jak Ryle) przeświadczenie, jakoby człowiek był istotą “podwójną”, tj. składającą się z “materii” i “duszy”.<br />Świadomość nie jest problemem technologicznym, ponieważ konstruktora nie interesuje, czy maszyna czuje, a tylko, czy maszyna działa. Tak więc “technologia świadomości” może wyniknąć, by tak rzec, jedynie mimochodem, gdy się okaże, że pewna klasa maszyn cybernetycznych posiada subiektywny świat przeżyć psychicznych.<br />Ale w jaki sposób można się dowiedzieć o istnieniu świadomości w ma szynie? Problem nie ma jedynie znaczenia abstrakcyjno–filozoficznego, ponieważ domniemanie, jakoby pewna maszyna, która ma iść na złom, remont się nie opłaca, posiadała świadomość, zmienia naszą decyzję z a zniszczenia przedmiotu materialnego, jak gramofon—, w akt unicestwienia osobowości, świadomej zagłady. Ktoś mógłby zaopatrzyć gramofon w wyłącznik i płytę tak, że gdybyśmy go ruszyli z miejsca, usłyszelibyśmy okrzyki: “Ach, błagam, daruj mi życie”. Jak można odróżnić taki, bez wątpienia; bezduszny aparat od myślącej maszyny? Jedynie wdając się z nią w rozmowę.; Matematyk angielski Allan Turing w swej pracy Czy maszyna może myśleć?* proponuje, jako kryterium decydujące, “grę w imitację”, która polega na tym, że zadajemy Komuś dowolne pytania i na podstawie odpowiedzi mamy orzec, czy ów Ktoś jest człowiekiem, czy maszyną. Jeśli nie potrafimy odróżnić maszyny od człowieka, należy uznać, że ta maszyna zachowuje się jak człowiek, czyli że posiada świadomość.<br />Zauważmy ze swej strony, że grę można skomplikować. Mianowicie są: do pomyślenia dwa rodzaje maszyn. Pierwsza jest “zwykłą” maszyną cyfrową, która jest złożona jak mózg ludzki; można z nią grać w szachy, rozmawiać o książkach, o świecie, na wszelkie w ogóle tematy. Gdybyśmy ją otworzyli, ujrzelibyśmy ogromną ilość obwodów sprzężonych tak, jak są sprzężonej obwody neuronów w mózgu, poza tym — jej bloki pamięci itd., itp.<br />Druga maszyna jest zupełnie inna. Jest to do planety (albo do kosmosu) powiększony Gramofon. Posiada ona bardzo dużo, np. sto trylionów nagranych odpowiedzi na wszelkie możliwe pytania. Tak więc, gdy pytamy, maszyna wcale niczego “nie rozumie”, a tylko forma pytania, tj. kolejność drgań naszego głosu, uruchamia przekaźnik, który puszcza w obroty płytę czy taśmę z nagraną odpowiedzią. Mniejsza o stronę techniczną. Rozumie się, że maszyna taka jest nieekonomiczna, że jej nikt —nie zbuduje, bo i to właściwie niemożliwe, i głównie, nie wiadomo po co by to robić. Ale nas interesuje strona teoretyczna. Bo jeśli o tym, czy maszyna ma świadomość, decyduje zachowanie, a nie budowa wewnętrzna, czyż nie dojdziemy pochopnie do wniosku, że “kosmiczny gramofon” ją posiada — i tym samym wypowiemy nonsens? (A raczej nieprawdę).<br />Czy jednak można zaprogramować wszelkie możliwe pytania? Bez wątpienia, przeciętny człowiek nie odpowiada w życiu ani na jeden ich bilion. My zaś nagralibyśmy na wszelki wypadek wiele razy więcej. Cóż robić?<br />Musimy naszą grę prowadzić z dostatecznie rozwiniętą strategią. Zadajemy maszynie (to jest, Komuś, bo nie wiemy, z kim rzecz — rozmowa jest prowadzona np. przez telefon) pytanie, czy lubi dowcipy. Maszyna odpowiada, dajmy na to, że owszem, lubi dobre dowcipy. Opowiadamy jej więc dowcip. Maszyna się śmieje. (Tj. śmieje się głos w słuchawce). Albo miała ten dowcip nagrany i pozwoliło to uruchomić prawidłową reakcję, tj. śmiech, albo to naprawdę myśląca maszyna (lub człowiek, bo i tego nie wiemy). Rozmawiamy z maszyną jakiś czas i nagle pytamy, czy przypomina sobie dowcip, któryśmy jej opowiedzieli. Powinna go pamiętać, jeśli myśli naprawdę. Powie zatem, że pamięta. Poprosimy, aby go powtórzyła własnymi słowami. Otóż, to jest już bardzo trudno zaprogramować: bo w ten sposób zmuszamy konstruktora “Kosmogramofonu”, aby nagrał nie tylko poszczególne odpowiedzi na możliwe pytania, ale całe sekwencje rozmów, jakie tylko mogą być prowadzone. Wymaga to oczywiście pamięci, tj. płyt lub taśm, których nie zmieści może i system słoneczny. Maszyna, dajmy na to, nie może powtórzyć naszego dowcipu. Demaskujemy ją zatem jako gramofon. Konstruktor, urażony w swej dumie, bierze się do doskonalenia maszyny, w ten sposób, że dobudowuje jej taką pamięć, dzięki której już będzie mogła zrekapitulować powiedziane. Ale w ten sposób zrobił pierwszy krok na drodze od maszyny—gramofonu do maszyny myślącej. Ponieważ maszyna bezduszna nie może uznać za tożsame pytań o analogicznej treści, lecz sformułowanych nawet z drobnymi odchyleniami formalnymi, pytania: “Czy wczoraj było ładnie na dworze?” “Czy panowała wczoraj śliczna pogoda?” “Azali pogodnym był dzień, który poprzedził dzisiejszy?” itd., itp. są dla maszyny bezdusznej rozmaite, dla myślącej natomiast tożsame. Konstruktor kolejno demaskowanej maszyny wciąż musi ją przerabiać. Ostatecznie po długiej serii przeróbek wprowadzi w maszynę umiejętności dedukcji i indukcji, umiejętność kojarzenia, chwytania tożsamej “postaci” różnie sformułowanych a identycznych treści, aż w końcu uzyska maszynę, która będzie po prostu “zwykłą” maszyną myślącą.<br />Otóż zachodzi ciekawy problem, kiedy właściwie w maszynie pojawiła się świadomość? Powiedzmy, że konstruktor nie przerabiał tych maszyn, ale odnosił każdą do muzeum, a następny model budował od podstaw. W muzeum stoi 10 000 maszyn, bo tyle było kolejnych modeli. Jest to w sumie płynne przejście od “bezdusznego automatu” w rodzaju szafy grającej do “maszyny, która myśli”. Czy mamy za świadomą uznać maszynę nr 7852, czy dopiero nr 9973? Różnią się one od siebie tym, że pierwsza nie umiała wyjaśnić, dlaczego śmieje się z opowiedzianego dowcipu, a tylko mówiła, że jest szalenie śmieszny, a druga umiała. Ale niektórzy ludzie śmieją się z dowcipów, choć nie potrafią wyjaśnić, co właściwie jest w nich śmiesznego, bo, jak wiadomo, teoria humoru to trudny orzech do zgryzienia. Czyżby ci ludzie też byli pozbawieni świadomości? Ależ nie, są pewno niezbyt bystrzy, mało inteligentni, umysł ich nie ma wprawy w podejściu analitycznym do problemów; a my nie pytamy o to, czy maszyna jest inteligentna, czy raczej tępawa, a tylko, czy ma świadomość, czy nie.<br />Zdaje się, iż trzeba uznać, że model nr l ma zero świadomości, model 10 000 ma pełną świadomość, a wszystkie pośrednie mają “coraz to więcej świadomości. Stwierdzenie to ujawnia, jak beznadziejna jest myśl o tym, aby świadomość można ściśle zlokalizować. Odłączanie pojedynczych elementów (“neuronów”) maszyny spowoduje tylko nikłe, ilościowe zmiany (“słabnięcie”) świadomości, tak samo, jak to czyni postępujący w żywym mózgu proces choroby lub nóż chirurga. Problem nie ma nic wspólnego ani z użytym do konstrukcji materiałem, ani z rozmiarami “myślącego” urządzenia. Elektryczną maszynę myślącą można zbudować z poszczególnych bloków, odpowiadających, dajmy na to, mózgowym zwojom. Teraz rozdzielamy te bloki i umieszczamy je na całej Ziemi tak, że jeden jest w Moskwie, drugi w Paryżu, trzeci w Melbourne, czwarty w Yokohamie itd. Oddzielone od siebie są te bloki “psychicznie martwe”, a połączone (np. kablami telefonicznymi) stawałyby się jedną, integralną “osobowością”, jednym “myślącym homeostatem”. Świadomość takiej maszyny nie znajduje się naturalnie ani w Moskwie,, ani w Paryżu, ani w Yokohamie, lecz, w pewnym sensie, w każdym z tych miast, a w pewnym, w żadnym z nich. Trudno bowiem powiedzieć o niej, że, jak Wisła, rozciąga się od Tatr do Bałtyku. Zresztą podobny problem ukazuje, choć nie tak jaskrawo, mózg ludzki, ponieważ naczynia krwionośne, białkowe molekuły i tkanki łączne znajdują się wewnątrz mózgu, ale nie wewnątrz świadomości, a znów nie można powiedzieć, aby świadomość znajdowała się pod samą kopułą czaszki, albo że raczej jest niżej, nad uszami, po obu stronach głowy. Jest ona “rozsiana” po całym homeostacie, po jego sieci czynnościowej. Nic więcej nie da się w tej materii orzec, jeśli pragniemy połączyć rozsądek z przezornością.</div><div><br /><br /><br />Kłopoty z informacja<br /><br /><br />Zbliżamy się już do końca tej części naszych rozważań, poświęconych rozmaitym, i raczej odległym od stanowiących jej sedno, tematom, jakimi zajmuje się cybernetyka. Sformułowała ona, w jednej ze swych najbardziej rewolucyjnych części, prawa rządzące przemianami informacji i w ten sposób przerzuciła po raz pierwszy w nauce pomost między dyscyplinami dotąd tradycyjnie humanistycznymi, jak logika, a termodynamiką, gałęzią fizyki. Mówiliśmy już o rozmaitych zastosowaniach teorii informacji, rozumie się, bardzo ogólnikowo tylko i nieco mgliście, a to przez godny pożałowania brak w tej książce wszelkich uściśleń, jakie przynieść może tylko matematyka. Zastanowimy się teraz nad tym, czym właściwie jest informacja i jakie zajmuje miejsce w świecie.<br />Robi ona obecnie karierę w dziedzinach tak odległych od fizyki (której jest dzieckiem), jak sztuka poetycka czy malarska. Jest to, powiedzmy od razu, kariera ponad stan aktualny, choć nie wiadomo, czy ponad przyszłe możliwości. Mówi się chętnie o ilości informacji, ale przed przystąpieniem do pomiarów warto zbadać problem na pewno bardziej podstawowy: osobliwości informacji, która, będąc zjawiskiem materialnym, nie jest ani materią, ani energią.<br />Gdyby w całym Kosmosie nie było ani jednej istoty żywej, gwiazdy i kamienie istniałyby nadal. Czy istniałaby wówczas informacja? Czy istniałby Hamlet? W pewnym sensie tak, jako szereg przedmiotów, pokrytych plamkami farby drukarskiej, zwanych książkami. Czy z tego wynika jednak, że istnieje tyle Hamletów, wiele jest egzemplarzy tych książek? Tak nie jest. Duża ilość gwiazd pozostaje dużą ilością gwiazd bez względu na to, czy ktoś doświadcza ich obecności. O wielu gwiazdach, nawet idealnie do siebie podobnych, nie można powiedzieć, że to jest jedna i ta sama gwiazda, powtórzona wiele razy. Milion książek pt. Hamlet jest milionem przedmiotów fizycznych, stanowiących jednak tylko jednego Hamleta, powtórzonego milion razy. Na tym polega różnica między symbolem, to jest cząstką informacji, a jej materialnym nośnikiem. Istnienie Hamleta, jako szeregu przedmiotów fizycznych, będących nośnikami informacji, nie zależy od tego, czy żyją jakiekolwiek istoty rozumne. Natomiast ażeby Hamlet istniał jako informacja, musi też istnieć ktoś zdolny przeczytać go i zrozumieć. Z czego dość szokujący wniosek, że Hamlet nie jest częścią świata materialnego, a przynajmniej nie jest nią jako informacja.<br />Można by zauważyć, że informacja istnieje nawet wtedy, gdy brak istot rozumnych. Czy zapłodnione jajo jaszczura nie zawiera informacji? Tkwi w nim nawet więcej informacji aniżeli w Hamlecie, a różnica polega na tym, że książka pt. Hamlet stanowi strukturę statyczną, która ulega dynamizacji dopiero podczas lektury, tj. dzięki procesom zachodzącym w mózgu człowieka, natomiast jajo jest strukturą dynamiczną, ponieważ “ono samo siebie odczytuje”, to jest uruchamia odpowiednie procesy rozwoju, których rezultatem staje się dojrzały organizm. Hamlet, jako książka, istotnie jest strukturą statyczną. Ale można go “zdynamizować”. Powiedzmy, że jakiś astroinżynier “podłączył” tekst Hamleta poprzez odpowiednie urządzenie kodujące do potężnej gwiazdy, za czym zmarł ów inżynier i wszystkie istoty rozumne w całym Kosmosie. Urządzenie “czyta” Hamleta, tj. przekształca jego tekst, literę po—literze, w impulsy, które powodują ściśle określone przemiany gwiazdy. Gwiazda ta, wybuchając protuberancjami, kurcząc się i rozprężając, ognistym pulsem “nadaje” teraz Hamleta, który stał się przez to niejako jej “aparatem chromosomowym”, bo kieruje jej przemianami, jak chromosomy jaja kierują rozwojem płodu.<br />Czy i teraz powiemy, że Hamlet nie jest częścią świata materialnego? Nie, nie jest nią. Stworzyliśmy potężny nadajnik informacji, gwiazdę, oraz jej kanał przesyłowy, którym jest cały Kosmos. Jednakże w dalszym ciągu nie ma adresata, nie ma odbiorcy tej informacji. Niech te pęki promieniowania, które gwiazda wysyła, “nadając” scenę zabójstwa Poloniusza, pobudzą sąsiednie gwiazdy do wybuchów. Niech skutkiem tych wybuchów powstaną wokół tamtych gwiazd planety. Gdy zaś Hamlet zginie, niechaj w tym czasie już na owych planetach powstaną pierwociny życia; wysłane jako ,;tekst nadawany przez gwiazdę”, ostatnie sceny dramatu, w postaci bardzo twardego promieniowania, zwiększą częstość mutacji w plazmie tych żywych istot, z których po jakimś czasie powstaną protomałpy. Bardzo ciekawy ciąg zjawisk, niewątpliwie — ale cóż ma on wspólnego z treścią HamlJeta? Nic. Może dotyczy to jednak tylko informacji semantycznej? Teoria informacji się nią nie zajmuje. Mierzy ona tylko ilość informacji. . Niech i tak będzie. Wiele informacji jest w Hamlecie? Ilość jej jest proporcjonalna do stopnia prawdopodobieństwa przybycia na drugi koniec kanału przesyłowego, u którego czeka adresat. Ale kto jest tym adresatem? I gdzie się ! kończy kanał przesyłowy? W mgławicy Andromedy? Czy może w Messierze? Powiedzmy, że umownie przyjmiemy za “adresata” jakąś gwiazdę niedaleką “nadającej”. Jak obliczyć teraz prawdopodobieństwo? Jak odwrotność entropii? Nic podobnego; entropia jest miarą informacji tylko wtedy, gdy układ, w którym ją mierzymy, znajduje się w stanie równowagi termodynamicznej. A gdy nie jest? A, wówczas zależy od zbioru odniesienia. Ale gdzież ten zbiór? Był w głowie Szekspira, uwarunkowany budową jego mózgu oraz całej cywilizacji, która Szekspira wychowała i ukształtowała. Ale teraz nie ma ani tej cywilizacji, ani żadnej innej, a tylko pulsująca gwiazda, “podłączona” przez urządzenie “tłumaczące” do książki pt. Hamlet Gwiazda jest zresztą tylko wzmacniaczem; informacja znajduje się w książce. Co więc to wszystko razem znaczy?<br />Język jest systemem symboli odnoszących się do sytuacji pozajęzykowych. Dlatego można mówić, że istnieje język polski, jak też, że istnieje język dziedziczności (“język chromosomów”). Język ludzki jest wytworzonym sztucznie nośnikiem informacji. Język chromosomowy — to kod informacyjny, skonstruowany przez ewolucję biologiczną. Oba mają swych adresatów i swoje znaczenie. Określony gen jaja jaszczurczego oznacza pewną cechę organizmu (jest aktualnie symbolem tej cechy, a zarazem — potencjalnym jej budowniczym, w toku embriogenezy). Jeżeli jajo “oznacza” (zawiera opis konstrukcyjny) jaszczura, tak jak zadrukowany papier oznacza (zawiera opis konstrukcyjny dramatu do odegrania) Hamleta, to na upartego kondensująca się mgławica “oznacza” (zawiera opis, jako zbiór niezbędnych warunków konstrukcyjnych) gwiazdę, jaka z niej w przyszłości powstanie.<br />Wtedy jednak spadająca bomba jest symbolem wybuchu, błyskawica —grzmotu, a ból brzucha — biegunki. Taki punkt widzenia jest nie do przyjęcia. Symbol może być rzeczą, ale nie odnosi się do owej rzeczy, lecz do czegoś innego. Gdy tragarze wynoszą ze składu kość słoniową, Murzyn odkłada kamyki. Te kamyki są rzeczami, ale odnoszą się do czegoś innego, w tym wypadku — są symbolami liczbowymi, odniesionymi do kłów słoniowych. Symbol nie jest w zasadzie wcześniejszym etapem rozwojowym zjawiska: przynajmniej w sferze ludzkich technik informacyjnych tak nie jest. Przyporządkowanie symbolu temu, co on oznacza, jest arbitralne (to nie znaczy, że całkiem dowolne, a tylko, że nie jest to stworzenie jakiejś więzi przyczynowej między symbolem a jego desygnatem). Geny w gruncie rzeczy nie są symbolami, ponieważ właśnie stanowią taki osobliwy wypadek, kiedy nośnik informacji równocześnie jest wcześniejszym etapem jej późniejszego “znaczenia”. Oczywiście możemy się umówić, że one są symbolami: to jest rzeczą definicji, a nie empirii, bo żadne badanie empiryczne nie wykaże, czy gen jest “symbolem” niebieskich oczu, czy tylko “nośnikiem tej informacji”. To by nie było jednak wygodne, ponieważ słowo gen byłoby symbolem symbolu; poza tym w naszym rozumieniu symbole nie są zdolne do spontanicznych przekształceń (znaki równania chemicznego nie reagują ze sobą). Dlatego lepiej nazwać gen znakiem informacjonośnym (zdolnym do autonomicznych przemian). Tak zatem znak jest pojęciem bardziej ogólnym.<br />Znak zakłada istnienie informacji (jest cząstką jej kodu), a informacja istnieje tylko wówczas, gdy ma adresata. Wiadomo, kto jest adresatem Hamleta, jak również, że mgławica nie ma żadnego adresata — ale kto jest adresatem chromosomowej informacji jaszczurczego jaja? Dojrzały organizm nie; to znaczy, jest on tylko pewnym “dalszym stadium” informacyjnego przekazu. Ów organizm z kolei także ma adresata; gdzie? Na Księżycu ani na Saharze jaszczury żyć nie mogą; tylko w rzece o błotnistych brzegach, której wody dostarczają im pokarmu, gdzie znalazłszy partnerów, mogą się rozmnażać. A więc adresatem genetycznej informacji jaszczura jest właśnie ta okolica, wraz z całą populacją jego gatunku i z innymi organizmami, które już to on będzie pożerał, już to one jego; jednym słowem, odbiorcą informacji genetycznej jest środowisko biogeocenotyczne osobnika. Będzie on w nim płodził inne jaszczury i w ten sposób zostanie podtrzymane krążenie informacji genetycznej, część procesu ewolucyjnego. Analogicznie, “środowiskiem” umożliwiającym istnienie Hamleta jest mózg ludzki.<br />Jeżeli jednak tak jest, to właściwie dlaczego nie wolno powiedzieć, że adresatem informacji zawartej w mgławicy jest Galaktyka? A jeżeli nie Galaktyka, to może planety, które gwiazda, powstała z mgławicy, kiedyś spłodzi. Na tych planetach wyniknie życie, osiągnie stadium rozumu —może ten rozum jest “adresatem” mgławicowej informacji?<br />Jak wiadomo z termodynamiki, ilość informacji (czyli entropii) w zamkniętym układzie nie może wzrosnąć. Ponieważ sami powstaliśmy z gwiazdowych szczątków, Kosmos zaś stanowi system zamknięty, bo “poza”‘ nim nie ma nic, z tego niedwuznacznie wynika, że i Hamlet, i wszystko, co w ogóle człowiek stworzył, wymyślił czy nakłamał, istniało już jako informacja w owej pierwotnej mgławicy, z której powstały galaktyki, gwiazdowe układy, planety, my, oraz ta książka. Czym doprowadziliśmy szczęśliwie ‘całą rzecz do absurdu.<br />Otóż nie istnieje “informacja w ogóle”. Nie dość też jej adresata. Informacja istnieje tylko ze względu na pewien zbiór, w obrębie którego dokonuje się wyboru. Wynikiem tego wyboru (selekcji naturalnej) może być gatunek jaszczurów albo (selekcja zachodząca w mózgu Szekspira) gatunek dramatów.<br />Jeżeli policja pragnie aresztować złoczyńcę, o którym wie tylko, że nazywa się Smith i mieszka w pewnej miejscowości, ilość informacji, uzyskana dzięki znajomości nazwiska, zależeć będzie od tego, wielu Smithów jest rezydentami miasteczka. Jeżeli jest tylko jeden Smith, nie ma w ogóle wyboru i informacja równa się jedności. Jeżeli wszyscy mieszkańcy miasteczka noszą to nazwisko, w wiadomości, że złoczyńcą jest Smith mieści się dla danego zbioru zero informacji. Nawiasem mówiąc, niektórzy sądzą, że istnieje informacja ujemna: w naszym wypadku informację ujemną stanowi złożony na policji donos, że złoczyńca nazywa się Brown.<br />A zatem miary informacji są względne i zależą od przyjętego wstępnie zbioru możliwych ewentualności (stanów). Pewne zjawisko może być symbolem, tj. nośnikiem informacji, ze względu na przyjęty zbiór stanów potencjalnych tego zjawiska, i może nim nie być, jeśli ten zbiór, ten układ odniesienia, zmienimy. Przy tym jest bardzo rzadko tak, aby Natura ustalała jednoznacznie zbiór możliwych stanów. Człowiek, w większej lub mniejszej mierze zdając sobie z tego sprawę, wybiera zbiór odniesienia, ze względu na cel, jaki sobie postawił, i dlatego uzyskana informacja nie jest odwzorowaniem rzeczywistego stanu rzeczy (świata), ale jest funkcją tego stanu, której wartości zależą zarówno od Natury (tj., jej badanej części), jak i od zbioru odniesienia, którego autorem jest człowiek.<br /><br /><br /><br />Wątpliwości i antynomie<br /><br />1.<br /><br />Śmiały “program — maksimum”, naszkicowany już przez twórców cybernetyki, podlegał niejednokrotnie w ostatnich latach krytykom nieraz bardzo surowym, uznającym go za utopię czy wręcz za mit, jak o tym świadczy choćby podtytuł książki Mortimera Taube The Myth of Thinking Machines*.<br />“Zauważmy — pisze Taube — że gigantyczny sztuczny mózg, maszyny——tłumacze, maszyny uczące się, grające w szachy, rozumiejące, itp., których pełno w naszej literaturze, «istnienie» swe zawdzięczają ludziom, którzy lekceważą tryb warunkowy. W grę tę należy bawić się tak: Najpierw oświadcza się, że jeśli nie zważać na nieistotne szczegóły inżynieryjne, program dla maszyny można utożsamić z samą maszyną. Następnie schemat blokowy nie istniejącego programu utożsamia się z samym programem. I, w końcu, oświadczenie, że można ułożyć blokowy schemat nie istniejącego programu dla nie istniejącej maszyny, oznacza już istnienie owej maszyny.<br />W taki dokładnie sposób zostały «stworzone» maszyny warunkowego prawdopodobieństwa Uttley’a, «perceptron» Rosenblatta, analizator problemów ogólnych Simona, Shawa i Newella i wiele innych nie istniejących maszyn, na które w literaturze powołują się, jak gdyby one istniały”.<br />A nieco dalej, w kwestii stosunku “człowiek–maszyna”: “…oto klasyczne błędne koło: 1) proponuje się konstrukcję maszyny, przeznaczonej do modelowania mózgu, który nie jest opisany, 2) dokładne opisanie charakterystyki maszyny uznaje się za analogiczne z charakterystyką mózgu, 3) po czym robi się «odkrycie», że maszyna zachowuje się podobnie jak mózg; błędność (2) polega na «odkryciu» tego, co było postulowane”.<br />W tej mierze, w jakiej sam postęp konstruktorski obalił niektóre wywody Taubego, polemika z jego książką, wydaną w 1961 roku, jest już zbędna. Nie tylko istnieje perceptron, ale działają też realnie programy maszynowej gry w szachy, co prawda tylko na poziomie średniego gracza, nie wiadomo jednak właściwie, dlaczego z uznaniem, że grające w szachy maszyny istnieją, trzeba czekać chwili, kiedy ostatni jeszcze nie pokonany mistrz światowy dostanie mata od elektronowej maszyny, skoro olbrzymia większość ludzi nie potrafi grać nawet na wspomnianym średnim poziomie (a choć to nie jest argumentem, należy do nich niestety i piszący te słowa).<br />W swej polemicznej, miejscami aż nihilistycznej książce wypowiedział jednak Taube w sposób reprezentatywny dla pewnego kręgu badaczy obiekcje nadal godne uwagi. Podniósł on klasyczny wręcz dylemat “czy maszyna może myśleć” raz jeszcze, rozpatrując go w rozbiciu na dwa człony — czynności obciążonych semantycznie oraz intuicyjnych. Wydaje się, że postępowanie formalne posiada rzeczywiście ograniczenia, którymi obarczają je konsekwencje dowodu Godła o niezupełności systemów dedukcyjnych i że metodami czysto algorytmicznymi niepodobna prawdziwie skutecznie tłumaczyć z jednego języka naturalnego na drugi, ponieważ stosunek wzajemnie jednoznacznej odwzorowalności pomiędzy oboma nie zachodzi. Sprawą tą zajmiemy się nieco później. Nim przejdziemy do rozważenia dosyć niejasnego pojęcia intuicji, dodajmy jeszcze, że Taube ma słuszność i wtedy, kiedy wskazuje, jak często mogą być rezultaty działania maszyny i człowieka tożsame w rezultatach, a różniące się od siebie procesami, które do owych rezultatów doprowadziły. Tym samym nasuwa się ostrzegawczy wniosek, że nie wolno lekkomyślnie ekstrapolować w sferę operacji psychicznych człowieka mnóstwa obserwacji, jakich dokonuje się, badając urządzenia zaprogramowane do rozwiązywania określonych zadań. Komparatystyka owa ma zresztą dalsze swoje odcienie — ponieważ jest prawdopodobne, że bardzo rozmaite czynności mózgowe prowadzą, u różnych ludzi, do tożsamych rezultatów. I wreszcie nawet ten sam człowiek, przed którym stawia się kilkakrotnie zadania, należące do tej samej klasy pod względem algorytmicznym (chodzi więc o taką klasę zadań, dla której algorytm rozwiązywania jest znany), pokonuje je nieraz rozmaitym sposobem; owa niejednolitość ludzkiego zachowania się utrudnia, niewątpliwie, życie tym wszystkim, którzy zajmują się modelowaniem mózgowych procesów.<br />Co się intuicji tyczy jednak, kwestia jej zautomatyzowania, więc naśladowania pozamózgowego, nie wydaje się aż tak beznadziejna, jak sądzi Taube. Przeprowadzano interesujące badania, mające na celu zestawienie heurystyki człowieka z heurystyką maszyny — na przykładzie gry w szachy, jako że szachy nie są “obciążone semantycznie” i rozwiązywanie problemów rozgrywki zachodzi — w pewnej niezawisłości co najmniej — od kwestii wszelakich “znaczeń”, które całą dziedzinę operacji psychicznych tak utrudniająco zaciemniają. Czym właściwie — winniśmy zrazu ustalić — jest heurystyką? Badacz radziecki Tichomirow, który robił wyżej nazwane doświadczenia (por. “Woprosy Fiłosofii” 1966, nr 4) rozumie przez nią pewne ogólnikowe prawidła, którymi posługuje się podmiot, dążąc do rozwiązania postawionego mu zadania, kiedy systematyczne przebadanie wszystkich potencjalnych alternatyw nie jest możliwe (jak właśnie w partii szachów, gdzie ilość możliwych chodów sięga rzędu l099). Próbowano dawniej analizować ową heurystykę gracza, żądając, aby przez cały czas rozgrywki głośno myślą’ Okazało się jednak, że większość operacji “śledzących” (poszukujących manewru optymalnego) zachodzi na podjęzykowym poziomie, z czego grający nie zdaje sobie zresztą sprawy. Tichomirow rejestrował zatem ruchy oczu szachisty; okazało się, że — odzwierciedlana przez owe ruchy choćby częściowo — poszukiwawcza heurystyką gracza posiada dosyć skomplikowaną strukturę. Szerokość strefy orientacyjnej, a więc wycinka szachownicy z rozstawionymi figurami, którą szachista postrzega najaktywniej, sygnalizując poruszeniami gałek ocznych pewne bardzo szybko rozbudowywane, niejako “próbne” serie pociągnięć (więc są to elementy rozgrywki “interioryzowane”, wewnętrzne modele kolejno rozpatrywanych operacji sekwencyjnych), zmienia się dynamicznie. Gdy ruchy przeciwnika odpowiadają wewnętrznemu oczekiwaniu, więc predykcjom gracza, strefa ta zwęża się do minimum, i na odwrót, każdy ruch, stanowiący zaskoczenie, nieprzewidziany, powoduje znaczne rozszerzenie strefy orientacyjnych poszukiwań i daleko rozleglejsze przebadanie alternatyw powstałej sytuacji. Szczególnie zaś ciekawe jest to, że pewnego rodzaju “inspiracje”, więc “z nagła przychodzące” taktyczne pomysły, niejaki analog “twórczego natchnienia”, które anegdota klasyczna kwituje okrzykiem “heureka!” — poprzedzane są seriami bardzo szybkich ruchów oczu, w czasie, w którym szachiście nic nie wiadomo o tym, jakoby mu się jakiś pomysł miał “narodzić w głowie”. Stąd wniosek, że niejaka nagłość oraz “przybywanie znikąd” pomysłów całkowicie nowych, witanych subiektywnie poczuciem “rewelacji”, “olśnienia”, jest pozorem czy ułudą, wynikającą z ograniczonej samowiedzy introspekcyjnej, w rzeczywistości bowiem każdy taki pomysł poprzedza przyspieszone do maksimum zbieranie informacji (w tym wypadku — z deski szachowej), zaś “nagłość” objawienia się pomysłu to rezultat przedostania się w obręb świadomości informacji, już podprogowo zorganizowanej i opracowanej przynajmniej szkicowo, przejścia jej z poziomów integracji niższych na ów najwyższy, gdzie zostaje sformułowany ostatecznie plan najskuteczniejszego działania.<br />Oczywiście nadal nic nie wiemy o tym, co dzieje się na tych niższych poziomach mózgowej dynamiki; w każdym razie potwierdzają owe doświadczenia hipotezy o wielopiętrowości informacyjnych opracowań sygnałów dosyłowych, jakie odbiera mózg. Jeśli w ogóle można mówić o algorytmach w odniesieniu do jego pracy, współdziała ich w rozwiązywaniu zadań wiele naraz, wzajemnie częściowo sprzężonych, a częściowo niezawisłych. Mózg stanowi jak gdyby cały system względnie niezawiśle pracujących podzespołów, przy czym to, co zwiemy “świadomością”, może, już obrazowo mówiąc, “ciągnąć” w jedną stronę, podczas kiedy zarazem człowiek w bardzo niejasny sposób zdaje sobie sprawę z tego, że “coś” go od drogi, już świadomie wybranej, odciąga — aczkolwiek w świadomości żadnej jeszcze konkretnej alternatywy działania nie ma. W metaforycznym trochę sensie można by powiedzieć, że sfery pozaświadome, nie mogąc jeszcze świadomości dostarczyć gotowych rezultatów informacyjnego opracowania, powiadamiają ją “jakoś” — “kanałami” napięcia emocjonalnego? — o tym, że szykuje się “niespodzianka”. Lecz trzeba co rychlej porzucić taki sposób mówienia, który konstruktora, pragnącego modelować zjawiska heurezy intuicyjnej, może najwyżej do pasji doprowadzić, ponieważ z najbardziej rozbudowanym językiem “sprawozdawczo–mentalnym” introspekcji nic wszak nie zdoła począć w swej pracowni.<br />Maszyna do gry w szachy (tj. odpowiednio zaprogramowana) praktykuje heurezę, do jakiej wdraża ją program (zdolny notabene do uczenia się). Bez przesady można orzec, że bardzo wiele zależy od talentu programisty (albowiem programowanie jest na pewno talentem). Maszyna potrafi w jednostce czasu rozpatrzyć niezrównanie więcej operacji niż człowiek (działa mniej więcej milion razy szybciej od niego), a jednak człowiek bije ją, ponieważ zdolny jest do swoistej integracji dynamicznej: każdorazowe rozstawy figur ujmuje, jeśli jest sprawnym szachistą, jako pewne systemy spójne, jako całości, opatrzone wyraźnymi, a rozbieżnymi, “rozdrzewiającymi się” tendencjami rozwojowymi. Maszyna posługuje się taktyką, może więc pewnymi pociągnięciami przygotowywać następne, może iść na gambit itp., ale musi każdorazowo “skwantować” sytuację szachownicy, oczywiście nie na wiele ciągów naprzód stawiając predykcje, gdyż to i dla niej fizycznie nie jest możliwe. Heurystyka szachowa człowieka umożliwia mu wszakże dokonywanie skrótów, do jakich maszyna nie jest zdobią. Szachownica, zyskując Pewien emocjonalno formalny walor, postrzegana jest jako zindywidualizowana całość. Tylko taki poziom integracji, czyniący szachownice z nieznacznie nawet różniącymi się od siebie rozstawieniami figur — najzupełniej odmiennymi, sprawia, że mistrz może rozgrywać kilkadziesiąt partii jednocześnie.<br />Na stwierdzeniu tak fenomenalnej — z “maszynowego” zwłaszcza punktu widzenia — sprawności — musi się na razie wiedza nasza zatrzymać. Heurystyka ludzka jest — w każdym razie — pochodną “heurystyki” wszystkich istot żywych, ponieważ od samego swego powstania działać musiały zawsze w oparciu o informację niezupełną i niedokładną, co wymagało ustalania niezmienników aproksymatywnego, czyli zadowalania się ustaleniami nieostrymi. Ideałem modelarstwa byłoby więc — na wstępnym przynajmniej etapie — nie takie urządzenie, które działa w oparciu o posiadane przesłanki czysto logiczne: albo ustalając prawdę, albo fałsz w stu procentach, lecz takie, które działa “mniej więcej”, “jako tako”, “w przybliżeniu”. Skoro bowiem ewolucja — na całościowym poziomie organizmów — wyprodukowała najpierw takie właśnie “urządzenia” — musiało to być jednak prostsze od stworzenia układów, explicite się logiką posługujących. Jakoż każdy, nawet małe dziecko, posługuje się logiką (w nieuświadamianych regułach języka zawartą) “niechcący”, nauka zaś logiki formalna wymaga nie byle jakiego wysiłku umysłowego. To przy tym, że poszczególny neuron można rozpatrywać jako miniaturowy element logiczny, stanu rzeczy nie zmienia. Tu należy też dodać, że chociaż ilość owych elementów jest z grubsza biorąc, we wszystkich mózgach taka sama, zachodzą przecież pomiędzy nimi bardzo poważne różnice, które sprawiają, że jeden człowiek jest świetnym rachmistrzem, lecz słabym matematykiem, drugi — matematykiem doskonałym, lecz trudności mającym z obliczeniami arytmetycznymi, trzeci — kompozytorem, zdolnym pojąć ledwie zasady matematyki elementarne, czwarty na koniec — osobą zarówno talentów twórczych, jęk i reprodukcyjnych pozbawioną. Mało wiedząc o tym, co wszystkim mózgom jest w ich funkcjonowaniu wspólne, o przyczynach materialnych takiego aż zróżnicowania nie wiemy w ogóle nic. Co, z kolei, problem nasz pomnaża o dalsze trudności. W każdym razie cybernetyk wita z radością pojawienie się aparatów, które są przynajmniej elementarnie sprawne w pewnego rodzaju operacjach różnicujących, a zatem działają ,,mniej więcej”, chociaż brak jest ogólnej teorii formalnej takiego różnicowania. Mamy na myśli perceptrony.<br />Są to układy, opatrzone “receptorem wzrokowym”, stanowiącym gruby analog siatkówki oka, oraz pseudoneuronowymi elementami, połączonymi w sposób przypadkowy (losowy), zdolne do rozpoznawania obrazów (prostych konfiguracji planimetrycznych, np. cyfr lub liter), dzięki procesowi uczenia się, zachodzącemu pod sterowaniem algorytmu stosunkowo prostego. Budowane na razie perceptrony są wciąż jeszcze prymitywne i rozpoznawać, powiedzmy, twarzy ludzkich nie mogą, nie mogą też oczywiście “czytać tekstów”, stanowią jednak istotny krok na drodze do zbudowania maszyn, które będą takie teksty czytały. Uprości to ogromnie wszystkie wstępne procedury, niezbędne dla wprowadzania informacji o zadaniu do rozwiązania w obręb maszyny cyfrowej, dziś bowiem każde takie zadanie trzeba “tłumaczyć” na język maszyny, i czynność ta, nie zautomatyzowana, pochłania mnóstwo czasu obsługujących maszynę ludzi. Konstruowanie coraz bardziej złożonych i coraz sprawniejszych perceptronów wydaje się zatem bardzo obiecujące. Nie oznacza to, jakoby stanowiły one jakieś “właściwsze” od maszyn cyfrowych modele mózgu (tym bardziej że pracę perceptronu można modelować także na maszynie cyfrowej), trudno też uważać, że perceptron jest “bardziej podobny” do mózgu od takiej maszyny. Każde z tych urządzeń modeluje w swym wycinkowym zakresie pewne elementarne aspekty funkcjonowania mózgu — i to wszystko. Być może, przyszłe perceptrony podprowadzą nas bliżej ku zrozumieniu “intuicji”. Trzeba dodać, że w literaturze przedmiotu panuje pewne pomieszanie terminologiczne czy pojęciowa niejasność, niektórzy nazywają bowiem “heurystyczne zachowanie się” — “niealgorytmicznym”, ale ustalenie takie zależy od tego, czy za algorytm uznajemy instrukcję działania do końca zdeterminowaną, która się w toku swego realizowania nie odmienia, czy też taką instrukcję, która dzięki przestrukturowującym ją sprzężeniom zwrotnym “sama” się w trakcie pracy przekształca w postać od wyjściowej odmienną. Można tu mówić w pewnych wypadkach też i o “samoprogramowaniu”, a niejaki zamęt częściowo pochodzi stąd, że i ono może implikować rozmaite stany rzeczy. W klasycznych maszynach cyfrowych jest programowanie wyraźnie oddzielone od podporządkowanych mu układów pracujących, w mózgu natomiast tak wyraźny podział nie wszędzie zachodzi. Z chwilą, gdy funkcjonowanie złożonego systemu staje się “plastyczne”, to jest, podlega zdeterminowaniu tylko warunkowemu, probabilistycznemu, i nie jest jednokierunkowym realizowaniem sztywnych, raz na zawsze ustalonych “przepisów”, pojęcie algorytmu już nie daje się zastosować w swej postaci wziętej bezpośrednio z dyscyplin dedukcyjnych; możliwe bowiem jest zachowanie się, wprawdzie dyktowane deterministycznie, ale tylko do pewnej granicy (po pewnej liczbie kroków system zostaje, powiedzmy, “powiadomiony” o tym, że teraz ma rozpocząć “swobodne poszukiwanie” następnego pociągnięcia w obrębie całego zbioru alternatyw; zaczyna więc system działać metodą “prób i błędów”, aż natrafi na wartość “optymalną” — np. minimum lub maksimum pewnej funkcji — i tu znów włącza się “sztywna” instrukcja na czas jakiś). Ale możliwe jest też, że cały algorytm jest probabilistyczny w pewnym sensie “jednolicie”, to jest że żaden z kolejnych kroków nie zostaje przepisany “apodyktycznie”, lecz ustala się jedynie pewne przedziały, czy ramowe zakresy dozwolone, w których mogą być uruchamiane albo innego rodzaju (“lokalnie zdeterminowane”) algorytmy, albo operacje typu “zestawiania” dla “wyszukiwania podobieństwa” (typu “rozpoznawania obrazów” albo “kształtów”, albo też tylko podobieństwa odwzorowań). Przeplatać tedy mogą się pewne operacje typu sterowania “apriorycznie ustalonego” “poszukiwania”, “porównywania”, “indukcji” wreszcie. O tym, czy mamy jeszcze do czynienia z “algorytmem”, czy już z “heurystyką” na “intuicji” opartą, częściowo będzie decydowała arbitralność — podobnie, jak arbitralne bywają ustalenia, stwierdzające, że wirus w postaci skrystalizowanej jest “nieżywy”, a wprowadzony w obręb komórki bakteryjnej — “żywy”.<br /><br /><br />2<br /><br /><br />Jak zatem mogą się przedstawiać próby odpowiedzi na pytanie, czy płody “myślenia maszynowego” zdolne są przekroczyć pułap intelektualnych możliwości człowieka?<br />Należy chyba wyliczyć warianty odpowiedzi z tym, że nie wiemy, czy to są wszystkie warianty, ani też, który jest prawdziwy.<br />a) Myślenie maszynowe nie może przekroczyć “ludzkiego pułapu intelektualnego” z pewnych względów zasadniczych. Na przykład dlatego, że żaden układ nie może być “rozumniejszy” od człowieka: osiągnęliśmy ów pułap sami, a tylko o tym nie wiemy. Albo, ponieważ do układów myślących typu “człowiek” wiedzie jedna tylko droga, ewolucji naturalnej, i można ją najwyżej “powtórzyć”, mając za poligon doświadczalny planetę, albo wreszcie, ponieważ układy niebiałkowe zawsze są intelektualnie (jako przetworniki informacji) “gorsze” od białkowych, itp.<br />Wszystko to brzmi bardzo nieprawdopodobnie, chociaż wykluczyć się na razie nie daje. Mówiąc tak, posługuję się wytycznymi heurystyki, które sugerują mi, że człowiek jest jednak istotą rozumną dość sobie zwykłą, skoro go uformował odsiew na względnie mało liczebną grupę parametrów około miliona lat temu, że mogą istnieć od niego “rozumniejsze”, że procesy Natury można naśladować i różnymi drogami dochodzić do pewnych stanów, do których Natura doszła sekwencją innych stanów. Przyszły rozwój teorii ergodycznej powinien nam w tej sferze zagadnień wiele wyjaśnić.<br />b) Myślenie maszynowe może przekroczyć ludzki “pułap intelektualny”, w tym sensie, w jakim nauczyciel matematyki jest “rozumniejszy” od swych pupilów. Ale ponieważ człowiek może zrozumieć to, do czego sam nie może dojść (dzieci rozumieją geometrię euklidesową, chociaż jej same nie wymyślają), człowiekowi nie grozi utrata kontroli nad “poznawczą strategią maszyn”, ponieważ zawsze będzie rozumiał, co one robią, jak i dlaczego. Z kolei to stanowisko wydaje mi się nie do przyjęcia.<br />Co to właściwie znaczy, że “myślenie maszynowe może przekroczyć pułap intelektualny człowieka”? Jeśli może tak, jak nauczyciel wobec dzieci to przykład jest zły, ponieważ nauczyciel też geometrii nie wymyślił. Chodzi o stosunek twórców nauki do innych ludzi — to on jest analogiem relacji “maszyna — człowiek”. A zatem: maszyna może stwarzać teorie, tj. wykrywać niezmienniki klas zjawisk w zasięgu większym niż człowiek. Wzmacniacz inteligencji, w jego pierwotnym sformułowaniu Ashby’ego, uczonego by nie zastąpił, ponieważ jest to selektor informacji, praca uczonego natomiast sprowadzić się do selekcji nie daje. Maszyna Ashby’ego mogłaby czynić wprawdzie elementami sytuacji wyboru daleko większą ilość członów alternatywy, niż to może człowiek, taki układ byłby realny i przydatny, ale tylko<br />Wątpliwości i antynomie w sytuacjach, w których stoimy właśnie na rozdrożu i mamy wybierać dalszą drogę, a nie w sytuacjach, w których dopiero należy domyślić się tego, że jakaś droga istnieje (na przykład “droga kwantowania procesów”). Wzmacniacz ów nie może więc stanowić nawet pierwszego przybliżenia maszyny, automatyzującej twórczą pracę uczonego. Nakreślić jego schematu na razie nie umiemy nawet w przybliżeniu, ale wiemy przynajmniej z grubsza, co maszyna gnostyczna musi robić: musi ona uwzględniać, dla stworzenia teorii układów złożonych, wielką ilość parametrów, taką, jakiej algorytmy nauki współczesnej podołać nie potrafią. W fizyce można oddzielać od siebie poziomy zjawisk (fizyka atomowa, jądrowa, ciała stałego, mechanika). W socjologii to nie jest możliwe, ponieważ wiodącymi, to jest decydującymi o dynamicznym torze systemu okazywać się mogą naprzemiennie rozmaite poziomy (singularno–jednostkowy, pluralno–masowy). Główny szkopuł leży właśnie w ilości zmiennych do uwzględnienia. Gdyby “maszyna gnostyczna” potrafiła stworzyć “teorią układu społecznego”, musiałaby ta teoria uwzględniać wielką ilość zmiennych, i tym by się różniła od znanych nam formalizmów fizykalnych. Otóż, na wyjściu “gnostycznego kreatora” otrzymujemy teorię, zakodowaną, powiedzmy, w postaci całego systemu równań. Czy ludzie będą mogli z owymi równaniami cokolwiek począć?<br />Sytuacją uzmysłowimy sobie być może lepiej na przykładzie zaczerpniętym z biologii. Jeśli informacyjna pojemność jajowej komórki dorównuje ilości informacji encyklopedii, to przecież taką encyklopedię, na jaką pewno kiedyś “przełoży się” genotyp, będzie można odczytać tylko dlatego, że czytelnik będzie znał fizykę, chemię, biochemię, teorię embriogenezy, teorię samoorganizujących się układów itd. Jednym słowem, będzie znał język i reguły jego stosowania. W wypadku teorii, którą “zrodzi” maszyna, nie będzie z góry znał ani języka, ani —jego reguł, jednego i drugiego musi się dopiero uczyć. Pytanie zatem, w ostatecznej postaci, brzmi: czy może się nauczyć?<br />W tym miejscu wchodzi w nasze rozważania czynnik czasu, ponieważ jasne jest chyba, że więcej trzeba czasu, aby odczytać całą informację, zawartą w komórce bakteryjnej, a przekodowaną na język aminokwasów czy nukleotydów, aniżeli trzeba czasu komórce, aby się podzieliła. Podczas jednej lektury, której dokonujemy “oczyma i mózgiem”, tekstu “sformalizowanej i przekodowanej bakterii”, ona tymczasem podzieli się setki razy, bo wszak “odczytuje siebie sama”, w kolejnych podbiałach, niezrównanie szybciej. W wypadku zaś “teorii społeczeństwa” — ;czy, już ogólnie, układu nadzwyczaj złożonego — czas lektury może się okazać taki, że czytelnik po prostu tylko dlatego nie rozumie, co czyta, ponieważ nie jest w stanie operować umysłowo elementami równań — zbyt wielkie, wymykają mu się z pola uwagi, przekraczają możliwości pamięci, jest to zaiste trud syzyfowy, a problem brzmi wtedy: czy teoria, w jej postaci, danej przez maszynę, będzie redukowalna do postaci dostatecznie prostej, aby człowiek mógł ją ogarnąć? Obawiam się, że to nie będzie możliwe. To znaczy, oczywiście, redukcja jest możliwa, a jedynie każda kolejna postać teorii, wynikająca z następnego zredukowania, okaże się zarazem zbyt rozległa jeszcze dla człowieka, chociaż już, względem oryginału, uboższa o utracone elementy.<br />Maszyna, redukując, będzie zatem robiła to, co robi fizyk, wyjaśniający szerokiej publiczności teorię fal grawitacyjnych przy pomocy skąpego arsenału matematyki gimnazjalnej. Albo to, co robi mędrzec w bajce, który przynosił łaknącemu wiedzy królowi kolejno — bibliotekę na grzbiecie stada wielbłądów, potem — setkę tomów w jukach muła, a wreszcie — grube księgi, które niósł niewolnik, bo dla króla te kolejne “redukcje” wciąż jeszcze były “zbyt obszerne”.<br />Z tego widać, że nie musimy już rozpatrywać takiej (trzeciej) możliwości: c) Maszyna może przekroczyć pułap intelektualny człowieka zarówno w zakresie tego, co człowiek może jeszcze, jak i w zakresie tego, czego człowiek nie może już ogarnąć. Możliwość ta wynikła bowiem, jako wniosek, przy obaleniu drugiej.<br />Prawdopodobnie tam, gdzie człowiek będzie mógł sam dojść umysłem, nie będzie potrzebował maszyny inaczej, aniżeli jako niewolnika, który by wykonywał zań pracochłonne operacje pomocnicze (Uczenia, dostarczania żądanych informacji, a więc “pomocnicza pamięć” i “asysta w operacjach krokowych”). Tam, gdzie umysłem sam nie dotrze, maszyna dostarczy mu gotowych modeli zjawisk, gotowych teorii. Pytanie wtedy — antynomiczne —o to, “jak można kontrolować to, czego nie można kontrolować?” Może należałoby stworzyć maszyny “antagonistyczne”, które by się wzajem (w rezultatach działania) kontrolowały? Ale co robić, jeśli przedstawią na wyjściach rezultaty sprzeczne? Ponieważ w końcu od nas zależy, co zrobimy z teoriami, zrodzonymi przez maszyny, w szczególnie konfliktowej sytuacji można by je i do pieca wrzucić. Inna sprawa z maszynami zarządzającymi, to jest tymi, które są najprawdopodobniejszym jeszcze wcieleniem wzmacniacza Ashby’ego. Prawdopodobnie robotów, obdarzonych quasi–ludzką osobowością, nie będzie się budować, chyba w celach takich, jakie Fritz Leiber przedstawił w swej powieści The Silver Eggheads, gdzie są nawet wspaniałe lupanary z elektronowymi damami, które podczas “tego” organowym głosem nucą Bacha albo mają ogon jak Chimery. Natomiast powstaną i będą się rozrastać ośrodki maszynowe, zarządzające produkcją, obrotem towarowym, dystrybucją, jak również zarządzające badaniami (koordynacja wysiłków uczonych, wspomaganych, w fazie wczesnej, “symbiotycznie” przez maszyny pomocnicze). Otóż takie koordynatory lokalne wymagają nadrzędnych, w skali, powiedzmy, kraju bądź kontynentu. Czy możliwe są między nimi sytuacje konfliktowe? Jak najbardziej możliwe. Zachodzić będą konflikty w płaszczyźnie decyzji inwestycyjnych, badawczych, energetycznych, bo wszak trzeba będzie określać prymat rozmaitych działań i kroków, ze względu na mrowie powiązanych wzajemnie czynników. Trzeba będzie takie konflikty rozstrzygać. Oczywiście, powiadamy szybko: to będą robili ludzie. Bardzo dobrze. Otóż decyzje będą dotyczyły problemów ogromnej złożoności i ludzie — kontrolerzy Koordynatora, będą musieli, aby rozeznać się w przedstawionym im morzu matematycznym, uciec się do pomocy innych maszyn, mianowicie optymalizujących decyzje. Nad wszystkim tym istnieje aspekt gospodarki globalny: należy ją także koordynować. Planetarny Koordynator też jest maszyną, z “radą przyboczną”, złożoną z ludzi, którzy sprawdzają lokalne decyzje układów: “kontrolerzy–maszyny” poszczególnych kontynentów. Jak to robią? Mają własne maszyny do optymalizowania decyzji. I oto: czy możliwe jest, że ich maszyny, dublując, w celach kontroli, pracę maszyn kontynentalnych, dadzą odmienne wyniki? I to jest zupełnie możliwe, ponieważ każda maszyna podczas dokonywania określonej sekwencji kroków, z których składa się rozwiązywanie zadania (metodą, powiedzmy, kolejnych przybliżeń, bo materiał zmiennych jest olbrzymi), staje się jakoś “stronnicza” — w sensie używanego w angielskim żargonie filozoficznym terminu “biased”. Wiadomo, że człowiek zasadniczo nie może nie być w ogóle stronniczy; dlaczego jednak ma być stronniczą maszyną? Stronniczość nie musi bowiem stanowić rezultatu predylekcji emocjonalnych — wynika już z nadania rozmaitej wagi konfliktującym z sobą członom alternatywy. Czy możliwe są takie “wyceny” tych członów, przez kilka pracujących niezależnie a równolegle maszyn, które by się między sobą różniły? Ależ tak, ponieważ maszyny te, będąc, siłą rzeczy, układami probabilistycznymi, nie działają tożsamościowo. Zarządzanie stanowi w ujęciu algorytmicznym drzewo, czy też system “drzew decyzyjnych” — trzeba godzić z sobą sprzeczne zapotrzebowania, rozmaite popyty, podaże, interesy; niepodobna też z góry ustalić “cennika” wszystkich możliwych sytuacji konfliktowych takiego, żeby tylko w oparciu o jego hasła i przypisane im “wyceny punktowe” dało się, mimo stosowania metod prawdopodobnościowych, uzyskiwać, przy kolejnym rozwiązywaniu tego samego problemu zarządzania, takie same dokładnie rezultaty. Przy tym, rzecz jasna, stopień zróżnicowania wyników jest jakąś funkcją złożoności rozstrzyganych problemów. Sytuacja stanie się może bardziej wyrazista, jeżeli sobie uzmysłowimy, że można ją wyrazić po części także w języku teorii gier. Maszyna jest jakby graczem, prowadzącym rozgrywkę przeciwko pewnej “koalicji”, na którą składa się olbrzymia ilość rozmaitych zgrupowań produkcyjnych i rynkowych, a także transportowych, usługowych itp. Zadaniem jej jest, mówiąc obrazowo, dbanie o to, by zachowana została optymalna równowaga wewnątrz koalicji, aby żaden z jej “członków” nie został ani pokrzywdzony w stosunku do innych, ani nagrodzony kosztem pozostałych. Koalicja jest bowiem w tym ujęciu po prostu całością planetarnej gospodarki, która winna się rozwijać homeostatycznie, a zarazem “sprawiedliwie i równomiernie”, a “gra maszyny przeciw koalicji” oznacza systematyczne utrzymywanie w obrębie dynamicznie rozwijającej się gospodarki — stanu takiej równowagi, która albo wszystkim przynosi pożytek, albo przynajmniej wyrządza, jeśli się tego uniknąć nie da, możliwie najmniej szkody. I teraz, jeśli podobną “partię” rozgrywać będą, “przeciwko” naszej “koalicji”, kolejno rozmaici partnerzy maszynowi (to znaczy, że każdy z nich będzie miał, na początku, do czynienia z zupełnie taką samą sytuacją wewnątrz koalicji), jest w najwyższym stopniu nieprawdopodobne, ażeby wszystkie poszczególne owe rozgrywki miały, co do poszczególnych posunięć oraz ich wyniku, tożsamy przebieg. Jest to prawie tym samym, co postulat, aby różni ludzie, grający po kolei w szachy przeciwko temu samemu szachiście, grali dokładnie tak samo — tylko dlatego, ponieważ takiego samego mają wszyscy przeciwnika. A zatem — co należy robić ze sprzecznymi “wycenami” maszyn, które miały wesprzeć człowieka, mającego rozstrzygnąć spór lokalnych Koordynatorów? Regressus ad infinitum nie jest możliwy — należy coś począć. Ale co? Wygląda to tak: albo elektronowe koordynatory nie umieją uwzględnić większej ilości zmiennych od człowieka, a wtedy w ogóle nie warto ich budować, albo umieją, a wtedy człowiek nie może sam “rozeznać się” w rezultatach, tj. nie umie powziąć niezależnej od maszyny decyzji, w oparciu o “własne zdanie o sytuacji”. Koordynator daje sobie radę z zadaniem, ale człowiek—”kontroler” niczego naprawdę nie kontroluje, a tylko tak mu się zdaje. Czy to nie jest jasne? Maszyna, do której pomocy odwołuje się człowiek—kontroler, jest w pewnym sensie dublerem Koordynatora i człowiek w tym miejscu staje się gońcem na posyłki, który taśmę informacyjną przenosi z miejsca na miejsce. Jeśli zaś dwie maszyny dają niejednakowe rezultaty, człowiek nie może zrobić nic innego, jak tylko rzucać monetą, aby wybrać: z “najwyższego nadzorcy” staje się mechanizmem losowym wyboru! A więc znów, i to przy maszynach tylko zarządzających, mamy sytuację, kiedy stają się one “bystrzejsze” od człowieka. Prima facie należałoby im to uniemożliwić, na mocy takiej oto np. ustawy: “Zabrania się budowy i użytkowania maszyn koordynujących, których potencjał przerabiania informacji udaremnia człowiekowi–kontrolerowi merytoryczny wgląd w rezultaty ich działalności”. To czysta fikcja jednak, bo kiedy obiektywna dynamika gospodarcza procesów do regulowania będzie wymagała dalszego rozrostu Koordynatorów, barierę ludzkich możliwości należy przekroczyć, i oto znów antynomia.<br />Można spytać, czy nie zmistyfikowałem problemu? Przecież radzimy sobie dzisiaj bez żadnych w ogóle maszyn! Tak, ale żyjemy w społeczeństwie jeszcze, wobec przyszłego, prostym. Między cywilizacją taką jak nasza, względnie prymitywną, a wysoce złożoną, jak przyszła, jest taka różnica mniej więcej, jak pomiędzy maszyną w sensie klasycznym i w sensie organizmu żywego. Maszyny w sensie klasycznym i cywilizacje “proste” wykazują rozmaite rodzaje oscylacji samowzbudnej, niekontrolowalne wahnięcia parametrów, które powodują tu kryzys ekonomiczny, ówdzie głód, gdzie indziej zatrucie thalidomidem. Aby uświadomić sobie, jak funkcjonuje maszyna złożona, trzeba wziąć pod uwagę, że poruszamy się, chodzimy, mówimy, jednym słowem żyjemy dzięki temu, że w każdym ułamku sekundy w bilionach miejsc naszego ciała naraz szeregi krwinek biegną “gęsiego” z drobinami tlenu, że we wszystkich bilionach komórek ciała zachodzą dalsze biliony procesów, utrzymujące w ryzach nieustanne ruchy brownowskie dążących do swego anarchicznego chaosu cieplnego cząstek, i że takich procesów, które muszą być stale utrzymywane w wąziuteńkim przedziale parametrów, są krocie —inaczej natychmiast rozpocząłby się rozpad całej ustrojowej dynamiki. Im układ bardziej jest złożony, tym bardziej totalna musi być regulacja, w tym mniejszym stopniu można parametrom pozwolić na lokalne wahnięcia. Czy mózg nasz panuje regulacyjnie nad ciałem? Bezsprzecznie tak. Czy każdy z nas panuje nad swoim ciałem? Tylko w wąskim przedziale parametrów — reszta jest nam “dana” przez rozważną Naturę. Ale nikt nie może nam dać, tj. za nas podjąć się regulacji bardzo złożonego systemu społecznego. Niebezpieczeństwo, o którym mówił Wiener, w tym, że do sytuacji, w jakich musimy już żądać “intelektronicznych posiłków”, do takich sytuacji rozwój doprowadzi nas stopniowo, bo w chwili, kiedy poczniemy tracić całościowe rozeznanie, a przez to i kontrolę, nie będzie można zatrzymać cywilizacji, jak zegarka — musi ona “iść” dalej.<br />Ale będzie chyba szła “sama”, jak dotąd? Niekoniecznie. Są to aspekty, aby tak rzec, negatywne — postępu, w sensie homeostatycznym. Ameba jest daleko mniej wrażliwa na chwilową utratę dopływu tlenu od mózgu. Miasto średniowieczne potrzebowało tylko wody i żywności: współczesne, gdy zabraknie mu elektryczności, staje się piekłem, jakim był Manhattan parę lat temu, kiedy stanęły windy w drapaczach i kolejki pod ziemią. Homeostaza ma bowiem dwa oblicza, jest wzrostem niewrażliwości na perturbację zewnętrzną, tj. wywołaną zakłóceniami “naturalnymi”, i zarazem wzrostem wrażliwości na perturbację wewnętrzną, tj. wywołaną zakłóceniami w obrębie samego układu (organizmu). Im większa bowiem sztuczność otoczenia, w tym większym stopniu skazani jesteśmy na technologię, na jej sprawność —i na zawodność, jeśli jest zawodna. Otóż może być zawodna. Antyperturbacyjną odporność jednostki można też rozpatrywać dwojako: jako elementu izolowanego — i jako elementu struktury społecznej. Cała “odporność antyperturbacyjna”, jaką przejawił Robinson Cruzoe, była rezultatem informacyjnego “przedprogramowania go” przez jego cywilizację, nim stał się “izolowanym elementem” na wyspie bezludnej. Podobnie zastrzyk, który otrzymuje noworodek, dający mu pewną odporność na całe życie, wywołuje wzrost jego odporności antyperturbacyjnej czysto osobniczy, jako elementu izolowanego. Natomiast wszędzie tam, gdzie interwencje muszą być powtarzane, społeczne sprzężenia winny funkcjonować bez zarzutu, a więc, jeśli chorego z blokiem serca ratuje od śmierci wszczepiony pod skórę aparat, protezujący bodźce nerwowe, musi on otrzymywać regularnie ładunki energetyczne (bateryjki) dla tego aparatu. Tak więc z jednej strony cywilizacja ratuje człowieka od śmierci, ale z drugiej uzależnia go dodatkowo od swego sprawnego działania. Na Ziemi organizm ludzki, sam reguluje stosunek wapnia w kościach do wapnia we krwi, ale w Kosmosie, gdy w warunkach bezgrawitacyjnych wapń zostaje wypłukiwany z kości do krwi, już nie Natura, ale my musimy ingerować regulacyjnie. W znanych z historii formacjach ustrojowych nieraz przejawiały się gwałtowne zaburzenia homeostazy, wywoływane zarówno zakłóceniami zewnątrzpochodnymi (epidemie, klęski żywiołowe), jak i wewnątrzpochodnymi, których czysto idiografcznym katalogiem są kroniki historyczne. Struktury ustrojowe posiadały rozmaitą odporność na takie zaburzenia i niektóre z nich, wprowadzając cały system poza obszar stabilności, w strefę przejść nieodwracalnych, powodowały, poprzez rewolucje, zmianę struktury na inną. Zawsze jednak ludzie wchodzili w relacje społeczne z ludźmi, rządzili nimi— lub byli przez nich rządzeni, eksploatowani, cokolwiek zatem się stało, było konsekwencją ludzkich działań. Prawda, że obiektywizujących się ponadjednostkowo i ponadgrupowo w określone siły; w zmiennych formach działały podobne sprzężenia materialno–informacyjne, działały też peryferyjne ostoje stabilizacji układowej — z rodziną, jedną z najstarszych, na czele. W miarę rozwoju technologii złożoność procesów do regulowania narasta, tak że niezbędne staje się wreszcie dla ich opanowania — zastosowanie regulatorów, dysponujących większą ilością różnorodności niż mózg ludzki. Jest to w gruncie rzeczy problem metaustrojowy, ponieważ konieczność taką odczuwać zaczynają kraje o odmiennych ustrojach, byle się tylko znajdowały na dostatecznie wysokim szczeblu technoewolucji. Otóż regulatory “nieludzkie”, tj. ludźmi nie będące, według wszelkiego prawdopodobieństwa będą mogły sprostać zadaniom lepiej od ludzi — a więc efekt melioryzujący rozwoju technologicznego i w tej dziedzinie będzie dobitny. Niemniej, całkowicie zmieni się sytuacja w sensie psychologicznym, ponieważ co innego jest wiedzieć, że ze stosunków, w jakie ludzie muszą ze sobą wchodzić, rodzą się statystyczno–dynamiczne prawidłowości, mogące nieraz godzić w interesy jednostek, grup czy całych klas, a co innego wiedzieć, że los nasz wymyka nam się z rąk, w widomy sposób przekazywany “elektronowym opiekunom”. Powstaje bowiem wtedy szczególny stan, którego biologicznym odpowiednikiem byłaby sytuacja człowieka wiedzącego, że wszystkimi procesami życiowymi jego ciała zawiaduje nie on, nie jego mózg, nie wewnętrzne prawidłowości ustrojowe, ale jakiś ośrodek poza nim, który wszystkim komórkom, enzymom, włóknom nerwowym, wszystkim molekułom jego ciała przepisuje najbardziej optymalne zachowanie, a chociaż regulacja taka mogłaby nawet być (powiedzmy) doskonalsza od realizowanej naturalnie przez “somatyczną mądrość ciała”, chociaż w perspektywie niosłaby z sobą siły, zdrowie, długowieczność, przecież każdy zgodzi się chyba z tym, że odczulibyśmy ją jako coś “przeciwnego naturze” w rozumieniu naszej, ludzkiej natury, i chyba to samo da się powiedzieć, wracając z owym obrazem do relacji “społeczeństwo — jego intelektronowe koordynatory”. Im bardziej będzie rosła złożoność wewnętrznej budowy cywilizacji, w tym większym stopniu trzeba będzie (w coraz liczniejszych dziedzinach) zezwolić takim regulatorom na baczną kontrolę i interwencję — dla utrzymania homeostazy — ale subiektywnie będzie się ów proces mógł wydać przejawem “zachłanności” owych maszyn, opanowujących, jedną po drugiej, dziedziny dotąd czysto ludzkiego bytowania. A zatem mamy przed sobą nie “Boga elektronowego” ani takiegoż władcę, lecz tylko układy, które, zrazu powołane jedynie do baczenia na procesy wyodrębnione i wyjątkowej wagi lub komplikacji, z wolna — w toku swoistej ewolucji — obejmują pieczę nad całą nieomal dynamiką społeczną. Nie będą owe układy usiłowały “opanować ludzkości”, w jakimkolwiek antropomorficznym znaczeniu tych słów, gdyż nie będąc osobami, nie przejawią rysów jakiegoś egoizmu, czy też żądzy władzy, które wszak “osobom” tylko można sensownie przypisać. Inna rzecz, że ludzie mogliby personifikować owe maszyny, przypisując im — nieobecne w nich —intencje i doznania, na prawach nowej, ale już wieku intelektrycznego, mitologii. Nie demonizuję wcale owych bezosobowych regulatorów, przedstawiam tylko zadziwiającą sytuację, w której, jak w polifemowej jaskini, dobiera się do nas nikt — ale tym razem dla naszego dobra. Moc decyzji ostatecznych może na zawsze pozostać w ręku człowieka, cóż z tego, kiedy próby korzystania takiej wolności wyjawią, że odmienne — gdyby takimi były — decyzje maszyn były korzystniejsze, bo z większą ustalone wszechstronnością. Po kilku bolesnych lekcjach ludzkość mogłaby się zamienić w grzeczne dziecię, zawsze słuchające dobrych rad —Nikogo. W tej wersji Regulator jest o wiele słabszy niż w wariancie Władcy, bo nigdy niczego nie nakazuje, jedynie doradza — ale czy ta jego słabość staje się naszą siłą?<br /><br /><br /><br />V. Prolegomena wszechmocy<br /><br /><br />Przed chaosem<br /><br /><br />Mówiliśmy już o tym, jakie czynniki natury konstrukcyjnej wywołać mogą powstanie “metafizyki homeostatów”. Założyliśmy przy tym bardzo uproszczoną klasyfikację źródeł “postawy metafizycznej”. Mogło to wywołać wrażenie, że problemy tak trudne i tak, w wymiarze historii, trwałe, jak pytania o sens bytu, o skończoność indywidualnego istnienia, o możliwość transcendencji, pragniemy rozstrzygnąć na kilku stronach, odwoławszy się do pewnych cybernetycznych analogii.<br />Chciałem zastrzec się przed zarzutem takiego “spłyciarstwa”. Nie odwołuję niczego, jedynie rozważania tamte, jak i zuchwalsze jeszcze, które nastąpią, są prymitywne tylko jako pierwsze przybliżenia.<br />Jeśli jesteśmy koroną kreacji, jeżeli do bytu powołał nas akt nadprzyrodzony, jeśli stanowimy zatem jako istoty rozumne swoistą kulminację tego, co może być, to przyszłość spotęguje zapewne naszą władzę nad materią, ale nie zmieni naszego stosunku do zacytowanych pytań, na które odpowiedź umie dać tylko metafizyka.<br />Jeśli natomiast uznamy się za bardzo wczesny etap rozwoju, który jako dla gatunku rozpoczął się dla nas przed pół milionem lat, a jako dla cywilizacji — przed kilkudziesięciu wiekami, i przyjmiemy, że rozwój ten może (choć nie musi) trwać jeszcze milionlecia, to nasza ignorancja współczesna nie implikuje bynajmniej ignorancji przyszłej. Nie znaczy to, że znajdziemy odpowiedź na wszystkie tego rodzaju pytania; sądzę raczej, że wyrośniemy z tych pytań, na które nie ma odpowiedzi nie dlatego, że jest przed nami ukryta, ale dlatego, ponieważ są to pytania źle stawiane. Dopóki zaledwie domyślamy się, jakeśmy powstali i co ukształtowało nas tak, że jesteśmy tym, czym jesteśmy, dopóki działania Natury w świecie martwej i ożywionej napawają nas podziwem, są dla nas niedościgłymi wzorami, obszarem rozwiązań, przewyższających perfekcją i złożonością wszystko, co sami umiemy zdziałać, dopóty ilość niewiadomych większa będzie od naszej wiedzy. I dopiero gdy będziemy mogli współzawodniczyć z Naturą pod względem stwórczym, gdy nauczymy się ją naśladować po to, aby wykryć wszystkie jej ograniczenia, jako Konstruktora, wejdziemy w przestrzeń swobody, czyli podwładnego naszym celom manewru strategii kreacyjnej.<br />Jedynym sposobem na technologię — powiedziałem przedtem — jest inna technologia. Rozszerzmy to twierdzenie. Natura jest w możliwościach swych niewyczerpana (ilość zawartej w niej informacji, powie cybernetyk, równa się nieskończoności). Nie możemy zatem skatalogować Natury choćby tylko dlatego, że nawet jako cywilizacja jesteśmy ograniczeni w czasie. Możemy jednak niejako obrócić nieskończoność Natury przeciwko niej samej, operując zbiorami nieprzeliczalnymi jako Technologowie — w sposób zbliżony do tego, jakim to czynią matematycy w teorii mnogości. Możemy zniweczyć różnice między “sztucznym” i “naturalnym”, co nastąpi wtedy, gdy “sztuczne” stanie się, najpierw, nie do odróżnienia od naturalnego, a potem je prześcignie. W jaki to nastąpi sposób, o tym będziemy mówili. A jak zrozumieć to prześcignięcie? Oznacza ono realizowanie z pomocą Natury tego, co dla niej niemożliwe.<br />Ach, powie ktoś, więc te wszystkie frazesy zmierzały tylko ku nadaniu wysokiej rangi dziełom ludzkim, różnym tam maszynom, których Natura nie stwarza.<br />Wszystko zależy od tego, co obejmiemy pojęciem “maszyna”. Może ono, naturalnie, oznaczać to tylko, co nauczyliśmy się budować dotychczas. Ale jeśli przez “maszynę” rozumieć będziemy to, co przejawia regularność, sytuacja się zmieni. W tak szerokim ujęciu nie jest już istotne, czy “maszyna” zrobiona została z materii istniejącej, z tych stu pierwiastków, jakie odkryła fizyka, czy z pęków promieniowania, albo i pól grawitacyjnych. Nie jest też ważne, czy i jak “maszyna” wykorzystuje, albo i “stwarza” energię. Oczywiście, w świecie naturalnym nie można stworzyć energii z niczego. Można by jednak skonstruować system, złożony z rozumnych istot i ich otoczenia, zachowujący się tak, żeby prawa termodynamiki, jakie znamy, w nim nie obowiązywały. Ktoś zareplikuje, że system ten jest “sztuczny” i że chytrze, w sposób dla żyjących w nim istot niedostrzegalny, musimy dostarczać mu energii z zewnątrz. Nic jednak nie wiadomo nam o tym, czy Metagalaktyka nie posiada źródeł energii, tak względem niej zewnętrznych, jak byłyby nimi jej źródła, “podłączone” do owego systemu. Może je ma; może zawdzięcza wieczny dopływ energii — nieskończoności Wszechświata. Czy — gdyby tak było — wynikałoby stąd, że Metagalaktyka jest “sztuczna”? Jak widzimy, wszystko zależy od skali rozpatrywanych zjawisk. Maszyna zatem jest to układ, wykazujący regularność zachowania, jakakolwiek: statyczną, probabilistyczną albo deterministyczną. W takim rozumieniu maszyną jest atom, jabłoń, układ gwiazdowy albo świat nadprzyrodzony — wszystko, co tylko skonstruujemy i co będzie się zachowywało w podany sposób: co będzie posiadało stany wewnętrzne oraz pewne stany zewnętrzne, przy czym zachodzące między zbiorami tych stanów związki będą podlegały pewnym prawidłowościom.<br />Pytanie o to, gdzie teraz znajduje się świat nadprzyrodzony, równe jest pytaniu o to, gdzie znajdowała się maszyna do szycia, zanim powstał człowiek. Nigdzie — ale można ją było zbudować.<br />Zapewne, maszynę do szycia łatwiej zbudować niż ów świat. Postaramy się jednak wykazać, że nie ma żadnych zakazów, które by nawet konstrukcję “pozadoczesności” uniemożliwiały.<br />Istnieją, dodajmy za Ashbym, dwa rodzaje maszyn. Maszyna prosta to układ zachowujący się tak, że jego stan wewnętrzny oraz stan otoczenia określają jednoznacznie stan następny. Gdy zmienne są ciągłe, równoważnym opisem takiej maszyny jest system zwykłych równań różniczkowych z czasem jako zmienną niezależną. Takie opisy w symbolicznym języku matematyki powszechnie stosuje fizyka, np. astronomia. W odniesieniu do takich systemów (“maszyn”), jak wahadło, jak spadająca w polu ciążenia bryła czy krążąca planeta, system tych równań daje nam przybliżenie do rzeczywistego toru zjawiska tak dokładne, że wystarczające.<br />Wobec maszyny złożonej, jak żywy organizm albo mózg, albo społeczeństwo, podobne przedstawienie (“modelowanie symboliczne”) zastosować się w praktyce nie daje. Wszystko zależy oczywiście od tego, jak wiele chcemy o systemie wiedzieć. Potrzebę wiedzy wyznacza ścigany cel oraz okoliczności. Jeżeli systemem jest powieszony człowiek i pragniemy określić, tj. przewidzieć jego przyszłe stany jako wahadła, wystarczy uwzględnić dwie zmienne (odchylenie kątowe, prędkość kątową). Jeśli to człowiek żywy i pragniemy przewidzieć jego zachowanie, ilość zmiennych istotnych, które trzeba uwzględnić, staje się olbrzymia, a i tak przepowiednia będzie tylko oznaczeniem stanu przyszłego z prawdopodobieństwem tym większym, im więcej uwzględnimy zmiennych — lecz ono nigdy nie będzie równe jedności (praktycznie ją osiągnie; w praktyce prawdopodobieństwo 0,9999999 całkowicie nam wystarczy). Istnieje szereg stworzonych przez matematykę sposobów znajdywania rozwiązań przybliżonych, kiedy ilość zmiennych istotnych udaremnia stosowanie zwykłej metody analitycznej. Na przykład tak zwana metoda Monte Carlo. Ale nie będziemy zajmowali się takimi sprawami, ponieważ nie uprawiamy tu matematyki, poza tym używane przez nią narzędzia ustąpią, jak można przypuszczać, miejsca innym.<br />Zagadnienia występujące tam, gdzie spotykamy się z “maszynami złożonymi”, bada obecnie szereg nowych dyscyplin. Są nimi teoria informacji, analiza operacyjna, teoria planowania eksperymentu, teoria decyzji, teoria gier, teoria programowania liniowego, teoria zarządzania, dynamika procesów grupowych. Wydaje się, że wszystkie, a także kilka nie wymienionych, zjednoczy w sobie ogólna teoria systemów (układów). Zdaje się też, że rozwój owej teorii ogólnej pójdzie w dwu kierunkach. Z jednej bowiem strony można rozumieć przez nią teorię układów fizycznych, takich, jakie przedstawia Natura. Z drugiej — teorię układów matematycznych, która nie zajmuje się realnym istnieniem badanych związków, a jedynie dba o to, by układy takie były wolne od wewnętrznych sprzeczności. To rozszczepienie nie nastąpiło jeszcze wyraźnie. Ośmielimy się jednak przewidywać stan, w którym te dwie gałęzie niejako na powrót się połączą, będzie to oznaczało możliwość konstruowania systemów o dowolnych własnościach, spotykanych, albo i nie spotykanych w świecie rzeczywistym. Tu należy uczynić pewne zastrzeżenie. Natura przy całej nieskończoności swych związków, ograniczana jest istnieniem pewnych zakazów (że nie można wydobyć energii “z niczego”, ani przekroczyć szybkości światła, ani równocześnie zmierzyć momentu i pędu elektronu, itd.). Dopóki świat nasz jest w znacznej mierze tożsamy ze światem Natury, nieco tylko przez nas “przerobionym” (dzięki działalności technologicznej), oraz dopóki my sami jesteśmy skutkiem wyłącznym lub niemal wyłącznym naturalnych procesów (bioewolucji), dopóty ograniczenia Natury są naszymi ograniczeniami. W tym sensie można by wprawdzie kiedyś powtórzyć Napoleona, ale nie tak, żeby, będąc wierną kopią oryginału, ponadto potrafił jeszcze latać za samym rozpostarciem rąk. W naszym zwykłym świecie nie jest to możliwe. Aby Napoleon ów mógł latać, trzeba nadto stworzyć dla niego takie środowisko, w którym “loty za zachceniem” byłyby możliwe. Inaczej mówiąc, trzeba stworzyć dla tego celu sztuczny świat, izolowany od naturalnego. Im wyższy przy tym będzie stopień zrealizowanej izolacji świata kreowanego przez nas od naturalnego, tym bardziej odmienne od naturalnych prawa będą mogły w owym sztucznym świecie panować. Oponent, z którym starliśmy się już wyżej, powie, że to oszustwo, bo urzeczywistnienie takich życzeń, jak latanie za rozpostarciem rąk, musielibyśmy zręcznie “wbudować” w ten nasz syntetyczny świat, izolowany od Natury. Ależ tak. Ponieważ jednak uważamy ją za konstruktora i za nic więcej, naszym zdaniem wbudowała ona naszemu oponentowi kręgosłup, mięśnie, nerki, serce, mózg i szereg innych narządów; wynikałoby z tego, że jest on, chociaż całkiem normalny człowiek, czy raczej właśnie dlatego, “oszustwem”. Nawyk uznawania płodów ludzkich za dzieła bardziej od naturalnych, ułomne, zrozumiały na dzisiejszym etapie rozwoju, musimy przekreślić. — Jeśli mamy mówić o tym, co może być w bardzo odległej przyszłości. Będziemy rywalizować z Naturą pod każdym względem: niezawodności i trwałości naszych tworów, ich uniwersalizmu działania, ich potencjału regulacyjnego, zakresów homeostazy i wielu innych. Sprawie tej poświęcimy osobną uwagę.<br />Teraz jednak zajmiemy się dalszą częścią wprowadzenia w “pantokreatykę”, to jest w nazwaną tak umownie dla wygody, wspartą na ogólnej teorii systemów fizycznych i matematycznych, umiejętność osiągania wszelkich, także przez Naturę nie realizowanych celów.</div><div><br /><br /><br />Chaos i ład<br /><br /><br />Jako kandydaci na stwórców winniśmy się na początku zająć chaosem. Czym jest chaos? Jeżeli dla danego wypadku X w A wszelkie możliwe wypadki zajść mogą w B, i jeśli taka niezależność panuje powszechnie, mamy przed sobą chaos. Jeśli natomiast wypadek X w A ogranicza w pewien sposób to, co może zajść w B, między A i B zachodzi związek. Jeśli X w A ogranicza B jednoznacznie (przekręcamy kontakt, zapala się lampa), związek A i B jest deterministyczny. Jeśli X w A ogranicza B w ten sposób, że po X w A mogą zajść w B wypadki Y lub Z, przy czym Y zachodzi 40 razy na 100. po X w A, natomiast Z — 60 razy, to związek A i B jest probabilistyczny.<br />Rozważmy teraz, czy możliwy jest inny “typ” chaosu, mianowicie tak żeby panujące związki były najzupełniej zmienne (więc ani deterministyczne ani probabilistyczne, bo już wiemy, że wtedy jest pewien ład). Powiedzmy, że po X w A zachodzi raz Y w B, a raz U w B, raz znowu J w V, itd. Otóż, w tych okolicznościach, brak jakiejkolwiek regularności nie pozwala wykryć istnienia związków w ogóle, a tym samym związki zmienne są tym samym, co brak związków, czyli możliwy jest tylko jeden chaos. Rozważmy z kolei, jak można imitować chaos. Jeśli mamy maszynę o bardzo wielkiej ilości klawiszów i lampek, przy czym po naciśnięciu klawisza zapala się jakaś lampka, to nawet jeśli układ jest ściśle deterministyczny, obserwator śledzący jego zachowanie może powziąć konkluzję, że ma przed sobą chaos. Jeżeli bowiem naciśnięcie pierwszego klawisza wywołuje zapalenie lampki T, drugie naciśnięcie tegoż klawisza — zapala lampkę W, trzecie — D, czwarte Q i jeśli ta sekwencja jest bardzo długa, tak że dopiero milionowe naciśnięcie klawisza nr l zapala znowu lampkę T, po czym seria się już dokładnie powtarza — obserwator, który się zakończenia jednej serii nie doczeka, uzna, że maszyna zachowuje się chaotycznie. Tak zatem, chaos można naśladować układem predeterminowanym, jeśli długość serii, w której ta sama przyczyna wywołuje skutki pozornie losowe, jest większa od czasu obserwacji. Całe szczęście, że Natura nie jest w ten sposób zbudowana.<br />Powiedzieliśmy powyższe nie dlatego, że pragniemy imitować chaos, ale by ukazać, że eksperymentator, więc nauka, potrafi wykryć nie każdy rodzaj porządku, to jest obecność związków.<br />Jeżeli wypadek X w A ogranicza możliwe wypadki w B, powiadamy, że między A i B zachodzi związek. Ponieważ wypadek X w A w pewnej mierze determinuje to, co się stanie w B, związku można użyć dla przekazania informacji. Oznacza to zarazem istnienie organizacji: A i B stanowią pewien “układ”.<br />W Naturze istnieje nieskończona ilość związków. Nie wszystkie jednak związki w jednakowym stopniu określają zachowanie układu lub jego części. W przeciwnym razie mielibyśmy do czynienia z taką ilością zmiennych istotnych, że nauka nie byłaby możliwa. Niejednakowy charakter związków oznacza istnienie mniejszej lub większej ‘izolacji układu od całej reszty Kosmosu. W praktyce pomijamy możliwie wiele związków, tj. zmiennych nieistotnych.<br />Związek A i B, ograniczając możliwe stany B, dostrzegalny jest jako pewna restrykcja. Restrykcja czego? “Wszechmożliwości”? Nie — ilość ich nie jest nieskończona. Jest to restrykcja w obrębie zbioru stanów możliwych dla B. Ale skąd wiemy, jakie stany są możliwe? W oparciu o dotychczasową wiedzę. A czym jest wiedza? Wiedza oznacza oczekiwanie określonego wypadku, po zajściu pewnych innych wypadków. Kto nic nie wie, spodziewać się może wszystkiego. Kto coś wie, sądzi, że nie wszystko może się zdarzyć, a tylko pewne rzeczy, inne natomiast zajścia ma za niemożliwe. Wiedza jest zatem ograniczeniem różnorodności, i jest tym większa, im mniejsza jest niepewność oczekującego.<br />Powiedzmy, że pan Smith, urzędnik bankowy, mieszka z ciotką–purytanką, która ma sublokatorkę, w piętrowym domu o przedniej ścianie ze szkła, dzięki czemu uczony obserwator po drugiej strome ulicy może obserwować wszystko, co się dzieje w środku. Niech wnętrze domku będzie “kosmosem”, który mamy badać. Ilość “układów”, dających się w tym kosmosie wyróżnić, jest praktycznie nieskończona. Można go np. rozpatrywać atomowo. Mamy wtedy zbiory molekuł, z których są zrobione krzesła, stoły, i ciała trzech osób. Ludzie poruszają się; chcemy przewidywać ich stany przyszłe. Ponieważ każde ciało składa się z ok. 1025 molekuł, należałoby wykreślić trzy razy po 1025 trajektorii tych molekuł, to jest ich torów czasoprzestrzennych. Nie jest to najlepsze podejście, bo zanim ustalimy tylko wyjściowe stany molekularne Smitha, panny i ciotki, minie około 15 bilionów lat, osoby te legną w grobie, a myśmy nie zdążyli odwzorować analitycznie pierwszego śniadania. Ilość rozpatrywanych zmiennych zależy od tego, co właściwie chcemy badać. Gdy ciotka schodzi po jarzynę do piwnicy, p. Smith całuje sublokatorkę. Teoretycznie dałoby się nawet w oparciu o analizę zachowania molekuł dojść, kto kogo pocałował, ale w praktyce, jakeśmy wskazali, prędzej zgaśnie słońce. Bylibyśmy niepotrzebnie gorliwi, bo wystarczy traktować nasz Kosmos jako układ złożony z trzech ciał. Występują w nim okresowo koniugacje dwu ciał, kiedy trzecie schodzi do piwnicy. Najpierw pojawia się w naszym Kosmosie Ptolemeusz. Widzi on, że dwa ciała łączą się przy oddalaniu się trzeciego. Stwarza zatem teorię, czysto opisową: rysuje odpowiednie cykle i epicykle, dzięki czemu wiadomo już z góry, jaką pozycję przybiorą dwa ciała górne, gdy dolne znajdzie się najniżej. Ponieważ tak się składa, że w samym środku kręgów, które wyrysował, jest zlew kuchenny, przypisuje mu własności wielce ważnego centrum Kosmosu. Wszystko się kręci dokoła zlewu.<br />Powoli astronomia rozwija się dalej. Przychodzi Kopernik, obala teorię zlewocentryczną, a po nim Kepler wykreśla znacznie prostsze od ptolemeuszowych tory trzech ciał. Następnie pojawia się Newton. Oświadcza on, że zachowanie się ciał zależy od ich wzajemnej atrakcji, tj. siły przyciągania. P. Smith przyciąga sublokatorkę, a ona jego. Gdy ciotka jest blisko, oboje kręcą się wokół niej, bo siła przyciągająca ciotki jest odpowiednio większa. Teraz umiemy już wszystko doskonale przewidywać. Nagle jednak zjawia się Einstein naszego Kosmosu, który poddaje teorię Newtona krytyce. Uważa on, że postulowanie działania jakichkolwiek sił jest zupełnie zbędne. Stwarza teorię względności, w której zachowanie się układu wyznacza geometria przestrzeni cztero wymiarowej. “Przyciąganie erotyczne” znika tak samo, jak znika przyciąganie w prawdziwej teorii względności. Zastępuje je zakrzywienie przestrzeni wokół mas grawitujących (a w naszym przypadku — mas erotycznych). Wówczas schodzenie się torów p. Smitha i panny wyznaczają pewne krzywe, zwane erotodezyjnymi. Obecność ciotki wywołuje takie odkształcenie erotodezyjnych, że do zespolenia panny ze Smithem nie dochodzi. Nowa teoria jest prostsza, bo nie postuluje istnienia żadnych “sił”, wszystko sprowadza do geometrii przestrzeni, a szczególnie piękna jest jej generalna formuła (że energia całowania równa się iloczynowi z mas erotycznych przez kwadrat prędkości dźwięku, ponieważ zaledwie drzwi zatrzasną się za ciotką, i odgłos ten dojdzie do Smitha i panny, rzucają się sobie w ramiona).<br />Potem jednak przychodzą nowi fizycy, wśród nich Heisenberg. Stwierdzają oni, że wprawdzie Einstein dobrze przewidział stany dynamiczne układu (stan całowania, niecałowania itd.), ale dokładniejsze obserwacje, przy pomocy olbrzymich narzędzi optycznych, pozwalające obserwować poszczególne cienie rąk, nóg i głów, wykazują, że można tam wyróżnić takie zmienne, które teoria względności erotycznej pominęła. Nie kwestionują oni istnienia grawitacji erotycznej, ale obserwując drobne elementy, z których zbudowane są ciała kosmiczne (więc te ręce, nogi, głowy), dostrzegają indeterminizm ich zachowania. Np. ręce p. Smitha nie przybierają zawsze tej samej pozycji podczas stanu całowania. W ten sposób rozpoczyna się tworzenie nowej dyscypliny, zwanej mikromechaniką p. Smitha, ciotki i panny. Jest to teoria statystyczna i probabilistyczna. Deterministycznie zachowują się wielkie części układu (ledwo drzwi zamkną się za ciotką, a już Smith i panna, itd.), ale to jest wynik działania sumujących się prawidłowości indeterministycznych. Tu jednak otwieraj ą się prawdziwe trudności, ponieważ nie można przejść od mikromechaniki Heisenberga do makromechaniki Einsteina. Ciała zachowują się deterministycznie jako całości, lecz zalecanki odbywają się rozmaicie. Grawitacja erotyczna nie wyjaśnia wszystkiego. Dlaczego Smith czasem bierze pannę pod brodę, a czasem nie? Mnożą się coraz to nowe statystyki. Nagle bomba: ręce i nogi wcale nie stanowią elementów ostatecznych, można je podzielić na ramiona, przedramiona, uda, łydki, palce, dłonie itd. Ilość “elementarnych cząstek” rośnie zastraszająco. Już nie ma żadnej jednolitej teorii ich zachowania i między ogólną teorią względności erotycznej a mikromechaniką kwantów (odkryto kwant pieszczoty) zieje przepaść nie do przebycia.<br />Istotnie, pogodzenie z sobą teorii grawitacji i teorii kwantów (już prawdziwego Kosmosu, a nie tego z naszego żartu) jest dotąd sprawą nie rozstrzygniętą. Mówiąc ogólnie, każdy system można przedefiniować tak, aby składał się z dowolnej ilości części, za czym z kolei wykrywa się związki między owymi częściami Jeżeli chcemy przepowiadać wyłącznie pewne stany ogólne, wystarczy teoria o małej ilości zmiennych. Jeśli badamy układy coraz to podrzędniejsze względem tamtych, sprawa się wikła. Gwiazdy od gwiazd izoluje Natura, ale izolować pojedyncze cząstki atomowe musimy sami; jest to jeden z tysiąca kłopotów. Trzeba wybierać takie odwzorowania, które godzą minimum uwzględnianych zmiennych z możliwie dużą ścisłością przepowiedni. Nasz przykład był żartem, ponieważ zachowania owych trzech osób nie można odwzorować deterministycznie. Brak im na to dostatecznej regularności zachowania. Takie podejście jest możliwe i niejako narzuca się samo, gdy układ wykazuje wielką regularność i znaczny stopień izolacji. Warunki te występują w niebiosach, ale nie w mieszkaniu. Gdy jednak ilość zmiennych rośnie, nawet w astronomii pojawiają się trudności stosowania równań różniczkowych. Sprawia je już wyznaczenie torów trzech ciał grawitujących, a dla sześciu ciał równań takich rozwiązać nie można.<br />Nauka istnieje dzięki temu, że tworzy uproszczone modele zjawisk, że pomija zmienne mniej istotne (np. przyjmuje się, że masy mniejszych ciał układu równe są zeru) i poszukuje niezmienników. Takim niezmiennikiem jest np. szybkość światła. W prawdziwym Kosmosie łatwiej o nie aniżeli w mieszkaniu ciotki. Jeżeli (i nader słusznie) całowania nie jesteśmy skłonni uznać za zjawisko równie uniwersalne, jak grawitacja, lecz pragniemy dowiedzieć się, dlaczego Smith całuje, jesteśmy w kropce. Przy swych ograniczeniach, mechanika matematyczna jest tak uniwersalna, że pozwala obliczać na tysiące i miliony lat naprzód położenia ciał kosmicznych. Jak jednak obliczyć tory impulsów mózgu p. Smitha, aby przewidywać “oralne koincydencje” z panną, tj. mówiąc mniej uczenie, pocałunki? Jeśliby nawet było możliwe, odwzorowanie symboliczne kolejnych stanów mózgu okazuje się bardziej skomplikowane od samego zjawiska (tj., biegu impulsów w sieci neuronowej). W takiej sytuacji, neuronowy równoważnik aktu kichnięcia jest tomem, którego okładkę trzeba otwierać za pomocą kranowego dźwigu. W praktyce aparatura matematyczna grzęźnie w powstałej złożoności dużo wcześniej, aniżeli do zapełniania takich tomów dochodzi. Cóż pozostaje? Uznanie samego zjawiska za jego najdoskonalsze odwzorowanie, zastąpienie działalności analitycznej — kreacyjną. Jednym słowem — praktyka imitologiczna.</div><div><br /><br /><br />Scylla i Charybda, czyli o umiarze<br /><br /><br />Znajdujemy się w najniebezpieczniejszym miejscu naszych rozważań. Namnożyliśmy pytań, zwlekając z udzieleniem odpowiedzi, i obietnic, zaopatrzonych tak buńczucznymi nazwami, jak “pantokreatyka”, powiedzieliśmy już to i owo o chaosie, doszliśmy do prapoczątków “imitologii” i cały ten tok popycha nas nieuchronnie ku nowym zagadnieniom. Są to kwestie: matematyki i jej stosunku do realnego świata, tego świata z kolei, problemów językowych i semantycznych, różnych rodzajów “istnienia”, jednym słowem, zbliżamy się do obszaru bezdennych bytów filozoficznych, w którym cały nasz konstruktorski optymizm może utonąć bez śladu. Nie o to idzie, że wszystkie te zagadnienia są niezmiernie złożone, że każde wymagałoby tomu co najmniej, jeśli nie biblioteki, ani o to nawet, że brak nam wszechstronnej kompetencji. Chodzi o to, że kompetencja na nic się nie przyda, bo to są zagadnienia sporne.<br />Muszę to wyjaśnić dokładniej. Książki popularyzujące aktualny stan wiedzy — dajmy na to fizycznej — i to popularyzujące dobrze, przedstawiają rzecz tak, jak gdyby istniały dwie, wyraźnie od siebie odgraniczone dziedziny: tego, co nauka ustanowiła już raz na zawsze, i tego, co nie zostało jeszcze wyświetlone do końca. Jest to więc wizyta we wspaniałym, od podstaw do szczytu doskonale urządzonym gmachu, w jego poszczególnych apartamentach, przy czym tu i ówdzie leżą na stołach nie rozwiązane łamigłówki. Opuszczamy ten przybytek z przeświadczeniem, że owe zagadki rozwiąże się prędzej czy później, w czym utwierdza nas wspaniałość całej budowli. Nie przychodzi nam nawet na myśl, że rozwiązanie owych łamigłówek może pociągnąć za sobą zburzenie połowy gmachu. I podobnie mają się rzeczy, gdy czyta się podręczniki traktujące o matematyce, fizyce czy teorii informacji. Imponująca konstrukcja występuje na plan pierwszy. Zagadnienia niejasne ukryte są przed naszym okiem lepiej jeszcze, aniżeli w popularnym wykładzie. Popularyzator bowiem (a mam tu na myśli popularyzatora–uczonego) zdaje sobie sprawę z tego, jak świetny efekt wywołuje wprowadzenie w światło wykładu Tajemnicy. Autor natomiast podręcznika (uniwersyteckiego na przykład) dba przede wszystkim o spoistość prezentowanej konstrukcji, o jej jednolitość, za nic ma więc wszelkie efekty, a nie poczuwając się do obowiązku przekładania piętrowych formuł na język potoczny, tym łatwiej unika interpretacji spornych. Zapewne, ten, kto zna się na rzeczy, zorientuje się, na jak wiele rozmaitych sposobów można interpretować fizyczne, materialne znaczenie całej symboliki kwantowych równań, jakie otchłanie ścierających się poglądów ukrywa ta czy inna formuła. Zdaje też sobie sprawę z tego, że inny teoretyk napisałby książkę, w wielu miejscach odbiegającą od tej, którą ma przed sobą.<br />Wszystko to jest zarówno zrozumiałe, jak i konieczne, ponieważ nie można ani popularyzować, ani uczyć, wprowadzając od razu w centrum aktualnych sporów. Czytelnik książki popularyzującej i tak nie weźmie sam udziału w ich rozstrzyganiu, adept zaś teoretycznej dyscypliny musi pierwej poznać jej broń i konfigurację bitewnego pola, zanim, opanowawszy podstawy musztry i taktyki, będzie mógł uczestniczyć w strategicznych naradach nauki. Celem naszym nie jest jednak ani popularyzacja tego, co już zostało dokonane, ani osiągnięcie wiedzy jako tako fachowej, lecz spojrzenie w przyszłość.<br />Gdybyśmy rozdęli w niesamowity sposób nasze uroszczenia i zapragnęli znaleźć się za jednym zamachem na najwyższych kondygnacjach nauki, tam, gdzie dyskutują nie autorzy popularyzacji lub podręczników, ale sami twórcy tego, co potem wykłada się i upowszechnia, gdybyśmy ośmielili się wziąć udział w ich dysputach, byłoby to czymś gorszym od śmieszności. Byłby to błąd. Mniejsza o śmieszność — ale co właściwie mielibyśmy uczynić? Powiedzmy, że pojmujemy wszystko, co mówią informacjoniści, matematycy, fizycy, opowiadający się za tym czy innym poglądem. Są to poglądy sprzeczne. Koncepcja kwantowania przestrzeni jest nie do pogodzenia z klasyczną mechaniką kwantową. “Skryte parametry” cząstek elementarnych istnieją albo nie istnieją. Przyjęcie nieskończonej szybkości rozchodzenia się procesów w mikroświecie sprzecza się ze skończoną szybkością światła. “Intelektronicy” powiadają, że można zbudować z elementów dwójkowych (dyskretnych) model mózgu. “Fungoidyści” twierdzą, że to nie jest możliwe. Po obu stronach znajdują się znakomici fachowcy, współtwórcy kolejnych przewrotów naukowych. Czy mamy próbować eklektycznego godzenia ich przypuszczeń? To daremne: postęp nauki nie rodzi się z kompromisów. Czy mamy uznać słuszność argumentów jednej strony — przeciwko drugiej? Jak jednak znaleźć kryteria wyboru, jeśli Bohr sprzecza się z Einsteinem albo Brouwer z Hilbertem? Czy mamy może zwrócić się po nowe kryteria do filozofów? Ale nie tylko wiele jest ich szkół: w obrębie jednej interpretacje podstaw fizyki czy matematyki są przedmiotem sporów!<br />A przy tym wszystko to nie są problemy akademickie, kłótnie o znaczenie szczegółów, ale o najbardziej fundamentalne założenia wiedzy. Zagadnienia nieskończoności, pomiaru, związku cząstek atomowych ze strukturą Kosmosu, odwracalności lub nieodwracalności zjawisk, upływu czasu, żeby nawet nie wspomnieć o problemach kosmologii czy kosmogonii.<br />Tak zatem przedstawia się nasza Scylla: otchłań, ku której brzegom podążaliśmy lekkomyślnie, mając na oku oddaloną o tysiąclecia przyszłość. Czy elementarne cząstki są odróżnialne, czy nie? Czy można postulować realne istnienie “antyświata”? Czy istnieje pułap złożoności systemowej? Czy jest kres pochodu w dół, ku rozmiarom nieskończenie małym, i w górę, ku bezgranicznym wielkościom, czy też może się w niepojęty sposób zamykają na kształt koła? Czy można nadawać cząstkom energię dowolnie wielką? Co nas obchodzą te sprawy? Czym dla nas są? Ależ wszystkim, jeśli tak zwana “pantokreatyka” nie ma pozostać pustosłowiem, czczą przechwałką, godną głupca lub dziecka. Gdybyśmy uosobili w sobie, jakimś cudem, wiedzę najtęższych specjalistów Ziemi, nie dałoby to nam nic: nie o to przecież chodzi, że dzisiaj nie można być uniwersalnym mędrcem, ale o to, że taki mędrzec, gdyby nawet możliwy, winien się zdecydować na przynależność do któregoś z obozów. Natura falowa i korpuskularna materii przejawia się w zależności od tego, co badamy. Czyżby to samo było i z długością? Czy długość jest czymś takim, jak barwa — czymś, co powstaje, a nie cechą zjawisk daną na wszystkich poziomach rzeczywistości? Najznakomitszy specjalista, któremu zada się zacytowane pytanie, odrzecze, iż nie zna odpowiedzi innej od osobistych poglądów, opartych, a jakże, na gigantycznej konstrukcji teoretycznej, która jest wszakże nie do przyjęcia dla innych, równie znakomitych specjalistów.<br />Nie chciałbym wywoływać tymi słowami wrażenia, że współczesna fizyka czy cybernetyka to morza sprzeczności i pytajników. Tak nie jest. Osiągnięcia są olbrzymie, ale ich chwała nie przesłania ich ciemności. W historii nauki bywały okresy, kiedy wydawało się, że wznoszony gmach jest już niemal zamknięty i przyszłe pokolenia będą mogły jedynie zajmować się udoskonaleniami jego drobnych szczegółów. Taki optymizm panował np. u schyłku XIX wieku, w czasach “niepodzielności” atomu. Ale są i takie, jak obecny, kiedy właściwie nie ma już naukowych tez nienaruszalnych, to znaczy takich, których obalenie wszyscy fachowcy uznaliby jednogłośnie za niemożliwe. Czas, w którym żartobliwa uwaga wybitnego fizyka, że nowa teoria jest za mało zwariowana, aby mogła być prawdziwą, pada w gruncie rzeczy serio. W którym na ołtarzu oczekiwanej nowej teorii uczeni gotowi są złożyć najbardziej fundamentalne, uświęcone prawdy — o tym, że mikrocząstka istnieje w określonym miejscu czasoprzestrzeni, że materia powstaje z niczego (hipotezę taką wypowiedział Hoyle) a wreszcie, że w zjawiskach wewnątrzatomowych w ogóle nie istnieje coś takiego, jak długość!*<br />Ale nie mniejszym niebezpieczeństwem jest Charybda lekkomyślnego “spłyciarstwa”, żonglująca wszechmożliwościami, wir gadulstwa kosmicznego, rodem z Science–Fiction, okolica, w której wszystko można powiedzieć, bo za nic nie bierze się odpowiedzialności. Gdzie wszystko traktuje się z lekkiej ręki, po łebkach, gdzie dziury i strzępy logicznego rozumowania przesłania się pseudocybernetyczną retoryką, gdzie kwitną banały o “maszynach, piszących wiersze jak Szekspir” i bzdury o cywilizacjach kosmicznych, z którymi porozumieć się jest nie trudniej, niż z sąsiadem zza płotu.<br />Doprawdy, nie jest łatwo przepłynąć między tymi dwoma wciągającymi wirami. Wątpię nawet, czy to w ogóle możliwe. Ale gdyby żegluga miała się skończyć fatalnie, navigare necesse est, ponieważ jeśli się nie wyrusza, na pewno nie dotrze się donikąd. Tak więc potrzebny jest nam umiar; jaki? Konstruktorski. Ponieważ my tylko o tyle chcemy poznać świat, o ile to jest niezbędne, aby go ulepszyć. A jeśli się nam nie uda, to lepiej chyba utonąć w Scylli niż w Charybdzie.</div><div><br /><br /><br />Milczenie konstruktora<br /><br /><br />Powiedziałem, że kompasem naszej żeglugi między otchłaniami wiedzy i głupoty będzie umiar konstruktorski. Oznacza on wiarę w możliwość skutecznego działania i w konieczność określonej rezygnacji. Jest to przede wszystkim rezygnacja z zadawania pytań “ostatecznych”. Nie jest to milczenie udającego głuchotę, lecz milczenie działania. O tym, że można działać, wiemy daleko pewniej i lepiej aniżeli o tym, w jaki sposób to się dzieje. Konstruktor nie jest wąskim pragmatykiem, budowniczym, wznoszącym swój dom z cegieł bez troski o to, skąd się wzięły i czym są, byle dom został zbudowany. Konstruktor wie wszystko o swoich cegłach, prócz tego, jak wyglądają, gdy nikt na nie nie patrzy. Wie, że własności są cechami sytuacji, a nie rzeczy. Istnieje substancja chemiczna, która dla jednych ludzi pozbawiona jest smaku, a dla innych jest gorzka. Gorzka jest dla tych, którzy dziedziczyli po przodkach pewien gen. Nie wszyscy ludzie go mają. Pytanie o to, czy ta substancja jest “naprawdę” gorzka nie ma, według konstruktora, żadnego sensu. Jeżeli jakiś człowiek odczuwa gorycz tej substancji, jest ona dla niego gorzka. Można zbadać, czym różnią się od siebie te dwa rodzaje ludzi. To wszystko. Niektórzy sądzą, że oprócz własności, które są funkcją sytuacji (jak gorycz lub długość) i przez to są zmienne, istnieją własności niezmienne, a nauka zajmuje się poszukiwaniem takich właśnie niezmienników, w rodzaju szybkości światła. To jest też pogląd Konstruktora. Jest on zupełnie pewny, że świat będzie istniał i po nim; w przeciwnym razie nie pracowałby dla przyszłości, której nie zobaczy. Mówią mu, że świat będzie istniał także po zgonie ostatniej istoty żywej, ale będzie to raczej świat fizyki aniżeli spostrzeżeń zmysłowych. W świecie tym nadal będą istniały atomy i elektrony, ale nie będzie w nim dźwięków, zapachów ani barw. Konstruktor pyta jednak, jakiej właściwie fizyki będzie to świat: dziewiętnastowiecznej, z jej kuleczkami—atomami, współczesnej z atomem falowo—korpuskularnym, czy też przyszłej, która scali może własności atomów z własnościami galaktyk? Pytanie to zadaje nie dlatego, aby nie wierzył w realność świata. Tę przyjmuje jako wstępne założenie. Widzi jednak, że własności ciał, które wykrywa fizyka, są też funkcjami sytuacji, mianowicie aktualnego stanu wiedzy fizycznej. Można mówić o tym, że ocean istnieje, kiedy nikogo nie ma, ale nie można pytać, jak wtedy wygląda. Jeśli jakoś wygląda, to znaczy, ktoś na niego patrzy. Jeżeli Konstruktor kocha chimeryczną kobietę, która raz zdaje się odwzajemniać jego uczucia, a raz nie, może tworzyć sprzeczne o niej sądy, ale nie narusza to w niczym obiektywnego istnienia owej kobiety. Może badać jej zachowanie, notować jej słowa, zapisywać elektryczne potencjały jej mózgu, może rozpatrywać ją jako żywy organizm, jako zbiór molekuł lub atomów, a wreszcie jako lokalne zakrzywienie czasoprzestrzeni, ale z tego nie wynika, że tych kobiet jest tyle, ile sposobów możliwego badania. Nie jest pewien, czy kiedykolwiek będzie można zredukować te rozmaite metody badania do jednej, tak aby ze zderzeń atomowych dało się odczytać miłość. Działa wszakże tak, jak gdyby to było możliwe. Tym samym uprawia określoną filozofię, chociaż broni się przed wciągnięciem w jej spory. Uważa, że istnieje jedna rzeczywistość, którą można interpretować na nieskończoną ilość sposobów. Niektóre z tych interpretacji pozwalają osiągać upatrzone cele. Czyni je swoim narzędziem. A więc jednak jest pragmatystą i prawdziwe znaczy dla niego tyle samo, co użyteczne?<br />W odpowiedzi Konstruktor proponuje, aby pytający razem z nim przypatrzył się ludzkiej działalności. Cokolwiek ludzie robią, robią to z jakimś celem. Zapewne: istnieją hierarchie i powikłane struktury takich celów. Niektórzy działają tak, aby ich czyny nie miały pozornie żadnego celu. Ale z samej struktury powyższego zdania (działają… aby) wynika, że i oni ściga j ą określony cel: udawania bezcelowości działań. Niektórzy działają w przekonaniu, że cel swój osiągną dopiero po śmierci. Wielu zmierza obiektywnie ku innym celom, aniżeli te, które sobie upatrzyli. Niemniej, nie ma działalności bezcelowej.<br />Co jest celem nauki? Poznanie “istoty” zjawisk? Ale jak można się dowiedzieć, że się ją już poznało? Że to już jest cała “istota”, a nie jej część? Więc wytłumaczenie zjawisk? Ale na czym polega wytłumaczenie? Na porównaniu? Można porównać kulę ziemską z jabłkiem i bioewolucję z technoewolucją, ale z czym można porównać Schrödingerowską falę “psi” z równania elektronu? Z czym “dziwność” cząstek?<br />Według Konstruktora, nauka jest przewidywaniem. Wielu filozofów też jest takiego zdania; najwięcej mówią o tym neopozytywiści. Uważają oni nadto, że filozofia nauki jest w gruncie rzeczy teorią nauki i że wiedzą, jak nauka tworzy i sprawdza bądź obala coraz to nowe teorie. Teoria jest uogólnieniem faktów obserwacyjnych. W oparciu o nie przepowiada się stan przyszły. Jeśli już przepowiednie będą się sprawdzały, a ponadto jeszcze zapowiedzą istnienie zjawisk dotąd nie znanych, teoria zostaje uznana za prawdziwą. W zasadzie tak jest; w rzeczywistości sprawy są bardziej skomplikowane. Wymienieni filozofowie zachowują się jak starsza pani, która prowadzi w gazecie kącik dla zakochanych. Nie o to chodzi, że jej rady są bezsensowne: nic podobnego, mogą być nawet bardzo rozumne, ale nie dają się zastosować. Starsza pani ma doświadczenie życiowe i radzi, w oparciu o “statystykę erotyczną”, aby dziewczyna porzuciła lekkomyślnego chłopca. Filozof zna historię nauki i radzi fizykom porzucić ich teorię, ponieważ ta teoria “zdradza ich”, nie przewidując wielu zjawisk. Takie rozumne rady nie jest trudno dawać. Dziewczyna wierzy, że uda się jej zmienić chłopaka na lepsze, i fizycy myślą to samo o swojej teorii. Zresztą, dziewczyna może mieć kilku chłopców, którzy się jej podobają: to samo z fizykami. Muszą zrezygnować z takich a takich poglądów na rzecz takiego oto. Jeżeli zrezygnują z umiejscowienia cząsteczki, uzyskają jedną możliwość przewidywania, ale stracą inną. Jeżeli zaczną kwantować przestrzeń i wprowadzą pojęcie poza—skończonej szybkości rozchodzenia się zmian, za jednym zamachem będą mogli przewidzieć istnienie takich cząstek podatomowych, jakie naprawdę istnieją, ale równocześnie ta decyzja, podjęta w fundamentach gmachu, którym jest fizyka, wywoła straszny wstrząs na wszystkich jego piętrach. W żadnej nauce nie ma teorii, która uwzględniałaby i przewidywała “wszystko”. Ale w większości wypadków można się z takim stanem pogodzić, bo to, co się pomija, jest dla przewidywań owej nauki na razie mniej istotne. W fizyce natomiast panuje dramatyczna sytuacja: nie wiadomo, co właściwie jest mniej istotne i może iść za burtę. Łatwo decydować, kiedy znajdujemy się w koszu gwałtownie opadającego balonu i możemy wyrzucić albo worek z piaskiem, albo towarzysza. Ale proszę sobie wyobrazić sytuację, w której nie wiadomo, co jest balastem, a co wartością bezcenną! Tym samym równaniom mechaniki kwantowej można przypisać bądź znaczenie “balastu”, czy też pustki, to jest pewnego formalnego chwytu, bądź też znaczenie obiektywne, fizyczne.<br />Sprawy takie, oglądane ex post, kiedy stały się już częścią historii osobistej dwojga ludzi albo historii nauki, pozwalają starszej pani i filozofowi utwierdzić się w przeświadczeniu, że mieli rację. Oczywiście, że lepszy jest wspaniały zakochany chłopak od lekkomyślnego nicponia i teoria, która bez Matematycznych naciągań przewiduje wszystko, od łatanej doraźnymi poprawkami, ale skąd wziąć takiego królewicza i taką teorię?<br />Starsza pani i filozof są życzliwymi obserwatorami. Konstruktor, na równi z fizykami, zaangażował się w działanie. Dlatego rozumie, że użyteczność można pojmować rozmaicie: jak morfinista albo jak Newton. Dlatego nie daje się wciągać w spory, które uważa za jałowe. Jeżeli mózg jest zbudowany z atomów, czy to znaczy, że atomy mają “potencję psychiczną”? Jeżeli fala wyrzuci na brzeg trzy patyki, można ułożyć z nich trójkąt albo wziąć je w garść i bić kogoś po głowie. Czy potencja bicia i geometrii jest “własnością” owych patyków? Konstruktor proponuje, aby wszystko rozstrzygać doświadczeniem, a. jeśli doświadczenie nie jest, ani nigdy nie będzie możliwe, sprawa przestaje dla niego istnieć. Pytanie o to, “jak istnieje matematyka” albo “dlaczego jest świat”, pozostawia bez odpowiedzi nie przez zamiłowanie do ignorancji, ale przez znajomość skutków, jakie pociąga za sobą rozstrzyganie takich pytań. Interesuje go tylko, co może począć z matematyką i ze światem. Nic więcej.<br /><br /><br /><br />Szaleństwo z metodą<br /><br /><br />Wyobraźmy sobie szalonego krawca, który szyje wszelkie możliwe ubrania. Nie wie on nic o ludziach, ptakach czy roślinach. Nie ciekawi go świat; nie bada go. Szyje ubrania. Nie wie, dla kogo. Nie myśli o tym. Niektóre są kuliste, bez żadnych otworów; innym wszywa rury, które nazywa “rękawami” lub “nogawkami”. Ilość ich jest dowolna. Ubrania składają się z rozmaitej ilości części. Krawiec dba tylko o jedno: pragnie być konsekwentny. Jego ubrania są symetryczne i asymetryczne, wielkie i małe, rozciągliwe i raz na zawsze unieruchomione. Gdy przystępuje do sporządzenia nowego, przyjmuje określone założenia. Nie zawsze są takie same. Ale postępuje dokładnie w myśl raz powziętych założeń i pragnie, aby nie wynikła z nich sprzeczność. Jeśli przyszyje nogawki, nie odcina ich potem; nie rozpruwa tego, co zszyte; zawsze muszą to być ubrania, a nie pęki na oślep pozszywanych szmat. Gotowe ubrania odnosi do ogromnego składu. Gdybyśmy tam mogli wejść, przekonalibyśmy się, że niektóre pasują na ośmiornicę, a inne na drzewa albo na motyle, albo na ludzi. Odkrylibyśmy ubrania dla centaura i dla jednorożca oraz dla istot, jakich dotąd nikt nie wymyślił. Olbrzymia większość ubrań nie znalazłaby żadnego zastosowania. Każdy przyzna, że syzyfowe prace owego krawca są czystym szaleństwem.<br />Tak jak on, działa matematyka. Buduje ona struktury, ale nie wiadomo, czyje. Modele doskonałe (tj. doskonale ścisłe), lecz matematyk nie wie, czego to są modele. Nie interesuje go to. Robi to, co robi, ponieważ taka działalność okazała się możliwa. Zapewne, matematyk używa, zwłaszcza przy ustalaniu wstępnych założeń, słów, które znamy z języka potocznego. Mówi on np. o kulach, albo o liniach prostych, albo o punktach. Ale nie rozumie przez owe terminy znajomych nam rzeczy. Powłoka jego kuli nie ma grubości, a punkty — rozmiarów. Przestrzeń jego konstrukcji nie jest naszą przestrzenią, ponieważ może mieć dowolną ilość wymiarów. Matematyk zna nie tylko nieskończoności i pozaskończoności, ale także ujemne prawdopodobieństwa. Jeśli coś może się stać na pewno, prawdopodobieństwo równa się jedności. Jeśli wcale nie może się stać, równa się ono zeru. Okazuje się, że coś może się mniej aniżeli nie—stać.<br />Matematycy doskonale wiedzą, że nie wiedzą, co robią. “Matematykę —powiedziała osoba bardzo kompetentna, bo Bertrand Russell — można określić jako przedmiot, w którym nigdy nie wiemy, o czym mówimy, ani czy to, co mówimy, jest prawdą.”<br />Matematyka jest, w naszym rozumieniu, pantokreatyką, realizowaną na papierze, przy pomocy ołówka. Dlatego właśnie o niej mówimy: wydaje się bowiem, że to ona uruchomi w przyszłości “generatory omnipotencjalne” innych światów. Zapewne — jesteśmy od tego dalecy. Prawdopodobnie też część matematyki na zawsze pozostanie “czysta”, albo, jeśli kto woli, pusta, jak puste są ubiory w składzie szalonego krawca.<br />Język jest systemem symboli, umożliwiającym porozumiewanie się, ponieważ te symbole są przyporządkowane zjawiskom świata zewnętrznego (burza, pies) albo wewnętrznego (smutno, słodko). Gdyby nie było rzeczywistych burz ani smutków, nie byłoby i tych słów. Język potoczny jest nieostry, granice używanych w nim znaczeń są rozmyte, ponadto ewoluuje, jako całość, w miarę zachodzenia zmian społeczno–cywilizacyjnych. Jest on bowiem strukturą nieautonomiczną przez to, że twory językowe odnoszą się do sytuacji pozajęzykowych. W pewnych okolicznościach może się wysoce autonomizować (“atulli mirohłady, grobowe ucichy”) bądź, jak w podanym przykładzie, dzięki poetyckiemu słowotwórstwu, bądź przez to, że staję się on językiem logika i podlega srogiej musztrze. Zawsze jednak jego genetyczne związki z rzeczywistością dają się wyśledzić. Natomiast symbole języka matematycznego nie odnoszą się do niczego poza nim. Szachy są nieco podobne do systemu matematycznego. Stanowią one system zamknięty, z własnymi założeniami wstępnymi oraz regułami postępowania. O prawdziwość szachów nie można pytać tak samo, jak nie można pytać o prawdziwość czystej matematyki. Można tylko spytać, czy dany system matematyczny, albo dana partia szachów, zostały rozegrane prawidłowo, tj. zgodnie z regułami. Szachy jednak nie mają żadnych zastosowań praktycznych, podczas kiedy matematyka je ma. Istnieje punkt widzenia, który tę jej przydatność tłumaczy bardzo prosto. Otóż sama Natura ma być w swej istocie “matematyczna”. Sądzili tak Jeans i Eddington, a myślę, że i Einsteinowi nie był ten pogląd zupełnie obcy. Wynika to z jego powiedzenia: “God is sophisticated, but hę is not malicious”. Zawiłość natury — tak rozumiem to zdanie — można odgadnąć, dzięki pochwyceniu jej w sidła prawidłowości (matematycznych). Gdyby jednak była złośliwa, a—matematyczna, przedstawiałaby tym samym niejako złośliwego kłamcę, byłaby bowiem nielogiczna, sprzeczna, a przynajmniej rozmazana w zdarzeniach, nieobliczalna. Jak wiadomo, Einstein do końca życia sprzeciwiał się przyjęciu indeterminizmu kwantowego i usiłował sprowadzić jego zjawiska, w nieustannych eksperymentach myślowych, do praw deterministycznych.<br />Fizycy od XVI wieku przetrząsają składy “pustych ubrań”, które tworzy matematyka. Rachunek macierzy był “strukturą pustą”, dopóki Heisenberg nie znalazł “kawałka świata”, do którego ta pusta konstrukcja pasowała. Fizyka roi się od takich przykładów.<br />Procedura fizyki ‘teoretycznej i zarazem matematyki stosowanej jest taka: twierdzenie empiryczne zastępuje się matematycznym (to jest, pewnym symbolom matematycznym przyporządkowuje się fizyczne znaczenia, w rodzaju “masy”, “energii” itp.), uzyskane wyrażenie matematyczne przekształca się zgodnie z regułami matematyki (to jest czysto dedukcyjna, formalna część postępowania), a końcowy rezultat przez ponowne podstawienie znaczeń materialnych zamienia się w twierdzenie empiryczne. To nowe twierdzenie może być przepowiednią przyszłego stanu zjawiska, lub też może wyrażać pewne ogólne równości (że energia równa się iloczynowi z masy przez kwadrat prędkości światła np.), czyli prawa fizyczne.<br />Tak więc fizykę tłumaczymy na matematykę, z matematyką poczynamy sobie po matematycznemu, wynik na powrót przekładamy na język fizyki i uzyskujemy zgodność z rzeczywistością (jeśli naturalnie działaliśmy w oparciu o “dobrą” fizykę i matematykę). Jest to oczywiście uproszczenie, ponieważ współczesna fizyka tak jest już “przerośnięta” matematyką, że nawet wstępne twierdzenia zawierają jej całe mnóstwo.<br />Wydaje się, że — przez uniwersalność związków Natury — wiedza empiryczna zawsze może być tylko “niezupełna, niedokładna i niepewna” — przynajmniej w zestawieniu z matematyką czystą, która jest “zupełna, dokładna i pewna”. A zatem nie jest tak, że matematyka, stosowana do wyjaśniania świata przez fizykę czy chemię, mówi o tym świecie za mało, że jej ten świat “wycieka” przez wzory, niezdolne objąć go z dostateczną wszechstronnością, jest raczej na odwrót. Matematyka mówi o świecie (tj. stara się mówić) więcej, aniżeli wolno o nim powiedzieć. Co aktualnie sprawia nauce sporo kłopotów. Zapewne zostaną przezwyciężone. Może kiedyś także rachunek macierzy zastąpi w mechanice kwantowej inny, umożliwiający dokładniejsze przewidywanie. Ale wtedy tylko współczesna mechanika kwantowa zostanie uznana za przestarzałą. Rachunek macierzy nie zestarzeje się. Systemy empiryczne bowiem tracą aktualność, matematyczne nie tracą jej nigdy. Ich pustka jest ich nieśmiertelnością.<br />Co oznacza właściwie “niematematyczność” Natury? Świat można traktować dwojako. Albo każdy element realności posiada ścisły odpowiednik (matematycznego “sobowtóra”) w teorii fizycznej, albo go nie posiada (tj. nie może posiadać). Jeżeli dla danego zjawiska możliwe jest stworzenie teorii, która nie tylko przewiduje pewien stan końcowy zjawiska, ale także wszystkie stany pośrednie, przy czym na każdym etapie przekształceń matematycznych można wskazać materialny odpowiednik matematycznego symbolu, wówczas wolno mówić o izomorfizmie teorii i rzeczywistości. Tym samym model matematyczny jest sobowtórem realności. Postulat taki właściwy był fizyce klasycznej i z niego wywiodło się przeświadczenie o “matematyczności Natury”*.<br />Zachodzi jednak i inna możliwość. Jeżeli strzelimy celnie do lecącego ptaka, który spadnie martwy, uzyskaliśmy końcowy rezultat działań, na którym nam zależało. Tor kuli i tor ptaka nie są jednak wcale izomorficzne. Schodzą się tylko w określonym punkcie, który nazwiemy “końcowym”. Podobnie teoria może przewidzieć końcowy stan zjawiska, mimo że między nim a nią brak wzajemnie jednoznacznej przyporządkowalności elementów realnych i symboli matematycznych. Przykład nasz jest prymitywny, ale może lepszy od żadnego. Fizyków przekonanych o “sobowtórowej” relacji matematyki i świata jest dzisiaj niewielu. Nie znaczy to bynajmniej, jak usiłowałem wyjaśnić na przykładzie ze strzelcem, jakoby zmniejszyły się szansę przewidywania. Podkreśla to jedynie charakter matematyki jako narzędzia. Przestaje ona być wiernym odwzorowaniem, ruchomą fotografią zjawiska. Staje się raczej podobna do drabiny, po której można wejść na górę, chociaż sama wcale nie jest do góry podobna. Zostańmy na chwilę przy tej górze, Z fotografii można, używając odpowiedniej skali, wyczytać jej wysokość, nachylenie zbocza, itp. Drabina może nam niejedno powiedzieć o górze, do której ją przystawiono. Pytanie jednak o to, co w górze odpowiada szczeblom drabiny, nie ma sensu. Służą do tego, aby wejść na szczyt. Tak samo nie można pytać o to, czy drabina jest “prawdziwa”. Może być tylko lepsza albo gorsza, jako narzędzie osiągnięcia celu.<br />Ale to samo można właściwie powiedzieć o fotografii. Wydaje się wiernym obrazem góry — gdy jednak będziemy ją badać coraz silniejszymi szkłami, szczegóły górskiego zbocza rozpadną się w końcu na czarne plamki ziaren emulsji fotograficznej. Ziarna te z kolei składają się z molekuł bromku srebra. Czy poszczególnym molekułom odpowiada coś jednoznacznie w zboczu górskim? Tak nie jest. Pytanie o to, gdzie “podziewa się” długość wewnątrz jądra atomowego, jest pytaniem, gdzie “podziewa się” góra, kiedy fotografię oglądać przez mikroskop. Fotografia jest prawdziwa jako całość, i tak samo, jako całość, będzie prawdziwa teoria (kwantów np.), która pozwoli lepiej przewidywać powstawanie barionów i leptonów oraz powie, jakie jeszcze cząstki są możliwe, a jakie nie.<br />Reakcją na podobne tezy może być smętne twierdzenie, że Natura jest niepoznawalna. Jest to przeraźliwe nieporozumienie. Mówiący miał skrytą nadzieję, że mezony i neutrony okażą się w końcu “mimo wszystko” podobne do bardzo, ale to bardzo malutkich kropelek lub piłek ping–pongowych. Wtedy zachowywałyby się jak kule bilardowe, tj. zgodnie z mechaniką klasyczną. Wyznam, że “ping–pongowatość” mezonów zdumiałaby mnie bardziej aniżeli to, że one nie są podobne do niczego znanego nam z doświadczeń codzienności. Jeżeli nie istniejąca jeszcze teoria nukleonów umożliwi np. regulowanie przemian gwiazdowych, myślę, że będzie to sowitą zapłatą za “tajemniczość” tychże nukleonów, która oznacza po prostu to, że nie umiemy ich sobie wyobrazić naocznie.<br />Na czym zamykamy rozważania o matematyczności albo niematematyczności Natury, aby powrócić do spraw przyszłości. Czysta matematyka była dotąd składem “pustych struktur”, w którym fizyk szukał czegoś, co by “pasowało” na “przyrodę”. Wszystko inne leżało odłogiem. Sytuacja może się jednak odwrócić. Matematyka jest posłuszną niewolnicą fizyki, zasługującą na jej uznanie o tyle, o ile potrafi naśladować świat. Matematyka może się jednak stać rozkazodawcą fizyki, nie współczesnej, ale syntetycznej, w bardzo oddalonej od nas przyszłości. Dopóki istnieje tylko na papierze i w umysłach matematyków, nazywamy ją pustą. A jeśli będziemy mogli zmaterializować jej konstrukcje? Produkować światy “zadane z góry”, posługując się, jako planami budowy, systemami matematycznymi? Czy to będą może maszyny? Nie, jeżeli atomu nie uważamy za maszynę. Tak, jeśli atom jest według nas maszyną. Matematyka będzie generatorem fantomologicznym, stwórczynią światów, “innej jawy niż jawa Istnienia”. Jak można to sobie wyobrazić? Czy to w ogóle możliwe?<br />Jesteśmy jeszcze niedostatecznie przygotowani do omówienia tej ostatniej rewolucji technologicznej, jaka jest dzisiaj do pomyślenia. Znowu wybiegliśmy pochopnie zbyt daleko naprzód. Musimy cofnąć się od pantokreatyki do imitologii. Ale pierwej niezbędne będą dwa słowa o systematyce tych nie istniejących przedmiotów.</div><div><br /><br /><br />Nowy Linneusz, czyli o systematyce<br /><br /><br />Na wstępie jedno wyjaśnienie. Chcemy zajrzeć w przyszłość; przez to zmuszeni jesteśmy przyjąć, że wiedza współczesna jest nikła wobec tej z następnych tysiącleci. Taki punkt widzenia może się wydać niefrasobliwym aż do nonszalancji lekceważeniem dwudziestowiecznej nauki. Tak nie jest. Ponieważ cywilizacja istnieje od kilkunastu tysięcy lat, a my chcemy domyślić się, z ryzykiem zupełnego fiaska, co będzie w czasie co najmniej tak samo odległym od dzisiaj, żadnego z obecnych osiągnięć nie uznamy za szczytowe. Z wysokości, na jaką musimy się wzbić, rewolucja cybernetyczna jest tylko o jeden krok oddalona od neolitycznej, a nieznany, anonimowy wynalazca zera od Einsteina. Powtarzam “musimy”, “chcemy”, aby podkreślić, że inaczej, tj. z innej perspektywy, niczego się w tej myślowej wyprawie nie da dokonać. Można taki wyniesiony nad przeszłość i współczesność punkt widzenia uznać za uzurpację bez podstaw i tego, kto zajmie podobne stanowisko, doskonale rozumiem. Gdybym je podzielał, musiałbym jednak milczeć.<br />Pozostaje jeszcze praktyczna trudność wykładu. Będę musiał po kolei mówić o rzeczach, które należałoby przedstawiać jednocześnie. Zamiarem moim nie jest bowiem wyliczenie katalogowe “przyszłych wynalazków”, ale ukazanie ogólnych możliwości, bez technicznego opisywactwa (które dopiero byłoby prawdziwie pustym uroszczeniem). Ogólnych, ale nie ogólnikowych, bo w określony sposób determinujących oblicze przyszłości. Nie powiemy nigdy, że będzie tak a tak, a jedynie, że może być tak a tak, ponieważ nie jest to utwór fantastyczny, lecz zbiór, niejednakowo uzasadnionych, hipotez. Łączą się one w całość, której nie da się jednak opisać naraz. Z taką trudnością boryka się fizjolog, pragnący zawrzeć w podręczniku wiedzę o działaniu organizmu. Omawia po kolei funkcje oddychania, krążenia krwi, przemiany podstawowej itp. Sytuacja jego jest o tyle korzystna, że podręczniki pisze się od dawna i taki podział przedmiotu, jakkolwiek byłby problematyczny, uświęciła tradycja. Ja jednak nie opisuję niczego, albo prawie niczego, co istnieje, i nie mogę się odwołać ani do modeli poglądowych (znów z nielicznymi wyjątkami), ani do podręczników traktujących o przyszłości, bo ich nie znam. Tak więc zmuszony jestem stosować klasyfikację arbitralną; pewne sprawy i problemy w związku z tymi kłopotami powtarzam po dwa, a nawet po trzy razy, a czasem omawiam oddzielnie coś, co należałoby omówić łącznie z innymi zagadnieniami, ale nie umiałem tego zrobić.<br />Po tych usprawiedliwieniach przedstawię “systematykę przedmiotu”. Ma nam odtąd służyć za nić przewodnią. Nazwy, jakich użyję, mają charakter roboczy — stanowią skróty, ułatwiające przegląd rozpatrywanych dziedzin i nic ponadto. Dlatego zresztą słowo “systematyka” umieściłem w cudzysłowie. Wszystko, co tylko człowiek lub inna rozumna istota może zdziałać, obejmiemy nazwą “pantokreatyki”. Jest to zdobywanie informacji i jej użytkowanie w określonym celu. Podział ten istnieje w pewnej mierze i dziś, odpowiada mu oddzielenie nauki od technologii. W przyszłości stan o tyle się zmieni, że zbieranie informacji ulegnie zautomatyzowaniu. Układy informacjozbiorcze nie będą decydować o kierunkach działania; one są jak młyn, dostarczający mąki; co z tej mąki powstanie, jest rzeczą piekarza (tj. technologa). Ale o tym, jakie zboże sypać w kamienie młyńskie, decyduje nie tylko i nie tyle piekarz, ile zarządca młyna: tym zarządcą będzie nauka. Sam przemiał ziaren — to zdobywanie informacji. Jak można go sobie wyobrazić, powiemy osobno.<br />Ta część pantokreatyki, która zajmuje się użytkowaniem ‘informacji, powstała ze skrzyżowania ogólnej teorii systemów fizycznych i matematycznych, dzieli się na dwie dziedziny. Dla skrótu, a także dla pewnej poglądowości, pierwszą z nich nazwiemy Imitologią, a drugą — Fantomologią. Obie one częściowo pokrywają się zakresami. Można by naturalnie próbować pewnego uściślenia, tak np. abyśmy sobie powiedzieli, że imitologia jest konstruktorstwem, opartym o takie matematyki” o takie algorytmy, jakie można wyróżnić w Naturze, natomiast fantomologia jest wcielaniem w byt obiektywny matematycznych struktur, którym nic w Przyrodzie nie odpowiada. Ale to już zakłada, że Natura jest zasadniczo matematyczna; nie chcemy przyjmować takich założeń. Ponadto zakłada to uniwersalizm algorytmizacji, wysoce niepewny. Dlatego rozsądniej jest definicji naszych nie dookreślić.<br />Imitologia to stadium wcześniejsze pantokreatyki, wywodzące się z praktykowanego już dzisiaj modelowania zjawisk realnych w teoriach naukowych, maszynach cyfrowych itp. Obejmuje ona zarówno inicjowanie materialnych procesów prawdopodobnych (gwiazda, wybuch wulkanu), jak i nieprawdopodobnych (stos atomowy, cywilizacja). Imitolog doskonały to ktoś, kto potrafi powtórzyć dowolne zjawisko Natury, bądź takie zjawisko, jakiego wprawdzie Natura spontanicznie raczej nie wytwarza, ale wytworzenie jego czyni możliwością realną. Dlaczego nawet zbudowanie maszyny nazywam działalnością naśladowczą, także wyjaśnimy osobno.<br />Między imitologia a fantomologia nie ma ostrej granicy. Obejmuje ona, jako późniejsza, wyższa faza imitologii, stwarzanie procesów coraz bardziej nieprawdopodobnych, aż do całkowicie niemożliwych, tj. takich, które w żadnych okolicznościach zajść nie mogą, ponieważ sprzeczne są z prawami Natury. Wydaje się, że to jest klasa pusta, bo wszak nie można zrealizować nierealizowalnego. Aczkolwiek tylko w przybliżeniu i bardzo prymitywnie, postaramy się ukazać, że ta “niemożliwość” nie musi być absolutna. Teraz zaś wskażemy tylko, jak można sobie wyobrazić pierwszy krok w stronę fantomologii. Model atomu ma służyć do poznania oryginału, tj. Natury. Zbudowaliśmy go w tym celu. Jeśli nie przystaje do Natury, uważamy, że jest bez wartości. Tak jest dzisiaj. Strategię można jednak zmienić. Model ów można użyć do innych celów: uczynić z modelu atomu, który jest całkiem inny od prawdziwego atomu, element budowlany “innej materii”, odmiennej od prawdziwej.</div><div><br /></div><div><br /><br /><br />Modele i rzeczywistość</div><div><br /><br />Modelowanie jest naśladowaniem Natury, uwzględniającym nieliczne jej własności. Dlaczego tylko nieliczne? Przez naszą nieumiejętność? Nie; przede wszystkim dlatego, ponieważ musimy się bronić przed nadmiarem informacji. Taki nadmiar może zresztą oznaczać jej niedostępność. Malarz maluje obrazy, ale chociaż posiada usta i możemy z nim rozmawiać, nie dowiemy się, jak on to robi. O tym, co się dzieje w jego mózgu, gdy maluje, sam nic nie wie. Informacja o tym znajduje się w jego głowie, ale niedostępna. Modelując, trzeba upraszczać: maszyna, która potrafi namalować bardzo mierny obraz, powie, nam może więcej o materialnych, tj. mózgowych podstawach malarstwa, aniżeli “model doskonały” artysty, którym jest jego brat — bliźniak. Praktyka modelarska zakłada wybór pewnych zmiennych i rezygnację z uwzględnienia innych. Tożsamość modeli i oryginału zachodziłaby, gdyby procesy obu się pokrywały. Do tego nie dochodzi. Rezultaty rozwoju modelowego różnią się od rzeczywistego. Na tę różnicę mogą się składać trzy czynniki: to, co jest uproszczeniem modelu względem oryginału, to, co jest własnością modelu, obcą oryginałowi, i wreszcie to, co stanowi nieokreśloność samego oryginału. Gdy imitujemy żywy mózg elektromózgiem, musimy, oprócz sieci elektrycznej, odwzorowującej sieć neuronową, uwzględnić takie zjawisko, jak pamięć. Żywy mózg nie ma osobnego zbiornika pamięci. Prawdziwe neurony są uniwersalne — pamięć jest “rozsiana” po całym mózgu. Nasza sieć elektryczna takich zdolności nie wykazuje. Musimy zatem podłączyć do elektromózgu specjalne zasobniki pamięci (np. ferromagnetycznej). Poza tym prawdziwy mózg wykazuje pewną “przypadkowość”, nieobliczalność działania, a sieć elektroniczna — nie. Co robi cybernetyk? Wbudowuje do modelu “generator akcydentalności”, który włączając się, wysyła losowo wybierane sygnały w głąb sieci. Taka losowość została spreparowana z góry: to dodatkowe urządzenie korzysta z tablic liczb losowych lub tp.<br />Uzyskaliśmy więc coś jakby analog “nieobliczalności”, “wolnej woli!’. Po tych zabiegach podobieństwo parametrów na wyjściach obu systemów, nerwowego i elektrycznego, wzrosło. Ale podobieństwo wzrosło tylko w odniesieniu do zestawianych z sobą stanów “wejść” i “wyjść”. Podobieństwo wcale nie rośnie, ale, przeciwnie, maleje, jeśli oprócz dynamicznej relacji “wejścia”–”wyjścia” uwzględnić całą strukturę obu systemów. (Czyli, mówiąc inaczej, jeżeli uwzględnimy większą ilość zmiennych). Elektromózg ma teraz wprawdzie “wolę” i “pamięć”, ale prawdziwy mózg nie ma ani generatora akcydentalności, ani osobnego zasobnika pamięciowego. Im bardziej zatem model ten zbliża się do oryginału w przedziale pewnych imitowanych zmiennych, tym bardziej oddala się od niego w zakresie innych. Gdybyśmy jeszcze chcieli uwzględnić zmienną pobudliwość neuronów, warunkowaną istnieniem jej progu, przy czym organizm realizuje to samym biochemizmem przemian, musielibyśmy każdy przełączający element (“neuristor”), czyli odpowiednik neuronu, zaopatrzyć w osobny układ elektryczny. Itd.* Otóż, zmienne modelu, których zjawisko modelowane nie wykazuje, uznajemy za nieistotne. Jest to szczególny wypadek ogólnego sposobu zbierania — informacji, który zawsze zakłada wstępny wybór. Na przykład dla zwykłego rozmówcy trzaski w telefonie są “szumem”, a dla inżyniera łączności, który bada linię, informacją może być właśnie ten szum (jest to przykład zaczerpnięty z Ashby’ego).<br />Gdybyśmy zatem chcieli wymodelować jakiekolwiek zjawisko, uwzględniając jego wszystkie zmienne (zakładamy na chwilę, że to możliwe), musielibyśmy zbudować układ bogatszy od oryginału o te dodatkowe zmienne, które są właściwe samemu układowi modelującemu, ale których oryginał nie posiada. Dlatego, dopóki ilość zmiennych jest mała, stosowanie modelowania cyfrowego okazuje się płodne. Przy zwiększaniu ich liczby metoda ta rychło trafia na kres stosowalności. Dlatego ten sposób modelowania musi ustąpić innemu.<br />Teoretycznie najoszczędniejsze jest modelowanie zjawiska przez drugie takie samo zjawisko. Ale czy to możliwe? Wygląda na to, zęby aby wymodelować człowieka, trzeba go sporządzić; aby wymodelować bioewolucję, trzeba powtórzyć ją na planecie jak Ziemia. Najdoskonalszym modelem jabłka jest drugie jabłko, a Kosmosu — drugi Kosmos.<br />Zakrawa to na reductio ad absurdum imitologicznej praktyki, ale nie spieszmy się z wydaniem takiego wyroku.<br />Kluczowe pytanie brzmi tak: czy istnieje coś, co, nie będąc wiernym (modelowym) powtórzeniem zjawiska, zawiera więcej informacji aniżeli ono samo? Ależ oczywiście, że tak. Jest to teoria naukowa. Obejmuje całą klasę zjawisk; mówi o każdym, a zarazem o wszystkich. Oczywiście, teoria nie uwzględnia wielu zmiennych danego zjawiska, ale one nie są, ze względu na postawiony cel, istotne.<br />Tu jednak nowa trudność: zapytajmy, czy teoria zawiera tylko tyle informacji, ileśmy w nią sami włożyli (tworząc ją w oparciu o fakty obserwacyjne i o inne teorie, np. teorię pomiaru), czy też może zawierać więcej informacji? To niemożliwe? A przecież na podstawie teorii fizycznej próżni teoria kwantowa pól przewidziała szereg zjawisk. Obok teorii rozpadu beta zrodziły się wyniki w teorii nadciekłości (płynnego helu), a także teorii ciała stałego. Jeżeli, ogólnie, teoria ma przewidzieć zjawisko X, a potem się okazuje, że wydedukowane z niej inne jeszcze zjawiska, o których istnieniu niceśmy dotąd nie wiedzieli, także występują, skądże właściwie wzięła się w niej ta “dodatkowa” informacja?<br />Wzięła się stąd, że w świecie, najogólniej mówiąc, panuje spójność zmian. Z ich sprzężenia. “Domyśliliśmy się” jednego, a to jedno “pociągnęło za sobą” inne.<br />To przemawia do przekonania, ale jak tam właściwie jest z bilansem informacyjnym? Włożyliśmy do teorii x bitów informacji, a uzyskujemy x+n? Czyżby to znaczyło, że, jeśli układ jest dostatecznie złożony (jak mózg), może stwarzać informację dodatkową — większą od tej, jaką posiadał w poprzednim momencie, i to bez jej dopływu z zewnątrz? Ależ to byłoby istne informacyjne perpetuum mobile!<br />Niestety, tego nie można rozstrzygnąć w oparciu o współczesną teorię informacji. Ilość informacji jest tym większa, im mniejsze było prawdopodobieństwo nadejścia określonego sygnału. Z czego wynika, że jeśli przyjdzie wiadomość, że gwiazdy są zbudowane z ementalera, ilość informacji jest wprost olbrzymia, ponieważ przybycie takiego sygnału było niesłychanie mało prawdopodobne. Tu wszakże fachowiec zarzuci nam słusznie, żeśmy pomieszali dwa różne rodzaje informacji: selektywną, tj. wynikającą ze zbioru możliwych sygnałów (gwiazdy z wodoru, z entelechii, z mopsiny, z sera itp.), która nie ma nic wspólnego z prawdziwością, tj. odpowiedniością informacji względem pewnego zjawiska, oraz informację strukturalną, która stanowi odwzorowanie sytuacji. Tym samym sensacyjna wieść o serowaceniu gwiazd zawiera mnóstwo informacji selektywnej i zero strukturalnej, ponieważ nieprawdą jest, jakoby gwiazdy były z sera. Doskonale. Weźmy zatem teorię próżni fizycznej. Wynika z niej, że rozpad beta zachodzi tak a tak (co jest prawdą), jak również, że nabój elektronu jest nieskończenie wielki (co nie jest prawdą). Pierwszy rezultat jest wszakże tak cenny dla fizyka, że z lichwą okupuje nieprawdziwość drugiego. Teorii informacji jednak ten wybór fizyka nie obchodzi, ponieważ nie uwzględnia ona wartości informacji, także w postaci swej strukturalnej. Ponadto, żadna teoria nie istnieje “sama”, nie jest “suwerenna”, ale częściowo wynika z innych, a częściowo się z nimi łączy. Tak więc ilość zawartej w niej informacji jest bardzo trudno zmierzyć, bo np. informacja zawarta w słynnej formule E =m*c2 “dostaje się” do tej formuły z całego mnóstwa innych formuł i teorii.<br />Może jednak tylko dziś potrzebne są teorie i modele zjawisk? Może, zapytany, mędrzec z innej planety wręczyłby nam w milczeniu strzęp leżącej na ziemi, starej zelówki, dając do zrozumienia, że wszystką prawdę Wszechświata da się wyczytać z tego kawałka materii?<br />Zatrzymajmy się na chwilę przy tej starej zelówce. Historyjka może mieć zabawne konsekwencje. Weźmy równanie 4+x = 7. Mało pojętny uczeń nie wie, jak dobrać się do wartości x, chociaż ten wynik już “siedzi” w równaniu, tyle że ukryty przed jego zamglonym okiem i “sam” się ukaże po dokonaniu elementarnego przekształcenia. Spytajmy zatem, jako prawi herezjarchowie, czy aby nie jest tak samo z Naturą? Czy Materia nie ma aby czasem “wpisanych w siebie” wszystkich swych potencjalnych przekształceń (więc np. tego, że możliwa jest budowa gwiazd, kwantolotów, maszyn do szycia, róż, jedwabników i komet)? Wtedy, wziąwszy podstawową cegiełkę Natury, atom wodoru, można by z niego “wywieść dedukcyjnie” wszystkie te możliwości (skromnie zaczynając od możliwości syntezy stu pierwiastków, a kończąc na możliwości budowania układów trylion razy bardziej uduchowionych od człowieka). Jak również wywieść to, co nierealizowalne (słodką sól kuchenną NaCl, gwiazdy o średnicy kwadryliona mil, itp.). W tym ujęciu materia posiada założone w siebie wszystkie swe możliwości na równi ze swymi niemożliwościami (zakazami), tylko my nie umiemy rozszyfrować jej “kodu”. Materia byłaby więc właściwie tym samym, czym jest zadanie matematyczne, bo my, jak ów niezdolny uczeń, nie potrafimy wydobyć z niej “całej informacji”, chociaż ona się już tam mieści. To, cośmy powiedzieli, nie oznacza nic innego, jak tylko ontologię tautologiczną…<br /><br /><br /><br />Plagiaty i kreacje<br /><br /><br />Co oznaczało horrendum, które ważyliśmy się wypowiedzieć? Ni mniej, ni więcej, że z atomu można “wyczytać” jego “potencję kosmiczną”, “ewolucyjną”, “cywilizacyjną” i w ogóle wszelką możliwą. Nie było to powiedziane serio, rzecz jasna. Jak dotąd, właściwości przejawianych przez sól kuchenną nie potrafimy wywieść z atomów sodu i chloru wziętych z osobna. Niektóre, tak; ale nasza nazwana tak uczenie “ontologia tautologiczną” jest najwyżej projektem budowy innego świata niż nasz, w którym “wszystkiego” z elementarnej cegiełki materii wywieść niepodobna. Już bardziej realne wydaje się podejście następujące: Czy nie można uzyskać końcowego rezultatu procesów naturalnych, nie poprzez dokładne splagiowanie tego, jak to uczyniła Natura, ale przez “boczne wejście” w nurt owych procesów? Wówczas, wychodząc z pozycji całkiem innych aniżeli te, jakie akompaniowały startowi Natury, można by po pewnej ilości etapów dojść do wyniku tożsamego z jej wynikiem.<br />Przykład prymitywny. Potrzebny jest wstrząs sejsmiczny skorupy ziemskiej. Zamiast “urządzać” wulkany, itp., jak to czyni Natura, wstrząs wywołujemy wybuchem ładunku trotylowego. Uzyskaliśmy wstrząs, jakiegośmy potrzebowali, ponieważ końcowe rezultaty zjawiska (serii zjawisk) nie są jednoznacznie określane całym łańcuchem skutków i przyczyn, jaki do owego rezultatu końcowego doprowadzi.<br />Przykład mniej prymitywny. Grzybek Penicilium notatum wytwarza penicylinę. Zamiast hodować grzybki, ekstrahować z nich potrzebne ciała, itp., bierzemy pewne substancje proste i syntetyzujemy z nich penicylinę.<br />Przykład dość bliski realizacji. Największą ilość energii można uzyskać przy procesie anihilacji, tj. łączenia się materii z antymaterią. Antymateria, o ile wiemy, w naszej metagalaktyce nie występuje. Umiemy już stwarzać sztucznie niektóre jej cząstki. Gdybyśmy to mogli robić na skalę przemysłową, to przechowana (aby nie doszło do natychmiastowej reakcji anihilacyjnej) odpowiednio, np. w “butelkach magnetycznych”, antymateria byłaby najwydatniejszym paliwem dla kosmolotów. Interesujące, że w tym wypadku stwarza się pewien rodzaj materii, w Naturze zasadniczo nie występujący.<br />Przykład całkiem obecnie nierealny. W określonej części główki plemnika — w objętości rzędu trzech tysięcznych milimetra, znajduje się, “zakodowany” językiem molekuł chemicznych, plan konstrukcji mózgu człowieka, który powstałby z tego plemnika, po połączeniu go z jajem. Plan ów obejmuje “receptę produkcyjną” i “wytyczne realizacyjne”. W mikroskopijnej owej przestrzeni mieści się informacja o tym, c o ma być zrobione, jak to ma być zrobione, a wreszcie mechanizm, który wszystkiego dokona. Wyobraźmy sobie, że potrafimy pobudzić plemnik — a właściwie jajo (jest to wszystko jedno z punktu widzenia ilości informacji; zapłodnienie sprzyja heterozygotyczności populacyjnej i dlatego ewolucja wykształciła płci, ale można pobudzić jajo do dzieworództwa, odpowiednio na nie działając), do embriogenezy. Początkowo rozwija się cały płód, ale w pewnej fazie tego rozwoju usuwamy “zbędne” dla naszych celów części i dbamy o to tylko, by się wykształcił mózg. Tak uzyskany “preparat neuronowy” przenosimy do roztworu odżywczego, gdzie zrośnie się z innymi “preparatami”, czyli częściami mózgu, aż w rezultacie powstanie coś na kształt “sztucznego mózgu”, wytworzonego z tkanek naturalnych.<br />Spotykają nas, powiedzmy, zarzuty natury etycznej. Aby ich uniknąć, nie uruchamiamy rozwoju jaja ludzkiego, lecz tylko kopiujemy całą informację, cały zapis dziedziczny w nim zawarty. Wiemy dziś, przynajmniej w zasadzie, jak należy to uczynić. Jest to nieco podobne do “powielenia” matrycą albo do wykonania odbitki z kliszy fotograficznej. Rolę kliszy czy papieru spełnia syntetyzowany przez nas (więc nie pochodzący z organizmu) układ kwasów rybonukleinowych; jajo dostarcza tylko “instrukcji”, jak te kwasowe molekuły połączyć. A więc zdjęliśmy “odlew” z chromosomów jaja, niczym gipsowy odlew z rzeźby. I dopiero te nasze “sztuczne” chromosomy czynimy punktem wyjściowym rozwoju. Gdyby się i to komuś nie podobało, postąpimy jeszcze bardziej okólnie. Informację chromosomową jaja spiszemy na papierze, językiem symbolicznym chemii, zgodnie z nią zsyntetyzujemy chromosomy i tak uzyskane “jajo laboratoryjne” pójdzie “do produkcji” embriogenetycznej. Jak widać, postępowanie nasze zaciera różnicę między tym, co “naturalne”, a tym, co “sztuczne”. Modelowanie pozwala zatem przekroczyć granicę między działaniem plagiującym a kreacyjnym, ponieważ dokładna znajomość kodu dziedzicznego pozwala, naturalnie, wnosić w ów kod dowolne, zmiany. Można by nie tylko zaprogramować dowolnie kolor oczu dziecka, ale, w oparciu o dokładną znajomość “genowych kodów”, które w mózgu realizują określone “talenty”, masowo produkować “matryce uzdolnień”, i za ich pośrednictwem przez rodziców wybrane cechy (muzykalność, talent matematyczny, itd.) “wkomponowywać” w plazmę dziedziczną dowolnego jaja.<br />Widzimy, że znajomość całej drogi ewolucyjnej, którą przeszła Natura, aby ukształtować człowieka, jest dla nas zbyteczna. Niepotrzebne są nam milionowe informacje o poszczególnych etapach rozwojowych, o Sinantropie, o cywilizacjach mustierskich czy oryniackich; wyprodukowawszy “model” plemnika lub jaja, “równoważny” oryginałowi, uzyskamy genotyp doskonalszy od wszystkich oryginałów (przez komasowanie cennych genetycznie cech), przez co otwieramy sobie “boczne wejście” w proces powstawania ludzkiego organizmu. Po czym, ośmieleni, kolejno wytwarzamy modele coraz lepsze, aż dochodzimy do schematu chromosomowego bez genów wywołujących skłonność do schorzeń czynnościowych i organicznych, za to doskonale wyważonego pod każdym względem (cielesnym i duchowym). Nareszcie powodując mutacje pod kontrolą (tj. zmieniając dane przez Naturę kody dziedziczności, zmieniając budowę chemiczną poszczególnych genów), możemy uzyskać rozwój cech zupełnie dotąd w gatunku homo nie znanych (powstanie skrzeli, umożliwiających żywot pod wodą, powiększenie mózgu, itd.).<br />Nie zamierzaliśmy teraz poświęcać uwagi tej “autoewolucji” człowieka. Perspektywy jej, jak również krytykę rozwiązań ewolucyjnych, przedstawimy w ostatniej części książki. Chcieliśmy tu jedynie ukazać, w jaki sposób może działać Imitologia, współzawodniczka Natury.</div><div><br /><br /><br />Obszar imitologii<br /><br /><br />Człowiek stwarzał na ogół teorie alternatywne, wzajem się wykluczające. W biologii zwalczały się preformizm i epigeneza, teoria doboru naturalnego i dziedziczenia cech nabytych. W fizyce — determinizm i indeterminizm. Teorie takie wykluczają się na poziomie “niskim”, tj. milcząco zakładają, że jedna z nich jest “ostateczna”. Okazuje się zazwyczaj, że jedna z teorii była bliższa rzeczywistości, ale stanowiła jedynie dalszy krok na właściwej drodze, nie więcej.<br />W epoce zaawansowanej imitologii wszystko to będzie prehistorią nauki. Teoria “lepsza” to będzie taka, dzięki której zdołamy pokierować ewolucją, zmienić tempo i zakres regeneracyjnej potencji organizmu, orkiestrować cechy dziedziczne płodów i to okaże się możliwe dużo wcześniej, zanim nauczymy się np. stwarzać syntetycznie chromosomowy aparat jądra. Wszystkie nauki konstruują teorie, ale stosunek do nich jest w różnych ich gałęziach niejednolity. Pozorna doskonałość teorii astronomicznych wynika stąd, że izolacja systemów, jakie bada ta dziedzina, jest wyjątkowo wielka. Gdy jednak mamy spadek tej izolacji, jak w zadaniu o kilku wzajem na siebie wpływających ciałach, o rozwiązanie staje się trudno. “Przymierzankowy” charakter teorii widać szczególnie dobrze tam, gdzie zakres zjawisk obserwowanych jest znikomy wobec zakresu zjawiska (kosmogonia, biogeneza, planetogeneza). Natomiast w termodynamice np. lub w teorii chromosomowej wydaje się, że mamy do czynienia z czymś więcej, aniżeli z konfrontacją naszych domysłów z Naturą — że tamte teorie zawierają już niemal “najczystszą” prawdę.<br />Nie umiem powiedzieć, czy imitologia zniweluje takie różnice. W końcu stan obecny Kosmosu naprawdę mógł nadejść “z różnych stron”, tj. to, co obserwujemy, mogło powstać na szereg rozmaitych sposobów. Ale wiele jest jeszcze do odkrycia i nie warto brać na siebie dodatkowego ryzyka przez prorokowanie przyszłego rozwoju poszczególnych nauk.<br />Imitologia nie ma, jak wiemy, być “naśladownictwem doskonałym”, chyba że ktoś od niej tego zażąda. Wiemy, że ilość zmiennych, jakie będzie wprawiała w “nakręcane” przez siebie modele, ulegać będzie zmianom, zależnie od celu, jakiemu służyć ma ta modelarska produkcja. Istnieje, ze względu na dany, określony cel, pewne optimum niezbędnej dla jego osiągnięcia informacji, które bynajmniej nie jest tym samym, czym tejże informacji maximum.<br />Według imitologii wszystko, co człowiek robi, jest modelowaniem. Wygląda to na nonsens. Modelowanie zjawisk, zachodzących w gwiazdach czy żywych organizmach, zgoda — ale “modelowanie” stosu atomowego? Kuchenki elektrycznej? Rakiety?<br />Spróbujmy dokonać bardzo uproszczonej klasyfikacji “modelarstwa”.<br />1) Modele zjawisk istniejących. Chcemy, żeby padał deszcz. Modelujemy zjawiska klimatyczne, atmosferyczne, itp. Poznajemy, jaka jest “sytuacja wyjściowa” deszczu. Gdy ją urzeczywistnimy (w naturze), lunie deszcz. Czasem, ale bardzo rzadko zdarza się, że poda kolorowy deszcz. Na przykład jakiś wybuch wulkaniczny wyrzuca w atmosferę barwny pył mineralny, który barwi krople wody. Możemy stworzyć i taki deszcz, przez to, że w “warkocz” splecionych ciągów przyczynowych, inicjujących padanie deszczu, “wpleciemy”‘ system, który wprowadzi w chmury lub w kondensującą się wodę — odpowiedni barwnik. W ten sposób zwiększymy prawdopodobieństwo pewnego zjawiska naturalnego, ale rzadkiego. Deszcz pada dosyć często; tak więc, nasz wkład w zwiększenie szansy opadów nie był zbyt wielki. Kolorowy deszcz to już niezwykłość. W tym wypadku nasze działanie, jako “wzmacniaczy stanów mało prawdopodobnych”, osiągnęło dość wysoki poziom.<br />2) Modele zjawisk “nie istniejących”. Natura nie realizuje wszystkich możliwych przebiegów. Realizuje ich co prawda więcej, niż się na ogół sądzi. Nie każdy inżynier wie, że pewne .zwierzęta morskie wytworzyły żagle, że wykorzystana jest w ewolucji zasada odrzutu, echolokacji, że ryby posiadają “manometr”, mówiący im, na jakiej głębokości się znajdują, itp. A już ogólniej, na “pomysł” sprzęgania procesów bardziej prawdopodobnych<br />(wzrostu entropii, dezorganizacji) z procesami mniej prawdopodobnymi (powstawanie żywych organizmów), pociągający za sobą wzrost organizacji i spadek entropii, Natura “wpadła” miliardy lat temu. Podobnie wytworzyła dźwignie, maszyny chemodynamiczne i chemoelektryczne, transformatory energii słonecznej na chemiczną (szkielety kręgowców, ich komórki, rośliny fotosyntezujące), wytworzyła też pompy (serca), zwykłe i osmotyczne (nerki), aparaty “fotograficzne” (narządy wzroku), itd. W zakresie bioewolucji nie tknęła energetyki jądrowej, bo promieniowanie niszczy informację genetyczną i procesy życiowe. “Zastosowała ją” natomiast w gwiazdach.<br />Tak więc, mówiąc najogólniej, Natura sprzęga ze sobą różne procesy. Możemy ją w tym naśladować, i czynimy to. Sprzęgamy procesy wszędzie i zawsze: wodą obracając młyny, wytapiając rudę, odlewając żelazo, budując obrabiarki, siejąc bawełnę i tkając z niej odzież. Zawsze w efekcie dochodzi gdzieś do wzrostu entropii, który lokalnie da nam jej zmniejszenie (motor, kuchenka, stos atomowy, cywilizacja).<br />Elektrony zachowują się w polu elektrycznym tak a tak; sprzęgamy ten proces z innymi i oto powstaje telewizja. Albo pamięć ferromagnetyczna, albo procesy kwantowego wzmocnienia (masery, lasery).<br />Zawsze jednak naśladujemy Naturę. Trzeba to tylko właściwie rozumieć. Stado przebiegających słoni i żyraf mogłoby tak rozdeptać glinę, żeby w niej powstał “negatyw samochodu”, a pobliski wulkan mógłby wyrzucić roztopioną rudę magnetytową. Wlałaby się do “formy” i tak powstałoby “auto” lub coś je przypominającego.<br />Jest to oczywiście niesłychanie mało prawdopodobne. Nie jest to jednak niemożliwe z termodynamicznego punktu widzenia. Konsekwencje imitologii sprowadzają się do zwiększania prawdopodobieństwa wydarzeń, w sposób “naturalny” nadzwyczaj mało prawdopodobnych, lecz możliwych. Teoretycznie możliwe jest “spontaniczne” powstanie drewnianego koła, miski, klamki, auta. Dodajmy, że prawdopodobieństwo takiej “syntezy” przez nagłe połączenie się atomów żelaza, miedzi, aluminium itd., jest niezrównanie większe od spontanicznej kreacji żywego organizmu, poprzez jednoczesne zbliżenie się i “wskoczenie” atomów na właściwe miejsca, aby powstała żywa ameba lub nasz znajomy, p. Smith. Auto składa się najwyżej z kilkunastu tysięcy części. Ameba — z milionów. Przy tym położenia, momenty, krystalizacja poszczególnych atomów i ciał stałych w ramie auta czy jego silniku nie mają znaczenia dla jego funkcji. Natomiast położenie i własności molekuł, z których “zrobiona jest” ameba, mają znaczenie decydujące o jej istnieniu. Dlaczego zatem powstały ameby, a nie auta? Ponieważ powstać spontanicznie ze znacznym prawdopodobieństwem może tylko system obdarzony od zarania własnościami samoorganizacji. A także, ponieważ takie były “wyjściowe warunki” na Ziemi.<br />Teraz wypowiemy pewne prawidło ogólne. Rozkład prawdopodobieństwa konstruktorskiego Natury jest całkiem różny od rozkładu konstruktorstwa ludzkiego — wszelako ten drugi musi się, oczywiście, mieścić w tym pierwszym. Rozkład (krzywa normalna) prawdopodobieństwa ważny dla Natury czyni w całym Kosmosie, drogą spontanicznych zajść, powstawanie garnków czy też maszyn do liczenia czymś ponad—super—astronomicznie nikłym. Po splądrowaniu wszystkich martwych planet i wyżarzonych karłów gwiazdowych może byśmy znaleźli parę “akcydentalnych łyżek”, może nawet wykrystalizowaną spontanicznie puszkę cynową, ale na to, żeby zawierała wieprzowinę albo coś chociaż trochę jadalnego, przez czysty przypadek, na to trzeba już czekać okrągłą wieczność. Zjawiska takie nie są jednak “niemożliwe” w tym sensie, aby były ogrodzone zakazami natury (czyli prawami, bo prawo takie będąc równocześnie nakazem, aby było tak a tak, zakazuje, aby mogło się stać inaczej). Tak więc, konstruktorstwo nasze mieści się jako pewien szczególny przypadek w obrębie potencjalnego konstruktorstwa Natury, z tym istotnym dodatkiem, że znajduje się ono tam, gdzie wartości probabilistyczne gwałtownie maleją, stając się czymś niezrównanie mikroskopijnym. W taki sposób dochodzimy do stanów termodynamicznie bardzo nieprawdopodobnych, jak rakieta lub telewizor. Jednakże tam, gdzie Natura jest “w swoim żywiole” jako budowniczy, my jesteśmy najsłabsi: nie umiemy bowiem (jeszcze nie umiemy) inicjować procesów samoorganizacji w takiej skali i z taką zręcznością, jak ona. Zresztą, gdyby tego nie umiała, nie byłoby ani Czytelników tej książki, ani jej autora. Jak dotąd, z tego, co konstrukcyjnie możliwe, człowiek interesował się pewnym wąziuteńkim wycinkiem “produkcyjnego widma Natury”. Nie próbowaliśmy konstruowania meteorów ani komet, ani Supernowych (chociaż tu już, dzięki bombie wodorowej, jesteśmy na najlepszej drodze). Ale czy nie można w żaden sposób wykroczyć poza granice, wyznaczone przez Naturę? Można, oczywiście, wymyślać Kosmosy i Natury odmienne od naszych. Ale jak je zrealizować?<br />Odkładamy ten temat — na niezbyt długo.</div><div><br /><br /><br />VI. Fantomologia<br /><br /><br />Podstawy fantomatyki<br /><br /><br />Problem, który nas czeka, brzmi: jak stwarzać rzeczywistości dla bytujących w nich istot rozumnych, w żaden sposób nieodróżnialne od normalnej rzeczywistości, ale podległe odmiennym niż ona prawom? Wstępem niejako do tego zadania jest skromniejsze, od którego zaczniemy. Czy można —spytamy — stworzyć rzeczywistość sztuczną, zupełnie do naturalnej podobną, ale nie dającą się niczym od niej odróżnić? Temat pierwszy — to stwarzanie światów; drugi — złudzeń. Ale złudzeń doskonałych. Nie wiem zresztą, czy można je nazwać tylko złudzeniami. Proszę osądzić.<br />Gałąź badana zwać się będzie fantomatyką — jest ona przedprożem właściwej inżynierii kreacyjnej. Zaczniemy od eksperymentu, który, zaznaczmy to od razu, do fantomaty właściwej nie należy.<br />Pewien człowiek, siedząc na werandzie, patrzy w ogród i jednocześnie wącha trzymaną w ręku różę. Kolejno utrwalamy (np. zapisujemy na taśmie magnetofonowej itp.) serie impulsów, biegnących jego wszystkimi nerwami.<br />Należy dokonać kilkuset tysięcy takich zapisów naraz, gdyż musimy utrwalić wszystkie zmiany, zachodzące w jego nerwach czuciowych (czucia powierzchownego i głębokiego, oraz mózgowych (tj, sygnały, biegnące od czuciowych ciałek skóry i proprioceptorów mięśniowych oraz narządów smaku, powonienia, słuchu, wzroku, równowagi).<br />Gdybyśmy już te sygnały utrwalili, umieszczamy naszego człowieka w zupełnej izolacji, np. w wannie letniej wody w ciemnym pokoju, nakładamy mu odpowiednio elektrody na gałki oczne, wprowadzamy je do uszu, przytwierdzamy do jego skóry itp. jednym słowem, łączymy wszystkie nerwy tego osobnika z naszym magnetofonem, uruchamiamy go i w ten sposób wprowadzamy w nerwy poprzednio utrwalone zapisy.<br />Nie jest to aż tak łatwe, jak przedstawiłem. W zależności od tego, jakie znaczenie ma topologiczna lokalizacja bodźców w obrębie pnia nerwowego, z jednymi nerwami postąpić w powyższy sposób jest łatwiej, a z innymi trudniej. Szczególne kłopoty sprawi nerw wzrokowy. Węchowe pole korowe, przynajmniej człowieka, jest prawie bezwymiarowe: jeśli czujemy trzy zapachy naraz, bardzo trudno orzec, skąd który płynie. Natomiast lokalizacja w obrębie pola wzrokowego jest wysokiej próby; wstępne zorganizowanie bodźców zachodzi już w siatkówce i nerw wzrokowy jest jak wielożyłowy kabel, którego każda żyła wiedzie wiązkę impulsów, przeznaczoną dla pewnej części korowego ośrodka wzroku. Tak więc trudność “ulokowania” wewnątrz tego nerwu utrwalonych impulsów jest znaczna (sam zapis także). Podobne, ale mniejsze trudności sprawi też nerw słuchowy. Można sobie wyobrazić kilka sposobów technicznych przezwyciężenia problemu. Najprostsze jeszcze wydaje się wprowadzenie bodźców dokorowe, od strony potylicy, więc prosto w ośrodek wzroku; ponieważ nie ma naturalnie mowy o chirurgicznym obnażaniu kory, a poprzez skórę i kość nie da się drażnić jej z dostateczną precyzją lokalizacyjną, należałoby impulsy elektryczne przetransportować na jakieś inne (np. wiązki promieniowania, jakie wytwarza maser — o falach ultrakrótkich, nie grubsze od średnicy jednego neuronu). Takie fale mogą, jeśli dostatecznie zogniskowane i słabe, pobudzać, nie uszkadzając wcale tkanki mózgowej. Ale to trochę desperackie, a i rezultaty nie całkiem pewne.<br />Można by więc zbudować specjalną “przystawkę do gałki ocznej”, taką, że stanowi ona “antyoko”, układ optycznie równoważny, który “łączy się” z naturalnym okiem poprzez otwór źrenicy (nie bezpośrednio naturalnie — przed źrenicą jest przednia komora oka i rogówka, ale obie przeźroczyste). Oko plus “antyoko” stwarzają jednolity system taki, że “antyoko” jest nadajnikiem a oko — odbiornikiem. Jeśli teraz człowiek patrzy (w normalnych sytuacjach) nie wprost własnymi oczami, ale przez “antyoczy”, to widzi wszystko zupełnie zwyczajnie, a tylko ma na nosie coś w rodzaju okularów (nieco skomplikowanych) — przy czym te “okulary” są nie tylko “wstawką” pomiędzy jego okiem a światem, która przepuszcza światło, ale zarazem są one aparaturą “punktującą” — czyli rozbijającą widziany obraz na taką ilość elementów, wiele pręcików i czopków liczy siatkówka. Elementy pola widzenia “antyoka” są połączone (kabelkiem np.) z aparaturą zapisującą. Takim sposobem chytrze zbieramy tę samą informację, jaką uzyskuje siatkówka, nie przez włączenie się za nią, tj. z tyłu za gałką w nerw wzrokowy, lecz przed nią — w “przystawkę informacjozbiorczą”. Jeśli chcemy potem reakcję odwrócić, znów nakładamy człowiekowi te “okulary”, ale już w ciemności, i zapis utrwalony w aparacie ślemy drogą aparat — “antyoko” — oko — nerw wzrokowy, do jego mózgu. Rozwiązanie to nie jest wcale najlepsze, ale jest przynajmniej do technicznego zaprojektowania. Należy zauważyć, że to rozwiązanie nie ma nic wspólnego z wyświetlaniem do wnętrza oka filmu, czy jakiegoś mikrofilmu kamerą przystawioną do źrenicy. Film bowiem, czy każdy inny zapis tego typu, ma ostrość daną, więc człowiek nie może np. , przenieść spojrzenia z ostrego planu pierwszego na drugi, mniej ostry. Film z góry określa zatem, co ma być widziane dokładnie, a co mniej dokładnie, nawet jeśli jest to film trójwymiarowy (stereoskopowy). Jednakże siła skurczu mięśni powodujących spłaszczanie się bądź pęcznienie soczewki stanowi jeden z osobnych przekazów do mózgu i pozwala m. in. na ocenę odległości, chociaż w stopniu niniejszym niż dwuoczne widzenie. Dlatego musimy —dążąc do imitacji doskonałej — dać oku swobodę także w obrębie tej funkcji akomodacyjnej, nie mówiąc o tym, że obraz filmowy nie jest optycznie nienaganny “z punktu widzenia ludzkiego oka”. Ten duży nawias miał ukazać nie tyle nawet rozwiązanie konkretne, bo nasze pomysły są nader prymitywne, ile raczej podkreślić, z jednej strony, trudności, a z drugiej, ostateczną realizowalność problemu.<br />Kiedy więc nasz człowiek spoczywa w mroku, a wszystkimi jego nerwami domózgowo biegną serie bodźców, zupełnie takich samych jak te, które biegły nimi, gdy siedział na werandzie z różą, znajdzie się, subiektywnie, w tamtej sytuacji. Będzie widział niebo, różę we własnej ręce, w głębi za werandą ogród, trawniki, bawiące się dzieci itp. Nieco zbliżone doświadczenie przeprowadzono już na psie. Najpierw utrwalono we wskazany sposób impulsy, płynące nerwami motorycznymi, gdy pies biegnie. Następnie przecięto psu rdzeń kręgowy. Tylne nogi uległy przez to porażeniu. Gdy wprowadzono do nerwów porażonych kończyn elektryczny zapis, sparaliżowana tylna część psa “odżyła”, wykonując takie ruchy, jakie wykonuje normalny pies biegnąc. Zmiana tempa przesyłania zmieni szybkość ruchów. Różnica między naszym doświadczeniem, pomyślanym, a tamtym, rzeczywistym, polega na tym, że psu wprowadzono impulsy odśrodkowo (w nerwy motoryczne), a my wprowadzamy je w nerwy dośrodkowe (czuciowe). Co by się jednak stało, gdyby poddany eksperymentowi chciał np. wstać z fotela i wyjść do ogrodu? Oczywiście nie udałoby mu się to. Impulsy bowiem, które wprowadzamy w nerwy owego człowieka, są utrwalone i niezmienne. Gdyby próbował wstać, doszłoby do dziwnego pomieszania; pragnąc ująć widzianą o metr poręcz schodków, chwyciłby powietrze. Doszłoby do rozdwojenia jego przeżyć na to, co czuje, co postrzega, i na to co czyni. Rozdwojenie to wynikłoby z rozejścia się jego obecnej aktywności motorycznej z poprzednią, utrwaloną przez nas, czuciową.<br />Czy zbliżone sytuacje zdarzają się w życiu? Bywa, że ktoś, kto pierwszy » raz w życiu przyszedł do teatru, zwraca się głośno do aktorów, dając im “dobre rady” (np. aby Romeo nie popełnił samobójstwa) i bardzo się dziwi, że aktorzy tych dobrych rad nie przyjmują do wiadomości. Nie reagują na nie, ponieważ wszelka’ w ogóle sztuka — teatr, film, literatura — jest “zaprogramowana z góry”, zdeterminowana raz na zawsze i żadne wmieszanie się w akcję nie skoryguje biegu wypadków. Sztuka jest jednokierunkowym przekazem informacyjnym. Jesteśmy tylko adresatami, tylko odbiorcami projekcji filmowej czy przedstawienia teatralnego. Jesteśmy biernymi odbiorcami, a nie współuczestnikami akcji. Książka nie daje podobnego złudzenia jak teatr, bo od razu można zajrzeć do epilogu i przekonać się, że jest już zdeterminowany. Dalsza akcja przedstawienia natomiast jest utrwalona tylko w pamięci aktorów (przynajmniej dla widza, który nie zapoznał się z wydrukowanym tekstem sztuki). W Science–Fiction można czytać czasem o przyszłościowych rozrywkach, mających polegać na działaniu podobnym do opisanego w naszym eksperymencie. Bohater nakłada sobie na głowę odpowiednie elektrody, dzięki czemu nagle znajduje się w sercu Sahary lub na powierzchni Marsa. Autorzy takich opisów nie zdają sobie sprawy z tego, że ów “nowy” rodzaj sztuki różni się od współczesnego jedynie mało istotną odmianą “podłączenia” do treści sztywno zaprogramowanej z góry — i że bez elektrod nie gorsze złudzenie można mieć w “circaramie” stereoskopowej z ewentualnie “węchowym kanałem dodatkowym” oprócz stereo dźwięku. Pole widzenia jest takie samo jak w naturze, tj. potencjalnie 360 stopni, wszystko, co się widzi, ma trzy wymiary, naturalne barwy, aparatura węchowa zarazem stwarza “pustynne” lub “marsjańskie” powiewy — rzecz więc nie domaga się projekcji w rok 2000, skorą ją można zrealizować, odpowiednim nakładem inwestycyjnym, dzisiaj. To zaś, gdzie sobie kto wtyka elektrody, mało jest istotne — chyba że same owe elektrody mają wnosić piętno trzydziestowiecznej cywilizacji.<br />Tak więc, gdy w sztuce “tradycyjnej” pomiędzy treścią przekazu a mózgiem odbiorcy znajdują się jego narządy zmysłowe, w “nowej” sztuce rodem z S–F narządy owe są pominięte, bo informacyjne treści wprowadza się bezpośrednio do nerwów. Jednokierunkowość połączenia jest tu i tam taka sama. Dlatego ani ukazany przez nas dla celów poglądowych eksperyment, ani “nowa sztuka”, nie są fantomatyką. Fantomatyka oznacza bowiem utworzenie połączeń dwukierunkowych między “sztuczną rzeczywistością” a jej odbiorcą. Innymi słowy, fantomatyką jest sztuką ze sprzężeniem zwrotnym. Ktoś mógłby naturalnie wynająć aktorów, przebrać ich za dworaków z XVII wieku, a siebie za króla francuskiego i wspólnie z przebranymi, w odpowiedniej oprawie (starego wynajętego zamku np.) odgrywać swe “panowanie na tronie Ludwików”. Działania takie nie są nawet fantomatyką prymitywną, choćby tylko dlatego, że można z ich sfery wyjść.<br />Fantomatyka oznacza stworzenie sytuacji, w której żadnych “wyjść” ze świata stworzonej fikcji w świat realny nie ma. Rozważymy teraz, po kolei, sposoby, jakimi można ją realizować, jak również interesujące zagadnienie, czy istnieje w ogóle jakiś dający się pomyśleć sposób, który umożliwiłby fantomatyzowanemu przekonanie się o tym, że jego przeżycia są tylko złudzeniem, odgradzającym go od utraconej czasowo rzeczywistości.<br /><br /><br /><br />Maszyna fantomatyczna<br /><br /><br />Co może przeżywać człowiek podłączony do fantomatycznego generatora? Wszystko. Może wspinać się na ściany alpejskie, wędrować bez skafandra i maski tlenowej po Księżycu, zdobywać, na czele oddanej drużyny, w dzwoniącej zbroi, średniowieczne grody lub Biegun Północny. Może być sławiony<br />przez tłumy jako zwycięzca Maratonu lub największy poeta wszystkich czasów i z rąk króla szwedzkiego przyjmować nagrodę Nobla, kochać z wzajemnością Mme de Pompadour, pojedynkować się z Jagonem, aby pomścić Otella, być samemu zasztyletowanym przez siepaczy Mafii. Może też czuć, jak wyrastają mu olbrzymie orle skrzydła, latać, albo znów stać się rybą i pędzić życie wśród raf koralowych; jako ogromny żarłacz mknąć z otwartą paszczą na stada ofiar, ba! porywać kąpiących się ludzi, zjadać ich ze smakiem i trawić w spokojnym zakątku podwodnej swojej pieczary. Może być dwumetrowej wysokości Murzynem albo faraonem Amenhotepem, albo Attylą lub, niejako na odwrót, świętym, może być prorokiem wraz z gwarancją, że się jego proroctwa spełnią co do joty, może umrzeć, zmartwychwstać, i to wiele, wiele razy.<br />Jak można zrealizować takie przeżycia? Zapewne, całkiem proste to nie jest. Mózg tego człowieka winniśmy podłączyć do maszyny, która posyła weń określone zespoły bodźców węchowych, wzrokowych, czuciowych itp. Dzięki temu będzie stał na szczytach piramid lub leżał w objęciach miss świata roku 2500 albo niósł na ostrzu miecza śmierć zakutym w stal wrogom. Zarazem bodźce, jakie jego mózg będzie wytwarzał, w odpowiedzi na wysłane impulsy, maszyna musi niezwłocznie, w ułamku sekundy przesyłać do swych podsystemów, w których, dzięki grze korekcyjnej sprzężeń zwrotnych, jak również dzięki organizowaniu strumieni bodźców przez odpowiednio zaprojektowane układy samoorganizujące się, miss świata będzie odpowiadała na jego słowa i pocałunki, łodygi kwiatów, które ujmie w rękę, będą się sprężyście uginały, a z piersi wroga, którą spodoba mu się przebić, tryśnie krew. Proszę wybaczyć ten melodramatyczny ton wykładu, ale chciałbym, nie marnując zbyt wiele miejsca i czasu, przedstawić, na czym polega działanie fantomatyki jako “sztuki ze sprzężeniem zwrotnym”, która dawniejszego odbiorcę czyni aktywnym uczestnikiem, bohaterem, ośrodkiem zaprogramowanych wydarzeń. Chyba lepiej odwołać się do języka takich, nieco operowych nawet obrazów, aniżeli używać języka wyrażeń technicznych, co nie tylko uczyniłoby powiedziane przyciężkim, ale o tyle byłoby płonne, że jak na razie ani maszyny fantomatycznej, ani programów do niej nie ma.<br />Maszyna nie może mieć programu, który wszystkie ewentualne poczynania odbiorcy i bohatera w jednej osobie przewiduje z góry. To byłoby niemożliwe. Maszyna nie musi mimo to przedstawiać złożoności, równej sumie złożoności wszystkich występujących w wizji osób (wrogowie, dworacy, miss świata, itd.). Jak wiadomo, we śnie przebywamy w różnych otoczeniach niezwykłych, spotykamy mnóstwo ludzi, nieraz osobliwych, nieraz zachowujących się ekscentrycznie, zaskakujących nas swymi słowami, prowadzimy rozmowy z tłumem całym nawet, przy czym wszystko, tj. otoczenia najrozmaitsze, i nasi partnerzy ze snu, stanowią produkty działania jednego tylko — śniącego mózgu. Tak więc program fantomatycznej wizji może być tylko ramowy, typu “Egipt w czasach XI dynastii”, albo “życie podwodne<br />w basenie Morza Śródziemnego”, i zasobniki pamięciowe maszyny muszą posiadać pełny ładunek faktów, odnoszących się do takiego tematu, faktów, które z martwo utrwalonych ulegają uruchomieniu i plastycznemu przekazaniu, z chwilą kiedy zajdzie tego potrzeba. Potrzebę ową dyktuje, rozumie się, samo “zachowanie” fantomatyzowanego, gdy np. obraca głowę w bok, aby popatrzeć na tę część sali tronowej faraonów, która jest “za jego plecami”. Impulsy do mięśni karku i szyi, jakie wówczas wysyła jego mózg, muszą być niezwłocznie “odparowane” przez to, że projekcja dośrodkowa obrazu optycznego zmieni się tak, że w samej rzeczy wfego pole widzenia wejdzie “tylna część sali”; bo też maszyna fantomatyczna na każdą, najmniejszą nawet zmianę strumienia wysyłanych przez mózg ludzki bodźców, zareagować musi natychmiast, do tej zmiany adekwatnie. Oczywiście to ledwo pierwsze litery abecadła. Prawa optyki fizjologicznej, prawa ciążenia, itd., itp., muszą być wiernie odtwarzane (chyba że temat wybranej wizji się temu sprzeciwia: ktoś chce “latać za rozłożeniem rąk” — więc wbrew grawitacji). Ale oprócz wspomnianych wyżej ścisłych łańcuchów determinizmu, przyczyn i skutków, wizja musi zarazem dysponować wewnątrz niej się poruszającymi grupami procesów o względnej swobodzie: to znaczy, po prostu, że występujące w niej postaci, fantomatyczni partnerzy bohatera, winni przejawiać cechy ludzkie, a zatem niezawisłość (względną) mowy i uczynków od czynów i słów bohatera; nie mogą to być marionetki — chyba że i tego znów zażąda amator fantomatyzacji przed “seansem”. Oczywiście, złożoność aparatury uruchomionej będzie rozmaita; łatwiej imitować miss świata niż Einsteina; w tym drugim wypadku maszyna musiałaby dysponować już złożonością, a więc i inteligencją, dorównującą rozumowi człowieka genialnego. Cała nadzieja w tym, że amatorów pogawędek z takimi miss będzie niezrównanie więcej, niż łaknących rozmowy z twórcą teorii względności. Dodajmy, dla zupełności, że ta “wstawka”, te “antyoczy”, o jakich mówiliśmy w naszym wstępnym, poglądowym przykładzie, nie na wiele by się w fantomatyzatorze pełnej mocy i pełnej swobody złudzeń przydały — potrzeba tu innych, bardziej doskonałych rozwiązań. Ale zasada jest ta sama: człowiek, dwoma kanałami informacyjnymi, dośrodkowym i odśrodkowym, podłączony do otoczenia, które imituje maszyna fantomatyczna. Maszyna, w takiej sytuacji, może wszystko, oprócz jednego: nie włada ona .bezpośrednio mózgowymi procesami odbiorcy, a jedynie tym materiałem faktów, jakie do mózgu wpływają — tak więc nie można np. zażądać w fantomacie, aby się przeżyło rozdwojenie osobowości albo ostry atak schizofrenii. Ale to uwaga nieco przedwczesna. Mówimy bowiem teraz tylko o “fantomatyce obwodowej” —wywoływanej “z obwodu” ciała, bo gra i przeciwgra impulsów toczy się w nerwach, nie ingerując bezpośrednio w głąb procesów mózgowych.<br />Pytanie o to, jak można poznać fikcyjność wizji fantomatycznej, jest prima facie analogiczne do pytania, jakie sobie stawia czasem śniący. Otóż, bywają sny, w których poczucie realności tego, co w nich zachodzi, jest<br />dominujące nieodparte. Tu należałoby jednak zauważyć, że mózg śniącego nigdy nie znajduje się w takiej pełni sił, rozeznania, inteligencji, jak na jawie. W warunkach normalnych można wziąć sen za jawę, ale nie na odwrót (jawę za sen), chyba wyjątkowo, a i to w stanach szczególnych (tuż po przebudzeniu, lub w chorobie, albo w trakcie narastającego znużenia umysłowego). Ale właśnie wtedy zawsze mamy przed sobą świadomość dającą się “oszukać”, bo przyćmioną.<br />Wizja fantomatyczna zachodzi, w odróżnieniu od sennej, na jawie. To nie mózg fantomatyzowanego wytwarza “inne osoby”, “inne światy” —produkuje je maszyna. Człowiek fantomatyzowany jest pod względem ilości i treści informacji dosyłowej niewolnikiem maszyny: żadnej innej informacji zewnątrzpochodnej nie otrzymuje. Jednakże w pełni swobody może poczynać sobie z ową informacją, tj. interpretować ją, analizować, jak mu się żywnie spodoba, o ile, rozumie się, stać go na wnikliwość i bystrość. Czy zatem człowiek w pełni władz intelektualnych może wykryć fantomatyczne “oszustwo”?<br />Można odpowiedzieć, że jeśli fantomatyka stanie się czymś w rodzaju współczesnego kina, sam fakt udania się do jej przybytku, nabycia biletu, itp. czynności wstępne, których pamięć wszak zachowa fantomatyzowany i podczas seansu, a wreszcie wiedza o tym, kim jest w życiu zwykłym naprawdę, że to wszystko umożliwi mu właściwe, nie całkiem poważne, odnoszenie się do tego, co będzie przeżywał. Co miałoby dwa apekty: z jednej strony, wiedząc o umowności akcji przeżywanej, człowiek mógłby sobie, akurat jak we śnie, pozwalać na więcej znacznie niż w rzeczywistości (a więc jego odwaga bitewna, towarzyska czy erotyczna byłaby niezgodna z normą jego zachowania). Ten aspekt, subiektywnie raczej przyjemny — bo wyzwalający swobodę poczynań — byłby parowany przez drugi, niejako przeciwstawny: świadomość, że ani dokonywane czyny, ani występujące w wizji osoby, nie są materialne, więc prawdziwe. Głód autentyczności nie musiałby więc być zaspokojony wizją najbardziej nawet doskonałą.<br />Zapewne, tak może być i tak będzie, jeśli fantomatyka istotnie stanie się rodzajem rozrywki czy sztuki. Dyrekcja hipotetycznego Fantomatu nie będzie zainteresowana w zbyt zręcznym maskowaniu fikcyjności przeżyć, jeśliby mogły doprowadzić np. do szoku nerwowego klientów. Pewnych zaś życzeń — natury np. sadystycznej — prawdopodobnie nie wolno by realizować, ze względu na odpowiednią legislację.<br />Nas jednak nie interesuje tutaj taki problem, natury użytkowo–administracyjnej, ale całkiem inny, gnozeologiczny. To, że “wejście” w wizję można doskonale zamaskować, nie ulega wątpliwości. Ktoś udaje się do fantomatu i zamawia wycieczkę w Góry Skaliste. Wycieczka jest bardzo piękna i miła, za czym osoba ta “budzi się”, tj. wizja się kończy, funkcjonariusz Fantomatu zdejmuje klientowi elektrody i żegna go uprzejmie. Odprowadzony do drzwi, człowiek wychodzi na ulicę i nagle znajduje się w środku potwornego kataklizmu: domy walą się, ziemia drży, a z nieba opada wielki “talerz” pełen Marsjan. Co się stało? “Zbudzenie się”, zdejmowanie elektrod, opuszczanie Fantomatu — to także były części wizji, która zaczęła się od niewinnej wycieczki krajoznawczej.<br />Gdyby nawet takich “psikusów” nikt nie płatał, i tak lekarze–psychiatrzy ujrzeliby w swoich poczekalniach rozmaitych neurotyków, dręczonych natręctwami nowego typu — lękiem, że to, co przeżywają, wcale nie jest prawdą, że “ktoś” uwięził ich w “fantomatycznym świecie”. Mówię o tym, ponieważ jest to wyraźny dowód, jak technika kształtuje nie tylko normalną świadomość, ale przesącza się nawet do zestawu jednostek chorobowych, których powstanie inicjuje.<br />Wymieniliśmy tylko jeden z wielu możliwych sposobów maskowania “fantomatyczności” przeżyć. Można przedstawić sporo innych, nie mniej skutecznych, nie mówiąc już o tym, że wizja może posiadać dowolną ilość “pięter” — tak jak to bywa we śnie, kiedy śni się nam, żeśmy się już zbudzili, natomiast w istocie śnimy sen następny, niejako osadzony w tamtym.<br />“Trzęsienie ziemi” nagle ustaje, talerz znika, klient stwierdza, że wciąż jeszcze siedzi na fotelu z drutami, łączącymi jego głowę z aparaturą. Uprzejmie uśmiechnięty technik wyjaśnia, że to był nadprogram, klient wychodzi, wraca do domu, kładzie się spać, nazajutrz idzie do pracy, aby się przekonać, że biura, w którym pracował nie ma: zniszczył je wybuchem stary niewypał z ostatniej wojny.<br />Naturalnie — to też może być dalszy ciąg wizji. Ale jak się o tym przekonać?<br />Istnieje najpierw pewien sposób bardzo prosty. Maszyna—powiedzieliśmy — stanowi jedyne źródło informacji o świecie zewnętrznym. To jest prawdą. Natomiast nie jest ona takim wyłącznym źródłem informacji o stanie samego organizmu. Jest nim tylko częściowo: albowiem zastępuje mechanizmy nauralne ciała, informujące o położeniu rąk, nóg, głowy, o ruchach gałek ocznych, itp. Natomiast informacja biachemiczna, jaką wytwarza organizm, nie podlega kontroli — przynajmniej w fantomatach dotąd omawianych. Wystarczy więc zrobić ze sto przysiadów: jeśli się spocimy, jeśli zrobi się nam trochę duszno, serce zacznie walić, a mięśnie zmęczą się, jesteśmy na jawie, a nie w wizji, bo zmęczenie mięśniowe wywołało nagromadzenie w nich kwasu mlekowego; maszyna ani na poziom cukru we krwi, ani na ilość w niej dwutlenku węgla, ani na stężenie mlekowego kwasu w mięśniach wpływu mieć nie może. W fantomatycznej wizji można i tysiąc zrobić przysiadów bez jakichkolwiek objawów zmęczenia. I na to jednak byłaby rada — gdyby komuś naturalnie zależało na dalszym udoskonaleniu fantomatyki. Najpierw można, całkiem prymitywnie, umożliwić fantomatyzowanemu ruchy autentyczne — tyle, że musiałby w specjalny sposób być umieszczony, aby miał ich swobodę (tj. mógł pracować mięśniowo). Oczywiście, gdyby brał do ręki miecz, ruch tylko byłby prawdziwy z punktu widzenia zewnętrznego obserwatora: jego dłoń bowiem obejmowałaby nie rękojeść miecza, lecz pustkę. Ten sposób jednak prostacki można zastąpić doskonalszym. Informacja chemiczna organizmu przekazywana jest do mózgu rozmaicie. Albo za pośrednictwem nerwów (zmęczony mięsień “odmawia posłuszeństwa” —więc posyłane impulsy nerwowe go nie uruchamiają; albo czujemy ból mięśnia — to też jest rezultat podrażnienia zakończeń nerwowych — co naturalnie można fantomatycznie imitować — albo bezpośrednio: nadmiar dwutlenku węgla we krwi drażni ośrodek oddechowy rdzenia przedłużonego, wywołując pogłębienie i przyspieszenie oddechu. Ale wszak maszyna może zwiększyć po prostu ilość dwutlenku węgla w powietrzu, którym człowiek oddycha; gdy ilość tlenu się odpowiednio zmniejszy, stosunek ilościowy obu gazów we krwi przesunie się jak podczas ciężkiej pracy mięśniowej. A zatem “metodę biochemiczno–fizjologiczną” maszyna udoskonalona obraca wniwecz.<br />Pozostaje już tylko “intelektualna gra z maszyną”. Szansa odróżnienia wizji od jawy zależy od “fantomatycznego potencjału” aparatury. Powiedzmy, że znaleźliśmy się w opisanej ostatnio sytuacji i szukamy wyjaśnienia, czy to autentyczna rzeczywistość, czy nie. Powiedzmy, że znamy jakiegoś znakomitego filozofa lub psychologa; udajemy się do niego i wciągamy go. w rozmowę. Może to być złudzenie, ale maszyna, która imituje rozumnego interlokutora, jest znacznie bardziej złożona od takiej, która urządza sceny rodem z “soap opera “w rodzaju lądowania talerza z Marsjanami. W gruncie rzeczy, fantomat “wycieczkowy” i fantomat “stwarzający ludzi” to dwa rozmaite urządzenia. Budowa drugiego jest niezrównanie trudniejsza niż pierwszego.<br />Prawdy można dochodzić też inaczej. Jak każdy człowiek, mamy swoje sekrety. Mogą być i błahe, ale własne. Maszyna nie może “czytać myśli” (to nie jest możliwe: “kod” neuralny pamięci jest indywidualną własnością człowieka i “rozłamanie” kodu jednostki nie mówi nic o kodach innych ludzi). Zatem ani ona, ani nikt nie wie, że pewna szuflada naszego biurka zacina się. Biegniemy do domu i sprawdzamy, jak się mają rzeczy. Zacinająca się szuflada czyni realność świata, w którym jesteśmy, wielce prawdopodobną. Jakże musiałby śledzić nas twórca wizji, aby — przed naszym pójściem do fantomatu — wykryć i utrwalić na swych taśmach nawet taką drobnostkę, jak owa spaczona szuflada! Wizję najłatwiej jeszcze zdemaskować analogicznymi szczegółami. Ale maszyna ma zawsze możliwość manewru taktycznego. Szuflada nie zacina się. Pojmujemy, że jesteśmy dalej wewnątrz “wizji”. Pojawia się nasza żona; oświadczamy jej, iż jest tylko “złudzeniem”. Dowodzimy tego, wymachując wyjętą szufladą. Żona śmieje się litościwie i wyjaśnia, że szufladę rano podstrugał stolarz, którego wezwała. A więc znowu nic nie wiadomo. Albo to świat prawdziwy, albo maszyna dokonała zręcznego manewru, parując nim nasze pociągnięcie. Niewątpliwie, “gra strategiczna” z maszyną zakłada jej dokładną znajomość naszego codziennego życia. Nie można jednak popadać w przesadę — w świecie z fantomatyką każde nie całkiem zwykłe zjawisko wywoła podejrzenie, że to wizja fikcyjna, a przecież i w rzeczywistości wybuchają czasem niewypały lub żony wzywają stolarzy. Ustalimy zatem tyle: twierdzenie, że osoba X znajduje się w świecie rzeczywistym, a nie fantomatycznym, może być zawsze tylko prawdopodobne, czasem wielce prawdopodobne, lecz nigdy nie jest pewnością całkowitą. Gra z maszyną jest niby gra w szachy: współczesna maszyna elektronowa przegrywa z graczem doskonałym, a wygrywa z miernym; w przyszłości będzie wygrywała z każdym człowiekiem. To samo da się rzec i o fantomatach. Podstawowa słabość wszystkich wysiłków, zmierzających do wykrycia prawdziwego stanu rzeczy tkwi w tym, że osoba, podejrzewająca świat, w którym żyje, o nieautentyczność, musi działać samotnie. Wszelkie bowiem zwracanie się do innych osób o pomoc jest, a raczej może być w istocie przekazywaniem maszynie informacji strategicznie cennej. Jeśli to wizja, wtajemniczając “starego przyjaciela” w kłopoty niepewności egzystencjalnej, udzielamy maszynie informacji dodatkowej, którą ona wyzyska po to, aby nasze przeświadczenie o realności przeżyć powiększyć. A zatem osoba przeżywająca nie może ufać nikomu prócz siebie, przez co zakres jej poczynań poważnie maleje. Działa ona niejako z defensywy, bo jest zewsząd otoczona. Z czego wynika zarazem, że świat fantomatyczny jest światem całkowitego osamotnienia. Nie może się w nim jednocześnie znajdować więcej niż jeden człowiek — tak samo, jak niemożliwe jest, aby dwie realne osoby znajdowały się w tym samym śnie.<br />Żadna cywilizacja nie może się “w pełni sfantomatyzować”. Gdyby bowiem wszyscy jej członkowie jęli przeżywać od pewnego momentu wizje fantomatyczne, świat realny tej cywilizacji zatrzymałby się i zamarł. Ponieważ najsmakowitsze potrawy fantomatyczne nie podtrzymują życiowych funkcji (chociaż wrażenie sytości można wywołać odpowiednimi impulsami wprowadzanymi w nerwy!), człowiek fantomatyzowany przez czas dłuższy musi otrzymywać posiłki autentyczne. Można sobie naturalnie wyobrazić jakiś wszechplanetarny “Superfantomat”, do którego “raz na zawsze”, tj. do końca życia podłączeni są mieszkańcy owej planety, przy czym wegetatywne procesy ich ciał podtrzymują urządzenia automatyczne (np. wprowadzające do krwi odżywki, itp.). Taka cywilizacja wydaje się naturalnie koszmarem. Podobne kryteria nie mogą jednak decydować o jej prawdopodobieństwie. Decyduje o nim coś innego. Istniałaby ona tylko przez długość życia jednego pokolenia — podłączonego do “Superfautomatu”. Byłaby to więc osobliwa eutanazja, rodzaj przyjemnego, cywilizacyjnego samobójstwa. Dlatego ziszczenie jej uważamy za niemożliwe.<br /><br /><br /><br />Fantomatyka obwodowa i centralna<br /><br /><br />Fantomatykę można ustawić w szeregu, na który składają się, znane z historii, sposoby mniej lub bardziej swoistego oddziaływania na mózg ludzki, przy użyciu bodźców obwodowych (“prefantomatyka obwodowa”) lub działających ośrodkowo (“prefantomatyka centralna”).<br />Do pierwszych należą wykształcone zwłaszcza w starych cywilizacjach rytuały wprowadzania ludzi w stan swoistej ekstazy za pośrednictwem bodźców motorycznych (rytuały taneczne na przykład), słuchowych (wpływanie “rozkołysujące” na procesy emocjonalne impulsami rytmicznymi —melodyczność bowiem jest w stosunku do rytmu ewolucyjnie młodsza), wizualnych itp. Pozwalały one wprowadzać grupy ludzi w stan przyćmienia indywidualnej świadomości, czy raczej zwężenia jej pola, jakie towarzyszy zawsze bardzo silnym emocjom. Takie szczytujące podniecenie zbiorowe kojarzy się współcześnie ze “zbiorowym rozpasaniem”, z orgią, ale w dawnych społecznościach było to raczej na poły mistyczne, na poły demoniczne zlewanie się indywidualnych przeżyć w stanie powszechnego podniecenia, w którym pierwiastki doznań seksualnych wcale nie dominowały, owszem, takie praktyki przyciągały raczej swą tajemniczością, tym, że wyzwalały ukryte w człowieku, nie znane z doświadczenia codziennego moce.<br />Do drugich należą praktyki zażywania substancji takich, jak meskalina, psylocybina, haszysz, alkohol, wywar z muchomorów, itp. Sprowadzają one, przez wpływ na chemizm mózgu, przeżycia subiektywnie podniosłe, rozkoszne, czasem apelujące raczej do estetycznych, to znów raczej do emocjonalnych stron ducha. Oba rodzaje takich praktyk zresztą nieraz kombinowano, aby uzyskać w ten sposób możliwą kulminację doznań; z fantomatyką czynności owe łączy aktywne wpływanie na wprowadzaną do mózgu informację, celem wywołania w nim stanu pożądanego nie przez to, że jest adekwatny jako regulator w stosunku do otoczenia, ale przez to, że stan taki daje rozkosz lub wstrząs (katharsis), więc po prostu silne i głębokie przeżycie. Czy owe dawne praktyki stanowiły przejawy zbiorowej manifestacji sadyzmu bądź masochizmu? Czy też były to przejawy życia religijnego? Albo prapoczątki tej “sztuki mas”, która nie oddziela twórców od odbiorców, lecz czyni wszystkich współtwórcami “dzieła”? Co nas to obchodzi? Sprawa ma pewien związek z klasyfikacją samej fantomatyki.<br />Psychoanalityczne szkoły skłonne są sprowadzać wszelkie ludzkie działania do elementarnych źródeł popędowych. Zarówno purytańska asceza, jak i najjaskrawsze wyuzdanie otrzymują wtedy etykietki “masochizmu” bądź “sadyzmu”, przy czym nie o to nawet idzie, że te twierdzenia są nieprawdziwe, ile o to, że ta prawda jest zbyt trywialna, aby mogła służyć nauce. Dyskusje na temat panseksualizmu, itp., są równie jałowe, jak byłyby nimi spory o to, czy akt seksualny jest przejawem słonecznej aktywności. W ostatniej instancji zapewne tak jest: ponieważ życie zawdzięcza swe powstanie promieniowaniu słonecznemu, a więc, przedstawiając długie łańcuchy przyczyn i skutków, idące od naszej gwiazdy ku skorupie Ziemi, a dalej poprzez ciągi rozwojowe ewolucji, można wykazać, jak deterioracja energetyczna kwantów promienistych w roślinach, stanowiących z kolei pożywienie dla zwierząt, do których należy też człowiek, doprowadza, koniec końców, na pewnym, niezmiernie już od energetycznego źródła odległym etapie, do aktów płciowych, dzięki którym cały ten proces w ogóle może być kontynuowany (bo bez rozmnażania organizmy by wszystkie wymarły). I podobnie można powiedzieć, że popęd płciowy sublimuje się w dzieło artystyczne. Kto tak mówi, wyraża metaforę raczej aniżeli prawdę — a w każdym razie nie jest to prawda naukowa. Nie wszystko jest bowiem prawdą naukową: ocean zmiennych nieistotnych jest większy od oceanu głupoty, a to już coś znaczy.<br />Gdy ciągi przyczynowo—skutkowe stają się dostatecznie długie, każda próba wiązania odległych od siebie etapów nabiera charakteru przenośni raczej aniżeli naukowego twierdzenia. Szczególnie już odnosi się to do systemów złożonych, typu sieci neuronowej, gdzie, ze względu na mnogie wewnętrzne powiązania i pętle sprzężeń, trudno ustalić, co jest skutkiem, a co przyczyną. Poszukiwanie “pierwszych przyczyn” w sieci tak złożonej, jak mózg ludzki, to aprioryzm czystej wody. Choć się przed tym psychiatra–psychoanalityk będzie bronił, z jego twierdzeń wynika, że srogi wychowawca dzieci i Kuba–rozpruwacz różnią się od siebie tak tylko, jak dwa samochody, z których pierwszy ma dużo lepsze hamulce od drugiego, i dlatego nie powoduje katastrof. Tak więc, działalność artystyczna, magiczna, religijna i rozrywkowa nie były przed setkami lat tak oddzielone, jak dziś. Fantomatykę nazywamy “techniką rozrywkową”, ze względu na jej genetyczne powiązania z takimi technikami dnia dzisiejszego, co nie przesądza o jej przyszłych, być może uniwersalistycznych aspiracjach.<br />W naszym systemie klasyfikacji fantomatyka obwodowa jest działaniem na mózg pośrednim, w tym sensie, że bodźce fantomatyzujące dostarczają tylko informacji o faktach; analogicznie bowiem działa rzeczywistość. Determinuje ona zawsze stany zewnętrzne, ale nie Wewnętrzne, ponieważ takie same konstatacje zmysłowe (że jest burza, że siedzimy na piramidzie), wszystko jedno, wywołane sztucznie czy naturalnie, u różnych ludzi powodują rozmaite uczucia, wzruszenia i reakcje.<br />Możliwa byłaby także “fantomatyka centralna”, tj. bezpośrednie drażnienie pewnych ośrodków mózgowych, sprawiających przyjemne uczucia bądź doznanie rozkoszy. Ośrodki te mieszczą się w śródmózgowiu i pniu mózgu. Bardzo blisko nich są też ośrodki wściekłości i trwogi (reakcji agresywno—obronnych). Do klasycznych już należy praca Oldsa i Milnera. Zwierzę (szczur) znajdowało się w klatce, miało chronicznie (tj. na stałe) implantowaną w mózg (w diencephalon) elektrodę i mogło drażnić elektrycznie owo miejsce, naciskając łapką rodzaj pedału, który zamykał kontakt. Pewne zwierzęta drażniły się nieustannie w ciągu 24 godzin, z częstością, dochodzącą do 8000 razy na godzinę, więc przeszło dwa razy na sekundę. Jeśli elektrodę wprowadzić nieco dalej, to szczury, podrażniwszy się raz, już nigdy tego więcej nie czynią. Jak formułuje to H. Magoun, można sądzić, że w tej okolicy mózgu znajdują się dwa przeciwstawne mechanizmy nerwowe, “nagrody” i “kary”. “Innymi słowy” — pyta on — “czy niebo i piekło są umiejscowione w mózgu zwierzęcia?”*<br />Jasper i Jacobsen wykryli podobne stosunki w mózgu człowieka, przy czym badany odczuwał, w zależności od miejsca drażnienia, już to niepokój i lęk, podobnie jak przed atakiem padaczkowym, już to uczucia przyjemne. “Fantomatyka centralna”, opierająca się na tych danych anatomo–fizjologicznych, byłaby czymś w rodzaju “onanizmu ośrodkowego”, aczkolwiek doznawane przy drażnieniu okolic hippokampa uczucia nie są tożsame z wyładowaniem seksualnym (orgazmem). Jesteśmy naturalnie skłonni potępić tego rodzaju “ataki szczęścia”, spowodowane zabiegiem elektrycznym, nie inaczej zresztą, jak zwykły samogwałt. Swoją drogą, cybernetycy, jak wspomniany już Staffrd Beer, zdają sobie sprawę z potrzeby wprowadzenia w obręb złożonego homeostatu mechanizmu nagrody i kary. Homeostat prosty (jak zbudowany z czterech elementów przez Ashby’ego) nie wymaga takiego specjalnego podsystemu; takiej “kontroli algedonicznej” wymagają tylko bardzo skomplikowane systemy o wielu stanach równowagi i wielu możliwych samoprogramujących się sposobach i celach działania.<br />Ponieważ ludzie nie przestają’ po dziś używać środków, wywołujących “stany przyjemne”, włączając w to i trucizny (alkaloidy, alkohole itp.), nie można wykluczyć powstania przyszłej “fantomatyki centralnej” tylko dlatego, ponieważ, jako “technika ułatwionej rozkoszy”, budzi moralne potępienie. Za “sztukę” w każdym razie tej odmiany fantomatyki uznać nie sposób, podobnie jak nie jest nią narkotyzowanie się czy picie alkoholu. Inna sprawa z fantomatyką obwodową, która w pewnych okolicznościach mogłaby się stać sztuką — a także polem wszelakich nadużyć.<br /><br /><br /><br />Granice fantomatyki<br /><br /><br />Fantomatyka obwodowa — to wprowadzenie człowieka w świat przeżyć, których nieautentyczności wykryć nie można. Powiedzieliśmy, że żadna cywilizacja nie może się “totalnie sfantomatyzować”, gdyż oznaczałoby to jej samobójstwo. Ale podobną reductio ad absurdum można rówież zastosować wobec telewizji. Cywilizacja, która by się podzieliła na dwie części: na tych, którzy program nadają, i na tych, którzy go u telewizorów odbierają, tak samo nie mogłaby istnieć. Fantomatyka zatem jest możliwa, a nawet prawdopodobna, jako technika rozrywkowa, ale nie jako droga, na którą wchodząc, społeczność może tak się oderwać od świata realnego, aby ulec “otorbieniu”, o jakim wspominaliśmy.<br />Fantomatyka zdaje się stanowić swoisty szczyt, ku któremu zmierzają liczne techniki rozrywkowe współczesności. Są nimi “wesołe miasteczka”, “iluzjony”, “pałace duchów”, wreszcie jednym wielkim, prymitywnym pseudofantomatem jest cały Disneyland. Oprócz takich technik, dozwolonych prawem, istnieją nielegalne (takie działania przedstawia np. J. Genet w Balkonie, gdzie miejscem “pseudofantomatyzacji” jest lupanar). Fantomatyka ma pewne dane, aby stać się sztuką. Przynajmniej tak się wydaje na pierwszy rzut oka. Mogłoby w niej zatem dojść do rozdwojenia, podobnego do sytuacji w filmie, ale także w innych dziedzinach sztuki (na produkcję artystyczni cenną i bezwartościową tandetę).<br />Niebezpieczeństwa fantomatyki są jednak niezrównanie większe od tych, jakie przedstawia wyrodniejący, a czasem przekraczający nawet granicę norm społecznych, film (jako film pornograficzny na przykład). Ze względu bowiem na swe osobliwości fantomatyka daje przeżycie, którego “prywatności” dorównuje tylko sen. Jest to technika namiastkowego spełniania życzeń, dająca się łatwo nadużywać w aktach sprzecznych z tym, co jest społecznie dozwolone. Ktoś mógłby twierdzić, że ewentualne “rozpasanie fantomatyczne” nie może być społecznym zagrożeniem, ale że to właśnie coś jak “upust złej krwi”. Przecież “czynienie zła bliźniemu” w wizjach fantomatycznych nikomu nie szkodzi. Czy pociąga się kogoś do odpowiedzialności za najprzeraźliwszą treść snów? Czy nie lepiej, aby ktoś pobił, a nawet zamordował swego wroga w fantomacie, niźliby to miał zrobić w rzeczywistości? Aby, “pożądał żony bliźniego swego”, co może łatwo wnieść nieszczęście w jakieś spokojne stadło? Czy, jednym słowem, fantomatyka nie może wchłonąć, bez niczyjej krzywdy, ciemnych mocy, ukrytych w człowieku?<br />Postawa taka może spotkać się z przeciwną. Czyny przestępcze w wizji —powie antagonista — gotowe tylko zachęcić do powtórzenia ich w świecie realnym. Człowiekowi, jak wiemy, najbardziej zależy na tym, co nie jest dlań dostępne. “Przewrotność” taką spotykamy na każdym kroku. Nie ma ona żadnej podstawy racjonalnej. Co właściwie czyni miłośnik sztuki, gotowy oddać wszystko za autentycznego van Gogha, którego inaczej, aniżeli przy pomocy armii ekspertów, nie odróżni od doskonałej kopii? Poszukuje “autentyczności”. Tak więc nieautentyczność przeżyć fantomatycznych odbierałaby im wartość “buforową”, byłyby one raczej szkołą, systemem ćwiczącym w doskonaleniu czynów społecznie wzbronionych, aniżeli ich “pochłaniaczem”. Uczynienie zaś wizji fantomatycznej nieodróżnialną od rzeczywistości doprowadzi do nieobliczalnych następstw. Dokonane zostanie zabójstwo, po czym morderca będzie się bronił twierdzeniem, że w jego najgłębszym przekonaniu była to “tylko wizja fantomatyczna”. Poza tym niejeden człowiek tak zapłacze się w nierozróżnialnej prawdzie i fikcji życia, w nierozdzielnym subiektywnie świecie autentyku i ułudy, że nie znajdzie z takiego labiryntu wyjścia. To by dopiero były potężne “generatory frustracji” i psychicznego załamywania się.<br />Tak więc — przeciwko uznaniu fantomatyki za świat całkowitej — jak senna — swobody postępowania, w którym szały nihilistycznego rozpasania byłyby ograniczane tylko wyobraźnią, a nie sumieniem — przemawiają ważkie powody. Mogą, zapewne, powstać fantomaty nielegalne. To jednak problem policyjny raczej aniżeli cybernetyczny. Od cybernetyków mógłby ktoś wymagać, by w aparaturę wbudowali rodzaj “cenzury” (analogia do freudowskiej “cenzury snów”), powstrzymującej bieg wizji z chwilą przejawienia przez f antomatyzowanego tendencji agresywnych, sadystycznych itd.<br />Pozornie jest to problem czysto techniczny. Dla tego, kto umie zbudować fantomat, wprowadzenie weń takich ograniczeń nie będzie chyba zbyt trudne. W tym miejscu natykamy się jednak na dwie, zupełnie nieoczekiwane, konsekwencje postulowanych ograniczeń. Przedstawimy najpierw prostszą. Oto fantomatyzacja olbrzymiej większości dzieł sztuki byłaby niemożliwa: musiałyby znaleźć się poza granicą dozwolonego! Jeśli bohater wizji wyraża życzenie tak nawet zbożne, aby być Podbipiętą, nie unikniemy złego, bo jako Podbipiętą będzie ścinał po trzech Turków naraz, a znów jako Hamlet przekłuje Poloniusza niczym szczura. A gdyby — proszę wybaczyć ten przykład — chciał przeżyć męczeństwo jakiej świętej osoby, sprawa też miałaby dosyć wątpliwy posmak. Nie w tym tylko rzecz, że dzieł, w których nikt nikogo nie zabija i nie czyni nikomu złego, prawie nie ma (wliczając i bajki dla dzieci — jakże krwawe są bajki braci Grimm). Chodzi o to, że zakres regulacji bodźców, czyli “cenzura” fantomatyzatora, w ogóle nie sięga do właściwej sfery przeżyć fantomatyzowanego. Może pragnie być biczowany, przez potrzebę umartwienia, a może jest zwykłym biczownikiem–masochistą? Kontrolować można tylko bodźce wprowadzane do mózgu, ale nie to, co się w tym mózgu dzieje, co on przeżywa. Treść przeżyciowa pozostaje poza kontrolą (w tym wypadku to jakby minus, ale w zasadzie można powiedzieć, że to jednak bardzo szczęśliwe). Już ten nieliczny materiał eksperymentalny, jaki uzyskano podczas drażnienia różnych okolic mózgu ludzkiego (przy operacjach), wskazuje, że w każdym mózgu takie same czy podobne treści są utrwalane inaczej. Język, jakim przemawiają nasze nerwy do naszych mózgów, jest praktycznie tożsamy u wszystkich ludzi, natomiast język, czy raczej sposób kodowania wspomnień i kręgów skojarzeniowych, jest wysoce indywidualny. Łatwo się o tym przekonać, bo wspomnienia łączą się w sposób określony tylko dla jednostki. Tak np. ból może się komuś kojarzyć z cierpieniem wzniosłym i karą za przewiny, a komuś innemu może sprawić przewrotną uciechę. Tym samym dotarliśmy do granic fantomatyki: nie można bowiem przy jej pomocy bezpośrednio determinować postaw, sądów, wierzeń ani uczuć. Można kształtować treść niby—materialną przeżycia, ale nie towarzyszące mu sądy, myśli, doznania i skojarzenia. Dlatego też nazwaliśmy ową technikę “obwodową”. Zupełnie jak w życiu realnym dwaj ludzie mogą z dwu identycznych doświadczeń wyprowadzić zgoła odmienne, przeciwstawne diametralnie wnioski (w rozumieniu emocjonalnym oraz w światopoglądowym, a nie w sensie naukowego uogólnienia). Bo wprawdzie nihil est in intellectu, quod non fuerit prius in sensu (dla fantomatyki raczej in nervo), lecz stany nerwowych pobudzeń nie określają treści emocjonalno–intelektualnych jednoznacznie. Cybernetyk powie: stany “wejść” ani “wyjść” nie determinują jednoznacznie stanu znajdującej się między nimi sieci.<br />Jakżeż — spyta ktoś — nie determinują, a przecież powiedziało się, że fantomatyka umożliwia przeżycie “wszystkiego”, nawet tego, powiedzmy, że ktoś jest krokodylem czy rybą!<br />Krokodylem albo rekinem, tak, ale “na niby”, i to podwójnie. Po pierwsze na niby, bo to tylko wizja łudząca; o czym już wiemy. Po wtóre, bo aby naprawdę być krokodylem, trzeba mieć krokodyli, a nie ludzki mózg. Człowiek może być, w gruncie rzeczy, tylko sobą. Należy to jednak właściwie rozumieć. Jeśli urzędnik Banku Krajowego marzy o tym, aby zostać urzędnikiem Banku Inwestycyjnego, życzenie jego da się spełnić w sposób doskonały. Jeśli natomiast zapragnie zostać na dwie godziny Napoleonem Bonaparte, będzie nim (podczas wizji) tylko zewnętrznie: będzie widział, jeśli zajrzy do lustra, twarz Bonapartego, będzie miał wokół siebie “starą gwardię”, wiernych marszałków, itp., ale nie będzie mógł się z nimi rozmówić po francusku, jeżeli tego języka nie znał przedtem. I będzie też, w owej “bonapartycznej” sytuacji, przejawiał własne cechy charakteru, a nie postaci Napoleona, jakiego znamy z historii. Najwyżej będzie usiłował grać Napoleona, tj. udawać go, lepiej lub gorzej. I to samo dotyczy też krokodyla… Fantomatyka może sprawić, aby grafoman otrzymał, jak się rzekło, nagrodę Nobla, może mu cały świat, oczywiście w wizji, rzucić pod stopy, będą go wszyscy wielbić za wspaniałe poematy, ale on tych poematów i podczas wizji nie zdoła stworzyć, chyba że zgodzi się, aby mu je podrzucano do biurka…<br />Powiedzmy tak: im bardziej odległa jest, strukturą osobowości i czasem historycznym, postać, w którą ktoś pragnie się wcielić, od jego własnego charakteru i czasu, tym bardziej umowne, naiwne, prymitywne nawet formy przybierze jego postępowanie i cała akcja wizji. Bo aby zostać koronowanym na króla czy przyjmować posłów papieskich, trzeba znać cały dworski ceremoniał; osoby stworzone przez fantomatyzator mogą udawać, że nie widzą idiotycznych postępków odzianego w gronostaje urzędnika Banku Krajowego, więc się jego satysfakcja może i nie zmniejszy przez owe lapsusy, ale też widać stąd, jak cała ta sytuacja jest podszyta trywialnością, błaznowaniem. Z tego też względu trudno bardzo, aby fantomatyka mogła stać się sztuką pełnowartościową. Najpierw, nie można dla niej pisać scenariuszów, a najwyżej tylko ramowe’ szkice sytuacyjne; po wtóre, sztuka zakłada charaktery, tj. postaci mają je dane, podczas gdy klient fantomatu ma osobowość własną i nie będzie umiał zagrać wymaganej przez scenariusz roli, bo nie jest zawodowym aktorem. Dlatego fantomatyka może być jednak przede wszystkim rozrywką. Może to być swoisty “super–Orbis”, “super–cook” do podróży po Kosmosie możliwym i niemożliwym, poza obszerną dziedziną zastosowań bardzo cennych, ale nie mających ani ze sztuką, ani z rozrywką nic wspólnego.<br />Można przy jej pomocy stwarzać sytuacje treningowe i szkolące, najwyższej próby; można więc kształcić jej środkami w wykonywaniu wszystkich zawodów: lekarskiego, lotniczego, inżynieryjnego itp. Nie ma przy tym niebezpieczeństwa kraksy lotniczej, operacyjnego wypadku na stole, katastrofy wywołanej źle obliczoną konstrukcją. Po wtóre, pozwala ona badać reakcje psychologiczne, tu będzie zatem szczególnie cenna dla odsiewu adeptów astronautyki, itp. Metoda maskowania fantomatycznej wizji pozwoli na stworzenie warunków, w których badany nie będzie wiedział, czy naprawdę leci na Księżyc, czy też to tylko złudzenie. Zamaskowanie to jest potrzebne, ponieważ zachodzi konieczność poznania jego reakcji autentycznych, w obliczu awarii prawdziwej, a nie zmyślonej, kiedy każdemu łatwo przychodzi demonstrowanie “odwagi osobistej”.<br />“Testy fantomatyczne” pozwolą psychologom poznać lepiej reakcje ludzi w bardzo szerokim zakresie; poznać mechanizm powstawania paniki itp. Umożliwią, szybką selekcję wstępną kandydatów na różne studia i do różnych zawodów. Fantomatyka może okazać się niezastąpioną dla wszystkich tych, których warunki (placówka arktyczno–naukowa, lot kosmiczny, pobyt na stacji pozaziemskiej, a nawet gwiazdowa eksploracja) zmuszają do długiego przebywania w samotności i względnie ciasnej, zamkniętej przestrzeni. Dzięki niej lata podróży do jakiejś gwiazdy mogą okazać się pełne normalnych zajęć takich, jakim by członkowie załogi oddawali się na Ziemi, mogą to być lata podróżowania po ziemskich lądach i morzach, a nawet lata nauki (bo wszak i wykładów znakomitych profesorów można w wizji słuchać). Będzie fantomatyka prawdziwym błogosławieństwem dla niewidomych (oprócz tych, którzy cierpią na ślepotę centralną, tj. mają uszkodzony korowy ośrodek wzroku), którym otworzy cały, ogromny świat przeżyć wizualnych. Jak również i dla osób cierpiących, chorych, dla rekonwalescentów itd., itp. Także dla starców, pragnących przeżyć po raz drugi młodość; dla milionów, jednym słowem; jak z tego widać, być może jej rozrywkowe funkcje okażą się całkiem marginalne.<br />Wywoła ona zapewne i reakcje negatywne. Powstaną grupy zapiekłych jej przeciwników, wielbicieli autentyczności, którzy gardzić będą ową natychmiastowością spełniania życzeń, jaką stwarza fantomatyka. Myślę jednak, że dojdzie do rozsądnych kompromisów, ponieważ w końcu każda cywilizacja jest życiem ułatwionym i rozwój w znacznej mierze sprowadza się do poszerzania zakresu owych ułatwień. Fantomatyka może się też oczywiście stać prawdziwą groźbą, plagą społeczną, ale ta możliwość dotyczy wszelkich płodów technologii, choć nie w jednakim stopniu. Wiadomo, o ile mniej groźne są konsekwencje niewłaściwego użycia płodów technologii pary i elektryczności od płodów technologii atomowej. Ale to już jest problem dotyczący ustrojów społecznych i panujących politycznych stosunków, nic z fantomatyką, czy jakąkolwiek inną gałęzią techniki, nie mający wspólnego.<br /><br /><br /><br />Cerebromatyka<br /><br /><br />Czy można wpływać na procesy mózgowe, więc na stany świadomości, z pominięciem dróg dostępu normalnych, t j. biologicznie wytworzonych? Bez wątpienia: przecież chemia farmaceutyczna dysponuje dzisiaj wielką ilością środków już to pobudzających rozmaicie, już to hamujących aktywność mózgową, a nawet są takie, które mogą kierować jej nurty w określone łożyska. Tak np. działanie wielu halucynogenów jest swoiste: jedne wywołują raczej “widzenia”, inne tylko nieokreślone stany oszołomienia bądź szczęśliwości. Czy możliwe byłoby jednak formowanie, kształtowanie owych procesów mózgowych zgodnie z naszymi zamierzeniami? Czy, jednym słowem, można tak “przerobić” mózg p. Smitha, aby stał się, bodaj czasowo, Napoleonem Bonaparte “prawdziwym” albo żeby wykazał rzeczywiste i fenomenalne talenty muzyczne, lub wreszcie został czcicielem ognia, przekonanym o niezbędności owego kultu?<br />Tu należy pierwej przeprowadzić wyraźne rozgraniczenia. Najpierw, powyższe “przeróbki” oznaczają bardzo rozmaite rzeczy. Wszystkie stanowią zmiany dynamicznej struktury sieci neuronowej mózgu, i obejmiemy je przeto łączną nazwą cerebromatyki. Fantomatyka dostarcza mózgowi “fałszywej informacji”, cerebromatyka — “fałszuje”, tj. “przerabia” sam ów mózg. Dalej, co innego jest w daną osobowość wprawić jedną cechę, np. talent muzyczny (zapewne zmieni to osobowość, ale można uznać, że będzie tą samą, a tylko przeinaczoną nieco), a znów co innego — z pana Smitha zrobić Napoleona.<br />Tak krawiec kraje, jak mu sukna staje. W tym sensie, odłączenie czynnościowe pewnych części mózgu (płatów czołowych na przykład) może uczynić człowieka dojrzałego infantylem, podobnym w reakcjach do dziecka, z jego ograniczeniem intelektu i chwiejnością emocjonalną. Można też znieść hamujące działanie ośrodków ciemieniowych, co wyzwoli osobniczą agresywność (robi to alkohol, zwłaszcza u tych, którzy są do agresji skłonni). Innymi słowy, daną osobnicze aktywność całej sieci neuronowej można w pewnych granicach przesuwać albo zacieśniać. Nie można natomiast cech nieobecnych psychice przydać: we właściwym rozumieniu. Dorosły był dzieckiem, jego płaty czołowe posiadały wówczas niezmielinizowane włókna, stąd, w pewnym sensie, niejakie podobieństwo dziecka do chorego z zanikiem tych płatów. Można zatem dorosłego “cofnąć” w dziecko, chociaż nie w pełni to możliwe, bo pozostałe części jego mózgu są “niedziecinne”, ma też on taką ilość wspomnień i doświadczenia, jakiej dziecku brak. Można “zdjąć hamulce” z takiej czy innej funkcji napędowej i zrobić z człowieka normalnego — żarłoka, erotomana itp. Osobowość może więc w ten sposób zostać sprowadzona z normalnego wyważenia, z pierwotnego kursu: ale to wszystko. Zabiegami takimi p. Smitha w Napoleona się nie przerobi.<br />Tu niezbędny jest nawias. Otóż powiedzieliśmy wprawdzie, że stany wejść i wyjść nie determinują jednoznacznie stanów świadomości, co widać choćby po tym, że w analogicznym środowisku powstają różne postawy światopoglądowe, jako że tę samą informację można rozmaicie interpretować, nie wynika jednak z tego jakaś niezawisłość świadomości od treści w nią wprowadzanych. Jeśli ktoś (przykład uproszczony) wierzy, że “ludzie są dobrzy”, a my, już to fantomatycznymi wizjami, już to dzięki odpowiedniej inscenizacji wydarzeń, będziemy go przez dłuższy czas nieustannie zderzać z ludzką nikczemnością i podłością, przekonanie o zacności naszego rodzaju może ów człowiek porzucić. A więc i fantomatyka obwodowa może odpowiednimi zabiegami wpłynąć na zmianę sądów, nawet mocno już zakorzenionych. Im więcej doświadczeń ma za sobą człowiek, tym trudniej o taką zmianę. Szczególnie zaś trudno jest podważyć sądy metafizyczne, ze względu na wspomniane i właściwe ich obecności blokowanie informacji z ich strukturą sprzecznej.<br />Inna sprawa z cerebromatycznym “kształtowaniem duszy” bezpośrednim, tj. wpływaniem na procesy psychiczne z pominięciem dróg nerwowych dosyłowych, a mianowicie przez odmienne modelowanie ich neuronowego podłoża.<br />Mózg nie jest czymś jednolitym, niepodzielnym. I on posiada liczne “podsystemy”, połączone z sobą, przy czym połączenia te bywają fizjologicznie zmienne, to znaczy, że nie zawsze te same części mózgu są “wejściami” dla bodźców, nadchodzących z innych jego części, i na odwrót. Na tym właśnie polega uniwersalna plastyczność i modelująca dynamika sieci neuronowej, że potencjalnie zdolna jest ona łączyć się lub rozłączać, przez co z takich kombinacji powstają różne podsystemy. Kto umie jeździć na rowerze, posiada określone pogotowie “utorowanych” takich połączeń, automatycznie “zaskakujące” w całość działającą, gdy dosiędzie roweru. Nauczyć kogoś jazdy na rowerze z pominięciem drogi normalnej, tj. określonych ćwiczeń, a tylko przez bezpośrednie wprowadzenie w jego mózg właściwej informacji, nie jest sprawą prostą nawet w teorii.<br />Możliwe są tu dwa podejścia. Pierwsze jest “genetyczne”: należy uczynić umiejętność jazdy na rowerze (albo znajomość Koranu lub skoków z trampoliny itp.) własnością wrodzoną, tj. zaprogramować ją już w genotypie jaja, z którego się osobnik i jego mózg rozwinie. Można by w ten sposób dojść do sytuacji, w której właściwie niczego już się uczyć nie trzeba, bo wszelka wiedza teoretyczna i praktyczna jest “wdrażana” chromosomom przed rozwojem płodowym, a przez to staje się dziedziczna. Wymagałoby to co prawda bardzo poważnego zwiększenia ilości informacji genotypowej, skomplikowania struktury jądra, itd. Być może też, genotyp nie byłby zdolny pomieścić określonego nadmiaru informacji powyżej pewnej granicy — na ten temat nic nam nie wiadomo. Ale i taką możliwość trzeba mieć na oku. Wtedy należałoby się ograniczyć do genotypowego perfekcjonowania takich cech, które przynajmniej ułatwiają naukę, jeśli jej nie są zdolne zastąpić. Byłoby to zapewne dość osobliwe, gdyby udało się uczynić całokształt ludzkiej wiedzy dziedzicznym tak, aby już noworodek przychodził na świat ze znajomością kilkunastu języków oraz teorii kwantów. Nie musiałoby też to wcale oznaczać, że mówiłby natychmiast “językami ludzkimi i anielskimi” albo z kołyski prawił nam o spinach i momentach kwadrupolowych; określone wiadomości tak samo rozwinęłyby się w jego mózgu z upływem lat, jak się rozwijać będzie jego organizm, rosnąc, przechodząc rozmaite przemiany w trakcie dojrzewania.<br />To znów nasuwa obraz świata, w którym dzieci “programuje się”, i to tak, żeby umiejętnościom i wiedzy dziedzicznej (czy raczej — zakomponowanej i utrwalonej w chromosomach jaja) towarzyszyło zamiłowanie do robienia tego, na co owa wiedza dziedziczna i umiejętności pozwalają (świat nieco podobny do Huxleyowskiego). Oczywiście i tu możliwe są rozmaite nadużycia i tendencje do “produkowania typów ludzkich różnej jakości”, tj. umysłów “wyższych” i “niższych”. To jest możliwe, ale możliwe też jest zatrucie atmosfery całej Ziemi tak, by jej biosfera zgorzała w ciągu godzin. Jak wiadomo, wiele jest rzeczy możliwych, których się mimo to nie realizuje. W bardzo wczesnej fazie nowego zwrotu technologii, albo w fazie “przeczuwania” nadchodzącej zmiany, powszechne są tendencje do absolutyzowania tej nowości, przyjmowania, że ona odtąd zapanuje niepodzielnie nad całą ludzką działalnością. Tak było w minionych wiekach, tak było niedawno z atomistyką (gdy sądzono, że w ciągu paru lat elektrownie i kominy ustąpią niemal wszędzie miejsca stosom atomowym). Ta wyolbrzymiająca prostolinijność przewidywania na ogół się nie realizuje. Tak więc i programowanie dziedziczności można uprawiać w sposób tyleż rozumny, co umiarkowany; wrodzona znajomość wyższej matematyki na pewno nie stoi w sprzeczności z godnością ludzką.<br />Drugie podejście, cerebromatyczne, oznacza przekształcenie mózgu już dojrzałego. Mówiliśmy wyżej o programowaniu informacji naukowej raczej, aniżeli o kształtowaniu osobowości; rozumie się, że genetycznie (chromosomowo) o wiele łatwiej wymodelować pewien typ osobowości aniżeli pewną wiedzę. Ilość bowiem informacji genotypowej w zasadzie nie bardzo się zmienia, niezależnie od tego, czy “projektujemy” przyszłego p. Smitha jako choleryka, czy jako flegmatyka. Co się tyczy cerebromatyki, to zmienić osobowość dojrzałą na nową lub wprowadzić do mózgu wiedzę w nim nieobecną zabiegiem na sieci neuronowej jest bardzo trudno w obu wypadkach. Wbrew pozorom, podejście to stwarza trudności do pokonania większe aniżeli “genetyczno—embrionalne”. Łatwiej jest zaprogramować rozwój z góry, aniżeli w istotny sposób przekształcić dynamikę systemu w pełni już uformowanego.<br />Trudność ma dwa oblicza: techniczne i ontologiczne. Trudno jest wprowadzić w sieć neuronową informację o tym, jak jeździć na rowerze. Bardzo trudno jest “dorobić” czterdziestoletniemu p. Smithowi “nagły” talent matematyczny. Wymagałoby to zabiegów chirurgicznych, cybernetycznych, jakiegoś otwierania kręgów (obwodów) neuronowych i włączania w nie “wstawek” czy to biologicznych, czy elektronowych albo jakichś innych. Zadanie byłoby technicznie niewdzięczne w najwyższym stopniu. Trzeba by przekonstruować jeśli nie miliardy, to przynajmniej dziesiątki milionów połączeń. A chociaż według Lorente de No nie ma więcej niż 10 000 głównych neuronowych (dużych) obwodów krążenia impulsów w korze, należy się obawiać, że pewne znaczenie (zarówno jako podłoże myśli, jak też i jako element funkcjonalny) ma każdy obwód neuronowy jako całość. Tak więc otwarcie go i “przysztukowanie” wstawki jest zupełnym zniszczeniem pierwotnego znaczenia subiektywnego i obiektywnego, a nie tylko “dodatkiem organizacyjno–informacyjnym”.<br />Ale chyba dość tych szczegółów, schodzą bowiem na drugi, na trzeci nawet plan wobec problematyki ontologiczne j, jaką te zabiegi powołują do istnienia. Gdy chcemy dynamomaszynę przerobić na pompę odśrodkową, musimy tak wiele jej części odrzucić, tak wiele przydać nowych, tak przekonstruować całość, że zbudowana pompa nie będzie już “byłą dynamomaszyną”, a tylko po prostu pompą i niczym więcej. Analogicznie, “przeróbki” mające uczynić p. Smitha Napoleonem lub Newtonem mogą nam dać w efekcie całkiem nową osobowość, z poprzednią związaną tak już luźno, że właściwie orzec trzeba morderstwo. Unicestwiliśmy bowiem jednego człowieka i stworzyli, w jego poprzedniej skórze, nowego. Przy tym różnice są zawsze płynne i wyraźnej granicy między “cerebromatyką żabojeża” a “przekształcającą pewne cechy osobowości kontynuowanej” przeprowadzić się nie da. Zabieg tak brutalny, jak odcięcie płatów czołowych (lobotomia), powoduje znaczne zmiany charakteru, osobowości, życia popędowego i emocjonalnego. W związku z tym lobotomię uznano za zabieg niedozwolony w licznych krajach (m.in. i u nas). Zabiegi takie są tym groźniejsze, że osoba operowana subiektywnie nie zdaje sobie zazwyczaj sprawy ze zmian, jakie w niej zaszły. Co prawda, dodajmy na pociechę, wiedza nasza opiera się na zabiegach wyłącznie okaleczających.<br />Czy jest jednak możliwe stworzenie takiej “przystawki”, która jako nośnik “talentu muzycznego”, “podłączona” do mózgu p. Smitha, wzbogaci jego osobowość, lecz jej nie zniszczy? Zagadnienia tego arbitralnie i raz na zawsze nie rozstrzygniemy. Najgorzej tu z kryteriami działania: bo cerebromatyk, który obiecuje postępować “ostrożnie”, jest jak ten, kto ujmuje po kilka źdźbeł siana ze stogu. Różnica za każdym razem mikroskopijna, ale po jakimś czasie stóg siana przestanie istnieć — któż może powiedzieć, kiedy się to stało! Dlatego cerebromatyk, który chce “przerobić” Smitha w Beethovena drobniutkimi kroczkami, jest tak samo niebezpieczny jak ten, który zamyśla taką zmianę przeprowadzić za jednym zamachem.<br />Uprościliśmy powyżej techniczną stronę zagadnienia, jako że wkład różnych części mózgu w kreację osobowości jest nierównomierny. Wpływ ośrodków o ścisłej lokalizacji (analizatorów korowych), jak pole wzrokowe czy słuchowe, jest na konstytucję osobowości minimalny. Na odwrót, drobne zwoje nadorbitalne oraz węzły wzgórzowe (talamiczne) wykazują tu supremację nad innymi obszarami mózgu. Ale nie ma to istotnego wpływu na rezultat naszych rozważań. Etyka, a nie “problemy materiałowe”, każe odrzucić propozycje “przeróbek duszy”, w których trakcie osobowość dana, choćby i przygłupia, ulec miała zmianie na przemiłą może i wielce utalentowaną, lecz inną. “Technologia duszy”, zarówno w swej postaci współczesnej , jak i przyszłej, styka się tu z problemem niepowtarzalności subiektywnej jednostkowego istnienia, bynajmniej nie jako tajemniczego zjawiska, którego nie da się wyjaśnić, a tylko jako dynamicznego toru układowego. Orzeczenie, jakie odchylenia owego toru należy uznać za całkowitą przemianę osobowości, a jakie tylko za “korekcje” osobowości, nie naruszające kontynuowania jej tożsamości, orzeczenie takie jest kwestią rozstrzygnięcia arbitralnego, to jest czysto umownego. Innymi słowy, “cerebromatyka” może zabijać ludzi niepostrzeżenie, gdyż zamiast trupa, dowodnie świadczącego o dokonanej zbrodni, powstaje inny człowiek. Samo “zabójstwo” można rozłożyć na dowolnie wielką ilość etapów, co jeszcze bardziej utrudnia wykrycie, na równi z osądzeniem, podobnych operacji.<br />Tym samym wyjaśniliśmy, że pan Smith uczyni rozsądnie, jeśli nie będzie się domagał “przerobienia” na Casanovę bądź wielkiego wynalazcę, ponieważ w rezultacie świat może otrzyma niezwykłego człowieka, ale pan Smith utraci to, na czym najbardziej winno mu zależeć, to jest samego siebie*.<br />Można zauważyć, że życie ludzkie, od urodzenia przez dojrzałość, jest ciągłym “umieraniem” kolejnych osobowości — dwuletniego pędraka, sześcioletniego swawolnika, dwunastoletniego wyrostka, itd., aż po daleką od tamtych osobowość wieku dorosłego. I że jeśli ktoś sobie będzie życzył przeróbki duchowej, która przysporzy społeczeństwu osoby bardziej cennej, niż nią jest petent dotychczas, to czemu by właściwie miało mu się odmówić?<br />Zapewne: cywilizację, w której zabiegi cerebromatyczne są dozwolone, bardzo łatwo sobie wyobrazić, jak również taką, w której np. przymusowej cerebromatyzacji personoklastycznej poddaje się przestępców. Ale trzeba wyraźnie powiedzieć, że są to procesy zniszczenia; “przesiadanie się” z osobowości w osobowość nie jest możliwe ani jako proces odwracalny, ani jako proces nieodwracalny, ponieważ takie metamorfozy oddziela od siebie strefa zagłady psychicznej, równoznaczna z ustaniem indywidualnego istnienia. Tak zatem można być tylko albo sobą, albo nikim — z dwoma zastrzeżeniami, o których osobno*.<br /><br /><br /><br />Teletaksja i fantoplikacja<br /><br /><br />Kategoryczne twierdzenie, jakim zamknęliśmy poprzedni rozdział, że można być tylko albo sobą, albo nikim, nie sprzecza się z potencjami fantomatyki. Wiemy już, że p. Smith, który “przeżywa” w fantomacie żywot Nelsona, gra, tj. udaje tylko znakomitego marynarza. Jedynie wyjątkowa naiwność mogłaby go skłonić do uwierzenia, iż w samej rzeczy jest wybitną postacią historyczną. Zapewne, gdyby w świecie f automatycznym żył dostatecznie długo, to, że rozkazy jego, jako admirała, wykonywane są bez szemrania, w końcu wywarłoby wpływ na jego psychikę i można by się obawiać, że powróciwszy do biura, poleciłby, choćby z roztargnienia tylko, aby głównego prokurenta powieszono na rei f okmasztu. Jeśliby zaś w świat fantomatyczny wszedł jako dziecko, czy chłopiec, mógłby się w sytuację do tego stopnia wcielić, że powrót do zwykłej rzeczywistości sprawiłby mu największą trudność. Kto wie, czy nie okazałby się nawet niemożliwy. Pewne jest, że noworodek, od pierwszych tygodni życia fantomatyzowany w “jaskiniowej wizji”, może zostać dojrzałym dzikim, i wtedy już o żadnym ucywilizowaniu go nie byłoby mowy. Mówię to nie, aby bawić paradoksami czy żartować, lecz by wskazać, iż osobowość nie jest czymś danym, fantomatyka zaś — odpowiednikiem zwykłego rojenia na jawie, tyle że podkolorowanego i uplastycznionego. Namiastkowość jej może fantomatyzowany ocenić wyłącznie przez zestawienie z rzeczywistością. Trwała fantomatyzacja taką ocenę rzecz prosta udaremnia i musi prowadzić do trwałych zmian, jakie by w rzeczywistym życiu jednostki nigdy nie powstały. Jest to zresztą szczególny wypadek ogólnego problemu przystosowania do określonego środowiska i czasu.<br />Wspomnieliśmy, jak istotny szkopuł stanowi ta właściwość wizji fantomatycznej, że jest ona nieautentyczna, że przedstawia realizowany biotechnicznie eskapizm. Cybernetyka proponuje dwa sposoby przezwyciężenia owej nieautentyczności przeżyć. Nazwiemy je (bo w końcu trzeba je jakoś nazwać) teletaksją i fantoplikacją.<br />Teletaksja oznacza nie “krótkie zwarcie”, tj. podłączenie człowieka do fingującej rzeczywistość maszyny, która go od świata oddziela, ale do takiej maszyny, która jest tylko ogniwem pośrednim pomiędzy nim a światem rzeczywistym. Prototypem “teletaktora” jest np. luneta astronomiczna czy aparat telewizyjny. Prototypy to jednak nad wyraz niedoskonałe. Teletaksja umożliwia takie “podłączenie” człowieka do wybranego dowolnie wycinka rzeczywistości, żeby przeżywał ją tak, jakby naprawdę się w nim znajdował. Technicznie problem można rozwiązać na różne sposoby. Można np. konstruować dokładne modele człowieka, których wszystkie receptory (wzroku, słuchu, węchu, równowagi, czucia, etc.) podłączone są odpowiednio do jego dróg czuciowych, i to samo dotyczy całokształtu nerwów motorycznych. “Podłączony domózgowo” sobowtór, czy też “zdalnik”, może np. przebywać w kraterze wulkanu, na szczycie Mount Everestu, czy w kosmicznej przestrzeni okołoziemskiej, albo prowadzić konwersację towarzyską w Londynie, podczas gdy osobnik nim zawiadujący przez cały czas przebywa w Warszawie. Co prawda, skończona szybkość sygnałów łączności, w tym wypadku radiowych, uniemożliwia zbytnie oddalanie “alter ego” od człowieka, który nim zawiaduje. Już poruszanie się po powierzchni Księżyca wywoła wyraźny efekt opóźnienia reakcji, bo sygnał potrzebuje około sekundy, aby dotrzeć do naszego satelity, i tyle samo pochłania droga powrotna. Tak zatem w praktyce osoba zawiadująca “zdalnikiem” nie może przebywać odeń w odległości większej niż kilka czy najwyżej kilkanaście tysięcy kilometrów. Złudzenie obecności na Księżycu czy w wulkanie będzie doskonałe, pozbawione tylko potencjalnych niebezpieczeństw, ponieważ unicestwienie “zdalnika”, np. skutkiem jakiejś katastrofy, jak strzaskanie przez lawinę kamienną, wywoła u podłączonego człowieka tylko nagłe urwanie się wizji, ale zdrowiu w niczym nie zagraża. Taki system łączności będzie pewno szczególnie użyteczny przy eksploracji ciał niebieskich, a w ogóle może się okazać przydatny w licznych sytuacjach, nie mających z rozrywką nic wspólnego. Zewnętrzne podobieństwo zdalnika do zawiadującej nim osoby nie jest, rozumie się, konieczne, i nawet zbędne byłoby przy eksploracji Kosmosu; może ono być jedynie pożądane w przypadkach szczególnych “turystyki teletaktycznej”, o ile złudzenie ma się stać całkiem pełne. W przeciwnym razie człowiek będzie wprawdzie widział rozprażone słońcem białe skały księżyca i czuł jego kamienie pod stopami, ale podniósłszy do oczu rękę, zobaczy naturalnie kończynę zdalnika, w lustrze zaś ujrzałby nie siebie, człowieka, lecz jego —automat, maszynę, co, być może, szokowałoby liczne osoby: bo w ten sposób jest się jak gdyby nie tylko przeniesionym w inną sytuację, ale razem z poprzednim miejscem pobytu pozornie utraciło się także i własne ciało.<br />Od teletaksji niedaleka już droga do fantoplikacji, która oznacza po prostu podłączenie dróg nerwowych jednej osoby do takich samych dróg osoby innej. Dzięki takiemu zabiegowi, w odpowiednio urządzonym “fantoplikacie”, tysiąc osób naraz może “brać udział” w biegu maratońskim, patrzeć oczami biegacza, odczuwać jego ruchy jako swoje, jednym słowem, identyfikować swe doznania z jego doznaniami w daleko idący sposób. Nazwa bierze się stąd, że w transmisji takiej brać może udział naraz dowolna ilość osób (fantoplikacja). Metoda ta jest jednak przekazem informacji tylko jednokierunkowym, ponieważ “podłączeni” do biegacza nie mogą wszyscy naraz zawiadywać jego ruchami. Zasada tego procederu jest już znana. Właśnie w taki sposób przesyłają odpowiednie mikronadajniki, umieszczone w różnych miejscach ciała astronautów, informację o tym, co zachodzi w ich sercach, w ich krwi, itd., uczonym ziemskim. Zagadnieniami podobnymi (naśladowanie działania pewnych receptorów żywych organizmów środkami technicznymi, podłączanie bezpośrednie mózgu lub nerwów do aparatur wykonawczych z pominięciem pewnych normalnych ogniw, np. ręki) zajmuje się nowa gałąź nauki, bionika. Powiedzieliśmy, że przesiadanie się z osobowości w osobowość nie jest możliwe, z dwoma zastrzeżeniami. Oczywiście, ani teletaksją, ani fantoplikacja się z tym nie wiążą, ponieważ stanowią jedynie odmienne sposoby “podłączania mózgu” do określonych “zbiorników informacji”. Nas natomiast interesuje najbardziej szansa podłączenia jednego mózgu do innego i ewentualnej konsekwencji takich zabiegów, tj. “przeskakiwania” świadomości w świadomość, albo też “zespalania się” ich, dwóch, czy też większej liczby, albo wreszcie problem takiej metamorfozy indywidualnej świadomości, która nie byłaby równoznaczna z zagładą indywidualnego istnienia. Jeśli uznamy, że urzędnik Banku Krajowego, p. Smith, znany nam od dziecka, przejawiający takie to właściwości (które odpowiadają takim to cechom dynamicznym neuronowej sieci jego mózgu), i osoba, całkowicie do niego niepodobna, która ma odmienne usposobienie, inne zainteresowania i talenty, ale powiada, iż jest panem Smithem, który przeszedł operację “włączenia w mózg” pewnego “wzmacniacza” niektórych słabo rozwiniętych cech umysłowych — jeżeli uznamy, że te dwie osoby to dwaj różni ludzie, wówczas cały problem upada, reinkarnacje czy “duchowe przesiadki” są niemożliwością, pan Smith zaś nowy tylko sądzi, że jest dawnym panem Smith, urzędnikiem bankowym: ale to mu się tak tylko wydaje.<br />Jeżeli natomiast, wysłuchawszy go i przekonawszy się, że posiada doskonałą pamięć przeszłego życia, od lat dziecięcych, jak również — pamięć o powziętej decyzji poddania się zabiegowi, a wreszcie — zdolność porównania dawnych swych (utraconych) cech psychicznych z nowymi — uznamy, że to jest ta sama osoba — wówczas problem okaże się w pełni urzeczywistnialny. To jest pierwsze nasze zastrzeżenie: w zależności od przyjętych wstępnie kryteriów albo uznamy, albo nie uznamy tożsamości obu panów Smith (tj. p. Smitha sprzed operacji, czasu T1, i p. Smitha z czasu T2, po operacji).<br />Cybernetyka dysponuje jednak, niestety, możliwościami zgoła nieograniczonymi. Pojawia się jakaś osoba, którą rozpoznajemy jako naszego znajomego, p. Smitha. Rozmawiamy z nim długo i przekonujemy się, że to jest nasz stary, absolutnie nie zmieniony znajomy, że doskonale pamięta nas i swoje życie. Jest takuteńki, jaki był zawsze. Za czym przychodzi pewien demoniczny cybernetyk i oświadcza nam, iż rzekomy pan Smith ,,w istocie” jest całkiem innym człowiekiem, którego on “przerobił” na Smitha, przekształciwszy odpowiednio jego ciało i jego mózg, obdarzając ten ostatni całkowitą sumą pamięci pana Smitha, który w trakcie zabiegów owych (sporządzania inwentarza pamięci) niestety zmarł. Cybernetyk skłonny jest nawet udostępnić nam, dla celów badawczych, zwłoki naszego znajomego. Otóż, kryminalny aspekt sprawy nie interesuje nas tak bardzo, jak ontologiczny. W pierwszym wypadku ta sama osoba została “przerobiona” na inną — ale zachowała pamięć swojej przeszłości pierwotnej. W drugim wypadku całkiem nowa osoba “imituje” pod każdym względem pana Smitha, “nie będąc nim”, bo pan Smith leży w grobie.<br />Jeśli za kryterium kontynuacji przyjmiemy ciągłość istnienia osobniczego, bez względu na te dokonywane przeróbki (powołując się np. na “fizjologiczne przeróbki niemowlęcia w Einsteina”), to pierwszy pan Smith (z pierwszego przykładu) jest prawdziwy.<br />Jeżeli za takie kryterium przyjmujemy niezmienność osobowości, to “prawdziwy” jest ten drugi pan Smith. Pierwotny bowiem ma już “całkiem inną osobowość”, zajmuje się alpinistyką, hoduje kaktusy, zapisał się do konserwatorium i wykłada w Oxfordzie Ewolucję Naturalną, podczas kiedy drugi jest dalej i bez zmian urzędnikiem bankowym i “w ogóle w niczym się nie zmienił”.<br />Jednym słowem, problem tożsamości lub nietożsamości indywiduum okazuje się względny i zależy od przyjętych kryteriów różnicowania. Cywilizacja cybernetycznie prymitywna na szczęście takimi paradoksami parać się nie musi. Cywilizacja, która już w pełni opanowała imitologię, fantomologię (obejmującą, jak można już teraz powiedzieć, fantomatykę obwodową i centralną, fantoplikację, teletaksję i cerebromatykę) i która z zapałem uprawia nawet pantokreatykę — taka cywilizacja musi problemy z zakresu “teorii względności osobowości” rozstrzygać. Rozstrzygnięcia nie mogą być absolutne, ponieważ absolutnych, niezmienniczych kryteriów brak. Tam, gdzie transformacja osobowości jest do urzeczywistnienia, tożsamość jednostkowa ze zjawiska do zbadania staje się zjawiskiem do zdefiniowania.<br /><br /><br /><br />Osobowość i informacja<br /><br /><br />Bodaj Norbert Wiener pierwszy wypowiedział myśl o teoretycznej możliwości “przetelegrafowania” człowieka, jako niezwykłego środka komunikacji, stanowiącego jedno z zastosowań technik cybernetycznych. W samej rzeczy, czym innym jest człowiek lub dowolny przedmiot materialny, jeśli nie sumą pewnej informacji, którą, przekodowawszy na język sygnałów radiowych bądź telegraficznych, można przesłać na dowolną odległość? Nie bez słuszności można by rzec, iż wszystko, co istnieje, jest informacją. Jest nią zarówno książka, jak gliniany dzban, obraz , jak i zjawiska psychiczne, bo pamięć, ta podstawa ciągłości subiektywnego trwania, stanowi zapis informacyjny w mózgu, tak że zatarcie owego zapisu wskutek urazu bądź choroby może zgładzić całość wspomnień. Imitologia oznacza naśladowanie zjawisk w oparciu o niezbędny zasób informacji. Nie twierdzimy, rozumie się, jakoby istniała wyłącznie informacja. Gliniany dzban możemy zidentyfikować, posiadając pełny protokół odnoszącej się doń (do jego składu chemicznego, lego topologii, wymiarów etc.) informacji. Protokół ów, albo, jeśli wolimy, “rysopis”, jest o tyle identyczny z dzbanem, że w oparciu o ów zapis możemy dzban odtworzyć, przy czym, jeżeli będziemy dysponowali urządzeniem dostatecznie precyzyjnym (syntetyzatorem atomowym na przykład), sporządzona tak “kopia” nie da się odróżnić od oryginału żadnym już badaniem. Jeżeli analogicznie postąpimy np. z płótnem Rembrandta, to zatarciu ulegnie w ogóle potocznie rozumiana różnica między “kopią” a “oryginałem”, jako że jedno nie będzie do odróżnienia od drugiego. Proceder takiego typu zakłada przekodowanie informacji, przedstawianej przez dzban, obraz czy jakikolwiek inny obiekt i ponowne dekodowanie w syntetyzatorze atomowym. Jego człon środkowy, to jest owo stadium, w którym nie ma już oryginalnego dzbana (bo się na przykład potłukł), a tylko jego “atomowy rysopis”, nie jest naturalnie tożsamy pod względem materialnym z pierwowzorem. Protokół może byś spisany na papierze, może stanowić utrwalone w maszynie cyfrowej szeregi impulsów, itd., przy czym naturalnie brak wszelkiego podobieństwa materialnego między tym systemem znaków a dzbanem czy obrazem. Niemniej, istnieje wzajemnie jednoznaczna odpowiedniość wszystkich znaków owego zbioru względem przedmiotu oryginalnego, i ona właśnie umożliwia doskonałą rekonstrukcję.<br />Jeśli zsyntetyzujemy z atomów Napoleona (zakładamy, że jest w naszym posiadaniu jego “atomowy rysopis”), Napoleon będzie żył. A jeżeli sporządzimy taki rysopis dowolnego człowieka i przekażemy go telegrafem do odbiornika, w którym aparatura zbuduje, w oparciu o przybyłą informację, ciało i mózg owego osobnika, wyjdzie on z aparatu żywy i zdrowy.<br />Kwestia technicznej realizowalności takiego zamierzenia schodzi na drugi plan wobec jego niezwykłych konsekwencji. Co się stanie, jeśli nadamy “rysopis atomowy” nie jeden raz, ale dwa razy? Z aparatu odbiorczego wyjdzie dwu identycznych ludzi. A jeżeli nie wysyłamy tej informacji po] drucie w jednym tylko kierunku, lecz emitujemy ją jako falę radiową, przy czym odbiorniki znajdują się w tysięcznych punktach globu, a także na powierzchni licznych planet i księżyców, człowiek “nadany” ukaże się we wszystkich owych miejscach. Nadaliśmy rysopis pana Smitha raz tylko, i oto Smith pojawia się, wychodząc z kabin aparatów, w milionowej postaci na Ziemi i w niebie, w miastach, na szczytach górskich, w dżunglach i kraterach księżycowych.<br />Jest to tylko dziwaczne, dopóki nie zapytamy, gdzie właściwie przebywa wówczas pan Smith? Dokąd zawiodła go podjęta telegraficznie podróż? Ponieważ osoby, wychodzące z aparatów odbiorczych, są ex definitione absolutnie tożsame i — wszystkie jednako — zwą siebie panem Smith, jasne jest, że najdokładniejsze badanie czy wypytywanie ich niczego nam nie wyjaśni. Zachodzi zatem, z logicznego punktu widzenia, tylko jedna z dwu możliwości: albo wszystkie te osoby są panem Smith naraz, albo żadna nim nie jest. Jak jednak może być, aby pan Smith istniał w stu milionach miejsc równocześnie? Jego osobowość została “powielona”? Jak to pojąć? Człowiek może pójść tu lub tam, może przeżyć określoną rzeczywistość, ale tylko jedną naraz. Jeśli pan Smith siedzi przy biurku, nie może zarazem znajdować się w kraterze Erathostenesa, na Wenus, na dnie oceanu i przed paszczą nilowego krokodyla. Osoby przetelegrafowane to zwykli, normalni ludzie. Nie może ich zatem łączyć w jedność jakaś tajemnicza więź psychiczna, sprawiająca, by przeżywały wszystkie i podobne do wymienionych rzeczy naraz.<br />Powiedzmy, że krokodyl pożarł jednego ze Smithów, tego, który dostał się nad Nil. Kto zginął? Smith. A jednak równocześnie żyje dalej, w niezliczonych miejscach jednocześnie? Wszystkich Smithów nie łączy nic więcej aniżeli niezwykłe podobieństwo, a ono nie stanowi przecież żadnej w ogóle więzi w jakimkolwiek fizycznym czy psychicznym rozumieniu. Podobne, choć niezależne duchowo od siebie są np. bliźnięta jednojajowe. Każdy z bliźniaków jest autonomiczną, integralną osobowością, i każdy przeżywa tylko swój własny, jeden jedyny los. I to samo dotyczy miliona przetelegrafowanych Smithów. Jest to milion różnych, bo całkowicie niezależnych od siebie podmiotów psychicznych*.<br />Paradoks ten wydaje się nie do rozstrzygnięcia. Nie widzimy żadnego” eksperymentu, który by pozwolił rozstrzygnąć, gdzie przebywa kontynuacja tego Smitha, którego nadaliśmy telegraficznie. Spróbujmy jednak podejść do problemu inaczej. Istnieje tak zwane rozszczepienie osobowości, zjawisko znane w psychiatrii. Rozszczepienie to nigdy nie jest jednak tak pełne, jak by to wynikało z różnych literackich jego prezentacji. Można jednak dokonać na żywym mózgu zabiegu takiego rozdzielenia, który sprawi, że w jednej czaszce będą współistniały dwa praktycznie niezawisłe ośrodkowe układy nerwowe. O tym, że jedno ciało może posiadać dwie głowy, wiemy, bo i potworki tego rodzaju żyją niekiedy jakiś czas po urodzeniu (trafiało się to i u ludzi), i stan taki bywał już realizowany sztucznymi zabiegami (np. w ZSRR na psach).<br />Stany rozdzielenia jednego mózgu na dwie autonomiczne i osobno pracujące części były urzeczywistniane zabiegami neurochirurgicznymi, np. na małpach. Następuje to po przecięciu, możliwie głębokim, wielkiego spoidła, łączącego obie półkule mózgu. Wyobraźmy sobie, że zabiegu takiego dokonano na panu Smith. Rozdzielenie półkul mózgowych nastąpiło stopniowo, tak powoli, aby nie doszło do nagłego zaburzenia funkcji mózgowych aby każda półkula, uniezależniając się od drugiej, miała czas na pełną restytucję po niewątpliwym szoku, jaki tak okrutna interwencja musi przynieść. Po jakimś czasie w głowie pana Smitha znajdują się już dwa czynnościowo niezawisłe od siebie, mózgi. Wydaje się to prowadzić do znanego już nam paradoksu. Małpy, na których dokonano podobnych operacji, zachowują się przy dokładnym badaniu tak właśnie, jakby posiadały dwa mózgi względnie autonomiczne, przy czym albo jeden z nich stale dominuje i opanowuje podporządkowane układy nerwowych dróg zstępujących, a przez to i całe ciało, albo też “podłączają się” one do tych dróg i rządzą ciałem naprzemiennie. Małp jednak oczywiście niepodobna wypytywać o ich stany subiektywne. Inna sprawa ze Smithem. Przyjmijmy (niezgodnie z prawdą anatomiczną, ale dla dobra rozumowania), że obie półkule rozdzielonego mózgu są całkowicie równoważne (w istocie zwykle dominuje u każdego normalnego człowieka lewa półkula). Każda z nich zawiera ten sam zapis pamięciowy i tę samą strukturę osobowości, jaką zawierał uprzednio cały mózg. Pytanie, która półkula stanowi kontynuację Smitha, który z tych dwóch mózgów jest “prawdziwym Smithem”, okazuje się pozbawione sensu. Mamy przed sobą dwu analogicznych Smithów w jednym ciele. Rozdzielony na dwie odnogi, wskutek zabiegu materialnego, dynamiczny tor świadomości wytwarza dwie osobowości niezawisłe, z których każda ma jednakże prawo do uważania siebie za kontynuację osobowości pierwotnej. Powielenie zatem stało się w tym wypadku faktem. Naturalnie może między tymi systemami dochodzić do konfliktów, ponieważ posiadają tylko jeden, wspólny organizm, jeden układ zmysłowy i wykonawczy (mięśniowy). Ale jeśli nowym zabiegiem przeniesiemy teraz obie te półkule, już działające jako pełnowartościowe mózgi, do dwu przygotowanych w tym celu ciał, będziemy mieli przed sobą dwu, także i fizycznie już oddzielonych Smithów. A zatem, jakkolwiek wyobrazić sobie, unaocznić tego nie potrafimy, możliwość powielenia osobowości jest realna. Z punktu widzenia osobnika, opuszczającego aparat odbiorczy, on i tylko on jest prawowitą, normalną i najzdrowszą w świecie kontynuacją “przetelegrafowanego” — i nie mamy podstawy do kwestionowania takiego twierdzenia.<br />A zatem można wysłać jednego człowieka w wielu kierunkach naraz. Nie znaczy to, aby był jeden we wszystkich osobach. Będzie “go” tylu, ile zostało sporządzonych atomowych kopii. Kontynuacja mnoga jednostki okazuje się faktem.<br />To jednak tylko pierwszy i, dodajmy, względnie najprymitywniejszy paradoks.<br />Jak się okazuje, zachodzi bowiem osobliwy wypadek “egzystencjalne; względności”, podobny nieco do względności pomiaru w teorii Einsteina, gdzie wynik pomiaru zależy od przyjętego układu odniesienia. Jak wiemy już, z punktu widzenia Smithów, wychodzących z aparatów odbiorczych, każdy z nich jest kontynuacją nadanego telegrafem. Jednakże, z punkt widzenia Smitha, którego nadano, nie jest nią żadna z tych osób.<br />W samej rzeczy — jak odbywa się ów akt “nadania”? Pan Smith wchodzi do kabiny aparatu, gdzie sporządza się jego “rysopis atomowy”, dajmy na to prześwietlając go bardzo twardym promieniowaniem. Uzyskany tak “plan atomowy” przekazujemy telegraficznie. Za chwilę z odbiorników zaczną] wychodzić w siołach i miastach niezliczeni Smithowie.<br />Co jednak z oryginałem? Jeżeli wyjdzie z kabiny, w której dokonaliśmy “inwentaryzacji” jego atomów, najoczywiściej nigdzie nie wyruszył, lecz został tam, gdzie był dotąd. Poza tym, jeśli nawet miliony jego kopii wszczęły swe istnienie u aparatów odbiorczych, w niczym nie zmienia to sytuacji oryginalnego Smitha: jeżeli mu o tym wszystkim nie powiemy, pójdzie sobie do domu, pojęcia nawet nie mając, co w ogóle zaszło. A więc wynika z tego, że “oryginał” trzeba unicestwić, i to zaraz po dokonaniu “inwentaryzacji atomowej”. Otóż, postawiwszy siebie w sytuacji pana Smitha, łatwo zauważymy, że perspektywy jego telegraficznej podróży wcale nie są różowe. W samej rzeczy, patrzy na to, że umrze w kabinie, zabity raz na zawsze, natomiast z odbiorników wyjdą osobniki idealnie doń podobne, ale on sam. Jest bowiem tak: między każdym stanem człowieka a jego stanem poprzednim zachodzi ścisła więź przyczynowa. W chwili T1 przeżywam smak słodki, ponieważ w chwili To położono mi na języku kostkę cukru. Pomiędzy panem Smithem a jego rysopisem atomowym też zachodzi więź przyczynowa: rysopis jest taki a taki, ponieważ zadziałaliśmy na ciało Smitha tak a tak, i doszło dzięki temu działaniu do pełnego przekazu informacji o budowie pana Smitha. Podobnie też istnieje informacyjna i przyczynowa więź między rysopisem atomowym a “kopiami”, które wychodzą z odbiorników, ponieważ zbudowane zostały tak, jak to nakazywała receptura “rysopisu”. Jakie; jednak związki zachodzą między całokształtem tych przemian (Smith jako żywy organizm, Smith jako informacja nadana i liczni Smithowie odtworzeni zgodnie z tą informacją) a śmiercią pana Smitha, którą spowodowaliśmy tuż i po sporządzeniu atomowego rysopisu?<br />Powiedzmy wyraźnie: nie ma żadnego związku między jednym i drugim. Jeżeli sporządzimy atomową kopię zawieszonego na ścianie Rembrandta, ktoś może powiedzieć: poznaję oryginał po jego położeniu: wisi na ścianie, a wobec tego kopią jest ten drugi obraz na sztalugach. Jeżeli spalimy oryginał, nikt już go nie znajdzie. Zniszczyliśmy jedyny przedmiot, który pozwalał wątpić w oryginalny charakter atomowej kopii. Jednakże kopia nie stała się przez to oryginałem, w tym sensie, żeby obróciła się w ów przedmiot z drzewa i płótna, który znakomity malarz holenderski pokrył paręset lat temu farbami. Jest empirycznie nieodróżnialna od oryginału, ale nie jest nim, dzięki odmiennej historii.<br />Jeśli zabijemy Smitha, zapewniając go, że niebawem otworzy oczy w milionie miejsc naraz, należy uznać, iż będzie to czyn szkaradny: morderstwo, którego ślady zostaną “cybernetycznie” zatarte, i to z nadwyżką, bo zamiast jednego, zgładzonego osobnika, pojawi się ich mnóstwo, takich samych.<br />Skoro nie wystarczy zatem, dla przetelegrafowania człowieka, nadanie jego rysopisu atomowego, ale ponadto jeszcze trzeba owego człowieka koniecznie uśmiercić, zbrodniczy charakter tego przedsięwzięcia wydaje się oczywisty. Powiedzmy, aby rzecz uwyraźnić, że Smithowy rysopis nadajemy; kopie jego osoby pojawiają się już w drzwiach odbiorników, ale oryginał wciąż żyje i o niczym nie wie. Czy wolno przypuszczać, że będzie przebywał w naszym towarzystwie dopóty, dopóki nie weźmiemy się doń z młotkiem w ręku i w momencie, kiedy rozbijemy mu czaszkę, człowiek ten nagle “stanie się”, niewiadomym sposobem, bądź to jednym z tamtych, przetelegrafowanych osobników, bądź też wszystkimi nimi naraz?! Co właściwie ma go przetransportować na drugi koniec drutu telegraficznego, jeśli nie zdołała uczynić tego sama transmisja sygnałów? Cios młotkiem w potylicę? Jak widzimy, przypuszczenie takie to nie paradoks, lecz czysty absurd. Smith zginie, i to na wieki wieków, o żadnym więc przetelegrafowaniu człowieka nie może być i mowy.<br />Szkopuł ten nie odnosi się tylko do przekazu informacji o człowieku telegraficznego. Tak na przykład, każdy człowiek mógłby w przyszłości posiadać “atomową matrycę” swego ciała, przechowywaną w “banku osobowości”. Matryca stanowiłaby idealny zapis jego atomowej struktury, zapis, tak mający się do niego, jak się ma plan architektoniczny do materialnego domu. Jeśli ów człowiek zginie np. w nieszczęśliwym wypadku, rodzina udaje się do banku, matrycę wprowadza się do atomowego syntetyzatora i ku powszechnemu zachwytowi tragicznie zmarły opuszcza aparat i rzuca się w objęcia stęsknionych krewnych. Otóż, to jest możliwe, ale, jak już się orientujemy, owa radosna scena bynajmniej nie anuluje śmierci “oryginału”. Ponieważ jednak w tym wypadku nikt nie dokonał morderstwa, a jedynie ofiarę katastrofy czy choroby zastąpi skutecznie “atomowy sobowtór”, brak takich moralnych oporów, które by tego rodzaju praktykę uczyniło czymś nie do przyjęcia, przynajmniej w obrębie określonej cywilizacji.<br />Natomiast nie można stosować analogicznej metody celem stworzenia sobie samemu “rezerwy istnienia”, tj. dla zagwarantowania kontynuacji osobistej. To bowiem, czy mam tylko w biurku lub w banku własny “rysopis atomowy”, który w żywego mojego sobowtóra zmieni się dopiero po włożeniu do syntetyzatora (zauważmy nawiasowo, że rysopis jest po prostu programem działania) czy też już obecnie, za życia, posiadam żywego sobowtóra, absolutnie nie ma wpływu na mój własny los. Jeżeli spadnę w przepaść albo zginę w inny sposób, sobowtór zastąpi mnie niewątpliwie, ale ja już żyć nie będę. Dowodem na to jest współistnienie czasowe oryginału i kopii. Mają się one do siebie, jak dwaj bliźniacy, a przecież nikt przy zdrowych zmysłach nie będzie głosił, że jeden bliźniak jest “rezerwą kontynuacji” drugiego.<br />Doszliśmy na razie do tego, że nie sam akt przetelegrafowania informacji nieodwracalnie zabija człowieka, lecz następujące po nim unicestwienie tego człowieka, które ma stworzyć ułudę, jakoby on sam we własnej osobie naprawdę powędrował na drugi koniec drutu. Otóż, wydaje się, iż nieodwracalność śmierci osobniczej sprawia przerwa w ciągłości istnienia.<br />Tutaj dopiero wchodzimy w istne piekło paradoksu. Jak wiadomo, medycyna współczesna wiele sobie obiecuje po doskonalonej z roku na rok hibernacji. Ów stan życia zawieszonego, spowolnionego, spotykany fizjologicznie u pewnych ssaków (nietoperz, niedźwiedź), można, z jednej strony, nadać człowiekowi, który normalnie nigdy nie hibernuje (odbywa się to dzięki stosowaniu odpowiednich środków farmakologicznych, oziębianiu ciała itp.), z drugiej zaś, stan ów można pogłębiać tak, że z zimowego snu staje się coraz bardziej podobny do autentycznej śmierci. Ten stan śmierci odwracalnej, nie spowolnienia tylko, lecz zupełnego wstrzymania wszystkich życiowych procesów, sprowadza się bardzo znacznym ochłodzeniem całego organizmu. Jak dotąd, udało się go już zrealizować u niektórych zwierząt doświadczalnych, a organizmy jednokomórkowe (do jakich w pewnym sensie należą też plemniki nasienia, także i ludzkiego) można przez zamrożenie utrzymać w takim stanie przez czas bardzo, może i dowolnie długi. Możliwość zapłodnienia kobiety nasieniem mężczyzny, zmarłego nawet, przed wieluset laty staje się już więc w pełni realna.<br />Oziębianie organizmów tak złożonych jak ludzki (czy w ogóle ssaków) poniżej punktu zamarzania wody nastręcza wielkie trudności, gdyż woda tkankowa ma tendencję do krystalizacji w postaci lodu, a reakcja ta wiedzie do zniszczenia życiowo ważnych struktur protoplazmy. Nie są to jednak trudności niepokonywalne. Można sądzić, że technika takiego zamrażania, dająca blisko stuprocentową szansę późniejszego wskrzeszenia w dowolnie wybranym momencie, zostanie urzeczywistniona. Pokłada się w niej niemałe nadzieje, co się tyczy, między innymi, perspektyw długich podróży kosmicznych. Jednakże, w świetle dotychczas rozważonych eksperymentów myślowych, technika ta może budzić niejakie wątpliwości. Czy aby na pewno mamy do czynienia ze śmiercią odwracalną? Czy nie jest możliwe, że osobnik zamrożony umiera na zawsze, a ten którego wskrzeszamy, jest jak gdyby tylko kopią? Wydaje się, że to jest ten sam osobnik. Przecież procesy życiowe zostały tak tylko zatrzymane, jak zatrzymuje się mechanizm zegarka. Ich ponowne uruchomienie jest równoznaczne z ożyciem. Zresztą, owe procesy nie ulegają absolutnemu zastygnięciu. Wiadomo, że sprawa ma się z tymi zjawiskami trochę jak z tarczą, złożoną z siedmiu sektorów o barwach tęczy. Dopóki stoi ona lub obraca się wolno, widzimy pojedyncze kolory. Zwiększenie obrotów wiedzie do migotania, a przy ich dostatecznej szybkości barwy zlewają się w jednolitą biel. Coś podobnego jest ze świadomością. Będące podłożem jej procesy muszą mieć określone tempo, poniżej którego świadomość zaczyna mrocznieć, a potem rozpada się, daleko wcześniej, zanim dojdzie do rzeczywistego ustania biochemicznych reakcji mózgowych. Tak więc świadomość gaśnie wcześniej, niż zatrzymują się procesy przemiany materii, z kolei one ustają praktycznie, ale mogą się toczyć, choć nie wszystkie i nadzwyczaj wolno. Zapewne, tuż przy temperaturze zera absolutnego ich bieg właściwie ustaje i organizm nie starzeje się. Jednakże czy tak jest, czy owak, wszystkie struktury żywej tkanki zostają zachowane. A zatem uniewinniliśmy jak gdyby zabieg zamrożenia spod zarzutu morderstwa.<br />Dokonajmy jednak jeszcze jednego myślowego doświadczenia. Powiedzmy, żeśmy do temperatury prawie zera absolutnego zamrozili naszego Smitha. Jego mózg, jak każdy inny organ ciała, przedstawia strukturę krystaliczną. Prócz tych znikomych oscylacji, jakie atomy wykazują nawet na najniższym poziomie energetycznym, nie dostrzeżemy przez mikroskop elektronowy żadnych ruchów. Uwięzione mrozem, atomy mózgu pana Smitha, znieruchomiałe i przez to łatwiej dostępne, możemy pojedynczo powybierać z jego czaszki i powkładać do odpowiednich naczyń. Dla porządku składamy osobno atomy każdego pierwiastka. Przechowujemy je tak, wciąż dla pewności w mrozie płynnego helu, aż wreszcie, gdy nadchodzi pora, składamy je na powrót, dokładnie dopasowując każdy, gdzie należy. Teraz już cały, ale jeszcze zamrożony mózg wraz z ciałem poddajemy skutecznym zabiegom wskrzeszania. Pan Smith, odmrożony, wstaje, ubiera się i idzie do domu. Nie mamy żadnych wątpliwości, że to był naprawdę on we własnej osobie. Nagle okazuje się, że laborant nasz potłukł co do jednej probówki, w których pod postacią drobniutkiego proszku znajdowały się atomy węgla, siarki, fosforu i wszystkich innych pierwiastków, z jakich składał się mózg p. Smitha. Myśmy te probówki ustawili w chłodni na stole, laborant przewrócił stół, a widząc się w obliczu takiej katastrofy, usunął szybko jej ślady; co zostało z rozsypanych pierwiastków, to zebrał do nowych probówek, a braki uzupełnił, posługując się w tym celu zapisami w księdze laboratoryjnej, gdzie spisaliśmy, z dokładnością do jednego atomu, co znajduje się w której probówce. Jeszcześmy nie ochłonęli po usłyszeniu tej wieści, jeszcze widzimy przez okno oddalającego się i kręcącego laseczką na podwórcu pana Smitha, gdy drzwi się otwierają i wchodzi drugi Smith. Co się stało? Probówki, spadając ze stołu, potkłukły się, laborant się spieszył i zebrał tylko połowę rozsypanych proszków, lecz jego kolega, pragnąc przysłużyć mu się, później dokładnie zebrał resztki rozproszonych pierwiastków, znowu to, czego nie<br />dostawało, uzupełnił według księgi laboratoryjnej, wprowadził sam atomy na właściwe miejsca, z gorliwością uruchomił odmrażacz i wskrzesił pana Smitha nr 2.<br />I któryż to z panów Smithów jest właściwie kontynuacją zamrożonego, pierwszy czy drugi? Każdy posiada mniej więcej połowę “oryginalnych” atomów, co zresztą o tyle nie jest istotne, że atomom brak indywidualności i podczas przemiany materii organizm nieustannie je wymienia. Zapewne, wygląda na to, .że doszło do powielenia pana Smitha. Ale co z oryginałem? Żyje w obu ciałach, czy może raczej w żadnym z nich? Tym razem, w przeciwieństwie do eksperymentu z przecięciem wielkiego spoidła półkul mózgu, pytanie jest nie do rozstrzygnięcia, ponieważ brak jakichkolwiek kryteriów empirycznych, na których by się można opierać. Naturalnie można by dylemat rozstrzygnąć arbitralnie, umówiwszy się, że np. kontynuacją naszego znajomego, którego tak karkołomnym poddajemy wciąż próbom, są obaj panowie S. Jest to wygodne, może nawet w tej sytuacji konieczne, ale owo rozstrzygnięcie musi wzbudzić moralne zastrzeżenia. Pan Smith wszedł, żywiąc do nas zaufanie, do hibernacyjnej lodówki tak samo spokojny, jak wchodził był do kabiny telegrafu, z której, po stuknięciu młotkiem, wyciągnęliśmy go za nogi, pocieszeni trochę jego mnogim pojawieniem się na planetach układu słonecznego. W tamtym przypadku doszło, jakeśmy dowiedli, do morderstwa. A w tym? Zapewne, brak trupa zdaje się świadczyć na naszą korzyść, ale i wtedy mogliśmy wszak rozproszyć Smitha na chmurkę atomów, a nie tyle zależy nam na dokonaniu mordu w sposób niezauważalny i wysoce estetyczny, ile na niepopełnieniu go wcale.<br />Zaczynamy tracić głowę. Czyżby istniała jakaś niematerialna dusza, która uwięziona jest w strukturze mózgu, niczym ptak w klatce, która ulatuje z cielesnych okowów, kiedy pręty klatki, to jest atomy struktury, zostają rozłamane i porozdzielane? Tylko rozpacz popycha nas ku hipotezom tak metafizycznym. Ale i one niczego nie ratują. Co się stało po przecięciu wielkiego spoidła mózgu? Czyżby zarazem udało się nam rozciąć na dwoje niematerialną duszę? A zresztą, czy z odbiorników telegrafu nie wychodziły całe szeregi normalnie uduchowionych Smithów, z czego oczywisty wniosek, że jeżeli dusza w ogóle istnieje, to każdy atomowy syntetyzator z łatwością potrafi ją skonstruować? A w ogóle nie o to chodzi, czy pan Smith ma duszę niematerialną. Powiedzmy, że ją ma. Chodzi o to, że każdy nowy Smith był absolutnie pod wszystkimi względami taki sam, jak Smith oryginalny, a przecież nie był nim, bo należało użyć oprócz rysopisów, telegrafu itp., jeszcze i młotka! A zatem nic nam po takim wyjaśnieniu.<br />A może paradoks bierze się stąd, że myślowe nasze eksperymenty są tak samo sprzeczne z możliwościami realnego świata, jak np. wyobrażona podróż z szybkością nieskończenie wielką albo perpetuum mobile? Ale i to nieprawda. Czy w przypadku bliźniąt jednojajowych Natura nie prezentuje nam niezmiernie dokładnych kopii ludzkiego organizmu? Bliźnięta takie nie są idealnie tożsame pod względem struktury atomowej, z tym zgoda. Ale wynika to i stąd, że technologia ewolucyjna, że selekcja nigdy nie dążyła do stworzenia absolutnego owej struktury podobieństwa, ponieważ było to pod względem biologicznym najzupełniej obojętne, zbędne. A skoro taki stopień podobieństwa układów o równym stopniu złożoności uzyskany został mimochodem niejako i losowo (albowiem elementy losowe grają niemałą rolę w powstaniu bliźniąt, przy pierwszym podziale zapłodnionego jaja), to biotechnologia przyszłości, ożeniona z cybernetyką, będzie pewno mogła pokusić się o prześcignięcie tego sukcesu, który stał się przypadkowym tylko udziałem Natury.<br />Winniśmy dla zupełności naszych wywodów rozważyć też ewentualność, gdyby sam akt sporządzania atomowego zapisu niszczył żywy organizm. Sytuacja taka usunęłaby niektóre paradoksy (np. paradoks możliwego współistnienia “kontynuacji” i oryginału) i mogłoby to stać się podstawą do twierdzenia, że właśnie tak być musi, to jest, że podobne współistnienie daje się tylko pomyśleć, ale jest fikcją nie do urzeczywistnienia. Dlatego sprawie całej poświęcimy nieco więcej uwagi. Wyobraźmy sobie, że mamy do dyspozycji dwie aparatury do przetelegrafowywania ludzi, jedną, aparaturę O, i drugą, aparaturę N. Aparatura O ocala tego, kogo mamy przetelegrafować, to jest, po zebraniu całkowitej informacji o jego atomowej strukturze, człowiek pozostaje w pełni zdrowia. Aparatura N działa w taki sposób, że w trakcie zbierania informacji jednocześnie niszczy strukturę atomową badanego, a tym samym po zakończeniu spisu mamy zabitego człowieka względnie jego rozproszone resztki oraz całkowity zasób informacji strukturalnej . Dodajmy nadto, że ilość zyskanej informacji będzie w obu wypadkach taka sama, tj. pełna i wystarczająca do odtworzenia takiego samego osobnika, po przetelegrafowaniu jej do stacji odbierającej.<br />Aparatura typu O, ocalająca, jest jako bardziej subtelna, także bardziej skomplikowana i powstanie zapewne historycznie później, jako owoc technologii bardziej zaawansowanej od tej, która wydała aparaturę niszczącą N. Mimo to najpierw rozpatrzymy aparaturę O. Działa ona na zasadzie “punktowania”, to jest promienia wodzącego, nieco podobnie jak w kineskopowej lampie telewizora. Promień z aparatury biegnie po ciele badanego. Każdorazowe zetknięcie się promienia z atomem czy elektronem odnotowywane jest natychmiast w pamięci aparatu, dzięki temu, że ów promień “potyka się” na każdej cząstce materii. Atomy powierzchownych warstw ciała, po zapisaniu ich lokalizacji, stają się niejako przeźroczyste dla owego promienia. Oczywiście, by się tak działo, promień nie może być materialny (korpuskularny). Powiedzmy, że nie jest to żaden taki promień, a jedynie punkt przyłożenia pól elektromagnetycznych, którymi umiemy tak pokierować, że się one nakładają. W efekcie, kiedy napotykają tylko próżnię, strzałki aparatury nie poruszają się. Zależnie od masy atomu, który znajdzie się na drodze przebiegu tych pól, wskutek powstającego oddziaływania wartość pól ulegnie zmianie i strzałki się wychylą, co zarejestruje odpowiedni układ “pamięci”. Aparatura rejestruje jednocześnie przestrzennoczasowe miejsca odczytów, ich kolejność, itd., a po dokonaniu l020 pojedynczych odczytań, zachodzących naturalnie z prędkością milionów na sekundę, mamy już zapisaną całą informację o położeniu wszystkich atomów ciała, czyli o jego konfiguracji materialnej. Aparatura jest tak czuła, że na atom zjonizowany reaguje inaczej niż na niezjonizowany, na atom, znajdujący się w określonym miejscu łańcucha białkowego też inaczej, bo zależy to od gęstości powłoki elektronowej molekuły, itd. Te, służące zapisowi, biegnące pola elektromagnetyczne powodują bez wątpienia swym oddziaływaniem drobne odchylenie atomów ciała od ich stanów poprzednich, lecz są owe odchylenia tak nikłe, że organizm zniesie je bez żadnej dla siebie szkody. Kiedy mamy już gotowy zapis, przekazujemy go po drucie, odbiornik, otrzymawszy informację, rusza i stworzony zostaje osobnik–kopia na drugim końcu linii. Jest to osobnik idealnie podobny do oryginału, lecz oryginał nic o tym nie musi wiedzieć, może opuścić kabinę i wrócić do domu, nie mając pojęcia o tym, że tymczasem powstała gdzieś jego kopia, a nawet ich legion. Taki był pierwszy eksperyment.<br />Uruchamiamy teraz drugą aparaturę. Działa ona znacznie brutalniej, ponieważ promień wodzący jest materialny, wystrzeliwane więc cząstki po kolei uderzają w atomy ciała, najpierw wierzchnich jego warstw, potem głębszych itd. Za każdym razem mamy zderzenie, karambol, i z odchylenia cząstki wystrzelonej, której pęd znamy, odczytujemy pierwotne położenie i masę cząstki trafionej (atomu ciała). Uzyskujemy drugi zapis, tak samo dokładny jak pierwszy, tyle, żeśmy samą procedurą rozproszkowali organizm, obrócony po zakończeniu działań w niewidzialny obłoczek.<br />Proszę zauważyć, że w obu wypadkach uzyskujemy dokładnie taką samą ilość informacji, z tym jednak, żeśmy za drugim razem w trakcie odczytu zniszczyli organizm pierwotny. Ponieważ zniszczenia dokonała jedynie brutalność aparatury, która w niczym nie zwiększyła zasobu zdobytej informacji, to fakt zniszczenia jest wobec samego aktu przesłania informacji uboczny i nie wiąże się ani z nim, ani z następującą potem syntezą atomowej kopii na drugim końcu Unii.<br />Przesył informacji bowiem i umożliwiona przezeń synteza następują w obu wypadkach dokładnie tak samo. Skoro następują tak samo, to staje się jasne, że dla tego, co zachodzi na drugim końcu drutu, los oryginału nie ma żadnego znaczenia. Innymi słowy, po tamtej stronie, u odbiornika, powstaje w obu wypadkach osobnik absolutnie taki sam. Skoro jednak udowodniliśmy, dla wypadku pierwszego, że powstały osobnik nie mógł być kontynuacją oryginału, to tym samym musi to też dotyczyć wypadku drugiego. A zatem udowodniliśmy, że stworzony w syntetyzatorze osobnik jest zawsze imitacją, kopią, a nie “przesłanym po drucie oryginałem”, a to z kolei wskazuje, iż “wstawka” w przyczynowo–skutkowe łańcuchy istnienia organizmu, wstawka, utworzona z zapisu i przesyłu informacji, w rzeczywistości nie jest tylko wstawką, cezurą pomiędzy dwiema częściami ciągłej linii życiowej tożsamego osobnika, lecz stanowi akt wytworzenia osobnika imitującego, jakby bliźniaka, przy czym oryginał albo zostaje zachowany przy życiu, albo ginie. Dla kopii los jego nie ma żadnego znaczenia, bo ona kontynuacją oryginału nie jest nigdy, oryginał natomiast w pierwszym przypadku pozostając przy życiu, samą obecnością swoją obala sąd, jakoby go właśnie dokądś “przetelegrafowano”, w drugim zaś, wskutek swej zagłady, stwarza (fałszywe, jakeśmy właśnie wykazali) wrażenie, że jednak udał się w “podróż po drucie”.<br />Na .koniec przedstawimy taki wariant eksperymentu, który obywa się zarówno bez sporządzenia atomowej matrycy, jak i atomowego syntetyzatora. Nie jest on jeszcze dziś do urzeczywistnienia, ale na tej drodze uczyniono już znaczne postępy. Chodzi o hodowlę zapłodnionego jaja ludzkiego poza obrębem organizmu. Jajo to należy przepołowić. Jedną połówkę zamrażamy, a drugiej pozwalamy się normalnie rozwinąć. Powiedzmy, że powstaje z niej człowiek, który w dwudziestym roku życia umiera. Odmrażamy wtedy drugą połówkę jaja i po dwudziestu latach mamy “drugiego bliźniaka”, o którym można powiedzieć, że stanowi kontynuację zmarłego — akurat z takim samym uzasadnieniem, jakeśmy czynili wobec sporządzonej w syntetyzatorze kopii atomowej. To, że trzeba było czekać dwadzieścia lat na powstanie “kontynuacji”, niczego nie przesądza, bo jest całkiem możliwe, że i syntetyzator atomowy musiałby trudzić się dwadzieścia lat, zanim sporządziłby kopię atomową. Jeżeli zatem uznamy owego “drugiego bliźniaka” za kontynuację zmarłego, a nie za sobowtóra o łudzącym wyglądzie, to samo dotyczyć będzie i sprawy stworzenia kopii atomowej. Wtedy jednak każdy zwykły bliźniak, którego rozwój opóźnimy hibernacją, jest “przedłużeniem” swojego brata. A że czas hibernacji dowolnie można skrócić, ostatecznie każdy bliźniak okazuje się kontynuacją drugiego bliźniaka, co już jest chyba absurdem oczywistym. Bliźniak nie jest co prawda idealną molekularną kopią “oryginału”. Niemniej, podobieństwo zachodzące między dwoma stanami tego samego człowieka, w których kolejno ma on osiem, a potem osiemdziesiąt lat, jest na pewno jeszcze mniejsze aniżeli podobieństwo wzajemne bliźniąt. Mimo to każdy przyzna, że dziecko to i starzec są tą samą osobą, czego o dwu braciach powiedzieć się nie da. Nie ilość analogicznej informacji decyduje zatem o kontynuowaniu istnienia, lecz genidentyczność (tj. identyczność genetyczna) nawet znacznym zmianom podlegającej w ciągu życia struktury dynamicznej mózgu.<br /><br /><br /><br />VII. Stwarzanie światów<br /><br /><br />Wstęp<br /><br /><br />Jesteśmy chyba u schyłku epoki. Nie mam na myśli czasów pary i elektryczności, przechodzących w następne, cybernetyki i kosmonautyki. Samo takie nazewnictwo jest już ugięciem się wobec technologii, stających się zbyt potężnymi, abyśmy mogli i w przyszłości pogodzić się z ich autonomią. Cywilizacja ludzka jest jak okręt, zbudowany bez planów. Budowla udała się nad podziw. Stworzyła olbrzymie maszyny napędowe i zagospodarowała wnętrze swego statku, prawda, że nierównomiernie, ale to jest do odrobienia. Ale ten okręt nie ma sternika. Cywilizacji brak wiedzy, która pozwoliłaby wybrać świadomie, kurs spośród wielu możliwych, zamiast dryfowania w prądach losowych odkryć. Bo odkrycia, jakie złożyły się na budowlę, wciąż jeszcze są po części dziełem przypadku. Faktu tego nie zmienia to, że nie znając dalszej drogi, zmierzamy ku brzegom gwiazd. Zapewne: realizujemy to, co już możliwe. Nauka uwikłana jest w walkę z Naturą, a choć w jednej partii po drugiej odnosi sukcesy, do tęga stopnia daje się wciągnąć w konsekwencje wygranej, tak każdą eksploatuje, że zamiast strategii uprawia taktykę. Otóż, paradoksalnie, im więcej będzie w przyszłości tych sukcesów, takich wygranych, tym trudniejsza stanie się sytuacja, ponieważ, jakeśmy już ukazali — nie zawsze można będzie eksploatować wszystko, co zdobędziemy. Embarras de richesse, lawinę informacji, obruszoną na człowieka przez jego zachłanność poznawczą, należy opanować. Musimy nauczyć się regulowania nawet postępu wiedzy, w przeciwnym razie losowość kolejnych etapów rozwoju będzie rosła. Wygrane, to jest otwierające się nagle obszary nowego, wspaniałego działania — będą nas zamykały swym ogromem, uniemożliwiając przez to dostrzeżenie innych, kto wie czy w. dalekosiężnej perspektywie nie cenniejszych jeszcze możliwości.<br />Chodzi o to, aby cywilizacja zyskała swobodę strategicznego manewru rozwojowego, aby mogła pokierować własnymi drogami. Świat ma dziś inne troski. Jest podzielony, nie zaspokaja potrzeb milionów, ale jeśli zostaną wreszcie zaspokojone? Jeśli ruszy automatyczna produkcja dóbr? Czy Zachód to przeżyje? Groteskowa wizja: bezludnych wytwórni miliarda przedmiotów, maszyn, środków żywnościowych, produkowanych energią gwiazdy, do której “podłączona jest” cywilizacja — czy jakaś General Apocalyptics stanie się właścicielem tej gwiazdy?<br />Mniejsza zresztą o prawa własności. Jeśli powiadam, że kończy się jednak epoka, nie myślę nawet o agonii starych ustrojów. Zaspokojenie elementarnych potrzeb ludzi jest zadaniem obowiązkowym, przygotowaniem do egzaminu dojrzałości, początkiem jej, a nie końcem.<br />Nauka wykluwa się z technologii i okrzepnąwszy, bierze ją na hol. Mówić o przyszłości, zwłaszcza dalekiej, to mówić o przemianach nauki. To, o czym będziemy rozprawiali, nie urzeczywistni się być może nigdy. Rzeczy niewątpliwie pewne to te, które się dzieją, a nie te, które są do pomyślenia. Nie wiem, czy Demokryt lub Tales myśleli bardziej zuchwale od człowieka współczesnego. Może i nie, bo nie ogarniali labiryntu faktów, splątanej dżungli hipotez, przez które dane nam było przejść w tych kilkudziesięciu wiekach, tak że cała historia nauki to właściwie surowa kraina, poznaczona śladami klęsk liczniejszych wielokrotnie od osiągnięć, rojąca się od porzuconych jak wraki systemów, od teorii, przestarzałych jak prymitywne krzesane narzędzia, od pogruchotanych prawd, które cieszyły się ongiś powszechnym uznaniem. Widzimy dzisiaj, że całe wieki zaciekłych sporów toczonych w obrębie nauki były z pozoru daremne, gdyż spierano się o pojęcia, o słowa, z których sam upływ czasu wyługował ich sens. Tak było z puścizną Arystotelesa, setki lat po nim, z walką epigenetyków i preformistów w biologii; powiadam “z pozoru”, bo równie można by powiedzieć, że tak samo pozorne czy zbędne były te wszystkie wymarłe już organizmy, te skamieliny zwierząt, które poprzedziły powstanie człowieka. Nie wydaje mi się szczęśliwe twierdzenie, że one jego przyjście przygotowały, byłoby to bowiem wyrazem nazbyt egoistycznego antropocentryzmu. Wystarczy może powiedzieć, że te kopalne stworzenia, tak samo jak stare teorie, były łańcuchem etapów, nie zawsze koniecznych, nie zawsze nieuniknionych, nieraz opłacanych nad wszelką miarę, nieraz zwodzących na manowce, a jednak całością swoją ułożyły drogę, która wznosi się coraz wyżej. Nie chodzi zresztą o uznanie ich jednostkowej wartości.<br />Nic prostszego, jak wymarłe formy organizmów nazwać prymitywnymi, a twórców fałszywych teorii — głupcami. Kiedy to piszę, na moim biurku leży numer czasopisma naukowego z doniesieniem o eksperymencie, którego wyniki zaprzeczają jednej z podstawowych prawd fizyki — Einsteinowskiej tezie o stałej szybkości światła. Być może, prawo to jeszcze się obroni. Ważne jest coś innego. To, że nie ma dla nauki prawd ani autorytetów nienaruszalnych. Błędy jej i pomyłki nie są śmieszne, bo wynikają ze świadomie podjętego ryzyka. Świadomość taka uprawnia do wypowiadania hipotez, bo nawet jeśli rychło upadną, porażka spotka nas na właściwej drodze. Człowiek bowiem, od swego zarania, zawsze wyruszał w tę drogę, także wtedy, gdy sobie tego jeszcze nie uświadamiał.</div><div><br /><br /><br />Hodowla informacji<br /><br /><br />Sporo cybernetyków zajmuje się obecnie problemem “automatyki hipotezotwórczej”. “Teoria” wytworzona w maszynie, jest strukturą informacyjną, która skutecznie koduje ograniczony zbiór informacji, istotnej względem pewnej klasy zjawisk otoczenia. Zbiór ten może być skutecznie użyty dla formułowania niezawodnych przepowiedni dla owej klasy. Maszynowa teoria klasy przedstawia w języku maszyny pewną niezmienną własność, wspólną wszystkim elementom owej klasy. Maszyna uzyskuje informację z otoczenia i wytwarza pewne “konstrukty”, czyli hipotezy, które współzawodniczą ze sobą aż do zagłady bądź do stabilizacji, w trakcie tej “ewolucji”, tego “procesu poznania”*.<br />Największe trudności przedstawiają: sprawa wstępnego powstania w maszynie niezmienników, która decyduje o dalszych już procesach hipotezotwórczych, sprawa pojemności pamięci maszynowej i szybkości dostępu do zawartej tam informacji, jak również regulacyjne opanowanie wzrostu “drzew asocjacyjnych”, które są lawinowo narastającymi, alternatywnymi ujęciami roboczymi. Przy tym niewielki wzrost ilości wstępnie uwzględnionych zmiennych (zjawiskiem niech będzie wahadło, pytanie brzmi: jak wiele zmiennych trzeba uwzględnić, by wypowiadać przepowiednie o jego stanach przyszłych?) powoduje zawalenie się całego tego programu. Przy pięciu zmiennych wielka maszyna cyfrowa może, działając w tempie miliona operacji na sekundę, przepatrzeć wszystkie ich wartości w ciągu dwu godzin. Przy sześciu zmiennych ten sam proces wymaga 30 000 takich maszyn, pracujących z maksymalną szybkością przez kilkadziesiąt lat. Z czego wynika, że jeśli zmienne są losowe (przynajmniej dla nas: tj. dopóki nie domyślamy się żadnego związku między nimi), żaden w ogóle układ, wszystko jedno, sztuczny czy naturalny, nie będzie mógł operować ilością zmiennych większą od kilkudziesięciu, choćby rozmiarami dorównał Metagalaktyce.<br />Gdyby ktoś chciał np. zbudować maszynę, która modelowałaby socjogenezę, przy czym każdemu człowiekowi, jaki żył od Australopiteka, trzeba przyporządkować szereg zmiennych, zadanie byłoby niewykonalne, teraz i zawsze. Na szczęście nie jest to potrzebne. Gdyby było, gdyby pęd, spin (kret), moment każdego elektronu z osobna musiały być uwzględnione regulacyjnie przez Naturę, nigdy nie zbudowałaby żywych ustrojów. Nie uczyniła też tego na poziomie atomowym (nie ma organizmów składających się ledwo z pani milionów atomów), ponieważ regulacyjne opanowanie fluktuacji kwantowych i ruchów brownowskich nie było dla niej możliwe. Dość zmiennych niezależnych okazuje się na owym poziomie zbyt wielka. Komórkowa budowa organizmów jest nie tyle rezultatem powstania jednokomórkowców jako ustrojów pierwszych, ile wynikiem konieczności, której korzenie sięgają znacznie głębiej w istotne właściwości materii. Hierarchiczność budowy jest nadaniem względnej autonomii jej poziomom, podwładnym głównemu regulatorowi, ale zarazem jest konieczną rezygnacją z kontroli wszystkich zachodzących w ustroju przemian.<br />Hierarchiczna też musi być budowa postulowanych przez nas, przyszłych owoców drzewa Imitologicznego. Problem ten niebawem rozpatrzymy. Obecnie interesować nas będzie zakres działań imitologicznych.<br />Powtórzmy to, do czegośmy już doszli.<br />Do pewnego stopnia komplikacji opłaca się budowanie modeli, które stanowią dynamiczne sprzężenie zmiennych, uznanych za istotne. Bardzo ważna jest znajomość przedziału ważności modelu, tj. tego, w jakim zakresie model odwzorowuje zachowanie się zjawiska rzeczywistego. Wybór zmiennych istotnych nie jest rezygnacją ze ścisłości, przeciwnie, ponieważ chroniąc nas przed zalewem informacji nieistotnej, umożliwia szybsze wykrycie całej klasy zjawisk podobnych do badanego, tj. stworzenie teorii. O tym, co jest modelem, a co zjawiskiem “oryginalnym”, mogą decydować konkretne okoliczności. Jeśli neutrony w reakcji łańcuchowej rozmnażają się w postępie takim samym, jak bakterie na pożywce, to — pod względem parametrów wzrostu wykładniczego — jedno zjawisko może być modelem drugiego. Ponieważ wygodniej można badać np. bakterie, za model uznamy kulturę bakteryjną. Gdy jednak modele zaczynają się nadmiernie komplikować, wtedy albo szukamy modeli innego typu, albo sięgamy do modelu “równoważnego” (człowieka “wymodelujemy” innym człowiekiem, poprzez “boczne wejście” w nurt embriogenezy, jak była o tym mowa).<br />Ilość wiedzy wstępnej musi być tym większa, im dokładniejszy ma być model. Poglądowość modelu nie ma żadnego znaczenia. Ważne jest tylko, aby można mu “stawiać pytania” i uzyskiwać odpowiedzi. Należy zwrócić uwagę na różnicę podejścia do modelu, jaka dzieli uczonego od technologa. Technolog, uzyskawszy możliwość “syntezy żywego organizmu”, jeśli taki był jego cel — zadowoli się otrzymaniem “produktu końcowego”. Uczony, przynajmniej w klasycznym rozumieniu, pragnie poznać dokładnie “teorię syntezy organizmu”. Uczony pożąda algorytmu, technolog natomiast podobny jest raczej do ogrodnika, który sadzi drzewo, zrywa jabłka i nie troszczy się o to, “jak jabłoń to zrobiła”. Uczony uważa takie wąsko-użytkowe, pragmatyczne ujęcie za grzech przeciwko Kanonom pełnego poznania. Wydaje się, że w przyszłości dojdzie do zmiany tych obu postaw.<br />Modele są zbliżone do teorii tym, że pomijają szereg zmiennych zjawiska uznanych za nieistotne. Im więcej jednak zmiennych uwzględnia model, w tym większym stopniu z odwzorowania “teoretycznego” staje się powtórzeniem zjawiska. Model mózgu ludzkiego jest to dynamiczna struktura, uwzględniająca zmienne istotne wszystkich mózgów ludzkich, ale model mózgu pana Smitha jest w tym mniejszym stopniu “ważny” dla innych mózgów, im bardziej powiększa się “powierzchnia jego styku dynamicznego” z wszystkimi procesami mózgu p. Smitha. Tak więc wreszcie model uwzględnia i to, że p. Smith jest tępy w matematyce, a nawet, że wczoraj spotkał swą ciotkę. Oczywiście, tak wierny model, będący niejako “dosłownym” powtórzeniem zjawiska (gwiazdy Capella, małego mopsa Fikusia, p. Smitha), nie jest nam potrzebny. Jak z tego widać, maszyna, która by z niesamowitą szybkością kopiowała każde zjawisko materialne, byłaby uniwersalnym plagiatorem, i to wszechuwzględnianie zmiennych zjawiska niejako automatycznie odcinałoby ją od wszelkiej działalności twórczej, która oznacza selekcję, wybór pewnych zmiennych, a odrzucenie innych, w celu odnalezienia klasy zjawisk, którym tory dynamiczne takich zmiennych są wspólne. Własności zachowania się tej klasy, to właśnie teorie.<br />Teorie są możliwe dlatego, że ilość zmiennych pojedynczego zjawiska jest niezrównanie większa od ilości zmiennych wspólnych dla niego i dla całego mnóstwa innych zjawisk, przy czym pominięcie tych pierwszych jest —ze względu na cele nauki — dozwolone. Dlatego można zrezygnować z badania indywidualnej historii molekuł albo z tego, że p. Smith spotkał wczoraj ciotkę, a także z miliona innych zmiennych.<br />Co prawda podejścia do zjawisk fizyki i biologii znacznie się od siebie różnią. Atomy są zamienialne, organizmy natomiast nie. W obecnej fizyce cała indywidualna historia atomu jest nieistotna, z wyjątkiem pewnej hipotezy dotyczącej czerwienienia fotonów, wysyłanych przez atom. Atom mógł przylecieć ze Słońca albo z kawałka węgla w piwnicy, ale własności jego w niczym to nie zmienia. Natomiast jeśli ciotka powiedziała p. Smithowi, że go wydziedzicza, za czym p. Smith oszalał z rozpaczy, zmienna ta staje się wielce istotna. P. Smitha można skądinąd zrozumieć, ale to dlatego, że jesteśmy do niego bardzo podobni. Inna sprawa z atomami. Jeśli się stworzy teorię sił jądrowych, a potem zadaje się pytania, co to są właściwie, ale tak “naprawdę”, pseudoskalarne sprzężenia, to pytanie nie ma sensu. Przyporządkowawszy operacjom naszego algorytmu pewne nazwy, nie możemy żądać, aby oznaczały cokolwiek inaczej niż przez związek z tymi właśnie przekształceniami algorytmu. Można najwyżej odpowiedzieć: “Jeżeli dokona pan takich i takich przekształceń na papierze, a potem podstawi to tutaj, to uzyska pan w rezultacie dwa i pół, za czym, kiedy zrobi pan to i to, w laboratorium, i popatrzy na tę strzałkę aparatu, to strzałka stanie w środku między przedziałką 2 i 3”. Doświadczenie potwierdziło wynik teorii, a więc pojęciem pseudoskalarnych sprzężeń i całą resztą nomenklatury będziemy się posługiwali.<br />Tak więc przeciwrównoległe fotony i cała reszta są to szczeble drabiny, po której wchodzimy na strych, przy czym na strychu można znaleźć coś cennego, w rodzaju nowego źródła energii atomowej, ale pytać o “sens” drabiny “samej w sobie” nie można. Drabina jest kawałkiem sztucznego otoczenia, któreśmy wytworzyli, aby wejść gdzieś na górę, a przeciwrównoległe fotony są kawałkiem operacji na papierze, która pozwala przewidzieć pewne stany przyszłe, i nic ponadto. Powiedziałem to, aby nie wyglądało, że Imitologia ma być czymś takim, co nam “wszystko wyjaśni”. Wyjaśnienie jest sprowadzeniem cech i zachowania nieznanego do znanego, przez odnalezienie podobieństwa do rzeczy znanych, a jeśli nieznane nie jest podobne do kręgla, kuli, sera ani krzesła, pozostaje nam, zamiast bezradności, matematyka.<br />Prawdopodobnie stosunek uczonego–technologa do świata zmieni się.<br />Będzie on podłączony do tego świata przez Imitologię. Imitologia nie wyznacza sama żadnych celów działania, te są dane przez cywilizację na określonym etapie rozwoju. Imitologia jest jak luneta; pokazuje to, na co ją skierujemy. Jeśli zauważymy coś interesującego, możemy wzmocnić powiększenie (uruchomić w danym kierunku maszyny informacjozbiorcze). Imitologia, dzięki niezliczonym procesom modelującym różne aspekty rzeczywistości, przedstawi nam rozmaite “teorie”, rozmaite związki i cechy zjawisk. Niczego doskonale izolowanego nie ma, ale świat jest nam przychylny: istnieją izolacje względne (między poszczególnymi poziomami rzeczywistości, atomowym, molekularnym itp.).<br />Istnieją teorie systemów (w mechanice), teoria bioewolucji byłaby to teoria systemów systemów, a teoria cywilizacji — teorią systemów systemów systemów. Całe szczęście, że procesy kwantowe prawie nie przejawiają się już w skali wielkości organizmu jednokomórkowego, chyba wyjątkowo. Inaczej utopilibyśmy się w oceanie różnorodności, bez nadziei na jakąkolwiek regulację, która zasadza się wpierw na homeostazie biologicznej (dzięki istnieniu na pewno nierozumnych roślin ilość tlenu w atmosferze jest stała, więc one tę ilość regulują), a potem gdy pojawi się rozum, na homeostazie wyzyskującej wyniki wiedzy teoretycznej.<br />A zatem “modelowanie ultymatywne” jest nie tylko niemożliwe, ale i niepotrzebne. Odwzorowanie “nieostre” przez pominięcie szeregu zmiennych czyni teorią uniwersalną. Tak zdjęcie nieostre nie pozwala stwierdzić, czy to p. Smith, czy p. Kowalski, ale pozwala jeszcze stwierdzić, że to człowiek. Dla Marsjanina, który chce wiedzieć, jak wygląda człowiek, zdjęcie nieostre jest cenniejsze od portretu p. Smitha, inaczej gotów uznać, że wszyscy ludzie mają taki kartoflowaty nos, rzadkie zęby i podsiniaczone lewe oko. W konkluzji: wszelka informacja zakłada istnienie adresata. “Informacja w ogóle” nie istnieje. Adresatem “maszyny imitologicznej” jest cywilizacja, są jej uczeni. Dziś muszą sami wzbogacać, przez odsiew, informacyjną “rudę”. W przyszłości będą otrzymywali już tylko ekstrakt, i nie z faktów będą budowali teorie, ale z innych teorii (co po części zachodzi już dziś: nie ma teorii całkowicie izolowanych od innych).<br />Czytelnik oczekuje zapewne przedstawienia owej “hodowli informacji”, którą zapowiedzieliśmy już dawno. Zamiast tego, zajmiemy się istotą teorii naukowych. Wygląda na to, że robię wszystko, aby go zrazić do dalszej lektury. Proszę jednak zauważyć, czego właściwie chcemy. Mamy, ni mniej, ni więcej, zautomatyzować Naukę. Jest to zadanie przeraźliwe; nim się do niego zabierzemy, musimy naprawdę pojąć, co właściwie robi Nauka. To, cośmy powiedzieli przed chwilą, było tylko pierwszym, metaforycznym przybliżeniem. Metafory wymagają jednak przekładu na język ścisły. Przykro mi prawdziwie, ale to konieczne. A zatem:<br />Mamy wynaleźć urządzenie, które zbierałoby informację, uogólniało ją w sposób analogiczny do tego, w jaki czyni to uczony, i przedstawiało fachowcom rezultaty tych dociekań. Urządzenie zbiera fakty, uogólnia je, sprawdza prawomocność uogólnienia na nowym materiale faktów, i ten “produkt końcowy”, już po “kontroli technicznej”, opuszcza “fabrykę”.<br />Urządzenie wytwarza więc teorie. Teoria, w rozumieniu naukoznawczym, jest zbudowanym z symboli, a stanowiącym strukturalny równoważnik realnego zjawiska systemem, przekształcalnym przy użyciu reguł, nic nie mających ze zjawiskiem wspólnego, w taki sposób, że kolejne przekroje toru zjawiska (jego następujące po sobie w czasie stany) pokrywają się w zakresie — zmiennych — przez ową teorię uwzględnianych — z wartościami tych zmiennych, wywiedlnymi dedukcyjnie z teorii.<br />Teoria odnosi się nie do pojedynczego zjawiska, lecz do klasy zjawisk. Elementy klasy mogą istnieć współcześnie w przestrzeni (kule bilardowe na stole) albo po sobie w czasie (kolejne położenia tej samej kuli bilardowej w czasie). Im klasa liczebniejsza, tym “lepsza” teoria, bo tym bardziej uniwersalne jej zastosowanie.<br />Teoria może nie mieć żadnych sprawdzalnych konsekwencji (ogólna teoria pola Einsteina). Dopóki nie uda się z niej takich konsekwencji wyprowadzić, jest ona nieużyteczna. Nie tylko jako narzędzie realnego działania, ale i jako narzędzie poznania. Teoria bowiem musi mieć “wejście” i “wyjście”, aby była użyteczna: “wejście” dla faktów, które uogólnia, a “wyjście” dla faktów, które przepowiada (przez co będzie ją można . sprawdzić). Jeżeli ma tylko wejście, jest tak samo metafizyczna, jak gdyby nie miała ani wejścia, ani wyjścia. Rzeczywistość jest mniej piękna, tj. mniej prosta. “Wejścia” jednych teorii są “wyjściami” innych. Istnieją mniej i bardziej ogólne teorie, ale — w perspektywie rozwoju — wszystkie winny stanowić taką całość hierarchiczną, jaką jest np. organizm. Teoria bioewolucji jest “połączona” z podrzędniejszymi — dla niej — teoriami rodem z chemii, z geologii, z zoologii, botaniki, a sama znów jest podrzędna względem teorii samoorganizujących się układów, której wypadek szczególny stanowi.<br />Obecnie istnieją dwa ujęcia teoryj: komplementarne i redukcyjne. Komplementarne oznacza, że to samo zjawisko, tę samą klasę zjawisk, można “wyjaśniać” dwiema różnymi teoriami, przy czym praktyka decyduje o tym, kiedy i jak którą teorię należy stosować. Ujęcia komplementarne stosuje się np. w mikrofizyce (elektron jako fala i jako cząsteczka). Ale niektórzy sądzą, że taki stan jest przejściowy i że należy dążyć zawsze do ujęć redukcyjnych. Zamiast dopełniać jedną teorię drugą, trzeba skonstruować taką, która tamte zjednoczy, sprowadzi jedną do drugiej lub obie do jakiejś jeszcze bardziej ogólnej (na tym polega “redukcja”). Tak np. sądzi się, że zjawiska życia można zredukować do procesów fizyko–chemicznych. Ale ten punkt widzenia jest dyskusyjny.<br />Teoria jest tym bardziej wiarygodna, im więcej sprawdza się jej różnorodnych konsekwencji. Teoria może być zupełnie wiarygodna, ale prawie bezwartościowa (trywialna, np. “wszyscy ludzie są śmiertelni”).<br />Żadna teoria nie uwzględnia wszystkich zmiennych zjawiska. Nie znaczy to, abyśmy potrafili wyliczyć dowolną ilość tych zmiennych w każdym wypadku, ale raczej, że nie znamy wszystkich stanów zjawiska.<br />Teoria może jednak przewidzieć istnienie nowych wartości zmiennych już ustalonych. Jednakże nie w ten sposób, aby zawsze precyzowała dokładnie, co to są za zmienne nowo odkryte i gdzie ich szukać. “Wskazywanie” na te nowe zmienne może być “schowane” w jej algorytmie i trzeba się dobrze znać na rzeczy, ażeby się zorientować, że gdzieś jest zakopany skarb. W ten sposób zbliżamy się do strefy mglistych i tajemniczych pojęć, w rodzaju “intuicji”. Teoria jest bowiem informacją strukturalną, która w zasadzie mogłaby zostać wybrana spośród gigantycznej ilości struktur do pomyślenia, jakim w Naturze nic nie odpowiada, przy czym do owego wyboru doszłoby po kolejnym obaleniu jej niezliczonych konkurentek (“Ciała przyciągają się zgodnie z sześcianem średnicy; zgodnie z kwadratem odległości pomnożonym przez iloraz masy;” itd., itp.). W rzeczywistości tak się nie dzieje. Uczeni nie pracują jedynie na ślepo, metodą prób i błędów, lecz posługują się domysłem i intuicją.<br />Jest to zagadnienie z tak rwanej “psychologii postaci”. Nie umiem opisać twarzy mego znajomego tak, abyście go podług opisu natychmiast poznali na ulicy. Mimo to sam potrafię poznać go natychmiast. Twarz jego jest więc, w rozumieniu psychologii postrzeżeń zmysłowych, pewną “postacią” Gestalt Nieraz też jakiś człowiek przypomina nam kogoś innego, ale nie zawsze umiemy powiedzieć, czym właściwie. Żadną częścią ciała czy twarzy wziętą z osobna — całością, układem, harmonią wszystkich rysów i ruchów, więc znowu “postacią”. Otóż ten typ uogólniającego postrzegania nie odnosi się tylko do sfery wizualnej. Dotyczyć może wszystkich zmysłów. Melodia zachowuje “postać” niezależnie od tego, czy zaświstana na palcu, czy zagrana przez orkiestrę dętą, czy wystukana palcem na pianinie. Takich sposobów rozpoznawania “postaci” kształtów, dźwięków itp., może doświadczyć każdy. Uczony–teoretyk, otrzaskany z abstrakcyjną aparaturą formalno–symboliczną teoryj, wśród których spędza życie, zaczyna, jeśli jest tęgim uczonym, postrzegać owe teorie jako pewne “postacie”, naturalnie bez twarzy i rysów, i dźwięków; są to jakieś konstrukcje abstrakcyjne w jego umyśle. Otóż może mu się udać odkrycie podobieństwa między “postaciami” dwu dotąd zupełnie nie związanych teorii, albo też zestawiając je z sobą, pojmie, że one są wypadkami szczególnymi jeszcze nie istniejącego uogólnienia, które należy skonstruować.<br />To, cośmy powiedzieli, jest naturalnie bardzo prymitywne. Wrócimy jeszcze do tego zagadnienia, a raczej ono do nas, kiedy zechcemy uruchomić “hodowlę informacji”.<br />Zabawimy się teraz w następującą grę. Bierzemy dwu matematyków, z których jeden będzie Uczonym, a drugi — Naturą. Natura z przyjętych założeń wyprowadza pewien skomplikowany system matematyczny, który Uczony ma odgadnąć, tj. powtórzyć. Dzieje się to tak, że Natura siedzi w jednym pokoju i od czasu do czasu pokazuje Uczonemu przez okienko kartkę z kilkoma liczbami, odpowiadającymi przemianom, które zachodzą na danym etapie konstruowania przez Naturę jej systemu. Można sobie wyobrazić, że Natura jest gwiazdowym niebem, a Uczony — pierwszym na świecie astronomem. Uczony zrazu nie wie nic, tj. nie dostrzega między liczbami (“między ruchami ciał niebieskich”) żadnego związku, ale po jakimś czasie coś mu świta. Wreszcie zaczyna próbować, w ten sposób, że sam, ze swej strony, buduje jakiś system matematyczny i czeka, czy liczby, które za chwilę pokaże mu przez okienko Natura, będą zgodne z oczekiwaniem. Okazuje się, że liczby, które pokazuje Natura, są inne; Uczony znów próbuje, a jeśli jest dobrym matematykiem, po jakimś czasie uda mu się wpaść na właściwy trop, więc skonstruuje dokładnie taki sam system matematyczny, jakim się posługuje Natura.<br />W tym wypadku wolno nam mówić, że to są naprawdę dwa takie same systemy, czyli że Natura uprawia matematykę analogiczną do matematyki Uczonego. Powtarzamy ową grę ze zmienionymi regułami. Natura w dalszym ciągu pokazuje Uczonemu liczby (powiedzmy, parami), ale nie wynikają one z systemu matematycznego. Są one każdorazowo stwarzane przy użyciu jednej z pięćdziesięciu operacji, których wykaz dajemy Naturze. Pierwsze dwie liczby może Natura wybrać całkiem dowolnie. Następnych już nie: bierze jedną z reguł przekształcania, zawartych w spisie — dowolną —dokonuje nakazanego nią dzielenia, mnożenia, potęgowania lub tp., wynik pokazuje Uczonemu, wybiera inną regułę, znów przekształca (poprzednie) wyniki, znów pokazuje rezultat itd. Są operacje nakazujące zaniechanie wszelkiej zmiany. Są operacje powiadające, że jeśli Naturę swędzi lewe ucho, należy coś odjąć, a jeżeli nic nie swędzi — wyciągnąć pierwiastek. Ponad wszystkim są jeszcze dwie operacje ważne zawsze. Natura musi za każdym razem tak uszeregować oba wyniki, aby pierwsza liczba pokazana była mniejsza od drugiej, poza tym zaś przynajmniej w jednej z liczb musi się zawsze znajdować zero obok cyfry nieparzystej.<br />Aczkolwiek wyda się to może dziwne, generowany w ten sposób ciąg liczbowy będzie przejawiał swoiste regularności i regularności te Uczony będzie mógł odkryć, tzn. po pewnym czasie będzie umiał przewidywać, ale naturalnie tylko z przybliżeniem, jakie liczby pojawią się jako następne. Ponieważ jednak prawdopodobieństwo właściwego określenia wartości każdej pary następnych liczb maleje gwałtownie, w miarę jak prognoza usiłuje ogarnąć nie tylko najbliższy etap, ale cały ich szereg, Uczony będzie musiał stworzyć kilka systemów przepowiadania. Przepowiednia pojawienia się zera obok cyfry nieparzystej jest zupełnie pewna; ukazują się w każdej parze liczb, choć w różnych miejscach. Pewne jest też, że pierwsza liczba jest zawsze mniejsza od drugiej. Wszystkie inne zmiany podlegają już rozmaitym rozkładom prawdopodobieństwa. Natura przejawia zatem pewien “ład”, ale to nie jest “ład” jednego tylko rodzaju. Można w nim wykryć rozmaitego rodzaju regularności, zależy to zaś w znacznej mierze od czasu trwania gry. Natura wykazuje jakby istnienie pewnych “niezmienników”, nie podległych transformacjom, jej stany przyszłe, w czasie niezbyt odległe, można przewidywać z określonym prawdopodobieństwem, ale stanów znacznie odległych przewidzieć nie można.<br />W takiej sytuacji Uczony mógłby sądzić, że Natura stosuje wprawdzie jeden system, ale z taką ilością zmiennych operatorów, że on go odtworzyć nie umie; zapewne jednak przychyli się raczej do tezy, że Natura działa probabilistycznie. Zastosuje więc odpowiednie metody rozwiązań przybliżonych, typu “Monte Carlo”. Najciekawsze jest jednak, że Uczony może podejrzewać istnienie “hierarchii poziomów natury” (liczby; ponad nimi operacje; ponad nimi — superoperacje szeregowania i “zerowania”). Mamy więc i rozmaite poziomy, i “zakazy” (pierwsza liczba nigdy nie może być większa od drugiej), czyli “prawa Natury”, ale cały ten ewoluujący system liczbowy nie jest jednolitym systemem matematycznym jako struktura formalna. To jednak tylko część problemu. Jeśli gra będzie trwała bardzo długo, Uczony zorientuje się w końcu, że Natura dokonuje pewnych operacji częściej niż innych (a to dlatego, ponieważ “Natura” też jest człowiekiem i musi wykazać predylekcję dla pewnych operacji, człowiek bowiem nie może się zachowywać zupełnie chaotycznie, “losowo”). Uczony, zgodnie z zasadami gry, obserwuje tylko liczby i nie wie, czy wytwarza je jakiś proces naturalny, maszyna, czy też inny człowiek. Jednakże za operacjami transformacji zaczyna się domyślać działania czynnika jeszcze wyższego rzędu, który decyduje o tym, jaka operacja zostanie zastosowana. Czynnik ten (człowiek udający Naturę) ma ograniczony wybór działań, niemniej poprzez szeregi liczbowe zacznie się wyłaniać system jego predylekcji (np. częściej stosuje operację nr 4 aniżeli nr 17 itd.), czyli jednym słowem, właściwe jego psychice cechy dynamiczne. Ale jest jeszcze jeden czynnik, względnie niezawisły, ponieważ niezależnie od tego, które operacje Natura lubi bardziej od innych, od czasu do czasu, natrafiając na tę operację, której wynik zależy od świądu ucha, postępuje tak albo siak. Otóż ten świąd już nie jest związany z dynamiką jego świadomości, ale raczej z peryferycznymi procesami molekularnymi jego receptorów skórnych. Uczony bada więc, w ostatniej instancji, nie tylko procesy mózgowe, ale nawet to, co się dzieje w pewnym odcinku skóry człowieka, który udaje “Naturę”!<br />Oczywiście, mógłby przypisać “Naturze” cechy, których ona nie posiada. Mógłby np. sądzić, że “Natura” lubi zero obok nieparzystej, podczas gdy w istocie zmuszona jest ten rezultat wprowadzać, bo ma taki rozkaz. Przykład bardzo prymitywny, ale wskazuje, że Uczony może rozmaicie interpretować obserwowaną “rzeczywistość liczbową”. Może ją bowiem rozpatrywać jako mniejszą lub większą ilość układów sprzężonych. Jakikolwiek zbuduje model matematyczny zjawiska, mowy nie ma o tym, żeby każdy element jego “teorii Natury”, każdy jej symbol, miał dokładny odpowiednik po drugiej stronie muru. Jeśli nawet po roku pozna wszystkie reguły przekształceń, to nigdy nie zdoła stworzyć “algorytmu swędzącego ucha”. A tylko w takim wypadku można by mówić o tożsamości, czy też o izomorfizmie Natury i Matematyki.<br />Tak zatem możliwość matematycznego odwzorowywania Natury nie implikuje bynajmniej jej “matematyczności”. Nie o to nawet chodzi, czy jest to hipoteza prawdziwa: jest ona zupełnie zbędna.<br />Omówiwszy obie strony procesu poznania (“naszą”, tj. teorii, i “tamtą”, tj. Natury), bierzemy się wreszcie do automatyzowania procesów poznawczych. Najprostsze wydawałoby się stworzenie “syntetycznego uczonego”, pod postacią jakiegoś “supermózgu elektrycznego”, połączonego zmysłami, “perceptronami”, ze światem zewnętrznym. Propozycja taka sama się narzuca, bo tyle się mówi o elektronowym imitowaniu procesów myślowych, o doskonałości i chyżości działań, jakich dokonują już teraz maszyny liczbowe. Sądzę jednak, że droga nie wiedzie przez plany budowy “elektronowego nadczłowieka”. Jesteśmy wszyscy zafascynowani złożonością i potęgą mózgu ludzkiego, przez co maszyny informacyjnej nie umiemy sobie wyobrazić inaczej aniżeli jako analogu układu nerwowego. Mózg bez wątpienia jest wspaniałym tworem Natury. Kiedy już złożyłem mu tymi słowy należny hołd, chciałbym dodać, że jest on systemem, pokonującym rozmaite zadania z bardzo nierównomierną sprawnością.<br />Ilość informacji, jaką może “przerobić” mózg narciarza w slalomie jest daleko większa od jej ilości “przerobionej” w tym samym czasie przez świetnego matematyka. Przez ilość informacji rozumiem tu zwłaszcza ilość zmiennych, które reguluje, tj. nad którymi “panuje” mózg slalomisty. Dość zmiennych kontrolowanych przez narciarza jest wręcz nieporównywalna z ich ilością, znajdującą się w “selekcyjnym polu” mózgu matematyka. Wynika to stąd, że olbrzymia większość regulacyjnych interwencji, jakich dokonuje mózg slalomisty, jest zautomatyzowana, znajduje się poza polem świadomości, matematyk natomiast nie może osiągnąć takiego stopnia automatyzacji formalnego myślenia (chociaż pewien jej stopień dobry matematyk uzyskać potrafi). Cały formalizm matematyczny jest jak gdyby płotem, którego trzymając się, niewidomy może iść pewnie w obranym kierunku. Po co ten “płot” metody dedukcyjnej? Mózg posiada małą “głębię logiczną”, jako regulator. “Głębia logiczna” (ilość kolejnych etapów następujących po sobie operacji) wywodu matematycznego jest bez porównania większa od “głębi logicznej” mózgu, który nie myśli abstrakcyjnie, lecz, zgodnie ze swym przeznaczeniem biologicznym, działa jako urządzenie sterujące ciałem (slalomista na trasie zjazdowej).<br />Ta pierwsza “głębia” nie jest bynajmniej powodem do chwały, wprost przeciwnie. Wynika ona stąd, że zjawisk o naprawdę wielkiej złożoności mózg ludzki nie jest w stanie skutecznie regulować, o ile to nie są procesy jego ciała. Bo jako regulator ciała, mózg zawiaduje ogromną ilością zmiennych: idącą na pewno w setki, a prawdopodobnie nawet w tysiące. Ale przecież — powie ktoś — każde zwierzę posiada mózg, sprawnie zawiadujący jego ciałem. Mózg człowieka oprócz tego zadania potrafi rozwiązywać niezliczoną ilość innych; wystarczy zresztą zestawić rozmiary mózgu małpy z mózgiem człowieka, aby zorientować się, choć w grubym przybliżeniu, o ile więcej masy mózgowej człowieka “zaadresowane jest” do rozwiązywania zadań intelektualnych!<br />Otóż nie ma co dyskutować nad wyższością intelektualną człowieka względem małpy. Mózg ludzki jest oczywiście bardziej złożony; ale znaczna część tej złożoności “nie nadaje się” do rozwiązywania problemów teoretycznych, bo zawiaduje procesami cielesnymi: do tego jest przeznaczona. Problem zatem wygląda tak: to, co jest mniej złożone (ta część systemu neuronowego mózgu, która stanowi podłoże procesów intelektualnych) usiłuje posiąść informację o tym, co jest bardziej złożone (o całym mózgu). Nie jest to niemożliwe, ale jest bardzo trudne. W każdym razie nie jest to niemożliwe pośrednio (jeden człowiek w ogóle by nawet sformułować nie mógł zadania). Proces poznania jest społeczny: następuje niejako “sumowanie się” złożoności “intelektualnej” wielu mózgów ludzkich badających to samo. Ale ponieważ jest to, mimo wszystko, “sumowanie się” w cudzysłowie — bo wszak te poszczególne umysły nie łączą się w jeden system — problemu na razie nie rozwiązaliśmy.<br />Dlaczego poszczególne umysły nie łączą się w jeden system? Czy nauka nie jest właśnie takim nadrzędnym systemem? Jest nim, ale tylko w przenośni. Jeśli cokolwiek rozumiem, rozumiem to “coś” całe, od początku do końca. Nie jest możliwe, ażeby umysły poszczególnych ludzi, łącząc się, utworzyły pewne “nadrzędne pole intelektualne”, w którym sformułowana zostanie prawda, jakiej żaden z osobna wzięty mózg nie pomieści. Uczeni bez wątpienia współdziałają, ale w ostatniej instancji jakiś jeden człowiek musi sformułować rozwiązanie zadania, nie zrobi tego przecież jakiś “chór uczonych”.<br />Czy jest tak na pewno? Czy nie było raczej tak, że pierwej sformułował coś Galileusz, że przejął to od niego i rozwinął Newton, że dodało niejedno kilku innych, że Lorentz stworzył swą transformację, a dopiero, ująwszy to wszystko razem, Einstein scalił owe dane i stworzył teorię względności? Rozumie się, że tak było, ale to nie ma nic do rzeczy. Wszystkie teorie operują niewielką ilością zmiennych. Teorie bardziej uniwersalne zawierają nie olbrzymią ilość zmiennych, a jedynie są zastosowalne w olbrzymiej ilości wypadków. Jak właśnie teoria względności.<br />My jednak mówimy o czymś innym. Mózg potrafi doskonale regulować olbrzymią ilość zmiennych ciała, do którego “jest podłączony”. Zachodzi to automatycznie lub na wpół automatycznie (kiedy chcemy wstać i nie troszczymy się o resztę, tj. o cały kompleks kinematyczny, tym “rozkazem” uruchomiony). Myślowo natomiast, tj. jako maszyna do regulowania zjawisk poza tym obszarem, jest on urządzeniem mało wydajnym, a co ważniejsza, nie może się uporać z sytuacjami, w których trzeba jednocześnie uwzględniać znaczną ilość zmiennych. Dlatego np. nie potrafi regulować zjawisk biologicznych lub społecznych w sposób ścisły (w oparciu o ich algorytmizację). Zresztą nawet procesy daleko mniej złożone (klimatyczne, atmosferyczne) po dziś dzień urągają jego regulacyjnym zdolnościom (rozumianym teraz tylko jako umiejętność dokładnego przewidywania stanów przyszłych w oparciu o znajomość poprzednich).<br />Mózg jest, wreszcie, w najbardziej “abstrakcyjnej” swej działalności pod znacznie większymi wpływami ciała (którego jest zarazem panem i sługą, dzięki dwukierunkowym sprzężeniom zwrotnym), aniżeli zazwyczaj zdajemy sobie z tego sprawę. Będąc, “za pośrednictwem” owego ciała, podłączonym z kolei do świata otaczającego, wszystkie tego świata prawidłowości wyrażać zaczyna zawsze poprzez zjawiska doznań cielesnych (stąd poszukiwanie tego, kto trzyma na swych barkach ziemię, tego, co “przyciąga” kamienie do Ziemi itp.).<br />Przepustowość mózgu jako kanału informacyjnego jest maksymalna w zakresie zjawisk cielesnych. Natomiast nadmiar informacji wpływającej z zewnątrz, np. jako tekst czytany, gdy przekroczy jakiś dziesiątek bitów na sekundę, już go blokuje.<br />Astronomia, jedna z pierwszych uprawianych przez człowieka dyscyplin, do dziś nie dała rozwiązania “problemu wielu ciał” (mas grawitujących, które wzajem na siebie wpływają). A przecież jest ktoś, kto problem ten potrafi rozwiązać. Natura czyni to “bez matematyki”, samym działaniem owych ciał. Zachodzi pytanie, czy nie dałoby się zaatakować “informacyjnego kryzysu” w podobny sposób? Ależ to niemożliwe — słyszę. To postulat bezsensowny. Matematyzacja wszystkich nauk potęguje się, a nie maleje. Bez matematyki nie możemy nic.<br />Zgoda — ale ustalmy pierwej, o jaką “matematykę” idzie. Czy o tę, wyrażającą się formalnym językiem równań i nierówności, pisanych na papierze bądź utrwalanych w elementach dwójkowych wielkich maszyn elektronowych, czy też o taką, którą bez jakiegokolwiek formalizmu realizuje zapłodnione jajo? Jeśli jesteśmy skazani na pierwszą, grozi nam kryzys informacyjny. Jeśli jednak uruchomimy — dla naszych celów — drugą, sprawa może przybrać odmienny obrót.<br />Rozwój płodowy jest “symfonią chemiczną”, rozpoczynającą się w chwili, gdy jądro plemnika zespoli się z jądrem jaja. Wyobraźmy sobie, że udało się nam prześledzić ten rozwój, od zapłodnienia aż do powstania dojrzałego organizmu, na poziomie molekularnym i że chcemy go teraz przedstawić formalnym językiem chemii, takim samym, jakiego używamy przy przedstawianiu reakcji prostych, w rodzaju 2H+O = H2O. Jakby wyglądała taka “partytura embriogenezy”? Najpierw musielibyśmy obok siebie wypisać wzory wszystkich związków, stających na “starcie”. Potem zaczęłoby się wypisywanie odpowiednich przekształceń. Ponieważ organizm dojrzały zawiera na molekularnym poziomie około 1025 bitów informacji, wypadłoby napisać ilość formuł rzędu kwadrylionów. Dla wypisania tych reakcji nie starczyłoby powierzchni wszystkich oceanów i lądów razem wziętych. Zadanie jest zupełnie beznadziejne.<br />Mniejsza w tej chwili o to, jak z podobnymi problemami upora się embriologia chemiczna. Sądzę, że język biochemii będzie musiał ulec bardzo radykalnej przebudowie. Może powstanie jakiś formalizm fizyko–chemiczno–matematyczny. Ale to nie nasza rzecz. Przecież, jeśli komuś byłby “potrzebny” pewien żywy organizm, wcale nie trzeba owej pisaniny. Wystarczy wziąć plemnik i zapłodnić nim jajo, które po pewnym czasie “samo” przekształci się w “poszukiwane rozwiązanie”.<br />Warto się zastanowić, czy nie będziemy mogli zrobić czegoś analogicznego w dziedzinie informacji naukowej? Podjąć “hodowlę informacji”, krzyżować je z sobą, uruchomić ich “wzrost” taki, abyśmy w końcu otrzymali, jako “dojrzały organizm” —teorię naukową?<br />Jako model dla naszych prób proponujemy więc nie mózg ludzki, lecz inny twór ewolucji: plazmę rozrodczą. Ilość informacji przypadająca na jednostkę pojemności mózgu jest niezrównanie mniejsza od jej ilości zawartej w tej samej objętości plemnika. (Mówię o plemniku, a nie o jaju, ponieważ jego “gęstość” informacyjna jest większa). Oczywiście, potrzebny nam jest nie taki plemnik i nie takie prawa rozwoju genotypów, jakie stworzyła ewolucja. Jest to tylko punkt startu, a zarazem jedyny system materialny, na jakim możemy się oprzeć.<br />Informacje winny powstawać z informacji, jak organizmy — z organizmów. Winny się wzajemnie zapładniać, krzyżować, podlegać “mutacjom”, tj. zmianom niewielkim, jak również — nie znanym już genetyce — radykalnym przebudowom. Może będzie się to działo w jakich zbiornikach, gdzie reagować będą z sobą “informacjonośne molekuły”, w których określone wiadomości są tak zakodowane, jak cechy organizmu — w plazmie chromosomów? Może będzie to osobliwe “fermentowanie zaczynu informacyjnego”?<br />Ale entuzjazm nasz jest przedwczesny — wybiegliśmy zbyt daleko naprzód. Skoro mamy się uczyć u ewolucji, winniśmy zbadać, w jaki sposób gromadzi ona informację.<br />Informacja ta musi być, z jednej strony, stabilizowana, a z drugiej, plastyczna. Dla stabilizacji, tj. dla optymalnego przekazu informacyjnego, niezbędne są takie warunki, jak nieobecność zakłóceń w nadajniku, niski poziom szumu w kanale, trwałość znaków (sygnałów), łączenie informacji w jednolite, spójne człony oraz jej nadwyżka (nadmiarowość). Łączenie ułatwia wykrycie błędów i zmniejsza ich niszczące przekaz informacyjny wpływy, i temu samemu służy nadmiar informacji. Genotyp posługuje się tymi metodami tak samo, jak inżynier łączności. Podobnie też zachowuje się informacja przekazywana tekstem drukowanym czy pisanym. Winna być czytelna (nieobecność zakłóceń), nie ulegać zniszczeniu (gdy np. blaknie informacja drukarska), poszczególne litery łączone są w bloki (słowa), a te w jednostki nadrzędne (zdania). Informacja pisma jest też nadmiarowa, co poznajemy po tym, że tekst częściowo uszkodzony można odczytać.<br />Organizm realizuje ochronę informacji przed zakłóceniami podczas przechowania dobrą izolacją komórek rozrodczych, przekaz ich—precyzyjną mechaniką podziałów chromosomowych itp. Jest ona, dalej, blokowana w genach, a te w jednostkach nadrzędnych — chromosomach (“zdaniach tekstu dziedziczności”). Nareszcie, każdy genotyp zawiera informację nadmiarową, co poznajemy po tym, że uszkodzenie jaja pozwala na wykształcenie nie uszkodzonego organizmu — oczywiście do pewnej granicy. W trakcie rozwoju informacja genotypowa przekształca się w fenotypową. Fenotypem zwiemy ten kształt ostateczny ustroju (tj. cechy morfologiczne na równi z fizjologicznymi, więc i funkcjami), który powstaje jako wypadkowa działania czynników dziedzicznych — genotypowych — oraz wpływów środowiska zewnętrznego.<br />Na modelu poglądowym genotyp to jakby pusty i skurczony balonik gumowy. Jeśli włożymy go do graniastego naczynia, balonik, którego “genotypową tendencją” było stać się kulą, przystosuje swój kształt do kształtów naczynia. Istotną bowiem cechą rozwoju organicznego jest jego plastyczność, wynikająca z działania “buforów regulacyjnych”, które są jak gdyby “wstawką amortyzującą” pomiędzy instrukcjami genotypowymi a wymaganiami środowiska. Potocznie mówimy, że organizm może żyć nawet w niezbyt sprzyjających warunkach, tj. takich, które wykraczają poza przeciętną programowania genotypowego. Roślina nizinna może rozwinąć się i w górach, lecz kształtem upodobni się do roślin górskich, czyli fenotyp jej się zmieni, ale genotyp nie, bo, przeniesione na równiny, ziarna jej wydadzą na powrót rośliny pierwotnego kształtu.<br />Jak odbywa się ewolucyjne krążenie informacji?<br />Zachodzi ono kołowo; ów system składa się z dwu kanałów. Źródłem informacji nadawanej w pierwszym kanale są organizmy dojrzałe’, podczas aktów rozrodu. Ale ponieważ nie wszystkie mogą się rozmnażać jednakowo, lecz głównie te, które są uprzywilejowane najlepszym przystosowaniem, cechy ich przystosowania, także i fenotypowe, biorą udział w “wyborze nadajników”. Dlatego za źródło tej informacji uważamy ostatecznie nie same organizmy rozmnażające się, lecz całą ich biogeocenozę, czyli biotop, to jest organizmy te wraz z ich środowiskiem (i innymi żyjącymi tam organizmami, bo i do ich obecności muszą się nasze organizmy przystosować). Ostatecznie informacja biegnie zatem od biogeocenozy, poprzez rozwój płodowy, do następnego pokolenia organizmów dojrzałych. To jest kanał embriogenetyczny przekazujący informację genotypową. Drugim kanałem, zwrotnym, płynie informacja od organizmów dojrzałych do biogeocenozy, ale już fenotypowa, ponieważ przekazana jest “na poziomie” całych osobników, a nie “na poziomie” komórek rozrodczych. Informacja fenotypowa jest to po prostu całokształt życiowej działalności organizmów (to, czym się żywią, jak się żywią, jak się przystosowują do biogeocenozy, jak ją zmieniają swym istnieniem, jak zachodzi dobór naturalny itd.)*.<br />A zatem w pierwszym kanale biegnie informacja zakodowana w chromosomach, na poziomie molekularnym, a kanałem zwrotnym biegnie informacja makroskopowa, fenotypowa, przejawiająca się w adaptacji, walce o byt i doborze płciowym. Fenotyp (organizm dojrzały) zawiera zawsze więcej infromacji od genotypu, ponieważ wpływy środowiska są informacją zewnątrzpochodną. Skoro krążenie informacji nie odbywa się na jednym poziomie, musi ona ulegać gdzieś takiej transformacji, żeby jeden jej “kod” był “tłumaczony” na drugi. Zachodzi to w procesie embriogenezy; ona jest właśnie “tłumaczem” z języka molekularnego na język organizmu. Tak mikroinformacja przechodzi w makroinformację.<br />W powyższym obiegu nie zachodzą żadne zmiany genotypowe, nie ma więc i ewolucji. Ewolucja powstaje dzięki spontanicznie zachodzącym “lapsusom” przekazu genotypowego.. Geny mutują bezkierunkowo, ślepo i losowo. Dopiero selekcja środowiska wybiera, tj. utrwala w następujących pokoleniach te, które zwiększają adaptację do środowiska, czyli szansę przetrwania. Antyentropijne, tj. kumulujące wzrost ładu działanie selekcji można imitować w maszynie cyfrowej. W braku takiej maszyny zabawimy się w “grę ewolucyjną”.<br />Gromadę dzieci dzielimy na grupy jednakowo liczne. Pierwsza grupa będzie pierwszym pokoleniem organizmów. “Ewolucja” rozpoczyna się w chwili, gdy każdemu dziecku pierwszej grupy wręczamy jego “genotyp”. Jest to paczka, w której znajduje się peleryna z folii oraz instrukcja. Jeśli się chce być bardzo dokładnym, można powiedzieć, że peleryna odpowiada materiałowi jaja (plazma), a instrukcja — chromosomom jądra. Z instrukcji “organizm” dowiaduje się, “jak się ma rozwinąć”. Polega to na tym, że wkłada pelerynę i ma przebiec przez korytarz, z bocznym, otwartym oknem. Za oknem stoi strzelec z pukawką, naładowaną grochem. Osobnik trafiony “ginie w walce o byt”, a więc nie może “się rozmnożyć”. Taki, który przebiegnie cało, wkłada pelerynę i instrukcję na powrót do paczki i tę “instrukcję genotypową” wręcza osobnikowi “następnego pokolenia”. Peleryny są różnego odcienia szarości, od bardzo jasnych do niemal czarnych, a ściany korytarza są ciemnoszare. Strzelec trafi biegnącego tym łatwiej, im bardziej sylwetka odcina się od tła. Największą szansę ,,przeżycia w walce o byt” mają ci, których peleryna ma odcień podobny do ściany korytarza. W ten sposób środowisko działa jak filtr, odsiewając najgorzej doń przystosowanych. Wykształca się “mimikra”, tj. upodobnianie do barwy otoczenia. Zarazem zmniejsza się pierwotny, szeroki rozrzut barw osobniczych.<br />Nie wszystkie jednak szansę przeżycia zawdzięcza osobnik “genotypowi”, tj. barwie peleryny. Obserwując bowiem losy poprzedników albo po prostu orientując się w sytuacji, pojmuje, że pewne sposoby zachowania (bieg szybki, bieg w postaci skulonej itp.) też utrudniają strzelcowi trafienie, a tym samym zwiększają szansę “przeżycia”. W ten sposób osobnik zyskuje, dzięki środowisku, informację niegenotypową, której w instrukcji nie było. Jest to informacja fenotypowa. Stanowi ona jego osobisty nabytek. Ale informacji fenotypowej się nie dziedziczy, bo przekazuje się “następnemu pokoleniu” tylko “komórkę rozrodczą”, tj. paczkę z peleryną i instrukcją. Jak z tego widzimy, cechy nabyte w rozwoju osobniczym nie są dziedziczone. Po pewnej liczbie “pasaży” przez środowisko “przeżywają” tylko ci, których genotyp i fenotyp (barwa peleryny i sposób zachowania się) rokują największe szansę ocalenia. Grupa, zrazu różnorodna, ujednolica się. Przeżywają tylko najszybsi, najzręczniejsi i odziani w peleryny ochronnego koloru. Jednakże każde następne “pokolenie” otrzymuje tylko informację genotypową; fenotypowa musi sobie stworzyć samo.<br />Niech teraz, wskutek fabrycznego błędu produkcji, pojawią się wśród peleryn plamiste. Ten wpływ “szumu” oznacza mutację genotypową. Plamiste peleryny odcinają się wyraźnie od tła, dlatego “mutanty” mają bardzo małą szansę “przeżycia”. Zostają więc rychło “zgładzone” przez strzelca z pukawką, którego można sobie interpretować jako drapieżcę. Ale jeśli ściany korytarza okleimy plamistą tapetą (zmiana środowiska), sytuacja raptowanie się zmieni: teraz tylko mutanty będą przeżywać, i ta nowa informacja “dziedziczna” wnet wyprze dawniejszą z całej populacji.<br />Akt wdziania peleryny i czytania instrukcji jest, jakeśmy rzekli, odpowiednikiem embriogenezy, w której rozwijają się funkcje wraz z kształtem organizmu. Cała ta czynność oznacza przesył informacji genotypowej embriogenetyczny pierwszym kanałem informacyjnym (od biogeocenozy do osobników dojrzałych). Uczenie się najlepszego sposobu przebiegnięcia przez środowisko, to zdobywanie informacji fenotypowej. Każdy osobnik, który przebył szczęśliwie krytyczne miejsce, niesie już dwa rodzaje informacji: dziedziczną, genotypową, i nie dziedziczącą się, fenotypowa. Ta ostatnia znika na zawsze ze sceny ewolucyjnej razem z nim. Informacja genotypowa, która przeszła przez “filtr”, zostaje przekazana z rąk do rąk i to jest jej przesył zwrotny (drugim kanałem).<br />Informacja więc i w naszym modelu biegnie od biogeocenozy do organizmów na poziomie “mikroskopowym” (otwarcie wręczonej paczki, zapoznanie się z instrukcją itd.), natomiast od organizmów z powrotem do biogeocenozy — na poziomie makroskopowym (ponieważ sama paczka, tj. genotyp, nie przejdzie przez środowisko: musi przejść cały osobnik, będący jej “nosicielem”).<br />Biogeocenoza w tej zabawie — to cały korytarz wraz z biegnącymi (środowisko, w którym żyje populacja).<br />Niektórzy biologowie, jak Szmalhauzen, uważają, że wprawdzie krążenie informacji zachodzi w przedstawiony sposób, ale że organizm dojrzały nie zawiera jej więcej, niż zawierał genotyp, czyli że wzrost informacji, spowodowany grą sprzężeń między osobnikiem a środowiskiem w jego życiu jest tylko pozorny i wynika z działalności regulacyjnych mechanizmów, które organizm wytworzył dzięki informacji genotypowej. Plastyczność tych reakcji stwarza złudzenie, jakoby doszło do realnego wzrostu informacji zawartej w organizmie.<br />Otóż jeśli chodzi o informację genotypową, to ta zasadniczo pozostaje niezmieniona, dopóki nie ma mutacji. Natomiast informacja fenotypowa jest większa od genotypowej; odmienny punkt widzenia sprzeczny jest z teorią informacji, a nie z teoriami biologicznymi. Te sprawy trzeba rozróżniać. Jeśli się ustali zbiór odniesienia, to ilość informacji będzie dana przebiegiem zjawiska, i nie można odejmować stamtąd pewnej jej ilości jako “informacji pozornej”. To, czy ona powstaje dzięki działaniu regulatorów, czy w inny sposób, nie ma żadnego znaczenia dopóty, dopóki pytamy o Jej ilość w pewnym przedmiocie materialnym, jakim jest organizm, ze względu na zbiór odniesienia.<br />Nie chodzi o spór akademicki: jest to sprawa najpierwszej dla nas wagi. Pogląd zacytowany sugeruje, jakoby “szum” środowiskowy mógł jedynie zubożyć informację fenotypowa (i tak właśnie twierdzi Szmalhauzen). Tymczasem szum może być źródłem informacji. Przecież i mutacje są takim “szumem”. Jak wiadomo,—ilość informacji zależy od stopnia jej prawdopodobieństwa. Zdanie “bór jest pierwiastkiem” zawiera jej określoną ilość. Otóż jeśli mucha przypadkowo pozostawi po sobie czarną kropkę nad literą “o” w słowie “bór” i zdanie będzie brzmiało “bór jest pierwiastkiem”, to z jednej strony mamy zakłócenie przekazu informacyjnego szumem, a więc spadek informacji, ale z drugiej mamy równocześnie wzrost informacji, ponieważ to drugie zdanie jest o wiele mniej prawdopodobne od pierwotnego!<br />Zachodzi tu bowiem równoczesny wzrost informacji selektywnej i spadek informacji strukturalnej. Pierwsza odnosi się do zbioru zdań możliwych (typu “x jest pierwiastkiem”), a druga do zbioru sytuacji realnych, których zdania są tylko odwzorowaniem. Zbiór zdań odwzorowujących sytuacje realne w tym wypadku składa się ze zdań takich, jak “azot jest pierwiastkiem… tlen jest pierwiastkiem…” itd. Zbiór ten liczy tyle zdań, ile naprawdę jest pierwiastków, więc około stu. Dlatego, gdy nic nie wiemy poza tym, z jakiego zbioru wybrane zostanie to zdanie, które otrzymamy, prawdopodobieństwo nadejścia określonego zdania wynosi 1/100.<br />Drugi zbiór zawiera wszystkie wyrazy danego języka, podstawiane do zdania “x jest pierwiastkiem” (“parasol jest pierwiastkiem… noga jest pierwiastkiem” itp.). Liczy więc tyle zdań, ile jest słów w języku, a zatem kilkadziesiąt tysięcy. Informacja jest odwrotnością prawdopodobieństwa, a zatem każde z takich zdań jest tysiące razy bardziej nieprawdopodobne, czyli zawiera odpowiednio więcej informacji. (Nie tysiące, ponieważ informacja jest logarytmem, ale to nie ma tutaj zasadniczego znaczenia).<br />Jak z tego widzimy, pojęciem informacji trzeba się posługiwać ostrożnie. Analogicznie bowiem i mutację można rozpatrywać jako spadek informacji (strukturalnej) i jako wzrost informacji (selektywnej). O tym, jak będzie “rozpatrywana”, decyduje środowisko biogeocenotyczne. W normalnych warunkach będzie ona zmniejszeniem informacji strukturalnej odnoszącej się do realnego świata i tym samym, mimo że informacja selektywna wzrosła, organizm ulegnie zagładzie, jako gorzej przystosowany. Jeśli warunki się zmienią, ta sama informacja mutacji spowoduje wzrost zarówno ilości informacji strukturalnej, jak i selektywnej.<br />Należy dodać, że szum może być źródłem informacji tylko w bardzo specyficznych warunkach: kiedy ta informacja jest elementem zbioru, którego wszystkie elementy odznaczają się znaczną organizacją (złożonością). Zmiana wskutek działania szumu słowa “bór” na “bór” jest przejściem od jednej organizacji do innej, natomiast zmiana słowa “bór” na plamę atramentową jest unicestwieniem wszelkiej w ogóle organizacji. Mutacja jest też zmianą jednej organizacji na inną, chyba że chodzi o mutację genową letalną, która w trakcie rozwoju zabija cały organizm.<br />Zdanie może być prawdziwe lub fałszywe, natomiast informacja genotypowa jest przystosowawcza lub nieprzystosowawcza. To jest miara w obu wypadkach strukturalna.’ Natomiast jako informacja selektywna, zdanie może być tylko mniej lub bardziej prawdopodobne, ze względu na zbiór, z którego je wybieramy. Podobnie, jako informacja selektywna, mutacja może być mniej lub bardziej prawdopodobna (jest tej informacji zatem mniej lub więcej).<br />Informacja fenotypowa jest z reguły strukturalna, ponieważ powstaje pod wpływem działania środowiska, organizm zaś odpowiada na te wpływy reakcjami adaptacyjnymi. Więc można dodać informację strukturalną fenotypowa, zewnątrzpochodną, do strukturalnej informacji genotypowej, i w ten sposób uzyskamy pełną sumę informacji strukturalnej, jaką zawiera dojrzały osobnik. Oczywiście, to nie ma nie wspólnego ze sprawą dziedziczenia: dziedziczy się wyłącznie informacja genotypowa.<br />Ustalenie bilansu informacyjnego jest w praktyce biologa bardzo trudne, ponieważ tylko teoretycznie da się przeprowadzić ostrą granicę między tym, co genotypowe, a tym, co fenotypowe, właśnie ze względu na obecność mechanizmów regulacyjnych. Gdyby na dzielące się jajo w ogóle nie działały<br />żadne wpływy zewnętrzne, można by jego rozwój nazwać “dedukcyjnym”, w tym sensie, że informacja genotypowa ulega przekształceniom, w których nie zachodzi żaden zysk informacyjny. Podobnie “rozwija się” system matematyczny, zrazu przedstawiony przez założenia wstępne (“jądro aksjomatów”) oraz reguły przekształceń. Jedno i drugie razem można by nazwać “genotypem systemu matematycznego”. Jednakże rozwój płodowy w tej pomyślanej izolacji nie jest możliwy, bo na jajo zawsze jakieś wpływy działają, chociażby siła ciążenia. Wiadomo, jaki ona ma kształtujący wpływ np. przy rozwoju roślin.<br />W zakończeniu dodajmy, zanim przystąpimy wreszcie do właściwego projektowania maszyny “autognostycznej”, czy też “cybergnostycznej”, że istnieją rozmaite typy regulacji. Jest regulacja ciągła, która baczy stale na wartości kontrolowanych parametrów, i regulacja nieciągła (regulacja uchybami), która działa dopiero po przekroczeniu przez parametry kontrolowane pewnych wartości krytycznych. Organizm stosuje oba typy regulacji. Temperatura np. jest regulowana raczej w sposób ciągły, a poziom cukru we krwi — w sposób nieciągły. Mózg można też uważać za regulator, posługujący się obiema metodami. Ale te sprawy przedstawił Ross Ashby w swojej Konstrukcji mózgu (Design for a brain) tak doskonale, że nie ma potrzeby ich powtarzania.<br />Rozwój osobniczy, to konfrontacja dwu rodzajów informacji, zewnętrznej i wewnętrznej. Tak powstaje fenotyp organizmu. Organizm służy jednak sobie i ewolucji, tj. ma istnieć oraz utrzymywać gatunek. Informacyjne “ustroje” hodowli winny służyć nam. Tak więc, prawo bioewolucji, które powiada, że przeżywa najlepiej przystosowany do środowiska, winniśmy w naszej hodowli zastąpić prawem “przeżywa to, co najściślej wyraża środowisko”.<br />Wiemy już, co oznacza “wyrażanie środowiska”. Jest to zbieranie informacji strukturalnej, a nie selektywnej. Być może, powtórzenia są już zarówno zbędne, jak i nużące, ale powiedzmy to raz jeszcze. Inżynier łączności bada prawdopodobieństwo nadejścia informacji w taki sposób, że zdanie stuliterowe zawiera dlań jednakową jej ilość bez względu na to, czy wzięto je z gazety, czy z teorii Einsteina. Ten aspekt jest najważniejszy przy przesyle informacji. Natomiast o ilości informacji można też mówić w takim sensie, że zdanie opisuje (odwzorowuje) pewną sytuację mniej lub bardziej prawdopodobną. Wtedy informacyjna zawartość zdania zależy nie od prawdopodobieństwa pojawiania się liter w danym języku ani ich ilości ogólnej, lecz tylko od stopnia prawdopodobieństwa samej sytuacji.<br />Stosunek zdania do świata realnego nie ma znaczenia dla jego przekazu kanałem łączności, lecz staje się decydujący przy pomiarze informacji, zawartej np. w prawie naukowym. Zajmiemy się “hodowlą” tylko tego drugiego rodzaju informacji, zwanej strukturalną.<br />“Zwykłe” molekuły chemiczne niczego nie wyrażają albo “wyrażają tylko siebie”, co na jedno wychodzi. Potrzebne są nam takie, które byłyby i sobą, i zarazem odwzorowaniem czegoś poza nimi (modelem). To jest możliwe, bo określone miejsce chromosomu poza tym, że jest “sobą”, tj. cząsteczką kwasu dezoksyrybonukleinowego, “wyraża” też fakt, że powstały z niego organizm będzie miał np. niebieskie oczy. Co prawda “wyraża” to tylko jako element całościowej organizacji genotypu.<br />Jak teraz należy rozumieć “wyrażanie środowiska” przez hipotetyczne “organizmy–teorie”? Środowiskiem, badanym przez naukę, jest wszystko, co istnieje, tj. cały świat — ale nie wszystko naraz. Zbieranie informacji polega na wyborze, w tym świecie, układów i badaniu ich zachowania się. Pewne zjawiska, jak gwiazdy, rośliny, ludzie, mają takie cechy, że “narzucają się” jako układy; inne (chmura, błyskawica) pozornie tylko są obdarzone taką autonomią, taką względną izolacją od otoczenia. Zdradzimy teraz, że naszej “ewolucji informacyjnej” nie zaczniemy bynajmniej od zera, to jest, że nie jest naszym zamiarem stworzyć coś takiego, co najpierw będzie musiało osiągnąć poziom wiedzy ludzkiej “samo”, a dopiero potem pójść dalej. Nie wiem, czy to byłoby niemożliwe; zapewne nie; w każdym razie taka ewolucja “od zera” wymagałaby olbrzymiego czasu (może nawet takiego, jak ewolucja biologiczna). To zresztą wcale nie jest potrzebne. Posłużymy się od razu naszymi wiadomościami, także w zakresie klasyfikacyjnym (na temat tego, co jest układem godnym badania, a co nim nie jest). Będziemy liczyli na to, że przez jakiś czas może i nie uzyskamy fenomenalnych odkryć, że nastąpią dopiero, gdy nasza “hodowla” okrzepnie. Do rozwiązania będziemy dochodzili metodą kolejnych przybliżeń. Hodowlę można projektować rozmaicie. Wstępnym niejako modelem jej jest rzeczne żwirowisko jako “generator różnorodności” oraz “selektor” jako urządzenie wybiórcze, wyczulone na “regularność”. Jeżeli selektor jest szeregiem przegród z okrągłymi otworami, to u końca otrzymamy tylko otoczaki okrągłe, bo inne przez “filtr” nie przejdą. Uzyskaliśmy pewien ład z nieładu (z “szumu” żwirowiska), ale kuliste głazy niczego poza sobą nie reprezentują. Informacja natomiast jest reprezentacją. A zatem selektor nie może działać ze względu na “cechę w sobie”, ale na coś poza nim. Musi on być więc podłączony, z jednej strony, jako filtr do generatora “szumów”, a z drugie j do pewne j części świata zewnętrznego.<br />Na koncepcji “generatora różnorodności” opiera się pomysł R. Ashby’ego zbudowania “wzmacniacza inteligencji”. Ashby powiada, że dowolne prawa naukowe, formuły matematyczne itp. mogą być generowane układem działającym zupełnie chaotycznie. Tak na przykład dwumian Newtona może zostać “nadany” alfabetem Morse’a przez motylka, trzepocącego skrzydełkami nad kwiatem, za sprawą czystego przypadku. Co więcej: na takie dziwne przypadki nie trzeba wcale czekać. Ponieważ każdą informację, więc, dajmy na to, dwumian Newtona, można przekazać dwójkowym kodem przy pomocy kilkunastu symboli, to w każdym centymetrze sześciennym powietrza jego cząsteczki, w trakcie swych chaotycznych ruchów, przekazują ową formułę kilkaset —tysięcy razy na sekundę. Istotnie tak jest; Ashby podaje odpowiednie obliczenie. Stąd już prosty wniosek, że w powietrzu mego pokoju, gdy to piszę, unoszą się konfiguracje molekuł wyrażające, w języku dwójkowego kodu, niezliczone ilości innych bezcennych formuł, a także sformułowania na poruszany przeze mnie temat, ale o wiele precyzyjniejsze i jaśniejsze od moich. Cóż dopiero mówić o atmosferze całej Ziemi! W niej powstają w ułamkach sekund i natychmiast się rozpadają genialne prawdy nauki pięciotysięcznego roku, wiersze, dramaty, pieśni Szekspirów, mających się dopiero urodzić, tajemnice innych systemów kosmicznych i Bóg raczy wiedzieć co jeszcze.<br />Co z tego wynika? Niestety nic, ponieważ te “cenne” rezultaty miliardowych zderzeń atomów wymieszane są z bilionami innych, całkiem bezsensownych. Ashby powiada, że nowe idee są niczym, skoro można je wytwarzać na pudy i na hektary procesami tak “szumowymi”, tak przypadkowymi, jak zderzenia atomów gazu, natomiast wszystkim jest odsiew, selekcja. Ashby zmierza w ten sposób do udowodnienia możliwości “wzmacniacza inteligencji” jako selektora pomysłów, których dostarcza byle proces szumowy. Nasze podejście jest odmienne; przytoczyłem Ashby’ego, aby ukazać, że można zmierzać do podobnego celu (chociaż nie tego samego — “wzmacniacz” jest czymś innym od “hodowli”) przeciwnymi drogami. Ashby uważa, że należy wychodzić od największej różnorodności i stopniowo ją “filtrować”. My natomiast pragniemy wyjść od różnorodności wielkiej, ale nie olbrzymiej, od takiej, jaką jest materialny proces samoorganizujący się (jak zapłodnione jajo), i doprowadzić do tego, aby ten proces “rozwinął się” nam w teorię naukową. Być może, jego złożoność wzrośnie wtedy, a może i zmaleje; nie jest to dla nas najważniejsze.<br />Zauważmy, że w pewnym sensie “generator różnorodności”, postulowany przez Ashby’ego, już istnieje.<br />Można powiedzieć, że matematyka wytwarza bezustannie niezliczone struktury “puste”, a świat, a fizycy i inni uczeni, przetrząsając bezustannie ów skład różnorodności (tj. różnych systemów formalnych), od czasu do czasu znajdują tam coś przydatnego dla praktyki, co “pasuje” na określone zjawiska materialne. Algebra Boole’a powstała wcześniej, nim wiedziano cokół— . wiek o cybernetyce; okazało się, że mózg też posługuje się elementami owej algebry, i na jej zasadach oparte są teraz działania maszyn liczbowych. Cayley wynalazł rachunek matrycowy na kilkadziesiąt lat przed tym, zanim Heisenberg zauważył, że można go zastosować do mechaniki kwantowej. Hadamard opowiada, jak pewien system formalny, “pusty”, którym się zajmował jako matematyk i o którym ani sądził, że może mieć cokolwiek wspólnego z rzeczywistością, przydał się potem w badaniach empirycznych. Tak więc matematycy to generator różnorodności, a empirycy—postulowany przez Ashby’ego selektor.<br />Otóż, naturalnie, matematyka nie jest naprawdę generatorem szumów. Jest ona generatorem ładów. Rozmaitych “porządków w sobie”. Ona stwarza porządki, a niektóre z nich przystają mniej lub bardziej fragmentarycznie do rzeczywistego świata. Ta fragmentaryczna przystawalność umożliwia rozwój nauki i technologii, a więc cywilizacji.<br />Powiada się czasem, że matematyka jest ładem “nadmiernym” w stosunku do rzeczywistości, mniej od niej uporządkowanej. Ale nie całkiem tak jest. Matematyka, przy całej swojej wielkości, niezmienności, konieczności, jednoznaczności, w naszym wieku pierwszy raz zadrżała, bo na jej fundamentach pojawiły się pęknięcia, od lat trzydziestych, kiedy to Kurt Gödel udowodnił, że jej postulat podstawowy — niesprzeczności a zarazem zupełności wewnątrzsystemowej — nie daje się spełnić. Jeśli system jest niesprzeczny, to nie jest zupełny, a jeśli jest zupełny, przestaje być niesprzeczny. Wydaje się, że matematyka jest tak samo ułomna, jak każda ludzka działalność; w moim rozumieniu nie ma w tym nic złego, nic, co by ją umniejszało. Ale mniejsza o matematykę, ponieważ nie chcemy jej. Czy nie można uniknąć matematyzacji procesów poznania? Nie tej, która, obywając się bez wszelkich znaków i formalizmów, rządzi procesami chromosomów i gwiazd, ale tej, która posługuje się aparatem symbolicznym, regułami autonomicznych przekształceń i rozbudowuje swymi operacjami głębię logiczną, której nic w Naturze nie odpowiada. Czy jesteśmy skazani na te jej rusztowania? Powiedzmy sobie najpierw, ale niejako tylko dla rozgrzewki, że choć to najmniej obiecuje, najłatwiej jest uruchomić “hodowlę systemów matematycznych”. Rozumie się, na zasadzie “dedukcyjnego rozwoju” z “aksjomatycznego jądra”, w którego “genotypie” utrwalone są wszystkie reguły dozwolonych przekształceń. W ten sposób uzyskamy przeróżne “organizmy matematyczne”, jakie można sobie wyobrazić, pod postacią zawiłych struktur krystalicznych itp.; zrobiliśmy przy tym akurat na odwrót to, co dotąd robiła nauka. Ona bowiem pustkę systemów matematycznych wypełniała materialną treścią zjawisk, my natomiast nie tłumaczymy takich zjawisk na matematykę, lecz właśnie matematykę — na zjawiska materialne.<br />W ten sposób można by, rozumie się, dokonywać też rozmaitych obliczeń, a wreszcie projektować różne urządzenia, a to tak, że wprowadzamy , wstępne dane (na przykład parametry działania jakiejś maszyny do zbudowania) w “genotyp”, który, rozwijając się, da nam jako “organizm” —końcowe rozwiązanie zadania albo projekt maszyny. Oczywiście, skoro potrafimy dane wartości parametrów przekodować na język molekularny “genotypu”, to potem robimy to samo z “organizmem matematycznym” i ten jakiś kryształ, czy inną strukturę powstałą w trakcie “dedukcyjnego rozwinięcia”, tłumaczymy z powrotem na język liczb, rysunków projektowych itp. Za każdym razem rozwiązanie “samo wyrasta” w toku uruchomionych reakcji, a my wcale nie musimy się troszczyć o poszczególne etapy tego procesu. Ważny jest tylko rezultat końcowy. Przy tym rozwój winien zachodzić pod kontrolą wewnętrznych sprzężeń zwrotnych tak, ażeby w momencie, gdy określone parametry dojdą właściwych wartości, cała ta “embriogeneza” została wstrzymana.<br />Uruchomienie “hodowli informacji empirycznej” sprowadza się do “obrócenia do góry nogami” drzewa ewolucji biologicznej. Ewolucja wyszła z układu jednorodnego (prakomórki) i stworzyła milionowo rozdrzewiające się gałęzie typów, rodzin, gatunków. “Hodowla” wychodzi od konkretnych zjawisk, odwzorowanych w ich równoważnikach materialnych, i zmierza ku takiemu, .sprowadzeniu do wspólnego mianownika”, że na końcu otrzymamy jednolitą teorię, zakodowaną językiem molekularnym w trwałej strukturze pseudoorganizmu.<br />Ale może dosyć już metafor. Zaczynamy od modelowania poszczególnych zjawisk pewnej klasy. Informację wstępną zbieramy sami — w “klasyczny” sposób. Musimy teraz przenieść ją na substrat informacjonośny. Tego substratu winna dostarczyć chemia syntez.<br />Zadaniem naszym jest reprezentować tor układu (przebieg zjawiska) — torem dynamicznym innego układu. Procesy musimy przedstawić procesami, a nie znakami formalnymi. Zapłodnione jajo jest izomorficzne ze swym “rysopisem atomowym”, narysowanym na papierze, albo z modelem przestrzennym z kulek, imitujących atomy. Nie jest to jednak model izodynamiczny, ponieważ model zbudowany z kulek nie będzie się, rzecz jasna, rozwijał. Model zawiera tę samą informację, co jajo. Inny jest wszakże w obu wypadkach nośnik informacji. Dlatego jajo może się rozwijać, a papierowy nośnik — nie. Potrzebne są nam modele, zdolne do rozwoju. Zapewne, gdyby znaki wypisywanych na papierze równań zechciały z sobą reagować, niepotrzebna byłaby cała “hodowla informacji”. Ale to jest oczywiście niemożliwe. Natomiast stworzenie hodowli jest wprawdzie niesłychanie trudne i bardzo znacznie oddalone od nas w czasie, ale nie jest — jak można mieć nadzieję — absurdem.<br />Budulcem dla “nośników informacji” będą np. wielkie molekuły syntetycznych polimerów. Rozwijają się one, powiększają, komplikują swą strukturę, przyłączając do siebie cząstki “pożywienia”, zawieszone w ośrodku, w którym przebywają “nośniki”. Nośniki dobierają się tak, że ich rozwój, ich następujące po sobie przemiany, odpowiadają izodynamicznie przemianom określonego układu (zjawiska) w świecie zewnętrznym. Każda taka molekuła to “genotyp”, który rozwija się zgodnie z reprezentowaną przez się sytuacją. Na początku wprowadzamy do zbiornika znaczną ilość (kilka bilionów) molekuł, o których już wiemy, że pierwsze fazy ich przemian zmierzają w pożądanym kierunku. Rozpoczyna się “embriogeneza”, oznaczająca zgodność między torem rozwojowym nośnika a torem dynamicznym zjawiska realnego. Rozwój jest kontrolowany, jako sprzężony z sytuacją. Sprzężenie jest selektywne (czyli zachodzi odsiew “rozwijających się nieprawidłowo”). Wszystkie molekuły razem stanowią “populację informacyjną”. Populacja przechodzi kolejno z jednego zbiornika do drugiego. Każdy zbiornik jest stacją selekcyjną. Nazwiemy ją w skrócie “sitem”.<br />“Sito” jest aparaturą, połączoną odpowiednio (np. automatycznymi manipulatorami, perceptronami itp.) ze zjawiskiem realnym. Informacje strukturalne o stanie zjawiska “sito” przekodowuje na język molekularny i wytwarza rodzaj mikroskopijnych drobin, z których każda stanowi “zapis stanu zjawiska”, czyli aktualny przekrój jego toru dynamicznego. Tak więc zderzają się dwie fale drobin. Pierwsze, w toku rozwoju, jako samoorganizujące się nośniki informacyjne, stanem, jaki właśnie osiągnęły, “przepowiadają” stan, w jakim się znajduje realne zjawisko. Druga fala, to drobiny wytworzone w “sicie”, niosące informację o tym, jaki jest rzeczywisty stan zjawiska.<br />Zachodzi reakcja podobna do strącania antygenów przez antyciała w serologii. Ale zasadą strącania jest różnica między “prawdą” i “fałszem”. Strącone zostają wszystkie drobiny, które przepowiedziały zjawisko trafnie, ponieważ ich molekularna struktura “pasuje” do chwytnej struktury molekularnej drobin wysłanych przez “sito”. Strącone nośniki, jako te, które “przepowiedziały prawdziwie” stan zjawiska, przechodzą do następnej selekcji, gdzie proces się powtarza (znów zderzają się z drobinami niosącymi wieść o dalszym stanie zjawiska, znów “antycypujące” prawdziwie ten stan zostają strącone itd.). Uzyskujemy w końcu pewną ilość drobin, które są izodynamicznym, wyselekcjonowanym modelem rozwojowym całego zjawiska. Znając ich skład chemiczny początkowy, wiemy już, jakie molekuły możemy uznać za dynamiczne modele rozwoju tego układu, który był badany.<br />Taki jest wstęp do ewolucji informacyjnej. Uzyskujemy pewną ilość dobrze przepowiadających rozwój zjawiska X informacyjnych “genotypów”. Zarazem prowadzi się analogiczną “hodowlę” drobin, modelujących zjawiska X, Y, Z, należące do całej badanej klasy. Powiedzmy, że wreszcie mamy nośniki dla wszystkich siedmiuset milionów elementarnych zjawisk owej klasy. Potrzebna jest teraz “teoria klasy”, polegająca na znalezieniu jej niezmienników, czyli parametrów wspólnych dla całej klasy. Należy zatem odsiać wszystkie parametry nieistotne.<br />Podejmujemy hodowlę “następnego pokolenia” nośników, które już nie modelują rozwoju oryginalnego zjawiska, lecz rozwój pierwszego pokolenia nośników. Ponieważ zjawisko ma nieskończoną ilość wykryć się dających zmiennych, został dokonany wstępnie wybór zmiennych istotnych. Było ich bardzo wiele, ale oczywiście nie mogły to być wszystkie zmienne. Wstępny wybór, jakeśmy wspominali, zachodzi metodą “klasyczną”, tj. dokonują go uczeni.<br />Obecnie następne pokolenie nośników tak samo nie modeluje wszystkich zmiennych rozwojowych pierwszego pokolenia, ale tym razem selekcja zmiennych istotnych następuje samoczynnie (metodami katalitycznego strącania). Różne egzemplarze nośników drugiego pokolenia pomijają w rozwoju różne .zmienne nośników pierwotnych. Niektóre pomijają zmienne istotne, przez co ich tory dynamiczne odchylają się od “prawdziwej przepowiedni”. Te są ciągle eliminowane w kolejnych “sitach”. Wreszcie wyselekcjonowane zostają te nośniki drugiego miotu, które mimo pominięcia pewnej ilości zmiennych “przepowiedziały” cały tor rozwojowy pierwotnych. Jeżeli budowa nośników, które dochodzą do “mety” w drugim rzucie, jest praktycznie tożsama, znaczy to, że uzyskaliśmy, tj. “skrystalizowaliśmy teorię badanej klasy”. Jeżeli wciąż jeszcze panuje (chemiczna, topologiczna) różnorodność wśród nośników, trzeba selekcję powtarzać, w celu dalszego eliminowania zmiennych nieistotnych.<br />“Skrystalizowane teorie” lub, jeśli kto woli, “organizmy teoretyczne drugiego rzutu z kolei zaczynają “rywalizację” o odwzorowanie z analogicznymi drobinami, które stanowią “teorię” innej klasy zjawisk. W ten sposób dążymy do uzyskania “teorii klasy klas”. Proces ten można dowolnie kontynuować celem uzyskania różnych stopni “teoretycznego uogólnienia”. Nieosiągalnym, lecz pomyśleć się dającym jest jakiś “brylant poznania”, jakiś “superorganizm teoretyczny” u samego szczytu tej piramidy ewolucyjnej, ku któremu dążymy: jest to “teoria wszystkiego, co istnieje”. Na pewno niemożliwa; mówimy o niej tylko, aby unaocznić lepiej analogię do “odwróconego drzewa ewolucyjnego”.<br />Koncepcja powyższa jest wprawdzie dosyć nużąca w wykładzie, a jednak bardzo prymitywna. Godzi się pomyśleć o jej usprawnieniach. Np. warto by zastosować w “hodowli” niejako “lamarckizm urzeczywistniony”. Wiadomo, że teoria Lamarcka o dziedziczeniu cech nabytych nie odpowiada prawdzie biologii. Metodę dziedziczenia “cech nabytych” można by zastosować w ewolucji informacyjnej celem przyspieszenia “uogólnień teoretycznych”. Mówiliśmy wprawdzie o “informacji skrystalizowanej”, ale równie dobrze jest możliwe, że drobiny “teorionośne” będą inną substancją (polimery). Może też się okazać, że ich podobieństwo do żywych organizmów pod niektórymi aspektami będzie znaczne. Być może, trzeba by zaczynać nie od drobin, ale względnie dużych konglomeratów albo nawet “pseudoorganizmów”, czyli “fenotypów”, stanowiących zapis informacyjny realnego zjawiska, i zmierzać do tego, ażeby, znów odwrotnie niż w rzeczywistości biologicznej, taki “fenotyp” wyprodukował swoje “uogólnienie”, swój “plan teoretyczny”, czyli “genotyp–teorię”.<br />Mniejsza jednak o takie pomysły, bo i tak żadnego zweryfikować nie można. Zauważmy tylko, że każda “drobina—teoria” jest źródłem informacji uogólnionej w prawo systemowe, którą można przekodować na język dla nas zrozumiały. Drobiny te są wolne od ograniczeń formalnych systemów matematycznych: zachowanie się trzech, pięciu czy sześciu grawitujących ciał mogą bowiem wymodelować, co jest matematycznie przedsięwzięciem nie—pokonalnym (przynajmniej w sposób ścisły). Uruchamiając rozwój nośników<br />“teorii pięciu ciał”, uzyskamy, dane o położeniu ciał realnych. W tym celu musimy “puścić je w obieg” w odpowiedniej aparaturze tak, aby ich tory rozwojowe zestroiły się z torami badanego systemu, dzięki sprzężeniom zwrotnym. Oczywiście zakłada to istnienie mechanizmów autoregulacyjnych i samoorganizujących w owych nośnikach. Tak więc można rzec, że jesteśmy jak Liao Si Ming, który nauczał walki ze smokami, a jedynym szkopułem był ten, że absolwent nauk nigdzie nie mógł znaleźć smoka. I my nie wiemy ani jak zbudować, ani gdzie szukać materiału dla “nośników informacyjnych”. W każdym razie przedstawiliśmy, jak sobie można wyobrazić przyszłość odległej “biotechnologii”. Jak widać, możliwości jej mogą być niemałe. Ośmieliwszy się tak powiedzianym, w zakończeniu przedstawimy jeszcze jeden wariant biotechnologiczny.<br />Osobną klasą dla siebie byłyby takie “plemniki informacjonośne”, których zadaniem byłoby nie badanie zjawisk lub urządzeń, lecz ich produkowanie. Z takich “plemników”, czy też “jaj”, powstawałyby wszelkie żądane obiekty (maszyny, organizmy itp.). Oczywiście, taki “plemnik roboczy” musiałby dysponować zarówno informacją zakodowaną, jak i urządzeniami wykonawczymi (jak plemnik biologiczny). Komórka rozrodcza zawiera informację, jaki jest cel ostateczny (organizm) i jaki tor do celu (embriogeneza), ale materiały do “budowania płodu” ma dane (w jaju). Do pomyślenia jest wszakże taki “roboczy plemnik”, który poza informacją, jaki ma sporządzić obiekt oraz w jaki sposób to uczynić, posiada dodatkową informację o tym, jak materiały otoczenia (na innej planecie np.) przerobić w potrzebny budulec. Taki “plemnik” zasadzony w piasku, jeśli posiada odpowiedni program, wyprodukuje wszystko, co można z krzemionki wytworzyć. Ewentualnie trzeba mu “podsypać” innych materiałów i, rozumie się, podłączyć mu źródło energii (np. atomowej). Ale na tym kulminacyjnym akordzie panbiotechnologicznym sprawę najwyższy czas zakończyć.</div><div><br /><br /><br />Inżynieria językowa<br /><br /><br />Ciała oddziaływają na siebie materialnie, energetycznie oraz informacyjnie. Rezultatem działania jest zmiana stanu. Jeżeli rzucę się na ziemię, ponieważ ktoś zawołał “padnij”, zmianę mego położenia wywołało przybycie informacji; jeśli upadnę, bo runęła na mnie encyklopedia, zmianę spowodowało działanie materialne. W pierwszym przypadku nie musiałem, w drugim natomiast — musiałem upaść. Działania materialno–energetyczne są zdeterminowane, informacyjne natomiast wywołują tylko zmiany pewnych rozkładów prawdopodobieństwa.<br />Tak to wygląda przynajmniej w wysoce nieścisłym uogólnieniu. Działania informacyjne zmieniają rozkłady prawdopodobieństwa w zakresie ustalonym przez warunki energetyczno–materialne. Jeśli ktoś zawoła do mnie “lataj!” nie uczynię tego, choćbym chciał. Informacja zostanie przekazana, lecz nie urzeczywistniona. Zmieni ona stan mego mózgu, ale nie stan mego ciała Będę rozumiał, co do mnie powiedziano, ale nie będę mógł powiedzianego wykonać. Tak więc, język posiada aspekt sprawczy oraz aspekt rozumiejący. Od tego ustalenia wystartujemy. Przez język będziemy rozumieli zbiór stanów, wyodrębniony ze zbioru “wszystkich możliwych stanów”, czyli tego ostatniego podzbiór, w którym zachodzi selekcja ze względu na “coś” (na pewne X). Dla danego języka X jest zmienną, przyjmującą rozmaite wartości w pewnym ich przedziale. O jakie “podzbiory stanów” chodzi? Zaoszczędzimy wiele słów, uciekając się do przykładu. Inny taki podzbiór, już nie językowy, zawiera wszechmożliwe tory ciał w systemie słonecznym. Łatwo zauważyć, że choć możliwych torów jest nieskończenie wiele, nie są one dowolne (np. nie są możliwe tory kwadratowe). Ciała zachowują się tak, jakby na ich ruchy nałożone były pewne restrykcje. Powiadamy, za Einsteinem, że restrykcje na owe ruchy ciał nakłada metryka przestrzeni, warunkowana rozkładem mas. Wszystkie możliwe tory ciał krążących, jak i tych, które mogą być kiedykolwiek w system wprowadzone, nie są tym samym, czym owa przestrzeń o własnościach ograniczających. Analogicznie rozróżnia się w lingwistyce pomiędzy wypowiedziami (“torami”) a językiem (jak gdyby “polem językowym”). Analogię można kontynuować. Jak pole grawitacyjne Ogranicza ciała w ich ruchach, tak “pole językowe” ogranicza “tory” wypowiedzi. Podobnie też, jak każdy kinematyczny tor wyznaczany jest z jednej strony przez metrykę pola, a z drugiej przez warunki brzeżne ciała (jego początkową szybkość, kierunek ruchu), tak w kształtowaniu wypowiedzi uczestniczą warunki “pola językowego”, jako reguły składniowo–semantyczne, oraz “lokalne warunki brzeżne”, dane przez diachronię i synchronię wypowiadającego się osobnika. Jak tory ciał nie są polem grawitacyjnym, tak wypowiedzi nie są językiem, chociaż jeśli z układu znikną wszystkie masy, znikną też restrykcje, nakładane przez ciążenie, a jeśli umrą wszyscy władający polskim, znikną odpowiednie reguły syntaktyczno–znaczeniowe, czyli “pole” naszego języka. Nasuwa się pytanie, w jaki właściwie sposób istnieją “pola” — językowe i grawitacyjne? Pytanie to kłopotliwe, dotyczące “statusu ontologicznego” badanych zjawisk. Ruchy ciał i artykulacje językowe istnieją na pewno — ale czy dokładnie w taki sam sposób, jak grawitacja i język? W obu wypadkach — odpowiemy — stosuje się określone formy opisu, które wyjaśniają stan rzeczy i zezwalają na predykcje (w wypadku języka probabilistyczne tylko, o co niniejsza teraz). Opisów tych nie jesteśmy wszakże zmuszeni uznać za ultymatywne, <b>bo nie wiemy, czy Eistein i lingwiści wypowiedzieli w tych kwestiach (ciążenia i języka) ostatnie, po wieczność już nienaruszalne słowo.</b> Lecz okoliczność ta nie przysparza kłopotów ani konstruktorowi rakiet planetarnych, ani maszyn rozmownych, jako problem ontologiczny przynajmniej, bo jest dla obu technicznym tylko. Przedstawimy teraz rozkład modelowy “wszechmożliwych” języków na skali dwubiegunowej. Jeden jej biegun nazwiemy “sprawczym”, drugi zaś — “rozumiejącym”. Na skali tej język naturalny zajmuje miejsce niedaleko bieguna “rozumiejącego”, język fizykalistyczny mieści się gdzieś pośrodku, a język dziedziczności tkwi na samym biegunie “sprawczym”.<br />Pomiędzy “sprawczością” informacyjną a materialną tylko taka jest różnica, że efekty sprawstwa czysto materialnego nie są do niczego odniesione, to znaczy, kiedy jakieś materialne zjawisko zachodzi, a można uznać, rola czynników “informacyjnych” jest w nim zupełnie nieistotna, niepodobna rozważać, czy to zjawisko jest “prawdziwe” lub “fałszywe”, czy ono jest “adekwatne” albo “nieadekwatne”, albowiem ono po prostu zachodzi, i kwita.<br />Każdą wypowiedź językową można uważać za pewien program sterowniczy, to jest za macierz przekształceń. Rezultat zrealizowanych przekształceń może albo być czysto informacyjny, albo — równocześnie — i materialny. Co się zaś sterowania tyczy, może ono zachodzić wewnątrzsystemowo, gdy jedna część układu (jądro jaja) zawiera program, a inne jego części są realizatorami zadanych przekształceń. Może też zachodzić sterowanie międzysystemowe — kiedy np, mową lub pismem porozumiewają się dwaj ludzie. Czasem tylko umownie da się ustalić, czy mamy przed sobą dwa systemy sprzężone, czy tylko jeden — rzecz skądinąd ważna, lecz nas teraz nie zajmująca. Określona wypowiedź, np. książka, steruje mózgowymi procesami czytelnika. Gdy jednak sterownicze programy języka dziedziczności są uszczegółowione dokładnie, wypowiedzi języka naturalnego stanowią programy pełne luk. Zapłodnione jajo nie uprawia — wobec sterującej jego przemianami grupy chromosomów — jakiejś obranej strategii (chociaż może uprawiać ją, jako całość, względem środowiska, przeciwstawiając się płynącym zeń zakłóceniom). —Wybierać strategie może odbiorca tylko wówczas, kiedy przybywający program nie ujednoznacznia narzucanego zachowania, kiedy np. jest ów program pełen luk. Wymaga wówczas uzupełniania, które określają zarówno rozmiary luk, jak i “potencja interpretacyjna” odbiorcy, dana jego strukturą układową oraz przedprogramowaniem. Nie będąc sterowanym deterministycznie, czytelnik powieści jest niejako zmuszany do podejmowania różnopoziomowych decyzji strategicznych (do czego odnieść poszczególne zdania, całe przekazywane sceny, układy ze scen zbudowane itp.). Strategia sprowadza się zwykle do informacyjnej maksymalizacji oraz organizującej optymalizacji (chcemy się dowiedzieć najwięcej i w sposób najbardziej spójny, całościowy). Odbiór tekstu jako programu wymagającego uzupełnień w paśmie dopuszczalnych oscylacji interpretacyjnych stanowi tylko jeden człon hierarchicznie złożonego postępowania, bo wszak nie po to czytamy, aby uprawiać strategię przyporządkowującą czy uładzającą, lecz po to, aby się czegoś dowiedzieć. Właściwym rezultatem odbioru, na którym nam zależy, jest przyrost informacji. Na ogół decyzje interpretacyjne wszystkie inne czynności sterownicze syntaktyczno–semantycznej natury uruchamia przekaz podprogowo, tj. “uzupełnianie w głowie fragmentarycznego programu” zachodzi w sposób introspekcji niedostępny. Świadomość otrzymuje same tylko wyniki końcowe procesów decyzyjnych, już jako informację, która tekst niesie rzekomo całkiem bezpośrednio. Dopiero gdy tekst jest trudny, czynności dotąd automatyzowane ulegają częściowo “wywindowaniu” w pole świadomości, która włącza się do akcji jako zwierzchnia instancja interpretująca. Zachodzi to zmiennie u różnych osobników, ponieważ “trudność” tekstu nie jest mierzalna na jednolitej skali dla wszystkich ludzi. Zresztą pełnego rozeznania w wieloczłonowej pracy mózgu nigdy się introspekcyjnie nie zdobywa i przedstawia owa niedostępność jedną ze zmór lingwistyki teoretycznej. Jeżeli wydajność przesyłu okazuje się niezła, tj. niezmienniki tekstu są przekazywane, chociaż tekst jako program “rekonstrukcji informacyjnej” zieje lukami, to dlatego, ponieważ mózgi nadawcy i odbiorcy stanowią układy homomorficzne o wysokim stopniu równoległości czynnościowej, zwłaszcza jeśli podlegały analogicznemu przedprogramowaniu w kręgu tej samej kultury.<br />Formalizacja wypowiedzi językowej zmierza do maksymalnego zaciśnięcia pasma dowolności interpretacyjnej. Język formalny nie dopuszcza alternatywnych wykładni — tak być przynajmniej powinno w idealnej granicy. W rzeczywistości okazuje się, że pasmo to nie jest zerowe, dlatego pewne wypowiedzi, dla matematyka jednoznaczne, nie okazują się takie dla maszyny cyfrowej. Język formalny realizuje — w sposób nierozumiejący (a przynajmniej “niekoniecznie rozumiejący”) — sprawstwo czysto informacyjne, stanowiąc program bez luk, gdyż wszystkie elementy oraz reguły ich przekształceń winny być zadane explicite— już startowo (brak miejsca dla “domyślności” odbiorczej ma uniemożliwić uprawianie rozmaitych strategii wykładniczych). Wypowiedzi formalne są rozbitym na elementarne kroki konstruowaniem struktur, posiadających relacje wewnętrzne oraz pozbawionych relacji zewnętrznych (odniesień do realnego świata). Nie podlegają też zewnętrznym testom sprawdzającym; prawdziwość w czystej matematyce to tyle, co możliwość (niesprzecznego) skonstruowania.<br />Sprawczym informacyjnie i materialnie zarazem jest język dziedziczności. Jest to język o tyle szczególny, że “wypowiedzi” w nim generowane ulegają po pewnym czasie “sprawdzeniu” ze względu na ich “adekwatność biologiczną”, w “naturalnych testach” sprawności ustrojów żywych, zachodzących w przyrodzonym ich środowisku ekologicznym. “Wypowiedzi” tego “języka” spełniać zatem winny kryteria “prawdy” w rozumieniu pragmatycznym: skuteczność “sprawstwa” weryfikuje się albo falsyfikuje w działaniu, przy czym “prawda” równa się przeżyciu, a “fałsz” zagładzie. Tym abstrakcyjnie logicznym skrajnościom odpowiada w istocie szerokie, ciągłe widmo rozkładów możliwych, ponieważ takie “zdania genowe”, które są “wewnętrznie sprzeczne , bo zawierają geny letalne, w ogóle nie mogą ukończyć wstępnej, embriogenetycznej fazy swojego sprawstwa, natomiast inne “zdania” “obalane są” dopiero po dłuższym czasie — np. życia jednego, albo i szeregu pokoleń. Badanie przy tym samego owego języka, poszczególnych jego “zdań”, bez uwzględnienia tych wszystkich “kryteriów adekwatności”, jakie zawiera środowisko, nie pozwala na ustalenie, czy i w jakiej mierze jest zaprogramowane w jądrze komórkowym sprawstwo — urzeczywistnialne.<br />W języku sprawczym nie występują żadne terminy “mentalne”, “emocjonalne”, “wolicjonalne”, jak również nie ma w nim nazw ogólnych. Mimo to uniwersalizm podobnego języka może być spory, gdy uwzględnić i to, że wprawdzie język chromosomów jest całkowicie apsychiczny i “nierozumiejący”, bo wszak nie stanowi następstwa niczyjego myślenia, ale urzeczywistnia on — u końca łańcucha przez się sterowanych przekształceń — język istot rozumiejących. Ale, po pierwsze, powstanie “pochodnego” w tym sensie języka rozumiejącego zachodzi dopiero na poziomie całego zbioru osobników ludzkich (indywiduum samo języka nie wytworzy), a po wtóre nie determinuje on powstania języka rozumiejącego, lecz tylko zajście takie probabilistycznie umożliwia.<br />Język czysto rozumiejący realnie nigdzie nie istnieje, lecz można by go sztucznie wyprodukować. W tym celu należy sporządzić układy izolowane, będące pewnego rodzaju modyfikacją leibnizowskich “monad”, posiadających określone, a zmienne w czasie stany wewnętrzne, którym przyporządkowane są skrótowe oznaczenia. “Porozumiewanie się” oznacza przekaz —przez jedną monadę innym — nazwy jej stanu wewnętrznego. Monada rozumie monadę, ponieważ zna, z “doświadczenia wewnętrznego”, wszystkie stany, o jakich może zostać przez towarzyszki losu poinformowana. Nasuwa się oczywiście analogia z językiem subiektywnym introspekcji, w którym komunikuje się stany uczuciowe, wolicjonalne (“chcę, żeby mi było wesoło”), mentalne (“marzę o radości”). Owym “X”, ze względu na które zachodzi selekcja “wypowiedzi” w języku chromosomowym jest, jak już wiemy, “adekwatność biologiczna” względem środowiska. Czym jest to “X” u naszych monad? Selekcja zachodzi ze względu na adekwatność nazw —wobec stanów ich wewnętrznych, i nic ponadto; niczemu zatem w rozumieniu sprawczym, któreśmy ustalili, język czysto rozumiejący służyć nie może. Bez wątpienia dlatego w takiej “totalnie uduchowionej” postaci nie istnieje. Istnieje jednak w postaciach elementarnych, pozbawionych, ze względu na swe ubóstwo terminologiczne i brak składni, prawa do nazwy “języka”, u zwierząt. Ponieważ pożyteczne biologicznie jest, jeśli jedno zwierzę (np. pies) orientuje się w “stanie wewnętrznym” drugiego zwierzęcia, a zarazem, ponieważ takim stanom są przyporządkowane pewne rodzaje obserwowalnego zachowania się, w swoistym “kodzie behawioru” zwierzęta mogą sobie swe stany wewnętrzne (strachu, agresywności) komunikować (i to kanałami zmysłowymi w szerszym od naszego zakresie, ponieważ pies potrafi wywęszyć strach lub agresywność, czy wreszcie seksualną gotowość drugiego psa).<br />Rozbudowany język czysto rozumiejący, na przykład naszych “monad”, mógłby wytworzyć także logikę i matematykę, ponieważ na elementarnych stanach wewnętrznych, jeśli nie tylko się je przeżywa aktualnie, ale jeżeli można je sobie przypominać, wykonywalne będą rozmaitego rodzaju operacje (dodawania, odejmowania, wyłączania itp.). Zauważmy, że ewolucyjnym, naturalnym sposobem, ,monady’’ tego rodzaju powstać by nie mogły, z chwilą jednak gdyby je kto pobudował, powstaje możliwość wytworzenia matematyki i logiki w nieobecności bezpośredniego kontaktu ze światem zewnętrznym (zakładamy, że monady żadnych zmysłów nie mają i połączone są jedynie ze sobą, np. przewodami, po których płyną odbierane i nadawane wypowiedzi “języka rozumiejącego”).<br />Język naturalny ludzi jest po trosze rozumiejący, a po trosze sprawczy. Można w nim powiedzieć “boli mnie głowa”, aby zaś takie zdanie zrozumieć, trzeba doświadczyć bólu i mieć głowę; można też powiedzieć “boli mnie klęska”, ponieważ język ten jest na wskroś przepojony pochodnymi stanów wewnętrznych, które można rzutować w świat zewnętrzny (“przyjście wiosny”, “ponure morze”). Można w nim stworzyć matematykę i logikę, a wreszcie można także urzeczywistniać rozmaite rodzaje sprawstwa empirycznego. Między językiem sprawczym genów a językiem naturalnym zachodzi taka oto ciekawa relacja. Język dziedziczności daje się w języku rozumiejącym ludzi — w granicy przynajmniej, jeśli nie aktualnie — odwzorować. Każdy gen można przecież oznaczyć odpowiednim sposobem, chociażby przez numerowanie (język naturalny implikuje matematykę razem z teorią mnogości). Natomiast języka naturalnego jednoznacznie w chromosomowym odwzorować niepodobna. Jakeśmy już zauważyli, język dziedziczności żadnych nazw ogólnych, ani nazw stanów mentalnych, nie zawiera. Gdyby to tylko dziwne było, rzecz nie stałaby się godna wzmianki. Jest ona wielce pouczająca. Określona wypowiedź chromosomowa sprawiła, że narodził się Lebesgue, Poincare czy Abel. Wiemy, że uzdolnienia matematyczne są przez chromosomową wypowiedź wyznaczane. Co prawda nie istnieją żadne geny “talentu matematycznego”, w tym sensie, żeby je można było ponumerowane wyizolować. Matematyczne uzdolnienie jest preformowane przez niewiadomą część strukturalno–czynnościową całego genotypu, i nie umiemy przesądzić tego, w jakim stopniu znajduje się ono w komórce rozrodczej, w jakim zaś — “mieści się” w środowisku społecznym. Ponad wszelką wątpliwość atoli środowisko okazuje się “wywoływaczem” talentu raczej aniżeli jego kreatorem. Tak więc język sprawczy, nie posiadając w swoim słowniku żadnych nazw ogólnych, może realizować stany, w których się desygnaty nazw takich przejawiają. Rozwój zachodzi tedy od “szczególnego” do “ogólnego”, od stanu złożoności niższej do wyższej. Nie jest więc tak, żeby język sprawczy genów stanowił narzędzie nie dość uniwersalne, takie, z którego badania mało co konstruktorowi przyjdzie — skoro każda w tym “języku” padająca “wypowiedź” jest “tylko” samorealizującą się receptą produkcyjną konkretnego egzemplarza<br />pewnego gatunku i niczym więcej. Język dziedziczności okazuje się zadziwiająco “nadmiarowy” w swym uniwersalizmie. Język ten jest narzędziem do budowania układów, które potrafią sprostać takim zadaniom, którym sam ich twórca (ów język) podołać nie może — dla braku odpowiedniej aparatury słownikowo—składniowej chociażby.<br />Dowiedliśmy zatem tego, że efektywność sprawstwa, którą demonstruje język dziedziczności, przekracza granice, wyznaczone przez nasze formalno–metamatematyczne badania. Rozwój jaja nie jest procesem ani “tautologicznym”, ani “dedukcyjnym” wyprowadzeniem konsekwencji z tego “zbioru aksjomatów i reguł przekształcania”, które zawiera jądro komórkowe.<br />Podczas gdy nasze formalizowania są każdorazowo najwyższym odrywaniem, ponieważ tylko poprzez takie operacje umiemy dotrzeć do pewności ustaleń niezmienniczej — droga ewolucji jest względem naszej dokładnie przeciwstawna. Na żaden “luksus” odgrywania pozwolić wszak sobie chromosomowy “rachunek” predykcyjny nie może, skoro nie na cierpliwym rozwija się papierze, lecz zachodzi realnie — i dlatego właśnie wszystkie, ale to wszystkie stany materii, w której przychodzi sprawczo działać informacyjnym sterowaniem, muszą w nim być uwzględnione. W tym sensie szczególnym można orzec, iż komórkami rozrodczymi wypowiada organizm sądy syntetyczne a priori: albowiem ich przygniatająca większość okazuje się (w sensie pragmatycznym przynajmniej, jakeśmy zauważyli) prawdziwa.<br />Kryteria “prawdziwości”, czy raczej adekwatności owej są jednak zmienne, skąd zresztą w ogóle możliwość sama transformizmu i ewolucji gatunków; dla nas najistotniejsze zaś okazuje się to, że także w obszarze języka sprawczego, nierozdzielnie spojonego ze swym nośnikiem materialnym, brak kryteriów “prawdy” czy choćby tylko “sprawności” wypowiedzi. Ani rozumiejący, ani sprawczy język nie mogą powstać ani działać, jeśli nie są uwarunkowane i nakierowane pozajęzykowo. Kryteria prawdy, poprawności, efektywności wreszcie języków mieszczą się poza nimi — w materialnym obszarze natury. Pod ich nieobecność potwory bezsensu potrafi tworzyć zarówno język rozumiejący, jak i sprawczy, o czym pouczają pospołu historia piśmiennictwa wraz z naturalną historią gatunków.<br />Zaproponowaliśmy podział języków na sprawcze i rozumiejące. W języku czysto sprawczym słowo staje się literalnie ciałem. Niczego język taki nie “wyjaśnia”, lecz tylko “treść” wypowiedzi swych materializuje, dzięki programowaniu odpowiednich sekwencji działań. Interesująca jest komparatystyka obu językowych rodzajów, ponieważ sprawczy startuje na poziomie molekularnym i wykracza z niego na makroskopowy poziom wielokomórkowców, natomiast język naturalny powstaje na poziomie makroskopowym (naszych ciał) i z niego wykracza “w obie strony”, tj. atomów i galaktyk. W obu można wykryć zarówno “konotacje”, jak i “denotacje” poszczególnych “nazw”, a nawet “semantykę” — jeśli uznać, że znaczeniom języka naturalnego odpowiadają procesy, organizowane przez ten język w “środowisku mózgowym”, “znaczeniom” zaś języka dziedziczności — procesy, “usprawiedliwiające” w obrębie przyrodniczego środowiska obecność w organizmie — poszczególnych, genowo zdeterminowanych cech. W tym sensie atoli semantyka języka sprawczego jest najwyraźniej skończona, ponieważ od konkretnej funkcji cech genowo zdeterminowanych nie ma, poza środowiskiem ekologicznym, żadnych dalszych “odwołań” testowych (pewna część genotypu wyznacza powstanie kończyn — które “znaczą” lokomocję, inna — oczy, które “znaczą” patrzenie, tyle i nic więcej), natomiast “mózgowe środowisko” języka naturalnego jest tylko “testową stacją pośrednią”, gdyż istnieją inne — względem mózgów zewnętrzne — w świecie Natury i Kultury.<br />Osobną jest kwestia nazw ogólnych, których w języku sprawczym brak, przez co właśnie ma — ukazany wyżej — charakter skończony, gdy język naturalny jest — dzięki ich obecności — teoriomnogościowy (kontynualny). Ujmując rzecz w prymitywizującym uproszczeniu, powiedzieć można, że potrzebę wytworzenia nazw ogólnych rodzi probabilistyczna natura realnego świata, w jej najczęstszym, stochastycznym, “wydaniu”. Chodzi o nierozdzielność dwu naraz aspektów zjawisk: tego, że mogą być do siebie podobne, i tego, że równocześnie — pod niektórymi względami się od siebie różnią. Każdy stół jest w pewnym sensie “jedyny”, a w innym — stanowi element klasy “stołów”; nazwy ogólne “usztywniają” podobieństwa, a minimalizują różnice; tam, gdzie panowałaby unikalność rzeczy i zjawisk, nazwy ogólne nie byłyby potrzebne — ani możliwe. W rzeczywistości nie ma tak wysokiej rangi ładu, jakiego obecność język postuluje: jest on, jako opis wydarzeń, z reguły bardziej od nich uporządkowany. Procesy stochastyczne, w środowisku ziemskim niezwykle częste, oznaczają współobecność cech losowych (“komponenty chaosu”) i cech uporządkowania (“komponenty ładu”) w tych samych zjawiskach (zachowanie się ludzi, zwierząt, społeczeństwa, maszyn i układów złożonych a nieliniowych, zmiany klimatyczne, meteorologiczne itp.). Koncepcje deterministyczne poprzedzają w historii nauki indeterministyczne, bo na te pierwsze naprowadza nas, niejako samoczynnie, wiec i wcześniej, sam język; pomija on losowe aspekty stochastyki zjawisk, a mówiąc nieco wyraźniej, wtłacza je bezanalitycznie w gorsety nazw ogólnych. Zbliżone rezultaty uzyskuje język sprawczy — w sensie funkcjonalnym — dzięki uruchamianiu gradientów rozwojowych, wytwarzanych przez molekularne łańcuchy reakcji “zachowawczych” i przez to “teologicznych”. Jest to bardzo ważne dla konstruktora, gdyż okazuje się, że podobne pod względem inwariancji wyniki można uzyskać, stosując techniki bardzo rozmaite. Na poziomie molekularnym “to, co chaotyczne” pokrywa się przeważające z tym, co “termiczne”, tj. z cieplnymi ruchami cząstek. Reakcje zachowawcze — a dzięki nim, gradienty rozwojowe — wzmacniają element prawidłowości, obecnej w stochastycznych procesach, więc końcowy rezultat jest czynnościowo — lecz nie inaczej! — podobny do zastosowania nazw ogólnych: w obu wypadkach wykorzystany zostaje ład zjawisk, przy “stłumieniu” ich losowości.<br />Natura języków, jako kwantowanych ciągów sterujących, nie daje się pojąć w pełni bez uwzględnienia istoty fizycznej układów, które je wytworzyły. Życie jest stanem termodynamicznie nieprawdopodobnym w sposób określony, mianowicie — oddalonym znacznie, a jak niektórzy sądzą, maksymalnie, od stanu równowagi trwałej. Jak może system, broczący przez to bezustannie uporządkowaniem, skazany już startowo na ciągłe upusty ładu, nie tylko stacjonarność zyskać, lecz wstępować na wyższe poziomy organizacji, np. w embriogenezie? Dzięki “wmontowanym weń” na wszystkich — od molekularnego — piętrach procesom kołowym, które, niby rytmiczne uderzenia, gradem podtrzymujące wciąż spadającą piłkę, muszą być uorganizowane przede wszystkim w czasie. Matematyczny aparat teorii termodynamicznej życia nie istnieje. Gdy w jego braku B. Goodwin zastosował w swej formalnej teorii żywych ustrojów klasyczny aparat mechaniki statystycznej, już to pierwsze przybliżenie ukazało, jak wiodącą rolę gra w procesie życiowym — temporalne zorganizowanie komórki jako sprzężonego zestroju molekularnych drgań, jakimi są właśnie zjawiska biochemiczne. Komórka stanowi zsynchronizowany układ oscylatorów, a to rozwiązanie konstrukcyjne, z naciskiem położonym na periodykę cykli, wciąż doregulowywanych, dyktowane jest przez materiał wyjściowy. Zgodnie z analizą, bezdrganiowo procesu takiego stabilizować nie można, zakazuje tego fizyka, tj. własności budulca. Embriogeneza, metabolizm, morfogeneza są wypadkowymi współdziałania zogniskowanych w czasie, tj. zestrojonych synchronicznie oscylatorów molekularnych, co daje w rozwoju płodowym efekty konwergencji wykładniczej, w stadium dojrzałym — pseudostacjonarności, i co po rozkojarzeniu periodyczności współbieżnej prowadzi do starzenia i śmierci. Tak więc zjawisko, oceniane przez cybernetyków zawsze negatywnie — oscylacji, wewnątrzsystemowo powodowanej przez superkorekcję sprzężeniowo-zwrotną, przedstawia, jak widzimy, nieodzowny szkielet dynamiczny samego procesu życiowego. Stąd właśnie czasowa organizacja wypowiedzi językowych, jako programów sterowniczo—regulacyjnych, jako skoncentrowanych ładunków uporządkowania, które trzeba wstrzykiwać stale je tracącemu systemowi. W tym świetle “szansa” języków naturalnych założona jest już w osnowie życiowych zjawisk, podobnie jak elementarne reakcje jednokomórkowców stanowią “przesłankę” powstania mózgów. W tym sensie jedne i drugie są — gdy proces ewolucyjny trwa tylko dość długo — realizowane nieuchronnie, jako znikome, lecz trwałe prawdopodobieństwa łańcucha stochastycznego.<br />Tak zwana “moc wyjaśniająca” języka naturalnego jest dla nas, choć brzmi to paradoksalnie, w gruncie rzeczy ciemna. Nie zapuścimy się w ryzykowne debaty nad “istotą wyjaśniania”, lecz ograniczymy się do takich oto uwag. Gatunek nasz odbił od pnia człekokształtnych niespełna trzy czwarte miliona lat temu, pod wpływem selekcji naturalnej, preferującej pewną grupę parametrów ustrojowych, przy czym kryteria selekcji nie obejmowały sprawności budowania teorii kwantowych ani rakiet kosmicznych. Mimo to uzyskana w owym odsiewie “nadmiarowość” informacyjnego przetwórstwa mózgów ludzkich okazała się dostateczna dla urzeczywistnienia rezultatów, tak odległych od horyzontu paleopiteka. Niemniej byłoby zaiste niezwykłym, gdyby się okazało, że ten zbiór ładów, które umysł nasz może konstruować i akceptować z dogłębnym poczuciem “rozumienia istoty rzeczy”, najdokładniej pokrywa się ze zbiorem tych wszechmożliwych porządków, jakie tylko są do wykrycia w całym Wszechświecie. Przyznajmy, że nie jest to niemożliwością, wydaje się jednak w wysokim stopniu nieprawdopodobne. Takie rozumowanie, uskromniające nasze możliwości, jest jedynym chyba zaleconym w sytuacji niewiedzy, ponieważ nie znamy właśnie naszych ograniczeń i dlatego przezorniejsze wydaje się dopuszczenie możliwości ich istnienia od bezgranicznego optymizmu, ponieważ optymizm może zaślepić, podczas kiedy postulowanie ograniczeń, stając się ich poszukiwaniem, pozwoli je w końcu zaatakować. Dlatego właśnie przewidujemy stan odległy, w którym łatwiej będzie opanować zjawiska, aniżeli zrozumieć całokształt uwarunkowań, które opanowanie umożliwiają, a to ze względu na ogromną moc zbioru zmiennych i parametrów, zaangażowanych w szczególnie ambitnych przedsięwzięciach. Uważamy więc za realną — perspektywę definitywnego rozwidlenia się sprawczej i rozumiejącej stron języka naturalnego, których swoistym amalgamatem jest mowa ludzka. Jeśli uda się skrzyżować produkowane przez skończone automaty algorytmy z niealgorytmicznymi strumieniami informacji, płynącymi ze zjawisk, pod nadzorem samoorganizacyjnych gradientów, język sprawczy przestanie być rozumiejącym i nauka będzie zamiast “wyjaśnień” produkowała wyzute z nich predykcje. Język rozumiejący pozostanie obserwatorem kampanii informacyjnych, toczonych przez automaty gnostyczne, odbiorcą owocu zwycięstw, przekaźnikiem na nic innego niewymiennych przeżyć, oraz, co chyba nie najmniej ważne, generatorem postaw aksjologicznych. O jakimś nagłym przewrocie, w którym maszyny takie zdominowałyby nas pod względem umysłowym, mówić niepodobna. Rozruch generatorów sprawczych przyspieszy zmiany, notowane już obecnie, gdyż zachodzi — realizowana coraz powszechniej — symbioza, czy też synergia uczonych i maszyn informacyjnych. To, w jakiej mierze kontrola poczynań pozostanie w ręku człowieka, jest po trosze — przyznajmy — kwestią wybranego punktu widzenia. Z tego, że człowiek sam umie pływać, nie wynika, jakoby bez okrętu zdolny był przepłynąć ocean, cóż dopiero, gdy w ten obraz włączyć odrzutowce i rakiety kosmiczne. Podobna ewolucja rozpoczyna się, równolegle niejako, w uniwersum informacyjnym. Człowiek może nakierować maszynę gnostyczną na problem, który potrafiłby może i sam rozwiązać (on albo jego prą wnukowie), lecz maszyna może mu w toku pracy otworzyć oczy na problem, którego istnienia nawet nie podejrzewał.<br />Kto właściwie ma — w ostatnim przykładzie — inicjatywę wiodącą? Trudno sobie wyobrazić, nawet w przybliżeniu, zarówno stopień jednolitości funkcjonalnej, jaki przedstawiać może “poznawczy tandem człowiek—maszyna”, jak i te wszystkie stopnie swobody, o które wzbogaca się pracujący w takich warunkach mózg ludzki. To tylko — podkreślamy — w początkowych stadiach językowej “dychotomii”. O dalszych jej etapach trudno dziś powiedzieć cokolwiek konkretnego.<br />Cóż jednak o tej perspektywie orzeknie filozof? Próżno będzie konstruktor przedstawiał filozofowi owoce swoich działań, wskazując, w jakiej mierze odpowiedzi na klasyczne pytania filozofii zależą od technologicznie konstruowalnych warunków brzegowych (to, czy nihil est in intellectu, quod non fuerit prius in sensu, zależy także od konkretnej charakterystyki przedprogramowania chromosomowego mózgów; odpowiednia nadmiarowość takiego przedprogramowania może udostępnić mózgom “wiedzę syntetyczną a priori”). Sukces budowniczego maszyn gnostycznych uzna filozof za klęskę wszelkiego w ogóle myślenia, także praktycznego, skoro samo siebie z kreacji nawet instrumentalnych prawd wyzuło. Konstruktor, którego pradziadek łamał w swoim czasie z żalu ręce nad żaglowcami, ale budował parowce, dzieli zatroskanie, lecz nie podziela zastrzeżeń.<br />Filozof będzie głuchy na argumenty konstruktora, ponieważ — gardząc myśleniem, względem człowieka usamoczynnionym i uzewnętrznionym —sam chce wszystko, co istnieje, przemyśleć, a to, stwarzając system odpowiedni, czyli strukturę znaczącą. Lecz jak mają się właściwie do siebie systemy mniej lub bardziej odmienne? Każdy może uznać arbitralnie, że zajmuje — względem innych — “meta” pozycję wyróżnioną i jedynie ważną. Znajdujemy się więc w serii procesów kołowych, a chociaż krążenie takie jest pasjonujące, co z niego, kiedy każde stanowisko okazuje się do uargumentowania, byle niesprzeczne wewnętrznie. Myśl, która chce się do raju pewności dostać, rozmaicie go umiejscawia, mapa zaś owych lokalizacji, czyli historia filozofii, jest poszukiwaniem — w języku — tego, co, jeśli gdziekolwiek, poza nim się mieści. Nie brak i stanowiska, zgodnie z którym metafizyki — to w podświadomości wylęgłe, a przez świadomość w język przyodziewane stwory hiponoiczne, czyli okazują się metafizyki w takim rozumieniu —najlogiczniejszymi i najbardziej uporczywymi ze snów naszych. Ten po psychoanalitycznemu kompromitujący punkt widzenia, który pracę jego czyni snem uściślonym, filozof pogrąży zaraz, klasyfikując psychoanalizę w sposób należycie poniżający. Świetna, trochę jałowa, lecz kulturotwórcza zabawa, złożona z przejść wewnątrz układu, w którym arbitralna zmiana pozycji pociąga za sobą transformację perspektywy tak oceniającej, jak i poznawczej. Myślenie, które na wylot przez nas nie przechodzi po to, aby się w działanie sprawcze (lub sprawdzające) obrócić, okazuje się dojmująco bezbronne. To, co w systemach klasycznych metafizyk nieprzemijalne, czerpie moc odżywczą korzeniami, zapuszczonymi w luzy semantyczne języka,<br />który diachroniczną swoją uniwersalność, kolejne kultury sprzęgającą, salwuje nieostrością zarazem przystosowawczo—rozciągliwą i dającą pozory twardego oparcia, ponieważ można zeń nie tylko czerpać znaczenia zastane, ale i nowe weń wkładać, w aktach, które mają być odkryciami, a są tylko arbitralnością tym groźniejszą, w im większym stopniu bezwiedną. Jest tedy podobne filozofowanie gruntowaniem bezdni, ponieważ owe “dna”, które się w materiale językowym utwierdza, nie są konieczne: każde można przebić, aby “wyjść dalej”, każde — zakwestionować. Skąd zaciekłość podobnego postępowania? Nie trzeba przyzywać nowych bytów dla jej wyjaśnienia: jest to, podobnie jak każdy akt, który życia ani nie wszczyna, ani go nie podtrzymuje — rozpusta po prostu, przyznamy chętnie, rozpusta szlachetniejsza od innych, w której język pełni rolę gotowego na wszystko partnera, logika — Kamasutry, absolut zaś — rozkoszy, przez to do. wyuzdania wyszukanej, że bezpłodnej zawsze. Zapewne, nie można żyć bez filozofii i nie jest prawdą, iż należy primum edere, deinde philosophari, albowiem już niby prosta czynność jedzenia implikuje cały pęk kierunków od empiryzmu po pragmatyzm, czym innym jest atoli owo minimum filozoficzne, które każdy system działań wewnętrznie scala, a zewnętrznie nakierowuje, czym innym zaś — destylowanie i maceracja języka, żeby się poty ulatniał, aż sama pewność pozostanie, co chuć poznawczą zaspokoi. Konsekwentne do końca zabarykadowanie się w języku nie jest możliwe. Prowadzą zeń dwa wyjścia —jedno w świat realnych działań, drugie — w świat bytów, których język rzekomo nie produkuje, a tylko istnienie ich wykrywa. Fenomenologowie grozili, że rezygnacja z suwerenności świata prawd logiko-matematycznych wtrąci człowieka w przypadkowość animalną, lecz nie musimy wybierać między członami podsuniętej przez nich, a rzekomo niezniszczalnej alternatywy “człowiek, istota akcydentalna” i “człowiek, rozum konieczny “.ponieważ jednocześnie i jedno, i drugie zachodzi. Bez języka niepodobna, jak już wiemy, konstruować, nawet jeśli się jest nieosobowym budowniczym. Gdy zatem regułom, będącym molekularną transpozycją składni i logiki, są podporządkowane nawet aminokwasy i nukleotydy w ich dyskursach embriogenetycznych, czy nie jest więcej niż prawdopodobne, że —będąc fenomenem adaptacyjnym ziemskim, i w tym sensie przypadkowym — jest język zarazem zjawiskiem uniwersalnym aż kosmicznie? A to, ponieważ podobieństwo środowisk planetarnych sprawia, że powstające w nich układy antyentropijne muszą wytwarzać tak aproksymujące środowisk owych odwzorowania, że język, logika, matematyka okazują się odległymi pochodnymi samej Natury dlatego, bo inaczej nie jest możliwe przeciwstawianie się jej fluktuacjom, niszczącym wszelkie uorganizowanie. Język sprawczy bioewolucji wytwarza, jako pierwszą swą pochodną, język układu nerwowego, kody neuralne, sterowania singularnego (w relacji “organizm—organizm” oraz “organizm—środowisko”), jako drugą zaś —język naturalny, dzięki usymbolicznionej eksterioryzacji neuralnych kodów, posługującej się dowolną ilością zaadaptowanych odpowiednio kanałów zmysłowych (mowa dźwiękowa, wzrokowa, taktylna itp.). Okazuje się zatem logika zrelatywizowaną nie do gatunku Homo Sapiens, lecz do materialnego Wszechświata, przy czym może naturalnie istnieć cały zbiór czynnościowo, choć niekoniecznie strukturalnie podobnych logik, sprawnych, bo w ewolucjach — odsianych. Wynika z podobnej, pod kosmiczny pułap wyniesionej komparatystyki lingwistycznej, że upośrednionymi, to jest “nieautonomicznymi bytowo”, są wszystkie w ogóle języki — chromosomowe, neuralne, jak i naturalne — ponieważ stanowią systemy do konstruowania — przez selekcję i organizację elementów —struktur, którym tylko realny świat może kłam zadać lub przyznać rację istnienia. Rozmaity jest tylko stopień upośrednienia, falsyfikacyjnej okólności, sprawiający, że rozrzut wypowiedzi jest największy w języku naturalnym dlatego, ponieważ kryteria poprawności funkcjonowania są w językach embriogenezy oraz neuroregulacji daleko mocniejsze niż w mowie naturalnej. Innymi słowy: “empirycznie wywrotne” są wszystkie języki, lecz naturalny posiada, oprócz kryteriów “przeżywalności” empirycznej i logicznej, także kulturowe — dlatego właśnie potwory biologiczne nie są zdolne do życia, w przeciwieństwie do potworów językowego nonsensu lub wewnątrz—kulturowej iluzji. Karą za złe konstruktorstwo jest w języku biologii kalectwo lub śmierć. Za grzech analogiczny nie przychodzi metafizykom tak ciężko pokutować, ponieważ środowisko umysłów ludzkich jest niezrównanie bardziej liberalne dla wegetujących (lub pokutujących) w nim znaczeń aniżeli środowisko naturalne dla żywych ustrojów.<br />Możemy tylko do następnych pokoleń taki zaadresować program, z konieczności ogólnikowy. Skalę, przedstawioną na początku tych rozważań, należy zamknąć w kształt koła. Proces językotwórstwa zapoczątkowuje powstanie informacji dziedzicznej. Język jej sprawstwa — pierwszego, apsychicznego poziomu — to efekt kumulatywnego nagromadzenia wiedzy, wynikłej ze “spenetrowania”, metodą prób i błędów, obszaru zawartego między fizyką (także kwantową) a chemią polimerów i koloidów pewnego podzbioru pierwiastków w niewielkim zakresie temperatur i energii. Po kilku miliardach lat doprowadza on do wyniknięcia — na poziomie zbiorów społecznych —języka naturalnego, częściowo rozumiejącego, a częściowo sprawczego. Z kolei język ów, aby przekroczyć ograniczenia formalne, którym się poddaje, dążąc do zdobycia niezbędnej w konstruktorstwie precyzji, winien wytworzyć — za pośrednictwem narzędzi, zautonomizowanych informacyjnie poprzez osadzenie ich w pozamózgowych systemach materialnych — języki sprawcze “następnego rzutu”, które — mimochodem niejako — przekroczą granice “rozumienia” czy “zrozumiałości” i za tę cenę uda się, być może, wejść na piętro uniwersalności kreacyjnej wyższe od tego pierwszego, chromosomowego, które wszczęło w sobie całe owo uniwersum przemian informacyjnych. Język ów będzie słownikowo i składniowo bogatszy od obu swoich poprzedników, podobnie, jak język naturalny bogatszy jest od języka<br />dziedziczności. Cała ta ewolucja jest aspektem informacyjnym procesów wynikania układów wyższej złożoności z prostszych, o których to procesów prawach systemowych nie wiemy nic, ponieważ wobec zjawisk opatrzonych antyentropijnym gradientem wzrostu fizyka z termodynamiką zachowują na razie rodzaj “niechętnej neutralności”. A że nierozważne byłoby dalsze orzekanie czegokolwiek w przedmiocie tak ciemnym, trzeba w tym miejscu zamilknąć.</div><div><br /><br /><br />Inżynieria transcendencji<br /><br /><br />Wspomnieliśmy poprzednio, że obok “hodowli informacyjnej” istnieje też inna możliwość otamowania lawiny informacyjnej. Obecnie ją ukażemy. Uczynimy to na przykładzie szczególnym, ontologicznym nawet. W ten sposób wprowadzimy Czytelnika w samą głąb przyszłych możliwości. Nie oznacza to, abyśmy uważali plan, który opiszemy, za godny realizacji. Jednakże warto go zademonstrować choćby dla ukazania rozmachu możliwych działań pantokreatycznych.<br />Słyszymy dzisiaj, że powszechnie dokonujące się odcięcie aktualnej rzeczywistości od transcendencji w zgubny sposób podważa świat trwałych wartości. Skoro istnieje tylko doczesność, skoro w niej tylko można poszukiwać pełni, jedyne szczęście, jakie może nam być dane, jest czysto cielesne. Niebiosa niczego nam nie objawiły, brak śladów wskazujących na potrzebę poświęcenia się celom wyższym, pozamaterialnym. Urządzamy się coraz wygodniej, budujemy coraz piękniej, wymyślamy coraz szybciej zmieniające się, coraz bardziej efemeryczne mody, tańce, gwiazdy jednego sezonu, bawimy się, rozrywka z improwizacji lunaparkowej XIX wieku staje się przemysłem o coraz doskonalszej technice, panuje kult maszyn, zastępujących człowieka przy warsztacie, przy kuchni, na polu, jak gdyby ściganym ideałem była atmosfera królewskiego dworu, krzątliwej bezczynności dworaków, która ma się rozciągnąć na cały świat: za pięćdziesiąt, najwyżej za sto lat takimi dworakami będą cztery miliardy, pięć miliardów ludzi. Zarazem jednak pojawia się uczucie pustki, powierzchowności, blichtru, szczególnie dojmujące w tych cywilizacjach, które większość kłopotów prymitywnych, jak głód i nędza, mają poza sobą. Wśród oświetlonych podwodnie basenów kąpielowych, chromów, plastyków, przeszywa nagle myśl, że ostatni nędzarz, przyjmujący swój los dobrowolnie, aktem tym zmieniając go w ascezę, bo wierzył w wiekuistą szczęśliwość, na której osiągnięcie czeka na tym padole cierpień, jakże krótkich, ów nędzarz, zapatrzony w bezkres oczekującej go transcendencji, był niezrównanie bogatszy od człowieka współczesnego, którego umysł karmiony jest papką telewizyjną, a żołądek smakołykami z egzotycznych krajów. Czas wolny staje się obszarem do wypełnienia, a w gruncie rzeczy próżnią, skoro marzenia dzielą się na takie, które można zrealizować zaraz — przez co przestają być marzeniami — i takie, których nieosiągalność jest oczywista. Ostatnim bożkiem na pustoszejących ołtarzach jest własne ciało, jego młodość, już nikomu innemu nie trzeba służyć, o nikogo starać się. Jeśli nic się nie odmieni — powiadają nam liczni intelektualiści Zachodu — człowiek utonie w konsumpcyjnym hedonizmie, i żeby chociaż towarzyszyła temu rozkosz, ale gdzież tam, zanurza się w tym wszechusłużnym komforcie coraz bardziej znudzony, wyjałowiony, działają jeszcze przez inercję manie gromadzenia pieniędzy, lśniących przedmiotów, ale te czary cywilizacji okazują się bezradne, nic nie wskazuje co robić, do czego dążyć, o czym marzyć, jaką mieć nadzieję. Cóż pozostaje? Lęk przed starością, przed chorobą, pigułki, przywracające równowagę umysłowi, który ją traci, bezpowrotnie odcięty od transcendencji.<br />Bezpowrotnie…? A przecież można by ją stworzyć. Nie — nie w przenośni, nie tak, aby praktykować jakieś wierzenia, jak się uprawia poranną gimnastykę, dla zdrowia. Wiara musi być prawdziwa. A zatem stwórzmy dla niej podstawy niewzruszone. Zbudujmy nieśmiertelność, wiekuistą sprawiedliwość, która będzie rozdzielała nagrody i kary. Gdzie mamy to wznieść? Ależ, oczywiście, na tamtym świecie…<br />Nie żartuję. Można zbudować “tamten świat”. W jaki sposób? Za pomocą cybernetyki…<br />Proszę sobie wyobrazić system większy od planety, układ o najwyższej złożoności. Programujemy go tylko ramowo, ogólnie. Niechaj powstaną w nim, na skutek raz uruchomionej ewolucji, krajobrazy i morza, piękniejsze od naszych, i myślące organizmy. Niech mają do swej dyspozycji otoczenie —wewnątrz układu, rzecz jasna. O pierwocinach takiego procesu mówiliśmy już: podzieliło się wówczas maszynowe procesy na dwie części, jedną stanowiły organizmy, drugą — ich otoczenie.<br />Nowa maszyna jest ogromem. Nadto posiada jeszcze trzecią, uzupełniającą część: Tamten Świat. Kiedy indywiduum — myśląca istota — umiera — gdy kończy się jej egzystencja doczesna, gdy ciało ulega unicestwieniu, osobowość dostaje się specjalną drogą w obręb trzeciej części. Tam działa Sprawiedliwość, kara i nagroda, tam jest Raj i gdzieś, tajemniczy, niepojmowalny Stwórca Wszystkiego. Może też być inaczej; ta trzecia część może nie mieć dosłownych odpowiedników w żadnej ziemskiej religii. Zresztą, możliwości są niczym nie ograniczone. Połączenie — z “drogimi nieobecnymi” — Tam? Ależ oczywiście. Rozjaśnienie ducha w obszarach trwania wiekuistego, poszerzenie indywidualnych zdolności pojmowania i przeżywania? Nic prostszego: osobowość przechodząca do “tamtego świata” rozwinie odpowiednie “podsystemy emocjonalno—intelektualne”. A może wolimy Nirwanę? Pośmiertne zespolenie wszystkich osobowości w jednym czuwającym Istnieniu? I to da się zrealizować. Takich światów można zbudować wiele. Można stworzyć kolejne typy ich i badać, w którym też “suma szczęścia” będzie największa. Wartości “wskaźnika felicytologicznego” będą nam przewodnikiem konstruktorskim. Można stworzyć dla dowolnie stworzonych istot dowolne, oczekujące ich cybernetyczne raje, czyśćce, piekła, a “selektory”, pełniące poniekąd rolę świętego Piotra, będą na granicy “tamtego świata” odpowiednio kierowały — potępionych i błogosławionych. Można skonstruować też Sąd Ostateczny. Wszystko.<br />Dobrze, powiadamy, niech będzie nawet, że ten szalony eksperyment można przeprowadzić, ale co nam z tego? I po co to w ogóle robić?<br />Ależ to tylko faza wstępna…<br />Niech jakieś pokolenie istot rozumnych, podobnych do nas, za tysiąc lub za sto tysięcy lat, będzie zdolne zbudować taką maszynę. Zresztą, powtarzam wciąż “maszyna”, “maszyna” — bo nie mamy na to słów. Czym byłby drapacz chmur dla jaskiniowca? Podniebną jaskinią? Górą? Proszę sobie wyobrazić sztuczny park. Wszystkie drzewa prawdziwe, ale przeniesione z daleka. Albo sztuczne morze. Albo satelitę. Są metalowe. Ale jeśli będzie zbudowany z tego samego materiału, co Księżyc, i tak samo wielki, w jaki sposób poznamy jego “sztuczność”? Mówiąc “sztuczne”, rozumiemy zbyt często “niedoskonałe”. Ale tak jest tylko teraz. Zamiast “maszyna” może będzie więc lepiej powiedzieć “stworzone”. To będzie cały świat, z własnymi prawami, nieodróżnialny od “prawdziwego”, bo taka będzie umiejętność Konstruktorów. Zresztą, jeśli o stronę techniczną Kreacji idzie, odsyłam do rozdziału następnego (Inżynieria kosmogoniczna).<br />Tak więc twórcy owego świata powiedzą sobie: Te istoty, które tam mieszkają, nie wiedzące nic o nas, o naszej ułomnej cielesności, która kończy się tak szybko i tak na zawsze — o ileż bardziej są od nas szczęśliwe! Wierzą w transcendencję, i wiara ta jest w pełni umotywowana. Wierzą w byt pozagrobowy — jakże słusznie! W Tamten Świat, w Nagrodę i Karę, we Wszechmiłosierdzie i Wszechmoc Najłaskawszą — za czym, po śmierci, przekonują się, oni i ich niedowiarkowie, że wszystko to jest naprawdę… Naszym dzieciom, niestety, nie będzie dane żyć w takim świecie. Chociaż… zaraz. Przecież moglibyśmy właściwie je tam przenieść? Nieprawdaż? Kim są dzieci? To istoty podobne do nas, swym wyglądem, umysłem, uczuciami. W jaki sposób powstają? “Programujemy” je sposobem, jaki dała nam Ewolucja, poprzez stosunek płciowy — jest to programowanie probabilistyczne, zgodne z regułami mendlowania cech i genetyki populacyjnej. Doskonale znamy już własną plazmę dziedziczną. Zamiast poczynać dzieci jak dotąd, te same cechy, które tkwią w nas, w potencjalnych ojcach i matkach, utrwalone w komórkach jajników i jąder, dokładnie te same cechy przenieśmy — tam, w głąb “stworzonego”, które specjalnie w tym celu zaplanujemy. Będzie ono Ziemią Obiecaną, akt zaś nasz — wielkim do niej Exodusem. W ten sposób ludzkość, następnymi pokoleniami, zdobędzie Tamten Świat, Transcendencję, wszystko, o czym marzyła od wieków… i to będzie prawdą,, a nie złudzeniem, realnością, oczekującą pośmiertnie, a nie mitem, który ma skompensować namiastkowe nasze biologiczne ułomności!<br />Czy to niemożliwe? Myślę że w zasadzie przynajmniej, jest to możliwe. Owo “stworzone”, ów świat wraz ze swoim piętrem wiekuistym, transcendencją, będzie odtąd mieszkaniem ludzkości szczęśliwej…<br />Ależ to oszustwo, powiadamy. Jak można uszczęśliwiać za pomocą oszustwa? Konstruktorów bawi ten zarzut. — Dlaczego “oszustwo”? Ponieważ ten świat ma inne prawa niż nasz — ponieważ jest od naszego o całą, urzeczywistnioną transcendencję bogatszy?<br />Nie, odpowiadamy, dlatego, ponieważ nie jest prawdziwy. Wyście go stworzyli. Tak, stworzyliśmy. A kto stworzył wasz, “prawdziwy” świat? Jeśli miał swojego sprawcę, byłżeby tym samym “oszustwem”? Nie? A więc na czym polega różnica? Stworzyliśmy cywilizację, my i wy, czy ona też jest oszustwem? Jesteśmy wreszcie, jako istoty biologiczne, rezultatem procesu naturalnego; ukształtował nas miliardem losowych prób; co w tym złego, jeśli proces ten sami pragniemy wziąć w rękę?<br />Nie, mówimy, nie o to chodzi. Te istoty będą zamknięte, uwięzione w tym waszym świecie, w tym kryształowym pałacu doskonałego spełnienia, którego brak poza jego granicami.<br />Ależ to sprzeczność, odpowiadają nam. Istotnie, dobudowaliśmy temu światu “wszechspełnienie”, a więc jest on od “naturalnego” bogatszy, a nie uboższy. On nie udaje, nie imituje niczego: jest sam sobą. Śmierć i życie są w nim takie same, jak w naszym świecie, tyle tylko, że nie stanowią końca… “Zamknięci…?” Co wiecie o jego rozmiarach? Może dorównuje Metagalaktyce? Czy uważacie się za uwięzionych w niej, za więźniów gwiazd, które was otaczają?<br />Ależ ten świat, to nie jest prawda! — wołamy.<br />Co to jest prawda? — odpowiadają. To, co można sprawdzić. A tam można sprawdzić więcej niż tutaj, bo tu wszystko kończy się na granicach empirii, i rozsypuje wraz z nią, a tam sprawdza się nawet wiara!<br />Dobrze — odpowiadamy — już tylko ostatnie pytanie. Ten świat, swoją doczesnością, równoważny jest naszej, czy tak? Tak. A więc w gruncie rzeczy nie ma między nimi żadnej różnicy! W waszym świecie można tak samo zwątpić, tak samo utwierdzić się w przekonaniu o bezmyślności Stworzenia, jak w tym, zwykłym. To, że owo zwątpienie rozwiewa się po śmierci, w niczym nie może wpłynąć na samą doczesność. Tak więc, w waszym nowym, wspaniałym świecie może dojść do powstania tak samo hedonistycznej, konsumpcyjnej, zagubionej cywilizacji, jak w starym… Więc po co go budujecie? Tylko po to, aby stworzyć szansę “miłego, pośmiertnego rozczarowania”…? Bo chyba już pojmujecie, że jakiekolwiek misteria wieczności będą się działy w trzeciej, “transcendentnej” części waszego świata, w najmniejszej mierze nie naruszy to jego biegu doczesnego. Ażeby było inaczej, ten wasz świat, już w swojej doczesności, musi nosić znaki i ślady wyraźnie głoszące to, że istnieje jego metafizyczne przedłużenie. A zatem nie może on być w swej doczesności identyczny z naszym światem.<br />Tak jest — odpowiadają Konstruktorzy.<br />Ale przecież i nasz świat może mieć “metafizyczne przedłużenie”, tyle tylko, że współczesna cywilizacja nie wierzy w jego realność! — wołamy. Czy wiecie, coście zrobili? Powtórzyliście, atom po atomie, to, co jest! Więc teraz, jeżeli chcecie uniknąć takiego daremnego plagiatu, musicie dodać waszej konstrukcji nie tylko “tamten świat”, ale przede wszystkim odmienić jego materialną podstawę, jego doczesność! Więc musicie wprowadzić weń cuda, to znaczy odmienić prawa natury, to znaczy fizykę, to znaczy — wszystko!<br />Ależ tak — odpowiadają Konstruktorzy. — Wiara bowiem bez pośmiertnego spełnienia znaczy docześnie niezrównanie więcej aniżeli spełnienie, aniżeli transcendencja nie poprzedzona wiarą… Jest to problem nader ciekawy. ‘Istnieje jako realny, to jest dający się rozstrzygnąć, tylko dla obserwatora, który stoi na zewnątrz danego świata — a raczej obojga światów, przyrodzonego i nadprzyrodzonego. Tylko taki zewnętrzny obserwator mógłby wiedzieć, czy wiara jest zasadna, czy też bezzasadna. Co się tyczy waszej propozycji, abyśmy wprowadzili w “nowy świat” cuda, musimy ją odrzucić. Czy was to dziwi? Cuda nie są potwierdzeniem wiary. Są jej przekształceniem w wiedzę, bo wiedza opiera się na faktach obserwacyjnych, jakimi stałyby się wówczas “cuda”. Uczeni zrobiliby je częścią fizyki, czy chemii, czy kosmogonii; a gdybyśmy nawet wprowadzili tam proroków, poruszających góry, niczego to nie odmieni. Co innego bowiem w świętych pismach, w aureoli legend, otrzymywać przekazy o takich czynach i sprawach, a co innego doświadczyć ich aktualnie. Można tylko — albo stworzyć świat z wiedzą o istnieniu poza nim transcendencji, albo świat z możliwością wiary w transcendencję, która albo istnieje, albo nie istnieje, ale przekonać się o tym, dowieść prawdziwości jednego lub drugiego, niepodobna. Albowiem udowodnić wiarę, to znaczy zniszczyć ją, jest ona bowiem tylko w pełnej absurdalności i bezzasadności, w buncie przeciwko empirii, w rozmodlonej nadziei, wstrząsanej atakami zwątpienia, w trwożnym oczekiwaniu, a nie w sytej pewności, zagwarantowanej “poglądowymi pomocami” w rodzaju cudów. Jednym słowem, świat z doczesną wiedzą o transcendencji, o tym, jaka ona jest, to świat bez wiary.<br />Na tym kończy się dialog. A wniosek z niego ten, że źródłem Wielkiego Niepokoju i dorównującej mu, jako niebezpieczeństwo, bezmyślności jest nie “amputowanie” człowiekowi przez materializm transcendencji, ale jak najbardziej doczesna dynamika społeczna, i nie renesansu transcendencji, ale renesansu społeczeństwa potrzeba. .<br /><br /><br /><br />Inżynieria kosmogoniczna<br /><br /><br />Ukazaliśmy daremność pantokreatycznego przedsięwzięcia, którego celem było spełnienie marzeń o wieczności Tamtego Świata. Daremność owa<br />dotyczy jednak, o czym warto pamiętać, nie strony technicznej planu, wynika ona stąd, że obecność “transcendencji”, niepodległa empirycznemu sprawdzeniu doczesnemu, ma akurat taki sam wpływ na losy mieszkańców owego świata, jak jej pozaświatowa nieobecność. Czyli — wszystko jedno, czy “tamten brzeg” istnieje, czy nie, skoro tutaj nie można się o tym przekonać. A jeśli można, transcendencja przestaje być sobą, tj. groźną zarazem i wspaniałą obietnicą, zamieniając się w takie przedłużenie bytu, które unicestwia wszelką wiarę.<br />Za bardziej więc racjonalną i godną uwagi uważam pantokreatykę poświęconą stwarzaniu światów całkowicie “doczesnych”. Osoby oddające się tym zadaniom, to Inżynierowie—Kosmogonicy. Słowo “kosmogonik” pochodzi od terminu “kosmogonika”, na podobieństwo elektroniki, bo jedna i druga tak samo oznaczają działania konstruktorskie. Specjalista od kosmogonii bada powstawanie światów, Technolog–Kosmogonik światy stwarza. Jest to, zauważmy, twórczość prawdziwa, a niekoniecznie tylko powtarzanie Natury w taki czy inny sposób.<br />Przystępując do budowy świata, Kosmogonik ustalić musi wstępnie, jaki ten świat ma być: ściśle deterministyczny czy indeterministyczny, skończony czy nieskończony, obwarowany określonymi zakazami, to jest (gdyż to na jedno wychodzi) przejawiający stałe regularności, które można nazwać jego prawami, czy też same owe prawa mają ulegać zmianom. Zmienność niczym nie skrępowana oznaczałaby (jak już niestety mówiliśmy) chaos, brak następstw przyczynowych, brak związków, a więc niepodległość wszelkiej regulacji. Chaos, zauważmy zupełnie już nawiasowo, jest jedną z rzeczy, a właściwie jednym ze stanów, które stworzyć najtrudniej, ponieważ budulec (który bierzemy wszak z Natury) jest nacechowany ładem i resztki tego ładu skłonne są przesączać się w podwaliny konstruowanego. O czym może się przekonać każdy, nawet w eksperymencie tak prostym, jak programowanie maszyny cyfrowej, aby dała nam w rezultacie długi ciąg liczb całkowicie losowy, tj. chaotyczny. Będzie on bardziej przypadkowy niż ciąg, jaki by potrafił “z głowy” wziąć człowiek, bo regularności jego procesów psychicznych w ogóle na żadne działanie “puste”, najzupełniej przypadkowe, nie pozwalają. A jednak nawet maszyna, której nakazaliśmy postępowanie chaotyczne, nie jest w nim doskonała. Inaczej układacze tablic liczb losowych nie mieliby z tym zadaniem tych wszystkich kłopotów, jakie ich dręczą*.<br />Konstruktor nasz rozpoczyna działania od nałożenia pęt na różnorodność. Dzieło jego winno posiadać wymiary przestrzenne i czasowe. Mógłby co prawda zrezygnować z czasu, ale to ograniczyłoby go nadmiernie: gdzie nie ma czasu, tam nic się nie dzieje (łaknąc ścisłości, powinniśmy wyrazić to właściwie na odwrót: gdzie nic nie zachodzi, tam nie ma upływu czasu). Czas nie jest to bowiem wielkość, wprowadzana w system (w świat) z zewnątrz, lecz jego cecha immanentna, wynikająca z charakterystyki zachodzących przemian. Można stworzyć kilka czasów, i to o różnych kierunkach biegu, przy czym jedne mogłyby być odwracalne, a drugie nie. Oczywiście, ze stanowiska obserwatora, zewnętrznego względem takiego świata, płynie w nim tylko jeden czas, ale to dlatego, ponieważ ów obserwator mierzy go według własnego zegara, jak również dlatego, ponieważ osadził tamte, rozmaite czasy, w tym jedynym, jaki jest mu dany przez Naturę. Poza Naturę bowiem wykroczyć nasz Kosmogonik nie może; buduje w jej wnętrzu i z dostarczonych przez nią materiałów. Ponieważ jednak Natura zbudowana jest hierarchicznie, może on umieścić swoją działalność w obrębie jej wybranych poziomów. Systemy jego mogą być otwarte lub zamknięte; jeśli są otwarte, a więc jeśli można z nich obserwować Naturę, ujawnia się ich podrzędność względem tego Wielkiego, w czym konstrukcja jest osadzona. Dlatego zapewne poświęci się raczej budowaniu układów zamkniętych.<br />Nim powiemy kilka słów o celach takiej budowy, zapytajmy o jej trwałość. Otóż, pojęcie trwałości jest względne. Atomy Natury są względnie trwałe, względnie tylko, ponieważ olbrzymia większość pierwiastków to gatunki rozpadające się po dłuższym lub krótszym czasie. Pierwiastków transuranowych nie ma już na Ziemi (chociaż można je syntetyzować), bo nasz układ planetarny istnieje tak długo, że owe nietrwałe transuranowce zdążyły się już rozpaść. Z kolei, nietrwałe są i gwiazdy; żadna nie może istnieć dłużej niż około kilkunastu miliardów lat. Inżynier–Kosmogonik dysponuje wiedzą kosmogoniczna niezrównanie większą od naszej, wie zatem, albo całkiem dokładnie, albo tylko z większym niż my przybliżeniem, jak jest, jak było i jak będzie. To znaczy, czy Kosmos jest tworem pulsującym jako całość skończona, lecz nieograniczona, i od skurczów “niebieskich” (kiedy niebieszczeje światło dośrodkowo zbiegających się galaktyk) przechodzi co jakieś dwadzieścia miliardów lat do “czerwonych” (kiedy to światło, o falach “rozciągniętych” efektem Dopplera, przesuwa się w stronę przeciwną na spektrogramach); czy też może zachowuje się nasz Wszechświat inaczej. W każdym razie myślę, że trwanie jednej fazy, tych dwadzieścia miliardów lat, jest praktycznie granicą czasową jego konstruktorskich obliczeń, bo jeśliby nawet w tym czasie nie miało dojść do “błękitnej kompresji”, która kolosalną zwyżką temperatur unicestwi zarówno życie, jak i wszystko, co ono stworzyło, to w każdym razie takiego “przebiegu” nie wytrzymają nawet atomy, z których budował, niczym my z cegieł. Pantokreatyka nie stwarza zatem wieczności, ponieważ to niemożliwe. Szczęśliwie tak się składa, że to i niepotrzebne. Z tym bowiem, kto chciałby osobnicze trwać przez miliardolecia, zdając sobie sprawę z tego, co właściwie trwanie takie oznacza (a żaden człowiek nie wyobrazi sobie tego nigdy), z tak osobliwą istotą nie mamy nic wspólnego.<br />Mówiliśmy o trwałości, a zaczęli od atomów. Przeszliśmy od nich od razu, i przedwcześnie, do całego Kosmosu. Atomy są trwałe; mniej trwałe od nich są gwiazdy i planety; jeszcze krócej ciągną się epoki geologiczne; nareszcie, raczej skromna Jest długowieczność gór, bo obliczana tylko dziesiatkami milionleci. Rozsypują się w tym czasie i zmywane wodą deszczów i strumieni, mniej lub więcej równomierną warstwą pokrywają kontynenty i dno oceaniczne. Że zaś oceany same i lądy zmieniają swe kształty wciąż, i to względnie (w skali naszej) szybko, bo już w pojedynczych milionach lat, to skoro Kosmogonik planuje swe budowle na taki mniej więcej czas naprzód, jaki trwała ewolucja, która go stworzyła, więc na jakieś trzy miliardy lat, albo i cztery, chyba zgodzimy się, że choć nie całkiem skromne, nie jest to przedsięwzięcie zbyt zuchwałe. Zuchwałe byłoby dopiero całkiem inne: zmierzające mianowicie do tego, aby nie budować z Natury i w jej obrębie, lecz pokierować nią, czyli ewolucję wziąć w ręce — już nie biologiczną, czy homeostatyczną, ale ewolucję całego Wszechświata. Istotnie, taki plan, aby stać się sternikiem Wielkiej Kosmogonii, a nie twórcą owej mniejszej, o jakiej rozprawiamy, taki zamiar byłby już godną zdumienia zuchwałością. O takim też nie będziemy wcale mówić. Czy dlatego, że to jest zupełnie, ale to zupełnie, i na zawsze niemożliwe?<br />Może i tak, ale na pewno ciekawe. Mimo woli nasuwają się pytania, skąd też wziąć energię dla zwrócenia przemian w pożądanych kierunkach, jakie zaplanować sprzężenia zwrotne, jak doprowadzić do tego, aby Natura kiełznała Naturę, aby sama siebie, za sprawą interwencji regulacyjnej, a nie energetycznej, kształtowała i wiodła tam, dokąd się spodoba prawdziwym już, czy raczej: ultymatywnych inżynierom dróg Wszechświata. O tym jednak wszystkim nie będziemy mówili. Wrócimy do naszych światów podrzędnych, budowanych z tego, co naturalne, nie na przekór, a tylko wewnątrz Przyrody.<br />Nasz Kosmogonik (zapewne bliższy nam teraz, po owej dywagacji, skorośmy zrozumieli, że nie jest on jednak od niczego niezawisły i nie ma tej, pomyślanej tylko, władzy nad kursem Wszystkiego) może realizować światy rozmaitych filozofii. O tym, co by się stało, gdyby stworzył świat “dwudzielny” z transcendencją, była już mowa. Ale może skonstruować i świat filozofii Leibnizowskiej, z jego harmonią przedustawną. Zauważmy, że ten, kto buduje taki świat, może wprowadzić w nim nieskończoną szybkość rozchodzenia się sygnałów, ponieważ w owym Kosmosie wszystko dzieje się z zaprogramowania z góry. Mechanizm tego fenomenu moglibyśmy wyjaśnić bardziej szczegółowo, ale chyba nie warto.<br />Niech teraz Konstruktor zapragnie uczynić swój świat mieszkaniem istot rozumnych. Co jest jego największym kłopotem? To, żeby nie poginęły od razu? Nie, ten warunek rozumie się sam przez się. Podstawowy jego kłopot tkwi w tym, aby istoty, których ów Kosmos będzie siedzibą, nie poznały się na jego “sztuczności”. Należy się bowiem obawiać, że samo domniemanie, jakoby istniało cokolwiek poza ich “wszystkością”, zapaliłoby je natychmiast do poszukiwań wyjścia z tej ich “wszystkości”. Mając się za jej więźniów, szturmowałyby zatem otoczenie, szukając drogi na zewnątrz —z prostej ciekawości, jeśli nie dla innych przyczyn. Udaremnić im tylko odnalezienie wyjścia, to obdarzyć je wiedzą o uwięzieniu z jednoczesnym odebraniem kluczy. Nie wolno więc wyjścia zamaskować ani zabarykadować. Istnienie jego należy uczynić niemożliwym do odgadnięcia. W przeciwnym razie poczują się więźniami, choćby to ich “więzienie” naprawdę było rozmiarami równe Galaktyce. Ratunek tylko w nieskończoności. Najlepiej będzie, jeśli jakaś siła uniwersalna zamknie ich świat tak, że będzie analogiem kuli, dzięki czemu można go przewędrować wszerz i wzdłuż, a nigdy nie natrafi się na jakiś “koniec”. Możliwe są też inne zastosowania techniczne nieskończoności, bo jeśli zrobimy tak, że siła nie jest uniwersalna, lecz działa na peryferii, i to w ten sposób, że zbliżanie się do “końca świata” powoduje zmniejszanie się wszystkich bez wyjątku obiektów materialnych, do tego końca nie będzie można dotrzeć akurat tak samo, jak nie można dotrzeć do zera absolutnego w świecie rzeczywistym. Każdy krok następny będzie wymagał większej energii, a sam będzie przy tym mniejszy; w naszym świecie zachodzi to w różnych “miejscach”, bo tak samo jest też z rozpędzaniem ciała do szybkości światła: ilość energii wzrasta nieskończenie, a i tak świetlnej chyżości obiekt materialny, do którego ową energię przyłożono, nie osiągnie. Ten typ nieskończoności zastosowanej jest urzeczywistnieniem ciągu malejącego o granicy zerowej. Ale może dość już takich rozważań kosmotechnicznych. Czy naprawdę wierzymy w szansę ich realizacji? Może i nikt dzieła takiego nie podejmie — ale z wyboru raczej aniżeli z bezsiły.<br />Jeśli tak, to ukażmy na przykładzie to, czego się pewno i nie zbuduje, jak nie buduje się, a w ogóle, nie robi, wielu możliwych rzeczy, co jednak dałoby się skonstruować przy obecności środków i woli.<br />Powiedzmy (ale to tylko dla poglądowości: inaczej w ogóle niczego sobie nie unaocznimy), że istnieje wielki, jak dziesięć Księżyców, układ złożony, homeostatyczną piramida zamkniętych w sobie i z sobą sprzężonych, w dół schodzących systemów; coś w rodzaju maszyny cyfrowej, samonaprawiającej się, samodzielnej, samoorganizującej. Z jej stu trylionów elementów jedne stanowią “planety”, inne słońca, wokół których te planety krążą, itp. Całe mrowia, całe niezliczone ulewy impulsów mkną nieustannie wewnątrz tego (może do gromady gwiazd jako do źródła energii podłączonego) ogromu, jako promienie świetlne gwiazd, jako ruchy planetarnych powłok atmosferycznych, jako organizmy tamecznych zwierząt, fale oceanów, wodospady, liście lasów, jako barwy i kształty, zapachy i smaki. I doświadczają tego wszystkiego mieszkańcy “maszyny”, stanowiący jej części. Nie są oni jej częściami mechanicznymi, nic podobnego; są oni jej procesami. Procesami o pewnej koherencji szczególnej, o takim ciążeniu, o takich związkach, że stwarzają osobowość myślącą i czujące zmysły. Tak więc, doświadczają oni swojego świata jak my — naszego, bo przecież w istocie i to, co my odczuwamy jako zapachy, wonie czy kształty, jest w ostatniej instancji tam, gdzie czuwa odbiorca wszystkiego, świadomość, niczym innym jak tylko krzątaniną bioelektrycznych impulsów w zwojach mózgowych.<br />Przedsięwzięcie Kosmogonika różni się w istotny sposób od poprzednio opisanych zjawisk entomologicznych tym, że fantomatyka jest łudzeniem naturalnego mózgu dzięki wprowadzaniu weń impulsów, tożsamych z takimi impulsami, jakie wpływałyby weń, gdyby ów człowiek naprawdę przebywał w materialnym otoczeniu Przyrody. Świat Kosmogonika natomiast to obszar, do którego homo naturalis, człowiek cielesny jak my, nie ma dostępu, jak promień światła nie ma dostępu do wnętrza tych procesów elektrycznych, przy których pomocy maszyna cyfrowa bada zjawiska optyczne. Podobną nieco “niewkraczalność lokalną” znamy zresztą i z naszego własnego świata, bo nie można wszak wejść ani w cudzy sen, ani w cudzą jawę, tj. w obręb świadomości, ażeby bezpośrednio uczestniczyć w jej doznaniach.<br />Tak zatem, w przeciwieństwie do sytuacji fantomatyzowania, “sztuczni” (jeśli chcemy tak nazwać stwarzane) są w kosmogonice zarówno świat, jak i jego mieszkańcy. Żaden z nich jednak ani nic p tym nie wie, ani nie może wiedzieć. Odczuwa on dokładnie to samo, co człowiek przeżywający jawę czy fantomatyzowany (bo wiemy już, że doznania obu nie są dla przeżywającego do odróżnienia). Podobnie też, jak my nie możemy ani wyskoczyć z własnej skóry, ani zobaczyć cudzej świadomości, tak samo mieszkańcy owej kosmo—kreacji nie mogą się w żaden sposób przekonać o jej hierarchicznym charakterze, czyli o tym, że stanowi ona świat umieszczony w innym (a mianowicie w naszym) świecie.<br />Nie mogą oni również dojść tego, czy i kto ich “stworzył, razem z ich kosmicznym mieszkaniem, które penetrują, jak chcą. Nas przecież nikt (tj. nikt osobowy) nie stworzył, a mimo to nie brak filozofii głoszących, że tak właśnie było, że nasz świat nie jest wszystkim, itp. itd. A przecież ludzie, którzy to głosili, mieli takie same zmysły i takie same mózgi, jak my, a nieraz były to mózgi wcale sprawne. Zapewne więc i w owym świecie znajdą się różni filozofowie głoszący podobne tezy, z tą różnicą, że będą mieli rację. Ponieważ jednak nie będzie żadnego sposobu przekonania się o dowodności tych racji, empirycy owego świata zakrzyczą ich jako metafizyków i spirytualistów. Możliwe też, że jakiś fizyk tego świata, zajmujący się badaniem materii, wykrzyknie do swych ziomków: “Słuchajcie! odkryłem, że wszyscy jesteśmy zbudowani z bieganiny elektrycznych impulsów!” W czym będzie miał słuszność, bo naprawdę istoty te, jak również ich świat, właśnie tak i z tego zostały przez Inżyniera zrobione. Odkrycie to jednak w niczym nie zmieni powszechnego przeświadczenia, że istnienie jest materialne i realne. Znów słusznie: są bowiem z materii i z energii, jak my, którzy analogicznie składamy się z próżni i elektronów, a przecież wcale nie wątpimy przez to we własną materialność.<br />Zachodzi tu jednak pewna różnica budowy. Otóż, ten świat i te istoty są procesami materialnymi (jak np. te procesy w maszynie cyfrowej, którymi ona modeluje rozwój gwiazdy). Jednakże w maszynie cyfrowej zestroję impulsów, stanowiących model gwiazdy, są zarazem ładunkami elektryczności biegnącymi w kryształkach tranzystorów, w próżni lamp katodowych itp. Otóż, fizycy owego świata dojdą i tego, że impulsy elektryczne, z których oni oraz świat ich są zbudowani, składają się z pewnych elementów podrzędnych: w ten sposób dojdą istnienia elektronów, atomów itp. Ale i z tego nic nie wyniknie dla ich ontologii, ponieważ kiedyśmy się sami przekonali, że atomy składają się z mezonów, barionów, leptonów itd., nie dało to podstawy do snucia jakichś wniosków ontologicznych o naszej “sztucznej” genezie.<br />Fakt stworzenia (a właściwie “bycia stworzonym”) mogliby fizycy owego świata odkryć dopiero przez zestawienie naszego świata prawdziwego z ich własnym. Wtedy dopiero ujrzeliby, że nasz świat ma o jedno piętro Rzeczywistości mniej od ich świata (mniej, bo oni są zbudowani z impulsów elektrycznych, a te impulsy dopiero są z tego samego materiału, co nasz świat). W przenośnym nieco sensie”, świat stworzony jest czymś takim, jak bardzo trwały, bardzo długi i bardzo logicznie spójny sen, który się nikomu nie śni, ale który “śni się sam” — wewnątrz “maszyny cyfrowej”.<br />Wróćmy teraz do pytania, jakie przyczyny mogą pchnąć istoty rozumne na drogę działalności kosmokreacyjnej? Może być ich chyba wiele, i różnych. Nie chciałbym zmyślać przyczyn, jakie skierują jakąś cywilizację kosmiczną w tę stronę; dosyć, jeśli mówimy o przedziale technologicznego działania; motywy wynikają w toku cywilizacyjnego rozwoju. Może będzie to obrona przed lawiną informacyjną. W każdym razie, cywilizacja potomna (tj. zaprogramowana i zamknięta w opisany sposób) “otorbi się” względem pozostałego Kosmosu i stanie się nieosiągalna dla działań zewnętrznych (sygnałów itp.). Dość jest zabawne, że ona sama z kolei może budować wewnątrz swego świata, byle był odpowiednio obszerny i bogaty w różnorodność, podrzędne, następne hierarchicznie światy, tak w sobie nawzajem osadzone, jak jedna w drugiej mieszczą się zabawki dziecinne, malowane baby z drewna.<br />Ażeby nie wyglądało to na majaczliwe fantazjowanie, zauważmy, że złożoność dowolnego układu musi się, jakkolwiek powoli, zmniejszać, jeśli nie dostarczać mu jej z zewnątrz (inaczej powiedziawszy, entropia układów rośnie). Im układ jest większy, tym więcej posiada możliwych stanów równowagi i tym dłużej może procesami lokalnymi pozornie wyłamywać się spod prawa entropijnego wzrostu. Lokalnie bowiem może zachodzić spadek entropii, np. w procesie ewolucji organicznej, której bilans termodynamiczny jest w skali globu ujemny, skoro doszło do wzrostu informacji przez kilka miliardów lat. Oczywiście, bilans układu całego musi być dodatni (wzrost entropii słońca jest większy bez porównania od jej ziemskiego spadku). Wspomnieliśmy o “podłączeniu” kosmogonicznej kreacji do gwiazdy jako źródła niezbędnego porządku. Równie dobrze można całą powierzchnię “sfery zewnętrznej” takiego świata uczynić “pochłaniaczem energii” płynącej z Kosmosu naturalnego. Jest to jedyna wtedy szansa dla mieszkających tam istot: albo uznają, że entropia bardzo wielkiego, czyli w tym wypadku ich własnego systemu, nie musi rosnąć, albo dojdą tego, że skądś dopływa do ich “wszystkości” energia z zewnątrz.<br />Powróćmy do hierarchii światów w sobie osadzonych, którą zapoczątkowała decyzja jakiejś cywilizacji kosmicznej, uważającej nasz świat za zbytnio niedoskonały. Stworzy więc ta cywilizacja “świat otorbiony nr 2”, ale i jego mieszkańcy, po jakichś milionach lat, nie usatysfakcjonowani panującymi u nich warunkami, a łaknąc lepszej przyszłości dla swego potomstwa, sporządzą dlań świat nr 3, wewnątrz i z materiałów własnego. Kolejne te światy są to niejako “kosmomelioratory”, “prostowniki zła”, “rektyfikatory ontologiczne”, czy jak jeszcze zechce je ktoś nazwać. Być może w którymś z rzędu zapanuje taka wreszcie doskonałość bytu, że dalsze zajęcia kosmokreacyjne ustaną; ustać muszą tak czy owak, bo wszak nie mogą członkowie cywilizacji nr 100 000 osadzić swych synów i córek na powierzchni atomu…<br />Mógłby ktoś spytać, czy wydaje mi się choć trochę prawdopodobne, że ludzie podejmą kiedyś takie, albo przynajmniej zbliżone do nich plany.<br />Prosto zapytany, winienem prosto odpowiedzieć. Myślę, że raczej nie. Ale jeśli sobie uzmysłowić te niezliczone całkiem światy rozumu, krążące wewnątrz gigantycznych galaktyk, których to galaktyk jest niezrównanie więcej niż puszków dmuchawca w powietrzu nad rozległymi łąkami i niż ziaren piasku na pustyniach, to sama owa liczba czyni możliwym każde nieprawdopodobieństwo — jeśli tylko jest do urzeczywistnienia. Niechby w jednej z każdego miliona galaktyk. Ale żeby w całym tym przestworze gwiazdowego prochu nikt nigdy nie powziął myśli o takim przedsięwzięciu, nie mierzył sił na takie zamiary — to wydaje mi się właśnie czymś zgoła niewiarygodnym. Zanim ktoś zaprzeczy kategorycznie, niech się zastanowi; takim namysłom sprzyjają noce lipcowe, podczas których tak potężnie ugwieżdżone jest niebo.<br /><br /><br /><br />VIII. Paszkwil na ewolucję<br /><br />Wstęp<br /><br /><br />Kilka milionów lat temu zaczynało się ochłodzenie nadciągającej epoki lodowcowej. Góry rosły, kontynenty podnosiły się, dżungle, wskutek wzrastającej suszy, ustępowały miejsca trawiastym równinom. W miarę stepowienia środowisko życiowe czwororękich zwierząt leśnych, którym napowietrzny byt wśród gałęzi wydoskonalił precyzję ruchów dłoni i przeciwstawił kciuk reszcie palców, oczy zaś uczynił głównym zmysłem orientacji, środowisko to, wymagające przyjmowania postawy pionowej często, a może częściej od innych, kurczyło się. Rozliczne szczepy schodziły z drzew, coraz rzadszych i mniej dających schronienia, aby próbować swych sił na odległych równinach stepowych. Przez rezygnację z pionowej postawy i twarzy, przez wtórne wytworzenie pyska podobnego do psa powstał pawian. I tylko jeden z owych opuszczających siedziby drzewne eksperymentatorów ostał się oprócz niego w żywych.<br />Poszukiwanie prostej linii genealogicznej człowieka jest daremne, bo próby zejścia na ziemię i chodzenia ha dwu nogach ponawiane były niezliczoną ilość razy. Aż na stepy, gdzie pasły się roślinożerne czworonogi, w tę niszę ekologiczną przedlodowcową weszły antropoidy, o niepewnym chodzie, lecz przystosowane już neuralnie do zajmowania takiej postawy, która uformowała się w gąszczach dżungli. Miały już ludzką rękę i oko, nie miały jeszcze ludzkiego mózgu. Konkurencja uprzywilejowała jego wzrost. Zwierzęta te rywalizowały, żyjąc w grupach. Dzięki osobliwym przesunięciom wewnątrz—wydzielniczym przedłużyło się znacznie ich dzieciństwo, okres zbierania doświadczeń pod ochroną grupy. Mimika i wydawane dźwięki służyły porozumieniu, które potem przejść miało w mowę. Prawdopodobnie już wtedy zyskali praludzie długowieczność, znaczną w stosunku do antropoidów. W walce o byt przeżywały bowiem grupy posiadające w swym obrębie osobniki o największym doświadczeniu, to znaczy najstarsze, najdłużej żyjące. Pierwszy bodaj raz w ciągu ewolucji doszło zatem do wyselekcjonowania gatunku obdarzonego długą starością, gdyż po raz pierwszy okazała się biologicznie cenna, jako skarbnica informacji.<br />Ów prolog człowieka — to przejście od akcydentalnego, “małpiego” używania narzędzi do ich wytwarzania. Wyszło ono z kontynuowania technologii “małpiej” — rzutu kamieniem, ostrym drzewcem, który jest zaczątkiem działania na odległość. Przejście do paleolitu, to powstanie pierwszych maszyn prostych, to wykorzystanie procesów świata otaczającego: ognia, jako narzędzia homeostazy, uniezależniającego od klimatu, wody, jako środka transportowego. Tryb życia ulegał zmianie z myśliwskiej włóczęgi na koczownictwo, potem — osadnictwo, kiedy z żywienia się roślinami przeszli ludzie do ich uprawy; było to już w milion lat po początku. Był to już neolit.<br />Zdaje się, że nie pochodzimy od Neandertalczyka, ale że formę tę, z nami tak blisko spokrewnioną, unicestwiliśmy. Niekoniecznie jako zabójcy czy zjadacze; walka o byt przejawia się w rozmaitych formach. Neandertalczyk był tak bliski człowieka pierwotnego, homo primigenius, że się te szczepy mogły krzyżować, co prawdopodobnie zachodziło. Ale choć Neandertalczyk, zagadkowy przez znaczną pojemność swej czaszki, większą od przeciętnej u człowieka współczesnego, wytworzył własną kulturę, zginął wraz z nią. Człowiek pierwotny wytworzył nową. Niewiele minęło potem czasu, w skali geologicznej, do rozpoczęcia się pierwszej, właściwej fazy rozwoju technologicznego. Kilka tysięcy lat szeregu cywilizacji, osiadłych głównie w pasie podzwrotnikowym. Są one przecież chwilą w porównaniu z tym milionem, który ukształtował człowieka i grupę socjalną.<br />W tej pierwszej fazie przychodzi najpierw użycie “naturalnych” źródeł energii pozaludzkiej (zwierzę pociągowe), ale i ludzkiej (niewolnik). Wynalazek koła i ruchu obrotowego, ominięty przez niektóre wysoko nawet rozwijające się cywilizacje (Ameryki Środkowej) staje się podstawą budowania maszyn o działaniu wąskim, niezdolnym do samoadaptacji. Wykorzystuje się energię otoczenia — wiatru, wody, węgla kamiennego; niedługo potem — elektryczności. Ta prócz poruszania maszyn pozwala przesyłać informację na wielkie odległości. Umożliwia to energiczną koordynację działań i szybszy postęp przebudowy naturalnego otoczenia w sztuczne.<br />Przechodzenie ku fazie drugiej rozpoczyna się od istotnych zmian technologicznych. Wyzwalanie w silnikach mocy, dorównujących skalą zjawiskom Natury, pozwala przezwyciężyć grawitację. Obok energii atomowej udostępnione zostaje konstruktorstwo cybernetyczne, którego istota polega na zastępowaniu mechanicznego budowania maszyn — programowaniem ich rozwoju i działania. Jest to jawny wynik naśladowania zjawisk życiowych, traktowanych już, chociaż w sposób nie zawsze uświadomiony, jako wzór raczej, jako wytyczna działania, aniżeli tylko jako obiekt bezradnego podziwu, wywołanego ich bezapelacyjną wyższością.<br />Budowanie układów coraz bardziej złożonych wypełnia stopniowo wielką lukę, ziejącą w wiedzy teoretycznej, która oddziela już względnie zupełną wiedzę o urządzeniach tak prostych, jak maszyna parowa czy elektryczna, od systemów tak skomplikowanych, jak ewolucja lub mózg. W pełni swego rozmachu rozwój ten zmierza ku “imitologii ogólnej”, ponieważ człowiek uczy się stwarzać wszystko, co istnieje, od atomów (antymateria syntetycznie produkowana w laboratoriach) aż po odpowiedniki własnego systemu nerwowego.<br />Zachodzący podówczas lawinowy wzrost informacji ujawnia człowiekowi, że manipulowanie nią stanowi odrębną gałąź technologiczną. Znaczną pomoc przynosi badanie metod, jakich w tym zakresie używa bioewolucja. W perspektywie zarysowuje się możliwość przezwyciężenia kryzysu informacyjnego, dzięki automatyzacji procesów poznawczych (np. w “hodowli informacji”). Może to pozwolić na perfekcję działań, opartą na zasadzie budowania dowolnie złożonych układów pewnych z elementów niepewnych. Znów dzięki wiedzy o analogicznej technologii zjawisk biologicznych. Realne staje się całkowite oddzielenie produkcji dóbr od ludzkiego nadzoru; równolegle wyłaniają się “techniki hedonistyczne” (fantomatyka i in.). Granicą tego ciągu jest jakaś inżynieria kosmogoniczna, czyli stwarzanie światów sztucznych, ale do tego stopnia wyobcowanych już i niezawisłych od Natury, że zastępujących jej świat pod każdym względem. Tym samym zaciera się różnica pomiędzy “sztucznym” a “naturalnym”, skoro “sztuczne” może “naturalne” prześcignąć w obrębie dowolnie wybranych parametrów, na jakich Konstruktorowi zależy.<br />Tak przedstawia się pierwsza faza ewolucji technologicznej człowieka. Nie jest ona kresem rozwoju. Historia cywilizacji, z jej antropoidalnym prologiem i możliwymi przedłużeniami, jakieśmy ukazali, stanowi trwający łącznie tysiąc do trzech tysięcy wieków proces poszerzania zakresu homeostazy, to jest zmieniania przez człowieka jego środowiska. Władza ta, penetrująca technologicznymi narzędziami mikro— i makrokosmos aż do najdalszej, zarysowanej granicy “pantokreatycznej”, nie tyka jednak samego organizmu ludzkiego. Człowiek pozostaje ostatnim reliktem Natury, ostatnim “autentycznym dziełem Przyrody” wewnątrz stwarzanego przez się świata. Stan taki nie może trwać dowolnie długo. Inwazja stworzonej przez człowieka technologii w jego ciało jest nie do uniknięcia.<br /><br /><br /><br />Rekonstrukcja gatunku<br /><br /><br />Zjawisko to, stanowić mające treść drugiej fazy cywilizacyjnego rozwoju, można rozpatrywać i interpretować rozmaicie. Różne też, w pewnych granicach, mogą być jego rzeczywiste formy i kierunki. Ponieważ jakiś schemat jest nam dla dalszych rozważań niezbędny, posłużymy się najprostszym, pamiętając tylko o tym, że to jest schemat, a więc uproszczenie.<br />Można, po pierwsze, uznać organizm ludzki za dany i — w konstrukcji ogólnej — nienaruszalny. Wtedy zadania biotechnologii polegać będą na usuwaniu chorób i ich profilaktyce, a także na zastępowaniu wypadających funkcji bądź zdefektowanych narządów już to namiastkami biologicznymi (typu transplantacji, przeszczepu tkankowego), już to technicznymi (protetyka). Jest to ujęcie najbardziej tradycyjne i krótkowzroczne.<br />Po drugie, można — robiąc wszystko, co podane wyżej — działaniom talom przydać, jako nadrzędne, zastąpienie ewolucyjnych gradientów Natury celową, regulacyjną praktyką człowieka. Regulacja podobna może mieć z kolei rozmaite cele. Bądź to za najważniejsze uznaje się wyeliminowanie tych wszystkich szkodliwych skutków, jakie powoduje brak, w obrębie sztucznego otoczenia cywilizacyjnego, selekcji naturalnej, niszczącej gorzej przystosowanych. Bądź też ów program skromny zastępuje program — maximum: biologicznej autoewolucji, która ma ukształtować kolejne, coraz doskonalsze typy ludzkie (przez istotne zmiany takich dziedzicznych parametrów, jak np. mutabilności, zapadalności na nowotwory, jak kształty ciała, korelacje wewnątrz— i międzytkankowe, a wreszcie — przez zmiany parametrów długości życia, a może i rozmiarów i złożoności mózgu). Jednym słowem, byłby to, rozłożony w czasie może na wieki, może na tysiąclecia, plan stworzenia “następnego modelu homo sapiens”, nie nagłym skokiem,” ale drogą zmian powolnych i stopniowych, co wygładziłoby międzypokoleniowe różnice.<br />Po trzecie wreszcie, można cały problem potraktować w sposób daleko bardziej radykalny. Można mianowicie zarówno dane przez Naturę rozwiązanie konstrukcyjne zadania, “jaką ma być Istota Rozumna?”, jak i to rozwiązanie, do którego dałoby się dojść przejętymi od niej, autoewolucyjnymi środkami, uznać za niedostateczne. Zamiast ulepszać czy “łatać” model istniejący w zakresie takich lub innych parametrów, można ustalić ich nowe wartości arbitralnie. Zamiast względnie skromnej długowieczności biologicznej — zażądać prawie—nieśmiertelności. Zamiast wzmocnienia konstrukcji danej przez Naturę w takich granicach, na jakie w ogóle pozwoli użyty przez nią budulec — zażądać wytrzymałości najwyższej, jakiej potrafi dostarczyć istniejąca technologia. Jednym słowem, rekonstrukcję zastąpić całkowitym przekreśleniem rozwiązania istniejącego i zaprojektować zupełnie nowe.<br />To ostatnie wyjście z dylematu wydaje się nam dzisiaj tak zupełnie absurdalne, tak nie do przyjęcia, że warto posłuchać argumentów, jakie by mógł wypowiedzieć jego zwolennik.<br />Najpierw — powie on — droga rozwiązań “profilaktyczno–protetycznych” jest konieczna i nieuchronna, czego najlepszym dowodem, że właściwie ludzie już na nią wkroczyli. Istnieją już protezy, zamieniające czasowo serce, płuca, krtań, istnieją syntetyczne naczynia krwionośne, sztuczna krezka, syntetyczne kości, wyściółka jam opłucnowych, sztuczne powierzchnie stawowe z teflonu. Projektuje się protezy ręki, bezpośrednio uruchamiane bioprądami kikutów mięśniowych pasa barkowego. Myśli się o urządzeniu utrwalającym zapis bodźców nerwowych, uruchamiających kończyny podczas chodzenia; człowiek, sparaliżowany wskutek uszkodzenia rdzenia kręgowego będzie mógł chodzić, mając aparat, dowolnie przezeń nastawiany, który wysyła właściwe impulsy, “nagrane” u osobnika zdrowego, do nóg.<br />Zarazem rosną możliwości stosowania przeszczepów; po rogówce, elementach kostnych, po szpiku wytwarzającym krew, kolej na życiowo ważne narządy. Fachowcy twierdzą, że transplantacja płuca jest kwestią niedalekiej przyszłości*. Przezwyciężenie biochemicznej obrony organizmu przed obcymi gatunkowo białkami pozwoli na stosowanie przeszczepianych serc, żołądków, itp. O tym, czy będzie się stosowało transplantaty, czy też raczej organy namiastkowe z substancji abiologicznej, każdorazowo zadecyduje aktualny stan wiedzy i poziom technologii. Pewne organy będzie chyba łatwiej zastępować mechanicznymi, inne natomiast muszą się doczekać opracowania techniki skutecznych przeszczepów. Co jednak najistotniejsze, dalszy rozwój protetyki biologicznej i abiologicznej będzie dyktowany nie tylko potrzebami ustroju ludzkiego, ale równocześnie i potrzebami nowych technologii.<br />Wiemy już dziś dzięki badaniom uczonych amerykańskich, że siłę skurczów mięśniowych można znacznie spotęgować, wstawiając pomiędzy nerw a mięsień wzmacniacz elektronowy impulsów. Model aparatu zbiera pobudzenia nerwowe, adresowane do mięśni, ze skóry, wzmacnia je i doprowadza do właściwych efektorów. Niezależnie, uczeni rosyjscy zajmujący się bioniką, nauką o efektorach i receptorach żywych organizmów, skonstruowali urządzenie poważnie skracające czas reakcji człowieka. Czas ten jest zbyt długi przy sterach rakiet kosmicznych, a nawet naddźwiękowych samolotów. —Impulsy nerwowe biegną z prędkością setki metrów zaledwie na sekundę, a muszą od narządu zmysłowego (np. oka) dotrzeć do mózgu, stamtąd, nerwami, do mięśni (efektorów), co zajmuje kilka dziesiętnych sekundy. Otóż impulsy, wychodzące z mózgu i biegnące pniami nerwowymi, zbierają oni i bezpośrednio kierują do efektora mechanicznego. W ten sposób wystarczy, aby pilot zechciał poruszyć sterem, a ster się przesunie. Sytuacja, która powstanie po rzetelnym udoskonaleniu podobnych technik, będzie paradoksalna. Osobnik okaleczony tak czy inaczej wskutek nieszczęśliwego wypadku czy choroby, będzie po sprotezowaniu znacznie przewyższał normalnego osobnika. Trudno bowiem nie zaopatrzyć go w protezę najlepszą z istniejących, a istniejące działać będą szybciej, sprawniej i pewniej od organów naturalnych!<br />Co się tyczy proponowanej “autoewolucji”, ma się ona ograniczyć do takich przekształceń ustroju, jakie leżą jeszcze w granicach plastyczności biologicznej. Ograniczenie takie nie jest jednak konieczne. Organizm nie może wytwarzać programowaniem genotypowej informacji dziedzicznej diamentów ani stali, bo do tego niezbędne są wysokie temperatury i ciśnienia, jakich zrealizować w embriogeaezie niepodobna. Tymczasem np. już teraz można stwarzać protezy, osadzone na stałe w kościach szczęki, które, sporządzone w swych zębowych częściach z najtwardszych materiałów —jakich organizm nie wytworzy — są praktycznie niezniszczalne. Przecież najważniejsza jest perfekcja wykonania i działania organu, a nie jego geneza.<br />Stosując penicylinę nie troszczymy się o to, czy wyprodukowało ją laboratorium w retortach, czy też autentyczny grzybek na pożywce. Planując więc rekonstrukcję człowieka i ograniczając się do tych środków, jakich rozwój umożliwi informacyjny przekaz plazmy dziedzicznej, zupełnie niepotrzebnie rezygnujemy z zaopatrzenia ustroju w takie udoskonalone układy, w takie nowe funkcje, jakie byłyby wielce przydatne i użyteczne.<br />Odpowiadamy na to, że zwolennik przewrotu konstrukcyjnego nie zdaje sobie chyba sprawy z konsekwencji własnych postulatów. Przecież nie chodzi nam jedynie o wąsko rozumiane przywiązanie człowieka do takiego ciała, jakie posiada. Cielesnością, w kształtach i wyrazie, danymi nam przez Naturę, wypełniona jest cała kultura i sztuka wraz z najbardziej abstrakcyjnymi teoriami. Cielesność ukształtowała kanony wszystkich historycznych estetyk, wszystkie istniejące języki, a przez to i całość myślenia ludzkiego. Cielesny jest przecież nasz duch; nieprzypadkowo to słowo wywodzi się z oddychania. Wbrew pozorom, nie ma też wartości, które powstałyby bez udziału czynnika cielesnego. Jak najbardziej cielesna jest miłość, w jej najmniej fizjologicznym rozumieniu. Gdyby człowiek naprawdę miał sam siebie przekształcić pod naciskiem wytworzonych własnymi rękami technologii, gdyby miał za swego następcę uznać robota z doskonałym mózgiem krystalicznym, byłoby to największym jego szaleństwem. Oznaczałoby to ni mniej, ni więcej, jak tylko fakt zbiorowego samobójstwa rasy, przysłonięty pozorem jej kontynuacji w maszynach myślących, które stanowią część wytworzonej technologii: tak zatem człowiek, w ostatecznej konsekwencji, dopuściłby do tego, aby urzeczywistniona przezeń technologia wyparła go z miejsca, w którym istniał, z jego niszy ekologicznej, aby stała się ona niejako nowym syntetycznym gatunkiem, który usuwa z areny dziejów gatunek gorzej przystosowany.<br />Argumenty te nie przekonują naszego przeciwnika. Cielesność kultury ludzkiej doskonale znam — mówi — ale nie uważam, aby wszystko w niej było, jako bezcenne, godne wiekuistego utrwalenia. Wiecie przecież, jak fatalny wpływ na rozwój określonych pojęć, na powstawanie kanonów społecznych i religijnych, miały fakty tak, w gruncie rzeczy, przypadkowe, jak na przykład lokalizacja narządów rozrodczych. Oszczędność działania i obojętność na względy w naszym rozumieniu estetyczne spowodowała zbliżenie i częściowo zespolenie dróg wydalających produkty końcowe przemiany materii z drogami płciowymi. Sąsiedztwo to, biologicznie racjonalne, stanowiące zresztą nieunikniony skutek rozwiązania konstrukcyjnego, urzeczywistnionego jeszcze na etapie płazów i gadów, więc setki milionów lat temu, rzuciło w oczach ludzi, kiedy poczęli badać i obserwować własne funkcje organiczne, haniebny i grzeszny cień na akt płciowy. Nieczystość tego aktu narzucała się niejako automatycznie, skoro realizowany był narządami tak ściśle związanymi z funkcjami wydalniczymi. Organizm winien unikać końcowych produktów wydalania, bo to jest biologicznie ważne. Zarazem jednak winien dążyć do zespolenia płciowego, które jest niezbędne ewolucyjnie. Otóż, ześrodkowanie dwu diametralnie sprzecznych nakazów, o takim znaczeniu, musiało przyczynić się walnie do powstania mitów o grzechu pierworodnym, o naturalnej nieczystości życia płciowego i jego przejawów, i miotany między dziedzicznie zaprogramowaną repulsją i atrakcją, umysł wytwarzał już to cywilizacje oparte na pojęciu grzechu i winy, już to cywilizacje wstydu i kanalizowanej rytuałami rozpusty. Tyle po pierwsze. Po drugie, nie postuluję żadnej “robotyzacji” człowieka. Jeśli mówiłem o rozmaitych elektronowych i innych protezach, to jedynie aby odwołać się do takich przykładów konkretnych, jakie są dzisiaj dostępne. Przez robota pojmujemy mechanicznego bałwana, z grubsza człekokształtną maszynę, obdarzoną inteligencją ludzką. Jest on więc prymitywną karykaturą człowieka, a nie jego następcą. Rekonstrukcja ustroju nie ma oznaczać rezygnacji z żadnych cech wartościowych, a jedynie eliminację cech właśnie u człowieka niedoskonałych i prymitywnych. Ewolucja działała, kształtując nasz gatunek, z wyjątkową szybkością. Tendencja jej właściwa, zachowywania konstrukcyjnych rozwiązań gatunku wyjściowego, dopóki to tylko jest możliwe, obciążyła nasze organizmy szeregiem mankamentów, które nie znane są naszym czworonożnym przodkom. Miednica kostna nie podtrzymuje u nich ciężaru trzewi. Ponieważ u człowieka musi go unieść, powstały mięśniowe przepony, utrudniające poważnie akt porodu. Pionowa postawa wpłynęła również szkodliwie na hemodynamikę. Zwierzęta nie znają żylaków, jednej z plag ludzkiego ciała. Gwałtowny wzrost mózgoczaszki doprowadził do takiego skręcenia pod prostym kątem jamy gardzielowej (tam, gdzie ona przechodzi w przełyk), że w miejscu tym powstają zawirowania powietrza, osadzające na ścianach gardła wyjątkowe ilości aerozoli i drobnoustrojów, przez co gardziel stała się bramą wypadową wielkiej ilości zakaźnych chorób. Ewolucja usiłowała przeciwdziałać temu, otaczając krytyczne miejsce pierścieniem tkanki limfatycznej, ale ta improwizacja nie tylko nie dała rezultatów, ale stanowi źródło nowych dolegliwości, ponieważ te skupiska tkanki stały się siedzibami zakażeń ogniskowych. Nie twierdzę, że przodkowie zwierzęcy człowieka przedstawiali konstrukcyjne rozwiązania idealne; z ewolucyjnego punktu widzenia, “idealny” jest każdy gatunek, jeśli jest zdolny do trwania. Twierdzę jedynie, że nawet nasza niezmiernie uboga i niezupełna wiedza pozwala wyobrazić sobie takie rozwiązania, na razie nieurzeczywistnialne, które oswobodziłyby ludzi od niezliczonych cierpień. Protezy wszelkiego rodzaju wydają się nam czymś gorszym od kończyn i narządów naturalnych, ponieważ dotąd rzeczywiście ustępują takowym sprawnością. Oczywiście rozumiem, że tam, gdzie technologia tego nie wymaga, można uczynić zadość kryteriom przyjętej estetyki. Powierzchnia zewnętrzna ciała nie wydaje się nam piękna, jeśli jest pokryta kosmatym futrem, tak samo jak gdyby miała być ze stalowej blachy. Ale może przecież niczym, ani dla oka, ani dla innych zmysłów, nie różnić się od skóry. Co innego z gruczołami potowymi; wiadomo, jak ludzie cywilizowani dbają o zniweczenia skutków ich działania, przysparzającego niektórym w higienie osobistej mnóstwo kłopotu. Mniejsza zresztą o takie szczegóły. Nie mówimy przecież o tym, co może być za dwadzieścia albo za sto lat, lecz o tym, co jest jeszcze do pomyślenia. Nie wierzę w żadne rozwiązania ostateczne. Bardzo prawdopodobne, że “nadczłowiek” po pewnym czasie uzna się z kolei za twór niedoskonały, bo nowe technologie umożliwią mu to, co nam wydaje się fantazją po wieczność nierealizowalną (np. “przesiadanie się z osobowości w osobowość”). Dzisiaj przyjęte jest, że można stworzyć symfonię, rzeźbę lub obraz świadomym wysiłkiem umysłowym. Natomiast myśl o “skomponowaniu” sobie potomka, o jakiejś orkiestracji tych cech duchowych i fizycznych, jakie byśmy pragnęli w nim ujrzeć, taka myśl jest przebrzydłą herezją. Ale kiedyś za herezję poczytywano chęć latania, pragnienie studiowania ciała ludzkiego, budowanie maszyn, dociekanie początków życia na ziemi, a czasy, w których powszechnie tak myślano, dzielą od nas ledwo stulecia. Jeśli mamy okazać się intelektualnymi tchórzami, oczywiście możemy przemilczeć prawdopodobieństwo przyszłego rozwoju. Ale w takim razie przynajmniej to, że zachowujemy się jak tchórze, trzeba wyraźnie powiedzieć. Człowiek nie może zmieniać świata, nie zmieniając samego siebie. Można stawiać pierwsze kroki na jakiejś drodze i udawać, że nie wie się, dokąd ona prowadzi. Ale to nie jest najlepsza ze wszystkich możliwych strategii.<br />Ta wypowiedź entuzjasty rekonstrukcji gatunku zasługuje, jeśli nie na akceptację, to przynajmniej na rozpatrzenie. Wszelki sprzeciw zasadniczy pochodzić może z dwóch różnych postaw. Pierwsza jest emocjonalna raczej aniżeli racjonalna, w tym przynajmniej sensie, że odmawia zgody na rewolucję ludzkiego organizmu, nie przyjmując do wiadomości argumentów “biotechnologicznych”. Uważa ona konstytucję człowieka taką, jaka istnieje dziś, za nienaruszalną, nawet jeśli przyznaje, że cechują ją liczne ułomności. Ale i te ułomności, zarówno fizyczne, jak i duchowe, stały się w toku rozwoju historycznego wartościami. Bez względu na to, jaki byłby rezultat autoewolucyjnego działania, oznacza on, że człowiek ma zniknąć z powierzchni Ziemi; obraz jego w oczach “następcy” byłby martwą nazwą zoologiczną, jaką jest dla nas Australopithecus czy Neandertalczyk. Dla istoty prawie—nieśmiertelnej, której własne ciało podlega tak samo, jak otoczenie, nie istniałaby większość odwiecznych problemów ludzkich; przewrót więc biotechnologiczny jest nie tylko zgładzeniem gatunku Homo Sapiens, ale i zabójstwem jego duchowej puścizny. Jeśli nie jest fantasmagorią, perspektywa taka wydaje się tylko szyderstwem: zamiast rozwiązać swe problemy, zamiast znaleźć odpowiedzi na dręczące od wieków pytania, człowiek ma schronić się przed nimi w materialnej doskonałości; cóż to za haniebna ucieczka, co za porzucenie odpowiedzialności, kiedy przy pomocy technologii homo przepoczwarzą się w owego deus ex machina! Druga postawa nie wyklucza pierwszej: prawdopodobnie dzieli jej argumentację i uczucia, ale czyni to milcząc. Gdy zabiera głos, stawia pytania. Jakie konkretne usprawnienia i rekonstrukcje proponuje “autoewolucjonista”? Odmawia udzielenia wyjaśnień szczegółowych, jako przedwczesnych? A skąd wie, czy niedościgniona dzisiaj doskonałość biologicznych rozwiązań zostanie kiedykolwiek prześcignięta? Na jakich faktach opiera to swoje przypuszczenie? Czy nie jest raczej prawdopodobne, że ewolucja osiągnęła pułap materialnych możliwości? Że złożoność, jaką reprezentuje organizm ludzki, stanowi wielkość graniczną? Oczywiście, wiadomo i dzisiaj, że w zakresie oddzielnie rozpatrywanych parametrów, takich jak szybkość przekazu informacyjnego, jak niezawodność lokalnego działania, jak stałość funkcji dzięki powielaniu jej realizatorów i kontrolerów, układy maszynowe mogą przewyższać człowieka, ale czymś innym jest spotęgowanie, wziętych z osobna, mocy, wydajności, szybkości czy trwałości, a czymś innym zupełnie — integracja tych wszystkich rozwiązań optymalnych w jednym systemie.<br />Autoewolucjonista gotów jest podnieść rzuconą rękawicę — i argumentom przeciwstawić kontrargumenty. Ale nim przejdzie do dyskusji z poglądami przeciwnika—racjonalisty, zdradza, że w gruncie rzeczy postawa pierwsza nie jest mu obca. W głębi ducha bowiem odczuwa taki sam przeraźliwy sprzeciw w obliczu planów rekonstrukcji gatunku, jak ten, kto ją kategorycznie potępił. Uważa jednak tę przyszłą przemianę za nieuchronną, i właśnie dlatego szuka wszystkich racji, jakie by za nią przemawiały, tak aby działanie koniecznie pokryło się z rezultatem wyboru. Nie jest apriorycznym oportunistą: nie uważa, że to, co konieczne, musi tym samym być dobre. Ale ma nadzieję, że tak przynajmniej może być.</div><div><br /><br /><br />Konstrukcja życia<br /><br /><br />Aby zaprojektować dynamomaszynę, wcale nie trzeba znać historii jej wynalezienia. Młody inżynier może się bez niej doskonale obejść. Okoliczności historyczne, jakie kształtowały pierwsze modele prądnic, są, a przynajmniej mogą mu być całkiem obojętne. Zresztą dynamomaszyna jest właściwie, jako urządzenie do przekształcania energii kinetycznej bądź chemicznej w elektryczną, raczej przestarzała. Kiedy, niedługo już, elektryczność będzie się wytwarzać bez kłopotliwej okólności przekształceń kolejnych (energia chemiczna węgla — w cieplną, cieplna — w kinetyczną, kinetyczna dopiero —w elektryczną), produkując ją np. w stosie atomowym bezpośrednio, tylko historyk techniki będzie znał konstrukcję dawnych generatorów prądowych. Taka niezawisłość od historii rozwoju jest biologii obca. Mówimy to, ponieważ przystępujemy do krytyki ewolucyjnych rozwiązań.<br />Otóż może to być tylko krytyka konstruktorska rezultatów, abstrahująca od wszystkich poprzedzających je faz działania. Co prawda ludzie skłonni są raczej widzieć doskonałość biologicznych rozwiązań, ale to dlatego, że ich własne umiejętności pozostają daleko w tyle za biologicznymi. Dla dziecka każdy czyn dorosłego jest czymś potężnym. Trzeba dorosnąć, aby w poprzedniej perfekcji dojrzeć jej słabość. Ale to nie wszystko. Właśnie konstruktorska lojalność nakazuje ocenę realizacji biologicznych, nie ograniczoną do paszkwilu na konstruktora, który oprócz życia dał nam śmierć, a cierpień więcej od rozkoszy. Ocena bowiem winna ująć go takiego, jakim był. A był, przede wszystkim, bardzo daleko od wszechmocy. W chwili startu ewolucja była osadzonym na pustej planecie Robinsonem, pozbawionym nie tylko narzędzi i pomocy, nie tylko wiedzy i zdolności przewidywania, ale i samego siebie, to znaczy planującego umysłu, ponieważ prócz gorącego oceanu, burzowych wyładowań i atmosfery beztlenowej z palącym słońcem nie było nikogo. Mówiąc zatem, że ewolucja rozpoczęła tak a tak, że robiła to a to, personalizujemy pozbawione nie to, że osobowości, ale nawet celu pierwsze pełzania procesu samoorganizacji.<br />Był on preludium wielkiego dzieła, nie znającym ani owego dzieła, ani nawet jego najbliższych taktów. Chaosy molekularne dysponowały, poza właściwymi sobie potencjami materialnymi, jedynym tylko ogromnym wymiarem swobody: czasem.<br />Niespełna sto lat temu oceniano wiek Ziemi na 40 milionów lat. Wiemy, że istnieje ona co najmniej cztery ich miliardy. Ja sam uczyłem się, że życie istnieje na niej od kilkuset milionów lat. Znane teraz ostatki organicznych substancji, należące ongiś do żywych istot, mają dwa miliardy siedemset milionów lat. Jeśli będziemy liczyć od dnia dzisiejszego wstecz, to 90 procent całego czasu ewolucji upłynęło, nim powstały pierwsze kręgowce. Stało się to z górą 350 milionów lat temu. Po dalszych 150 milionach lat potomkowie owych ryb kostnoszkieletowych wyszli na ląd, opanowali powietrze, a po ssakach, liczących sobie 50 milionów lat, przed milionem powstał człowiek. Łatwo żonglować miliardami. Bardzo trudno uzmysłowić sobie konstruktorskie znaczenie .takich liczb, takich otchłani czasu. Jak widać, przyspieszenie następujących po sobie, kolejnych rozwiązań, cechuje nie tylko techniczną ewolucję. Nie tylko kumulacja wiedzy teoretycznej, gromadzonej społecznie, ale i genetycznej utrwalanej w plazmie dziedzicznej, przyspiesza postęp.<br />Ponad dwa i pół miliarda lat życie rozwijało się wyłącznie w wodzie oceanów. Powietrze i lądy były w tych epokach martwe. Znamy około 500 kopalnych gatunków z epoki kambryjskiej (ponad pół miliarda lat temu). Z przedkambryjskiej jednak udało się, mimo bez mała stuletnich usilnych poszukiwań, odkryć zaledwie pojedyncze. Ta zadziwiająca luka nie jest do dziś wytłumaczona. Wygląda na to, że ilość żyjących form wzrosła poważnie w czasie stosunkowo krótkim (rzędu milionów lat). Formy przedkambryjskie to prawie wyłącznie rośliny (algi), zwierzęcych zaś niemal brak. Można je policzyć na palcach ręki. W kambrze jednak pojawiają się masowo. Niektórzy uczeni skłonni są do przyjęcia hipotezy jakiejś radykalnej, globalnej zmiany warunków ziemskich. Może był to skok natężenia promieni kosmicznych, w myśl wspomnianej hipotezy Szkłowskiego. Jakkolwiek miały się rzeczy, nieznany czynnik musiał działać w skali całej planety, ponieważ luka przedkambryjska odnosi się do całokształtu danych paleontologicznych. Z drugiej strony, nie było tak, ażeby wody oceaniczne do początków dolnego kambru zawierały, z nieznanych przyczyn, stosunkowo niewielką ilość żywych ustrojów w ogóle i by pojawienie się w kambrze licznych nowych gatunków poprzedził gwałtowny wzrost liczebności form poprzednich. Organizmów żywych było już i w archeozoiku wiele: z danych geologicznych wiemy bowiem, że już na długo przed kambrem stosunek tlenu do azotu w atmosferze był podobny do dzisiejszego. Że zaś tlen powietrza jest produktem działalności żywych ustrojów, wynika z tego, iż ogólna ich masa musiała być niezbyt mniejsza od współczesnej. Brak form kopalnych spowodowała, przynajmniej częściowo, ich nietrwałość: przedkambryjskie nie posiadały szkieletów ani skorup mineralnych. W jaki sposób, i dlaczego doszło do takich “rekonstrukcji” w kambrze, nie wiemy. Być może, nie da się tego problemu rozstrzygnąć nigdy. Ale możliwe jest również, że dokładniejsze poznanie kinetyki biochemicznej wprowadzi nas na trop tej zagadki, jeśliby się udało, w oparciu o strukturę homeostazy białkowej współczesną, dość tego, jakie jej formy prymitywniejsze mogły ją, z największym prawdopodobieństwem, poprzedzać. O ile, oczywiście, rozwiązanie zagadki sprowadza się do czynników wewnątrzustrojowych raczej aniżeli do jakiejś jednorazowej sekwencji zmian kosmicznych, geologicznych bądź klimatycznych na przełomie kambru.<br />Mówimy o tym dlatego, ponieważ “przełom kambryjski” mógł zostać wywołany jakimś “biochemicznym wynalazkiem” ewolucji. Jeśli tak nawet było, nie zmienił on przyjętej wstępnie, fundamentalnej zasady budownictwa, opartej na komórkowych cegiełkach.<br />Ewolucję życia poprzedziła, bez wątpienia, ewolucja reakcji chemicznych; prakomórki nie musiały zatem żywić się martwą materią, jako źródłem ładu. Nie mogłyby zresztą od razu rozwiązać tego, jednego z najtrudniejszych zadań, jakim jest synteza ciał organicznych z prostych związków, w rodzaju dwutlenku węgla, dzięki energii fotonów słonecznych. Ten majstersztyk syntezy zrealizowały dopiero rośliny, posiadłszy sztukę wytwarzania chlorofilu i całej aparatury enzymów, łowiących kwanty promieniste. Szczęśliwie, na początku praorganizmy dysponowały zapewne substancjami organicznymi, które mogły łatwo przyswajać, a które stanowiły pozostałość owego nadmiaru, jaki je zrodził. Powstał on w toku procesów takich, jak np. wyładowania elektryczne w atmosferze amoniaku, azotu i wodoru.<br />Powróćmy jednak do podstawowego problemu dynamicznego elementarnej komórki. Musi ona kontrolować istotne parametry swych przemian tak, aby z zakresu fluktuacji jeszcze odwracalnych nie wyniknęły się poza granicę odwracalności — w rozkład, więc w śmierć. W płynnym ośrodku koloidowym kontrola taka musi zachodzić z ograniczoną szybkością. Otóż fluktuacje wywołane statystyczną naturą ruchów molekularnych nie mogą zachodzić szybciej, aniżeli odbywa się ogólnokomórkowe krążenie informacji. W przeciwnym razie centralny regulator, jądro, utraciłby władzę nad toczącymi się lokalnie procesami: informacja o potrzebie interwencji przybywałaby wówczas z reguły zbyt późno. Oznaczałoby to początek zmian już nieodwracalnych. Tak więc rozmiary komórki dyktowane są, w ostatniej instancji, parametrami szybkości przekazu informacyjnego z dowolnego miejsca komórki do regulatorów oraz szybkości toczących się lokalnie procesów chemicznych. We wczesnych swych fazach ewolucja produkowała komórki nieraz znacznie różniące się rozmiarami. Niemożliwa jest jednak komórka wielkości dyni, czy wręcz słonia. Wynika to z nazwanych wyżej ograniczeń.<br />Należy zauważyć, że dla człowieka–technologa komórka jest urządzeniem co najmniej niezwykłym, które może podziwiać raczej, aniżeli rozumieć. Organizm tak “prosty”, jak pałeczka (bakteria) okrężnicy, dzieli się co 20 minut. W tym czasie bakteria produkuje białka w tempie 1000 molekuł na sekundę. Ponieważ pojedyncza cząstka białka składa się z około 1000 aminokwasów, z których każdy musi być odpowiednio “rozmieszczony” w przestrzeni i “dopasowany” do powstającej konfiguracji molekularnej, jest to nie byle jakie zadanie. Najbardziej przezorna ocena szacunkowa wskazuje, że bakteria wytwarza co najmniej 1000 bitów informacji na sekundę. Liczba ta przemówi należycie, jeśli zestawimy ją z ilością bitów informacji, jakiej może podołać umysł ludzki. Wynosi ona około 25 bitów na sekundę. Drukowana strona tekstu o małej nadmiarowości informacyjnej zawiera około 10 000 bitów.. Jak z tego widać, informacyjny potencjał komórki największy jest w jej procesach wewnętrznych, tj. służących kontynuacji jej istnienia dynamicznego. Komórka jest “fabryką”, w której “surowiec” znajduje się ze wszystkich stron, obok, powyżej i poniżej “maszyn produkcyjnych”; “maszynami” tymi są organelle komórkowe, rybosomy, mitochondria itp. mikrostruktury, stojące w połowie skali wielkości między komórką a cząstką chemiczną. Składają się one z uporządkowanych i skomplikowanych struktur chemicznych, z “przytwierdzonymi” do nich “narzędziami obróbki”, typu enzymów; wygląda na to, że “surowiec” podają “maszynom” i ich “narzędziom” nie jakieś specjalnie działające, kierunkowe siły, które by przyciągały surowiec potrzebny, a odtrącały zbyteczny lub nie nadający się do “obróbki”, lecz po prostu zwyczajne ruchy cieplne molekuł. Tak więc “maszyny” są niejako bombardowane strumieniami tańczących w zawieszeniu molekularnym cząstek, i już rzeczą ich specyficzności, wybiórczości jest wychwytywanie elementów “właściwych” z tego pozornego chaosu. Ponieważ wszystkie te bez wyjątku procesy są natury statystycznej, ogólne rozważania termodynamiczne skłaniają do wniosku, że w toku takich przemian winno dochodzić do omyłek, tj. do błędów (np. umieszczania “fałszywych” aminokwasów w miejscach powstającej spirali molekularnej białka). Błędy takie muszą być jednak rzadkością, przynajmniej w normie, ponieważ niepodobna odkryć “fałszywie” syntetyzowanych przez komórkę białek. W ostatnich latach przeprowadzono szereg badań kinetyki chemicznych reakcji życia, nie jako powtarzających się sztywnie procesów cyklicznych, ale jako pewnej plastycznej całości, która poza tym, że Jest podtrzymywana w swym nieustającym biegu, może być szybko i sprawnie kierowana dla osiągnięcia aktualnie doniosłych celów. Po opracowaniu “wyjściowych parametrów” komórki modelowej, wielka maszyna liczbowa przez 30 godzin obliczała najkorzystniejszy zestrój szybkości reakcji oraz poszczególnych ich ogniw w komórce. Oto, do czego prowadzi niezbędna dziś w nauce formalizacja zadania: komórka bowiem bakterii rozwiązuje te same problemy w ułamkach sekundy i, rozumie się, bez mózgu czy to elektrycznego, czy neuronowego.<br />Jednorodność komórki jest zarazem rzeczywista i pozorna. Rzeczywista jest w tym sensie, że plazma jej stanowi koloidowy roztwór wielkomolekularnych proteidów, białek i lipidów, więc “chaos” cząstek zanurzonych w ośrodku płynnym. Pozorna, ponieważ przezroczystość komórki urąga próbom dostrzeżenia jej mikrostruktur dynamicznych, a ich ścinanie i utrwalanie barwikami wywołuje zmiany, niszczące pierwotną organizację. Komórka, jak się o tym przekonano dzięki mozolnym i kłopotliwym badaniom, nie jest nawet taką metaforyczną “fabryką”, jaką sugeruje powyżej przytoczony obraz. Procesy dyfuzji i osmozy między jądrem a protoplazmą nie zachodzą tylko dzięki mechanizmom fizycznym, zgodnie z gradientem panujących różnic ciśnienia osmotycznego, ale gradienty te znajdują się pod kontrolą, przede wszystkim jądra; w komórce można rozróżnić mikroprądy, mikrostrumienie cząsteczkowe, niejako zminiaturyzowane odpowiedniki krwiobiegu, organelle zaś są węzłowymi punktami owych prądów, stanowiąc zarazem “uniwersalne automaty” wyposażone w zestawy odpowiednio przestrzennie poumieszczanych enzymów, jak i akumulatory energii, rzucanej we właściwych momentach i we właściwym kierunku.<br />Otóż można sobie jeszcze jakoś wyobrazić fabrykę złożoną z maszyn i surowców pływających wokół siebie, ale trudno pojąć, jak by mogła zostać skonstruowana fabryka, która nieustannie zmieniałaby swój kształt, wzajemne sprzężenie agregatów produkcyjnych, ich charakterystykę wytwórczą itd. Komórka jest systemem wodnistych koloidów, z wieloma potokami wymuszonej cyrkulacji, ze strukturą nie tylko ruchomą czynnościowo, ale i zmieniającą się bezładnie (w takim sensie, że można nawet przemieszać protoplazmę — byle nie uszkodziło to pewnych podstawowych struktur, będzie ona nadal działała, więc żyła), wstrząsaną ciągle ruchami brownowskimi, z nieustającymi odchyleniami od stabilizacji, i określone sterowanie całokształtem procesów możliwe jest w niej tylko statystycznie, w oparciu o probabilistyczną taktykę natychmiastowych decyzji interwencyjno–regulacyjnych. Procesy utleniania zachodzą w komórce pod postacią przenoszenia elektronów przez “pseudokrystaliczny półprzewodnik płynny”, wykazując określone rytmy, wywołane właśnie ciągłą interwencją regulacyjną — to samo dotyczy też innych procesów, jak np. cyklów energetycznych z akumulowaniem energii w kwasie adenozynotrójfosforowym itp.<br />W gruncie rzeczy wszystkie organizmy wyższe są tylko kombinacjami tego elementarnego budulca, “wyciąganiem wniosków i konsekwencji” z wyników danych, jakie tkwią w każdej komórce, poczynając od bakterialnych. Żaden też organizm tkankowy nie posiada uniwersalizmu komórki, jakkolwiek w pewnym sensie zastępuje go plastyczność ośrodkowego układu nerwowego. Uniwersalizm ów przejawia byle ameba; jest bez wątpienia nadzwyczaj wygodne mieć nogę, która w razie potrzeby staje się czułkiem, taką, którą utraconą, natychmiast zastąpi inna noga; mam na myśli pseudopodia — nibynóżki pełzaków. Równie korzystne bywa móc w “dowolnym miejscu otworzyć gębę”, i to też potrafi ameba, oblewająca i pochłaniająca protoplazmą cząstki pokarmu. Tu jednak po raz pierwszy daje o sobie znać system wstępnie przyjętych założeń. Komórki, łącząc się w tkanki, mogą stworzyć organizm makroskopowy, posiadający szkielet, mięśnie, naczynia i nerwy. Ale nawet najdoskonalsza regeneracja nie jest już tak wszechstronna, jak utracony, wraz z jednokomórkowością, uniwersalizm funkcji. Budulec stawia granicę wytwarzaniu “organów odwracalnych”. Protoplazmą potrafi po trosze i kurczyć się, i przewodzić bodźce, i trawić wchłonięty pokarm, ale nie kurczy się ze sprawnością wyspecjalizowanej komórki mięśniowej, nie przewodzi bodźców jak włókna nerwowe i nie może ani zgryźć pokarmu, ani skutecznie go ścigać, zwłaszcza jeśli jest energiczny i ucieka. Specjalizacja jest wprawdzie jednokierunkowym spotęgowaniem poszczególnych cech komórkowej wszechstronności, ale jest też zarazem rezygnacją z owej wszechstronności, której konsekwencję, nie najmniej chyba ważną, stanowi śmierć osobnicza.<br />Krytykę “komórkowego założenia” można podjąć dwojako. Po pierwsze, ze stanowiska genetycznego: przyjmujemy wtedy środowisko płynne (wodne) ciał typu kwasów aminowych i innych związków organicznych, rezultatów chemicznej działalności oceanu i atmosfery, jako dane. Tylko tam bowiem się owe ciała gromadziły, tylko tam mogły ze sobą reagować, aby dojść do początków samoorganizacji w warunkach, jakie panowały na Ziemi, liczącej “ledwo” półtora miliarda lat. Uwzględniając takie wyjściowe warunki, można by pytać o realizację “prototypu” odmiennego od rozwiązań ewolucyjnych. Po drugie, można, abstrahując od konieczności owej sytuacji, zastanowić się, jakie byłoby rozwiązanie optymalne, a niezawisłe od tamtych ograniczeń. Innymi słowy, czy perspektywy rozwojowe organizacji nie przedstawiałyby się lepiej, gdyby jakiś Konstruktor zainicjował ją w środowisku stałym bądź gazowym.<br />Otóż mowy nawet nie ma o tym, abyśmy potrafili rywalizować dzisiaj, choćby teoretyzującym tylko przypuszczeniem, z koloidową wersją rozwiązania homeostazy, jaką wyprodukowała Ewolucja. Nie znaczy to, aby naprawdę było nieprześcignione. Któż może wiedzieć, czy nieobecność pewnych atomów, pewnych pierwiastków w surowcu, w owym budulcu prakomórek, jakim mogła ewolucja dysponować, nie zamknęła jej, na samym wstępie, drogi ku odmiennym, być może energetycznie wydajniejszym, dynamicznie bardziej jeszcze trwałym stanom i typom homeostazy? Ewolucja dysponowała tym, czym właśnie dysponowała, z materiałów swych uczyniła użytek, prawdopodobnie, najdoskonalszy z możliwych. Ponieważ jednak stoimy na stanowisku wszechobecności procesów samoorganizacyjnych w Kosmosie i przez to wcale nie uważamy, jakoby ich wszczęcie było możliwe tylko w wypadkach wyjątkowych, nadzwyczajnego i szczególnie korzystnego zbiegu okoliczności, dopuszczamy możliwość wynikania — w obrębie faz płynnych — innych typów samoorganizacji od białkowego, a może i od koloidowego, przy czym warianty te mogą być zarówno “gorsze”, jak i “lepsze” od ziemskiego.<br />Ale cóż to znaczy właściwie “gorsze” lub “lepsze”? Czy nie próbujemy pod tymi pojęciami przemycić jakiegoś platonizmu, jakichś kryteriów wartościowania zupełnie dowolnego? Kryterium nasze stanowi postęp, albo raczej możliwość postępu. Rozumiemy przez nią wprowadzanie na scenę materialną takich homeostatycznych rozwiązań, które nie tylko mogą trwać na przekór zakłóceniom wewnętrznym i zewnętrznym, ale mogą się też rozwijać, czyli powiększać zakres owej homeostazy. Są to układy doskonałe nie tylko pod kątem rozpatrywanej adaptacji do stanu aktualnego otoczenia, ale doskonałe też jako układy zdolne do zmian, przy czym zmiany owe winny zarówno odpowiadać wymaganiom środowiska, jak i umożliwiać dalsze, następne przekształcenia, tak aby nigdy nie doszło do zabarykadowania owej drogi kolejnych rozwiązań egzystencjalnych, do uwięźnięcia w ślepej uliczce rozwoju.<br />Tak oceniana, według swych rezultatów, ewolucja ziemska zasługuje zarazem na ocenę pozytywną i negatywną. Na negatywną, ponieważ — jak będzie o tym mowa — wyborem zarówno wstępnym (elementu budowlanego), jak i późniejszymi metodami działania kształtującego — odjęła swym produktom końcowym i najwyższym, więc nam właśnie, szansę płynnego kontynuowania dzieła postępu na płaszczyźnie biologicznej. Zarówno względy natury biotechnologicznej, jak i moralnej, uniemożliwiają nam proste kontynuowanie metod ewolucji: biotechnologiczne, ponieważ jesteśmy, jako określone rozwiązanie konstrukcyjne, nazbyt zdeterminowani przez siły sprawcze Natury; moralne, ponieważ odrzucamy zarówno metodę ślepych prób, jak i ślepej selekcji. Zarazem jednak można oceniać rozwiązanie dane przez ewolucję pozytywnie, skoro mimo ograniczeń biologicznych posiadamy, przyszłą chociażby, swobodę działania, dzięki ewolucji społecznej nauki.<br />Wydaje się wcale prawdopodobne, że “wariant ziemski” nie jest ani najgorszym, ani najlepszym z możliwych — według ustalonych powyżej kryteriów. Rozważania natury statystycznej nie są właściwie dopuszczalne w obrębie systemu słonecznego, ponieważ liczy on kilka zaledwie planet; niemniej, gdyby oprzeć się na tak skąpym materiale porównawczym, nasuwa się konkluzja, że homeostaza komórkowo—białkowa jest czymś, mimo wszystko, od przeciętnej lepszym — skoro, przy jednakim czasie istnienia, inne planety układowe nie wytworzyły form rozumnych. Ale to jest, jak się zastrzegłem, wnioskowanie bardzo ryzykowne, ponieważ różne mogą być skale czasowe i różne tempa przemian: planety metanowo—amoniakalne należeć mogłyby do odmiennej sekwencji ewolucyjnej, takiej, w której naszym wiekom odpowiadają milionlecia. Dlatego zakażemy sobie w tym miejscu dalszej spekulacji na ów temat.<br />Od homeostatów “płynnych” przechodzimy do stałych i gazowych. Pytamy o perspektywy rozwojowe organizacji, gdyby jakiś Konstruktor zainicjował ją w gazowych bądź stałych skupieniach materii.<br />Sprawa ta nie ma znaczenia akademickiego, ale bardzo realne, ponieważ odpowiedź na postawione pytanie może się odnosić zarówno do ewentualnych działań inżynieryjnych, jak i do prawdopodobieństwa wyniknięcia na niepodobnych do Ziemi ciałach kosmicznych innych, nie koloidowych, lecz “stałych” bądź “gazowych procesów ewolucyjnych”. Jak wiemy, szybkość zachodzących reakcji ma tu znaczenie pierwszorzędne. Oczywiście nie wyłączne, ponieważ przebiegi ich muszą być utrzymywane w ryzach, muszą być ściśle kontrolowane i powtarzalne. Stworzenie procesów kołowych oznacza wyniknięcie najwcześniejszych, pierwszych automatyzmów na molekularnym poziomie, opartych na sprzężeniu zwrotnym, które wyswobadza częściowo centralny regulator od konieczności bezustannego czuwania nad wszystkim, co dzieje się w podległym mu obszarze. A zatem — gazy. Reakcje w nich mogą zachodzić szybciej niż w środowisku wodnym, ale bardzo istotnymi czynnikami są tu temperatura i ciśnienie. Ewolucja posłużyła się na Ziemi technologią “zimną”, to jest opartą na katalizowaniu reakcji celem ich wszczęcia i przyspieszenia, a nie na stosowaniu wysokich temperatur. Ta metoda okólna była jedyną możliwą. Bo wprawdzie złożoność systemu, który wytwarza wysokie ciśnienie i temperatury, może być mniejsza od złożoności systemu katalitycznego, ale przecież ewolucja nie mogła stworzyć takiego systemu z niczego. W tym wypadku była “Robinsonem—chemikiem”. W tej sytuacji decyduje nie bilans informacyjny “absolutny”, to jest fakt, że mniej trzeba informacji dla budowy odpowiednich pomp, dla sprzężenia pewnych reakcji (np. zogniskowania promieni słonecznych), aby stworzyć warunki reagowania ciał, lecz ta informacja jest najlepsza, którą się da aktualnie wykorzystać i uruchomić. Ziemia nie przedstawiała podobnych możliwości w obrębie ciał stałych i atmosfery. Czy mógłby jednak stan przychylny powstać w innych okolicznościach? Odpowiedzieć na to nie umiemy. Można tylko snuć rozmaite przypuszczenia. Zapewne, z ciał stałych sami umiemy już budować homeostaty, choć na razie prymitywne (jak maszyny elektronowe). Ale te rozwiązania, obarczone szeregiem podstawowych niedostatków, można uznać tylko za wstęp do właściwej konstrukcji.<br />Po pierwsze, budowane przez nas modele są to “makrohomeostaty”, to jest układy, których struktura molekularna nie stoi w bezpośrednim związku z wykonywanymi funkcjami. Związek ten oznacza nie samą tylko przydatność do ich pełnienia, na pewno konieczną i w maszynie elektronowej, w której przewody muszą posiadać właściwą przewodliwość, tranzystory czy neuromimy — nakazaną charakterystykę działania itp. Oznacza on, że układ złożony, będąc zdanym na bardzo wielką ilość elementów, nad których stanem bezustannie czuwać nie może, winien być zbudowany według zasady “efektów pewnych przy użyciu części niepewnych”. Tak więc części te muszą być obdarzone autonomią samonaprawczą oraz kompensacyjną uszkodzeń zewnątrz— bądź wewnątrzpochodnych. Maszyny dotąd konstruowane właściwości tej nie posiadają (chociaż nowe, planowane, będą ją miały przynajmniej częściowo).<br />Po drugie, ów stan rzeczy ma swoje konsekwencje. Maszyna cyfrowa może wymagać chłodzenia pewnych części (np. lamp), więc użycia pompy dla podtrzymania cyrkulacji płynu chłodzącego. Pompa ta jednak nie jest sama homeostatem. Jest ona dzięki temu co prawda o wiele prostsza w budowle od homeostatycznej, ale też w wypadku jej uszkodzenia cała maszyna prawdopodobnie rychło stanie. Natomiast pompa homeostatu organicznego, np. serce, choć przeznaczona do działań czysto mechanicznych (przetłaczanie krwi), stanowi układ homeostatyczny wielopoziomowy. Jest ona, po pierwsze, częścią homeostatu nadrzędnego (serce plus naczynia plus regulacja nerwowa), po drugie, układem o autonomii lokalnej (autonomia regulacji skurczów serca, wbudowana w jego własne węzły nerwowe), po trzecie, samo serce składa się z wielu milionów mikrohomeostatów, którymi są komórki mięśniowe. Rozwiązanie jest bardzo złożone, ale też wykazuje wielostronność zabezpieczeń przed zakłóceniami. Ewolucja, powiedzieliśmy, rozwiązała to zadanie w oparciu o “zimną” technologię katalizy molekularnej, osadzoną w ośrodku płynnym. Możemy wyobrazić sobie drogę ku rozwiązaniu analogicznemu przy użyciu stałego budulca np. jako konstrukcję homeostatów krystalicznych. W tym kierunku zmierzają inżynieria molekularna oraz fizyka ciała stałego.<br />O zbudowaniu takiego “uniwersalnego homeostatu”, jakim jest komórka, nie możemy na razie myśleć. Idziemy drogą odwrotną od ewolucyjnej: ponieważ łatwiej nam, paradoksalnie, produkować homeostaty wąsko wyspecjalizowane. Odpowiednikami neuronu np. są neuristory, neuromimy, artrony, z których buduje się odpowiednie układy, jak MIND (Magnetic Integrator Neuron Duplicator), który wypełnia funkcję logiczną rozpoznawania rozmaitych rysunków złożonych z szeregu sygnałów informacyjnych. Układy typu kriotronu mogą już niemal rywalizować rozmiarami z komórką nerwową (jeszcze dziesięć lat temu elementy takie, więc lampy katodowe, były milion razy większe od neuronu!), a przewyższają ją szybkością działania. Na razie nie umiemy odtworzyć tendencji samonaprawczych. Notabene nie regeneruje się też tkanka ośrodkowego układu nerwowego. Ale znamy układy krystaliczne, powstające przez śladowe zanieczyszczenie atomowej siatki — atomami określonych pierwiastków, w taki sposób, że całość zachowuje się, w zależności od wstępnego zaprojektowania, jako wzmacniacz kaskadowy, jako heterodyna, jako przekaźnik, prostownik itp. Z podobnych kryształów można złożyć np. odbiornik radiowy. Dalszym krokiem będzie już nie układanie dowolnej całości funkcjonalnej z bloków krystalicznych, ale radio (czy mózg elektronowy) z jednej bryły kryształu.<br />Dlaczego zależy nam na takim rozwiązaniu? Otóż osobliwością podobnego systemu jest to, że radio–kryształ, rozcięty na dwoje, stanowi dwa niezależne i w dalszym ciągu działające, tyle że z połowiczną mocą, radioaparaty. Można rozcinać te części dalej i za każdym razem otrzymamy “radio”, i to dopóty, dopóki ostatnia cząstka będzie jeszcze zawierała niezbędne części funkcjonalne, którymi są atomy. W ten sposób dochodzi się do owej granicy wykorzystania parametrów budulca, którą, na innym, by tak rzec, froncie materii — w koloidach — osiągnęła ewolucja, ona bowiem stosuje “inżynierię molekularną”, od której całe swoje dzieło konstruktorskie zaczęła. Od początku cegiełkami jej są molekuły i potrafiła wyselekcjonować je zarówno pod kątem użyteczności dynamicznej, jak i pojemności informacyjnej (źródłem uniwersalistycznych rozwiązań są enzymy: mogą pełnie bowiem dowolne funkcje syntezy i rozkładu wraz z funkcjami informacyjnego przekazu wewnątrzkomórkowego i dziedzicznego, jako elementy genów chromosomowych). Wytworzone przez ewolucję układy pracować mogą w wąskim przedziale temperatur, wynoszącym około 40–50 stopni Celsjusza, i to nie niżej punktu zamarzania wody (w której zachodzą wszystkie reakcje życia). Dla molekularnej mikrominiaturyzacji korzystniejsze są temperatury niskie, nawet pobliże absolutnego zera, bo wtedy dzięki fenomenowi nadprzewodliwości taki system zyskuje określoną przewagę nad biologicznymi (chociaż, dodajmy uczciwie, daleko mu do przewagi we wszystkich uwzględnionych przez życie parametrach).<br />Dzięki stwarzanej przez niską temperaturę równowadze systemowej, większej od tej, jaką ustala kropla protoplazmy, konieczność interwencji samonaprawczych maleje. Zamiast więc rozwiązać to zadanie, niejako obchodzimy je bokiem. Skądinąd wiemy, że kryształy wykazują “samonaprawcze tendencje”, bo kryształ uszkodzony, a zanurzony w roztworze, samoistnie uzupełnia swą siatkę atomową. Otwiera to określone perspektywy, choć na razie nie umiemy ich jeszcze urzeczywistnić. Daleko trudniejszy problem stwarza “homeostaza gazowa”. Problem nie był, o ile wiem, poruszany w literaturze fachowej. Trudno bowiem uznać za taką — powieść fantastyczną Black Cloud, chociaż jej autorem jest znany astrofizyk, Fred Hoyle.<br />Niemniej “organizm”, jaki tam się ukazał, ogromna mgławica, zbiorowisko pyłu i gazów kosmicznych, która posiada stabilizowaną polami elektromagnetycznymi strukturę dynamiczną, jest — jak myślę — do skonstruowania. Inna sprawa, rozumie się, czy takie “organizmy” z elektryczności i gazów mogą powstawać w toku międzyplanetarnej “ewolucji naturalnej”. To wydaje się, dla wielu powodów, niemożliwe.<br />Wygląda na to, że omawiamy sprawy najzupełniej fantastyczne i że dawno przekroczyliśmy już granicę dozwolonego. Ale tak chyba nie jest. Można wypowiedzieć, w formie ogólnego prawa, twierdzenie następujące: Te i tylko te homeostazy urzeczywistniane są siłami Natury, których stany końcowe osiągalne są na drodze stopniowego rozwoju, zgodnie z kierunkiem ogólnego prawdopodobieństwa termodynamicznego zjawisk. Zbyt wiele rzeczy nierozważnych powiedziano już o Pani Wszechświata, Entropii, o “buncie żywej materii przeciw drugiemu prawu termodynamiki”, abyśmy nie mieli wyraźnie podkreślić, jak bardzo nieostrożne są takie na poły metaforyczne tezy i jak mało mają wspólnego z rzeczywistością. Pierwotna mgławica posiada mniej uporządkowania, dopóki jest zimną chmurą atomową, od Galaktyki, złożonej w ścisły kształt dysku z posegregowanym materiałem gwiazdowym. Pozorny “bezład” pierwotny taił w sobie wszakże źródło wysokiego ładu w postaci struktur jądrowych. Kiedy mgławica rozpadnie się w protogwiazdowe wiry, kiedy siły ciążenia ścisną te kule gazowe dostatecznie, nagle “pękają drzwi” energii atomowej i wyrzucone promieniowanie poczyna w walce z grawitacją kształtować gwiazdy i ich systemy. Całkiem ogólnie zaś — wielkie układy materialne zmierzają wprawdzie do stanów maksymalnie prawdopodobnych, więc największej entropii zawsze, ale poprzez tak wiele stanów pośrednich, ponadto drogami tak rozmaitymi, wreszcie — w czasie nieraz tak długim, liczonym dziesiątkami miliardów lat, że “po drodze” może się zrodzić, bynajmniej nie “wbrew” drugiemu prawu termodynamiki, nie jeden i nie dziesięć rodzajów ewolucji samoorganizującej, ale ich niezliczone mrowie. A zatem istnieje olbrzymia, ale jeszcze pozornie pusta (bo nie znamy jej elementów) klasa układów homeostatycznych możliwych do zbudowania, już to z budulca stałego, już to z ciekłego czy gazowego, przy czym posiada ona pewną osobliwą podklasę — zbiór takich homeostatów, jakie mogą powstać bez zewnętrznej ingerencji osobowego Konstruktora, a jedynie dzięki sprawczym siłom Natury.<br />Z czego jawnie wynika, że człowiek może przewyższyć Naturę: ponieważ ona potrafi konstruować tylko niektóre z możliwych homeostatów, my natomiast, po zdobyciu niezbędnej wiedzy, budować możemy wszystkie.<br />Taki kosmiczny optymizm konstruktorski należy zaopatrzyć zastrzeżeniem, najeżonym licznymi “jeżeli”. Nie wiadomo, czy ludzkość zdobędzie wszelką niezbędną dla powyższych “zadań budowlanych” informację. Być może, istnieje “granica zdobywania informacji” tak samo, jak granica szybkości światła. Nic o tym nie wiemy. Poza tym godzi się przypomnieć o aktualnych proporcjach zadania “człowiek przeciw Naturze”. Mrówki obiecujące sobie przenieść na swych grzbietach łańcuch Himalajów na inne miejsce to my wobec powyższego problemu. Może zresztą przesadzam na korzyść mrówek. Może ich zadanie byłoby jednak łatwiejsze. A to wówczas, kiedy się całość współczesnych technologii przyrówna do narzędzi, jakimi dysponują mrówki, tj. własnych ich szczęk i grzbietów. Jedna tylko zachodzi różnica — ta, że mrówki mogą swe narzędzia rozwijać jedynie w ramach ewolucji biologicznej, my natomiast możemy uruchomić, jak była o tym mowa, ewolucję informacyjną. I ta właśnie różnica może zadecyduje kiedyś o wygranej człowieka.<br /><br /><br /><br />Konstrukcja śmierci<br /><br /><br />Żywe ustroje odznaczają się ograniczonym czasem trwania, jak również procesami starzenia się i śmierci. Nie są to jednak procesy nierozdzielne. Jednokomórkowce mają kres jako indywidua, ale nie umierają, gdyż dzielą się na potomne. Niektóre tkankowce, np. stułbie, rozmnażające się przez pączkowanie, mogą w laboratoryjnych warunkach żyć bardzo długo bez objawów starzenia się. Nieprawdą jest zatem, jakoby każda protoplazma tkankowca musiała się starzeć; a zatem starzenia się koloidów (ich gęstnienia, przechodzenia ze solu w żel, ze stanu płynnego w galaretowaty) nie można utożsamiać ze starością życia. Owszem, koloidy plazmy starzeją się podobnie jak koloidy abiologiczne, ale pozorna przyczyna jest skutkiem. Starzenie się komórkowych koloidów jest wynikiem utraty kontroli nad procesami życiowymi, a nie na odwrót.<br />Znakomity biolog, J. B. S. Haldane, wypowiedział hipotezę, jakoby śmierć osobniczą wywoływały czynniki dziedziczne: geny letalne, manifestujące się w życiu Organizmu tak późno, że już odselekcjonowaniu przez dobór naturalny nie podlegające. Trudno taką hipotezę przyjąć. Nie tylko nieśmiertelność, ale nawet matuzalemowa długowieczność w ewolucji nie popłaca. Organizm, choćby i nie starzał się osobnicze (tj. “nie psuł się”), starzeje się w obrębie ewoluującej populacji w takim sensie, w jakim skądinąd świetnie zachowany model forda z roku 1900 jest dzisiaj kompletnie przestarzały, jako rozwiązanie konstrukcyjne niezdolne do rywalizacji ze współczesnymi samochodami.<br />Ale i jednokomórkowe organizmy nie mogą nie dzielić się przez czas dowolnie długi. Można, co prawda, “zmusić je” do długowieczności, kilkadziesiąt razy większej od przeciętnego trwania osobniczego, a to trzymając je na “diecie” tak skąpej, że zaledwie starczy dla podtrzymania życiowych funkcji ustroju, a nie dostarcza materiału dla powiększenia go, celem wytworzenia dwu organizmów potomnych. Stare klony (populacje) najprostszych w pewnym sensie starzeją się; osobniki w nich zaczynają ginąć i ożywia je dopiero proces koniugacji, w którym dochodzi do wymiany informacji dziedzicznej. Prawdę mówiąc, sprawa jest niezrozumiała. Problem śmierci można rozpatrywać rozmaicie. Czy została ona “wbudowana” w organizmy przez ewolucję? Czy jest zjawiskiem raczej przypadkowym, wtórnym skutkiem konstruktorskich decyzji, dotyczących spraw innych niż istnienie osobnicze? Czy jest to zatem odpowiednik aktu zniszczenia, jakim konstruktor przekreśla rozwiązanie poprzednie, biorąc się do opracowania nowego, czy raczej nie zamierzony rezultat jakiegoś “zmęczenia materiałów”?<br />Niełatwo o jednoznaczną odpowiedź. Winniśmy rozróżnić dwie rzeczy: długowieczność bowiem jest zadaniem do rozwiązania odmiennym od umieralności. Długowieczność staje się, jakeśmy o tym wspomnieli, biologicznie ważna, gdy potomstwo wymaga dłuższej opieki, zanim się usamodzielni. Są to jednak wypadki wyjątkowe. Zasadniczo, gdy dobór naturalny się dokonał i potomstwo zostało spłodzone, los organizmów rodzicielskich staje się ich prawą “indywidualną”, to jest, w przyrodzie, niczyją. Jakiekolwiek procesy degeneracyjne towarzyszyłyby starości, nie wpływają one na dalszy bieg ewolucji gatunku. Kły starych mamutów krzyżowały się, skazując je na powolną śmierć głodową, ale selekcja nie mogła tego zjawiska usunąć, bo zachodziło po ustaniu życia płciowego. Starość zwierząt czy roślin, przesunięta poza granicę doboru, nie podlega już jego ingerencji. Dotyczy to nie tylko zmian zwyrodnieniowych, ale i długowieczności. O ile nie jest korzystna biologicznie (jak to było w zaraniu człowieka) ze względu na los pokolenia potomnego, długowieczność, gdyby wynikła losowo wskutek określonej mutacji, tak samo losowo zostanie skazana na zniknięcie, ponieważ nie ma czynnika selektywnego, który by mógł ją utrwalić genetycznie. Widać to zresztą z rozkładu długowieczności w państwie roślinnym i zwierzęcym. Jeśli geny selekcyjnie ważne przypadkowo sprzęgną się z warunkującymi długowieczność, trafia ona na swą jedyną właściwie szansę. Być może dlatego długo żyją żółwie i papugi. Nie ma bowiem wyraźnej korelacji między typem zwierzęcym a długowiecznością: inne ptaki żyją raczej krótko. To znów sprzyja długowieczności środowisko; dlatego najdłużej żyjącymi organizmami są sekwoje (5–6000 lat).<br />Czynnikiem bez wątpienia ewolucyjnie koniecznym jest rozród; ograniczenie w czasie osobniczego istnienia stanowi już tylko jego konsekwencję. Do rozrodu organizm musi dojść w pełni sprawności życiowej; jego dalsza egzystencja jest niejako rezultatem “bezwładności”, tj. wynikiem tego “pchnięcia dynamicznego”, — jakie zapoczątkowała embriogeneza. Ewolucja jest jak strzelec, który pragnie dosięgnąć określonego celu, np. lecącego ptaka; co się stanie z kulą potem, kiedy osiągnie ów cel, dokąd poleci dalej, czy będzie szybować wiecznie, czy też zaraz spadnie na ziemię, nie ma to ani dla niej, ani dla niego znaczenia. Nie należy oczywiście upraszczać zbytnio zagadnienia. Trudno porównywać organizmy tak różne, jak sekwoje i stułbie — z kręgowcami. Wiemy, że złożoność nie jest równa złożoności, że prawa dynamiczne takich układów mają swą hierarchię. Z tego, że stułbia jest prawie nieśmiertelna, właściwie niewiele wynika dla człowieka jako “strony zainteresowanej”. Stałe utrzymanie wewnątrzustrojowej korelacji procesów musi być tym trudniejsze, im większa jest wzajemna zależność elementów budowy, czyli im ściślejsza organizacja całości. Każda komórka popełnia w toku swej egzystencji “błędy molekularne”, których sumy po pewnym czasie nie może już skompensować. Nie może przynajmniej, trwając w dotychczasowej postaci; podział jest osobliwą odnową; procesy rozpoczynają po nim swój bieg jak gdyby od nowa. Nie wiemy, czemu tak jest. Nie wiemy nawet, czy tak być musi. A nie wiemy, czy są to zjawiska nieuniknione, ponieważ ewolucja nigdy nie przejawiła “ambicji” rozwiązania zadań regulacji homeostatu przez czas dowolnie długi. Całe jej mistrzostwo zwrócone było w inną stronę — długowieczności gatunków, nieśmiertelności życia ponadindywidualnej, jako sumy przemian homeostatycznych w skali planety — i te, frontalnie atakowane problemy, pokonała.<br /><br /><br /><br />Konstrukcja świadomości<br /><br /><br />Każdy, kto obserwował dość cierpliwie zachowanie ameby, która wyrusza na łowy w kropli wody, musiał zdumieć się podobieństwem do działania racjonalnego, żeby już nie powiedzieć — ludzkiego, jakie wykazuje ta kropelka protoplazmy. W doskonałej książce Jenningsa, starej, lecz godnej lektury (Das Verhalten der niederen Organismen)*, można ujrzeć i wyczytać historie takich łowów. Pełznąc po dnie swej kropli wodnej, ameba natyka się na drugą, mniejszą, i zaczyna ją otaczać, wysuwając nibynóżki. Tamta usiłuje się wyrwać, ale napastnik mocno trzyma chwyconą część. Ciało ofiary zaczyna się wydłużać, aż pęka. Reszta ocalonej ofiary oddala się z rozsądnym przyspieszeniem, napastnik zaś oblewa plazmą to, co pochłonął, i rusza w swoją drogę. Tymczasem ta część ofiary, która została “zjedzona”, żywo się rusza. Pływając wewnątrz protoplazmy “drapieżcy” dociera nagle do jego błonki powierzchniowej, przerywa ją i wydostaje się na zewnątrz. “Zaskoczony” napastnik pozwala zrazu wymknąć się łupowi, ale natychmiast rusza w pościg. Dochodzi do szeregu wręcz groteskowych sytuacji. Napastnik kilka razy dogania ofiarę, ale ta za każdym wyślizguje mu się. Po wielu daremnych próbach napastnik “zrezygnowany”, daje pokój gonitwie i powoli oddala się w poszukiwaniu lepszego szczęścia łowieckiego.<br />Najdziwniejsze w przedstawionym przykładzie jest to, w jakim stopniu potrafimy go antropomorfizować. Motywy działań kropelki protoplazmatycznej są nam doskonale zrozumiałe: pościg, pochłonięcie ofiary, początkowy upór w jej gonieniu, wreszcie, rezygnacja wobec “uświadomienia sobie”, że gra nie jest warta świeczki.<br />Mówimy o tym, w ustępie poświęconym “budulcowi świadomości”, nieprzypadkowo. Świadomość i rozum przypisujemy innym ludziom, bo sami posiadamy jedno i drugie. Przypisujemy oboje w pewnym stopniu bliskim nam zwierzętom, jak psy czy małpy. Im jednak organizm mniej jest budową i zachowaniem podobny do naszego, tym trudniej nam uznać, że może i on zna uczucia, lęki, przyjemności. Stąd cudzysłowy, jakimi zaopatrzyłem historię łowów pełzaka. Materiał, z jakiego “wykonany jest” organizm, może być niezmiernie podobny do budulca naszych ciał, a jednak cóż wiemy, czego się domyślamy na temat doznań i cierpień ginącego chrząszcza czy ślimaka? Tym większe opory i zastrzeżenia budzi sytuacja, w której “organizm” to system złożony z jakichś kriotronów i drutów, utrzymywanych w temperaturze płynnego helu, albo jest blokiem krystalicznym, czy nawet chmurą gazową, w ryzach utrzymywaną polami elektromagnetycznymi.<br />Problem jużeśmy poruszali, mówiąc o “świadomości maszyny elektronowej”. Teraz wypadałoby tylko to, co tam powiedziane, uogólnić. Bo jeśli o tym, czy X ma świadomość, decyduje wyłącznie zachowanie tego X, to materiał, z jakiego jest sporządzony, nie ma żadnego znaczenia. Tak więc nie tylko człekokształtny robot, nie tylko elektromózg, ale i hipotetyczny ustrój gazowo–magnetyczny, z którym można się wdać w pogawędkę, należą wszystkie do klasy systemów obdarzonych świadomością.<br />Problem ogólny można sformułować tak: czy doprawdy jest możliwe, że świadomość to taki stan układu, do którego można dotrzeć rozmaitymi sposobami konstrukcyjnymi, jak również przy użyciu rozmaitych materiałów? Uważaliśmy dotąd, że nie wszystko, co żywe, jest świadome, ale świadome musi być żywe. Ale świadomość przejawiana przez systemy najoczywiściej martwe? Z tym szkopułem jużeśmy się spotkali, i jakoś przezeń przebrnęli. Dopóki wzorcem do powtórzenia jest mózg ludzki, niechby w dowolnym materiale, pół biedy. Ale przecież mózg nie jest na pewno jedynym możliwym rozwiązaniem problemu “jak skonstruować układ rozumny i odczuwający”. Co się rozumu tyczy, opory nasze nie będą zbyt wielkie, skorośmy już pobudowali prototypy rozumnych maszyn. Gorzej z “odczuwaniem”. Pies reaguje na dotknięcie gorącego przedmiotu; czy to znaczy, że układ ze sprzężeniem zwrotnym, który wydaje okrzyki, kiedy do jego receptora zbliżyć płonącą zapałkę, także czuje? Nic podobnego, to tylko mechaniczna imitacja, słyszymy. Słyszeliśmy to już mnóstwo razy. Zastrzeżenia takie zakładają, jakoby oprócz działań rozumnych i reakcji na bodźce istniały jeszcze pewne “byty absolutne”, jako to Rozum i Odczuwanie, zjednoczone w Dwójcy Świadomości. Ale tak nie jest.<br />Fizyk i autor Science–Fiction w jednej osobie, A. Dnieprow, opisał w nowelce eksperyment, mający obalić tezę o “uduchowieniu” maszyny tłumaczącej z języka na język w ten sposób, że elementami maszyny, zastępującymi tranzystory czy inne przełączniki, stali się rozstawieni odpowiednio na, dużej przestrzeni ludzie. Wykonując proste funkcje przekazu sygnałów, przetłumaczyła ta z ludzi zbudowana “maszyna” zdanie z języka portugalskiego na rosyjski, za czym jej konstruktor pytał każdego z ludzi, którzy byli “elementami maszyny”, o treść owego zdania. Nikt jej oczywiście z nich nie znał, bo z języka na język tłumaczył ów system jako pewna dynamiczna całość. Konstruktor (w noweli) wyciągnął z tego wniosek, że “maszyna nie myśli”. Ale jeden z cybernetyków radzieckich zareplikował w piśmie, które umieściło opowiadanie, zauważywszy, że gdyby rozstawić całą ludzkość tak, by każdy człowiek odpowiadał funkcjonalnie jednemu neuronowi mózgu konstruktora z noweli, to układ ów myślałby tylko jako całość i żadna z osób, biorących udział w tej “zabawie w mózg ludzki” nie rozumiałaby, o czym ów “mózg” myśli. Z czego jednak doprawdy nie wynika, jakoby sam konstruktor pozbawiony był świadomości. Maszyna może być zbudowana nawet ze sznurków lub nadpsutych jabłek; z atomów gazu lub z wahadeł; z płomyków, impulsów elektrycznych, kwantów promienistych i z czego się żywnie chce, byle tylko funkcjonalnie stanowiła odpowiednik dynamiczny mózgu — a będzie się zachowywała “rozumnie”, jeśli “rozumny” znaczy tyle, co umiejący działać w sposób uniwersalny, podczas dążenia do celów, ustalanych na podstawie wszechstronnego wyboru, a nie zaprogramowanych z góry (jak instynkty owadów np.). Uniemożliwić którąś z tych realizacji może tylko trudność techniczna (ludzi jest na Ziemi zbyt mało dla “powtórzenia” nimi, jako neuronami, mózgu ludzkiego, poza tym trudno byłoby uniknąć dodatkowego łączenia ich jakimiś telefonami itp). Ale te problemy nie dotykają wcale zastrzeżeń, podnoszonych przeciw “świadomości maszynowej”.<br />Powiedziałem kiedyś (w moich Dialogach), że świadomość jest to taka cecha systemu, którą poznaje się, będąc samemu tym systemem. Chodzi oczywiście nie o byle jakie systemy. Nawet niekoniecznie o systemy znajdujące się poza naszym ciałem. W każdej z jego ośmiu bilionów komórek znajduje się co najmniej kilkaset takich enzymów, które wrażliwe są na koncentrację określonego produktu chemicznego; czynna grupa enzymu jest tu swoistym “wejściem”. Enzymy owe “odczuwają” zatem niedobór lub nadmiar produktu, co uruchamia ich właściwe reakcje, ale cóż my, właściciele wszystkich owych komórek i enzymowych systemów, o tym wiemy? Dopóki latać mogły wyłącznie ptaki czy owady, dopóty “latające” utożsamiało się z “żywym”. Ale wiemy nadto dobrze, że mogą latać dziś i urządzenia doskonale “martwe”, i nie inaczej jest z problemem myślenia rozumnego i odczuwania. Sąd, jakoby maszyna elektronowa zdolna była w końcu do myślenia, ale na pewno nie do odczuwania, doznawania emocji, wynika z tego samego nieporozumienia. Przecież nie jest tak, aby pewne komórki nerwowe mózgu posiadały właściwości przełączników logicznych, a znów inne zajmowały się “doznawaniem odczuć”; jedne i drugie są do siebie bardzo podobne i różnią się tylko miejscem zajmowanym w sieci neuronowej. Tak samo komórki pola wzrokowego i słuchowego są w gruncie rzeczy jednorodne, i jest całkiem możliwe, że skrzyżowanie nerwowych dróg takie, aby nerw słuchowy dochodził do płata potylicznego, a nerw wzrokowy — do ośrodka słuchu, byle zabiegu dokonać bardzo wcześnie (np. u noworodka), doprowadziłoby do jako tako sprawnego widzenia i słyszenia, mimo że “widziałoby się” korą słuchową, a “patrzało” — wzrokową. Nawet całkiem proste układy elektroniczne posiadają już połączenia typu “nagrody” i “kary”, więc czynnościowe odpowiedniki doznań “miłych” i “przykrych”. Ten dwuwartościowy mechanizm jest wielce użyteczny, przyspiesza bowiem proces uczenia się, i z tych oczywiście powodów wykształciła go ewolucja. Tak zatem całkiem już ogólnie można orzec, że klasa “homeostatów myślących” zawiera żywe mózgi jako pewną swoją podklasę, a poza nią zaludniona jest homeostatami, w biologicznym sensie najzupełniej “martwymi”. Co prawda, ta “martwota” oznacza jedynie niebiałkowość oraz nieobecność szeregu parametrów właściwych znanym nam, żywym komórkom i organizmom. Z klasyfikacją układu, który, choć zbudowany np. z pól elektromagnetycznych i gazu, zdolny jest nie tylko do przeprowadzania myślowych operacji oraz do reagowania na bodźce, ale ponadto jeszcze potrafi się rozmnażać, pobierać z otoczenia “pokarm” (np. z elektrycznego kontaktu), poruszać się w wybranym dowolnie kierunku, rosnąć i podporządkowywać takie i inne funkcje własnemu trwaniu, jako zasadzie naczelnej — z klasyfikacją podobnego homeostatu byłby niemały kłopot.<br />Jednym słowem, co się tyczy świadomości homeostatów, potrzebne są nie tyle odpowiedzi “dogłębne”, ile definicje. Czy znaczy to, że wróciliśmy do punktu wyjścia, aby wyjaśnić, że masło jest, ex definitione — maślane? Bynajmniej. Należy ustalić empirycznie, które parametry systemu muszą pozostać nie zmienione, aby świadomość mogła się w nim zamanifestować. Ponieważ między świadomością “jasną” a “zmąconą”, między “czystą” a “pomroczną” granice są płynne, przyjdzie granice takich stanów przeprowadzić arbitralnie, zupełnie tak samo, jak arbitralnie tylko możemy ustalić, czy nasz znajomy, p. Smith, jest już łysy, czy jeszcze nie. W ten sposób uzyskamy zbiór parametrów konieczny dla ukonstytuowania świadomości. Jeśli wszystkie je przejawi system najzupełniej dowolny (np. zbudowany ze starych piecyków żelaznych), przypiszemy mu świadomość. A jeżeli to będą inne parametry albo nieco inne wartości parametrów ustalonych? Wtedy, zgodnie z definicją, powiemy, że system nie przejawia świadomości człowieka (tj. typu ludzkiego), i będzie to najoczywiściej prawdą. A jeżeli system, choć nie przejawia owych parametrów, zachowuje się jak geniusz, rozumniejszy od wszystkich ludzi naraz? Niczego to nie zmienia, bo skoro taki mądry, nie ma świadomości człowieka: żaden człowiek nie jest równie genialny. Czy to aby nie jest, spyta ktoś, sofistyka? Przecież możliwe jest, że jakiś system ma “mną świadomość” od ludzkiej. Jak właśnie ów “genialny”. Albo taki, któremu największą rozkosz przynoszą (jak powiada) kąpiele w promieniowaniu kosmicznym.<br />W ten sposób wykraczamy poza granice języka. Nic nie wiemy o możliwościach “innej świadomości”. Gdyby się, naturalnie, okazało, że świadomość “ludzkiego typu” charakteryzują parametry A, B, C i D o wartościach, odpowiednio, 3, 4, 7 i 2; gdyby jakiś system wykazywał wartości owych parametrów 6, 8, 14 i 4; gdyby przejawiał niezwykły zgoła, może i niedostępny naszemu pojmowaniu rozum, trzeba by się zastanowić, czy dozwolone będzie ryzyko ekstrapolacji (aby go uznać za obdarzonego jakąś “dubeltową świadomością”). To, co powiedziałem, brzmi tyleż naiwnie, co prostacko. Rzecz po prostu w tym, że owe parametry jak również ich wartości nie będą prawdopodobnie izolowane, ale będą stanowiły pewne węzły “ogólnej teorii świadomości”, czy raczej “ogólnej teorii homeostatów myślących o stopniu złożoności nie mniejszej od złożoności mózgu ludzkiego”. W ramach owej teorii będzie można dokonać pewnych ekstrapolacji, obarczonych naturalnie określonym ryzykiem. Jakże weryfikować ekstrapolacyjne hipotezy? Budowaniem “elektronowych przystawek” do ludzkiego mózgu? Ale tutaj dosyć już powiedzieliśmy, a może i zbyt wiele; najrozsądniej przeto będzie zamilknąć, dodając tylko, że, jak chyba to samo przez się zrozumiałe, nie wierzymy wcale w możliwość zbudowania myślących osobowości ze sznurków, nadpsutych jabłuszek czy piecyków żelaznych; podobnie i pałace trudno raczej budować z ptasich piórek lub mydlanej piany. Nie każdy materiał jednakowo jest przydatny jako substrat konstrukcji, w której ma nastąpić “rozruch świadomości”. Ale jest to chyba dostatecznie oczywiste, aby warto poświęcić sprawie choć jedno jeszcze słowo.<br /><br /><br /><br />Konstrukcje oparte na błędach<br /><br /><br />Paradoks termodynamiczny o stadzie małp stukających na oślep w maszyny do pisania tak długo, aż się z tego przypadkowo złoży Encyklopedia Brytyjska, został urzeczywistniony przez Ewolucję. Niezliczona ilość czynników zewnętrznych zwiększać może umieralność populacji. Odpowiedzią jest selekcja na wysoką płodność. Oto kierunkowy skutek działania bezkierunkowego. Tak z nakładania na siebie dwu systemów zmian, z których każdy jest w stosunku do drugiego losowy, powstaje ład coraz doskonalszej organizacji.<br />Płci istnieją dlatego, ponieważ są ewolucyjnie korzystne. Akt płciowy umożliwia “konfrontację” dwu rodzajów informacji dziedzicznej. Dodatkowym mechanizmem, który jednocześnie upowszechnia w populacji “nowinki konstrukcyjne”, “wynalazki”, czyli po prostu mutacje, i zarazem chroni organizmy przed szkodliwymi skutkami manifestowania się — w rozwoju osobniczym — tychże “nowinek” — jest heterozygotyczność. Zygota jest komórką powstałą ze zlania się dwu komórek płciowych, męskiej i żeńskiej, przy czym geny poszczególnych cech — allele — mogą być dominujące bądź recesywne. Dominujące przejawiają się w rozwoju; recesywne tylko wtedy, jeśli spotkają swoich recesywnych partnerów. Mutacje są bowiem z reguły szkodliwe i osobnik, zbudowany w myśl nowego, zmutowanego planu genotypowego, ma zwykle mniej szans przeżycia niż normalny. Z drugiej strony, mutacje są nieodzowne, jako próba wyjścia z krytycznej sytuacji. Owady latające wydają czasem potomstwo bezskrzydłe, które najczęściej ginie. Gdy ląd opada lub morze wznosi się, dawny półwysep może się stać wyśpij. Wiatry znoszą owady latające nad wody, w których one giną. Wtedy bezskrzydłe mutanty stają się szansą kontynuacji gatunku. Tak więc, mutacje są jednocześnie szkodliwe i pożyteczne. Ewolucja zjednoczyła obie strony zjawiska. Gen mutujący jest przeważnie recesywny i spotykając się z normalnym, który dominuje, nie przejawia się w konstrukcji dorosłego organizmu. A jednak tak zrodzone osobniki noszą utajoną cechę zmutowaną i przekazują ją potomstwu. Pierwotnie mutacje recesywne występowały zapewne z taką samą częstością, jak dominujące, te ostatnie jednak likwidował dobór naturalny, ponieważ podlegają mu wszystkie cechy, wraz z samym mechanizmem dziedziczności, wraz ze skłonnością do imitowania (“mutabilnością”). Ostały się w przewadze mutacje recesywne, tworząc wewnątrz populacji jej pogotowie alarmowe, jej ewolucyjną rezerwę.<br />Mechanizm ten, oparty zasadniczo na błędach informacyjnego przekazu, za jakie uważamy mutacje, nie jest rozwiązaniem, do jakiego by się przychylił konstruktor osobowy. W pewnych warunkach mechanizm ten zezwala na przejawianie się nowych cech konstrukcyjnych pod nieobecność selekcji. Zachodzi to w małych, odosobnionych populacjach, gdzie dzięki wielokrotnym krzyżówkom osobników pochodzących od tych samych rodziców, dzięki wywołanej tym uniformizacji genowych garniturów, zmutowane recesywne cechy mogą się spotykać tak często, że pojawia się dość nagle znaczna ilość mutantów fenotypowych. Zjawisko nosi nazwę “dryfu genetycznego”. W ten sposób mogły powstawać pewne, niewytłumaczalne skądinąd formy organizmów (gigantyzm rogów jelenich, itp.). Co prawda, nie wiemy, czy to ten czynnik ukształtował wielkie kostne “żagle” grzbietowe mezozoicznych jaszczurek; nie umiemy rozstrzygnąć tego zagadnienia, bo przyczyną sprawczą mógł być także dobór płciowy, a nie znamy gustów jaszczurek sprzed milionów lat.<br />To, że sama częstość mutacji jest także cechą dziedziczną, że ją pewne geny zwiększają lub zmniejszają, rzuca na problem dość osobliwe światło. Przyjmuje się, że mutacje są przypadkiem, zmieniającym tekst kodu dziedzicznego, więc utratą kontroli nad jego przekazem. Jeśli były nawet kiedyś losowe, selekcja nie mogła ich jak gdyby wyeliminować. Otóż bardzo ważne jest, z konstrukcyjnego punktu widzenia, czy nie mogła dlatego, ponieważ “nie chciała”, tj. ponieważ gatunek nie mutujący traci ewolucyjną plastyczność i przy zmianach zachodzących w środowisku ginie, czy też korzyści pokrywają się z obiektywną koniecznością: że mutacje są nieuchronne jako efekt statystycznych ruchów molekularnych, nie do opanowania.<br />Z ewolucyjnego punktu widzenia jest takie rozróżnienie obojętne, ale dla nas może być istotne, bo jeśli zawodność molekularnych układów informacjonośnych typu genów jest nieuchronna Jak można będzie projektować niezawodne układy o stopniu komplikacji dorównującym organicznemu? Powiedzmy, że pragniemy sporządzić “plemniki cybernetyczne”, które, wgryzając się w skorupę obcej planety, z jej materiału wytworzyć mają potrzebną nam maszynę. “Mutacja” może doprowadzić do tego, że maszyna będzie na nic. Ewolucja radzi sobie, ponieważ, jako konstruktor statystyczny, nigdy nie stawia na rozwiązanie singularne, ale jej stawką jest zawszą populacja. Rozwiązanie dla inżyniera nie do przyjęcia: czy ma uruchomić na tej planecie z przykładu “las rozwijających się maszyn”, aby dopiero z niego wybrać najsprawniejszą? Cóż dopiero, gdyby zadaniem było projektowanie układów bardziej złożonych od genotypowego, na przykład takich, które mają zaprogramować “wiedzę dziedziczną”, jakeśmy o tym mówili. Jeśli wzrost złożoności zwiększa automatycznie powyżej pewnej granicy mutabilność, zamiast niemowlęcia z opanowaną mechaniką kwantową możemy zyskać istotę niedorozwiniętą. Problemu nie umiemy na razie rozstrzygnąć: wymaga dalszych badań cytologicznych i genetycznych.<br />Z kontrolą przekazu informacji i korelacją międzykomórkową wiąże się sprawa nowotworów. Najprawdopodobniej rak jest skutkiem łańcucha kolejno następujących po sobie mutacji somatycznych. Literatura problemu jest tak otchłanna, że nie możemy zapuszczać się w jej głębie. Powiedzmy tylko, że brak danych, które by ten pogląd obalały. Komórki dzielą się w tkankach na przestrzeni całego życia; ponieważ przy każdym podziale możliwy jest, ,lapsus “ mutacyjny, szansa nowo tworzenia jest proporcjonalna do ilości podziałów, a więc i do długości osobniczego życia. W rzeczywistości zapadalność na nowotwory rośnie z postępem geometrycznym w miarę starzenia się organizmu. Wynika to zapewne stąd, że pewne mutacje somatyczne są niejako przygotowaniem następnych, przedrakowych, które po serii dalszych podziałów wytwarzają już komórki nowotworów. Organizm może się do pewnego stopnia bronić przed inwazją nowotworowego rozplemu, a siły obronne słabną z jego wiekiem, więc i ten czynnik wpływa na rakowacenie. Rakotwórczo działają najrozmaitsze czynniki, w rodzaju pewnych związków chemicznych i promieniowania jonizującego; wspólny im jest wpływ niszczący informację chromosomową. Działanie czynników rakotwórczych jest zatem nieswoiste, przynajmniej częściowo: stanowią one “szum”, który zwiększa prawdopodobieństwo kolejnych omyłek podczas komórkowych podziałów. Nie każda mutacja somatyczna prowadzi do raka; poza tym istnieją formy nowotworów dobrotliwych, będące wynikiem swoistych mutacji; komórka musi zostać uszkodzona nie aż tak bardzo, by zginęła, a tylko tak, by jądro jej, jako regulator, wyszło spod kontroli organizmu jako całości. Czy z tego wynika pośrednio, że mutacje są zjawiskiem nieuchronnym? Argument to dyskusyjny, bo równie dobrze możliwe jest, że mamy do czynienia z odległą konsekwencją założeń konstrukcyjnych, przyjętych przez Ewolucję wstępnie. Komórka cielesna nie zawiera przecież genotypowo więcej informacji, niż jej zawierała komórka płciowa, z której powstał cały organizm. Jeśli więc tamta dopuszczała mutabilność, somatyczna, będąc jej pochodną, odziedziczy i tę cechę. Komórki nerwowe ośrodkowego układu nerwowego nie podlegają nowotworzeniu, ale też się nie dzielą, a przemiana możliwa jest tylko w trakcie kolejnych podziałów. Rak byłby więc niejako skutkiem “decyzji mutowania”, podjętej przez Ewolucję w jej najwcześniejszych stadiach.<br />Hipoteza wirusowa daje się pogodzić z mutacyjną, ponieważ pokrewieństwo biochemiczne wirusów i genów jest znaczne. “Gen raka” może być w pewnym sensie “wirusem raka”. Wirusem nazywamy jednak system organizmowi obcy, wdzierający się doń z zewnątrz. To właściwie jedyna różnica.<br />Sprawę komplikuje też wielka różnorodność nowotworów i takie ich odmiany, jak mięsaki, występujące głównie u osobników młodych. Poza tym rak nie jest bynajmniej jakąś koniecznością fatalistyczną, skoro osoby, dożywające niezmiernie podeszłego wieku, wcale nie muszą na tę chorobę zapadać. Wyjaśnienie tylko losowe nie jest wystarczające, ponieważ można (np. u myszy) wyodrębnić czyste linie, nader poważnie różniące się pod względem nowotworzenia, więc jest to skłonność dziedziczna. U człowieka dziedzicznych takich skłonności właściwie nie wykryto. Lecz trudno bardzo oddzielić zmniejszoną częstość kierujących ku rakowej przemianie mutacji od ewentualnie wysokiej odporności ustroju, wiadomo bowiem, że organizm może komórki rakowe, jeśli są nieliczne, zniszczyć.<br />Jakkolwiek zostaną wyjaśnione te niezrozumiałe jeszcze zagadnienia, należy sądzić, że podczas kiedy terapia raka, mimo względnie skromnych na razie rezultatów (leczenia zachowawczego zwłaszcza), może liczyć na poważne osiągnięcia w zakresie farmakolecznictwa (środkami cytostatycznymi wysokiej wybiórczości), radykalne usunięcie zapadalności na raka wydaje mi się nie do urzeczywistnienia. Rak jest bowiem konsekwencją jednej z tych zasad działania komórki, które leżą u samych podstaw życia.<br /><br /><br /><br />Bionika i biocybernetyka<br /><br /><br />Omówiliśmy zarówno dynamikę przekazu informacyjnego, jak i technikę jego zapisu dziedzicznego (tę ostatnią w prologu Hodowli informacji). Łącznie stanowią one metodę, z pomocą której ewolucja jednoczy maksymalną stabilizację genotypów z ich niezbędną plastycznością. Embriogeneza polega nie tyle na uruchamianiu określonych programów wzrostu mechanicznego, ile na rozruchu obdarzonych wielką autonomią regulatorów zaopatrzonych tylko “ramowymi dyrektywami”. Nie jest więc rozwój płodowy po prostu “wyścigiem” startujących w zapłodnieniu reakcji biochemicznych, lecz ich nieustannym współdziałaniem i współkształtowaniem, jako całości.<br />Także w dojrzałym organizmie toczy się nieustająca gra między hierarchiami regulatorów, z których jest on zbudowany. Konsekwentnym przedłużeniem zasady “niechaj sobie radzą, jak mogą” przy dostarczaniu wariantów reagowania, ale bez ich sztywnego zaprogramowania, jest nadanie organizmowi autonomii osobniczej najwyższego rzędu, dzięki skonstruowaniu “regulatora drugiego stopnia”, systemu nerwowego.<br />Organizm jest więc “multistatem”, układem o tak wielkiej ilości możliwych stanów równowagi, że w życiu osobniczym realizować się może zapewne tylko ich część. Zasada ta jednakowo dotyczy stanów fizjologicznych, jak i patologicznych. I one są swoistymi stanami równowagi, mimo anormalnej wartości, jaką wówczas przybierają niektóre parametry. Organizm “radzi sobie, jak może”, także wtedy, gdy zaczynają się w nim powtarzać reakcje szkodliwe, i ta skłonność do wchodzenia w błędny krąg regulacyjny jest jedną z konsekwencji funkcjonowania wielostabilnej, wysoce złożonej piramidy homeostatów, jaką jest każdy wielokomórkowiec.<br />Ze stanu takiego nie może go wtedy wytrącić antagonizm skutecznego w normie, nadrzędnego sterowania, opartego najczęściej na jednowymiarowej skali oscylowania między dwiema wartościami (hamowanie—pobudza—nie, zwyżka lub obniżenie ciśnienia krwi, wzrost lub spadek jej kwasowości, przyspieszenie lub zwolnienie tętna, perystaltyki jelitowej, oddechu, wydzielania gruczołowego itd.). Istnieje regulacja całkowicie lokalna, na granicy zasięgu nadzorczego mózgu (gojenie się ran), która w starości słabnie (“anarchia peryferii organizmu”: degeneratywne zmiany lokalne, dające się łatwo obserwować np. na skórze osobników w podeszłym wieku), regulacja narządowa, systemowa i wreszcie całościowa. W hierarchii tej przeplatają się dwie metody przekazywania informacji sterującej i zwrotnej: metoda przekazu sygnałami nieciągłymi (dyskretna) i sygnałami ciągłymi (analogowa). Pierwszą stosuje raczej układ nerwowy, drugą — raczej układ gruczołów dokrewnych, ale i to nie jest rozgraniczenie jednoznaczne, ponieważ sygnały mogą być adresowane przewodowe (jak przy połączeniu telefonicznym) lub iść wszystkimi kanałami informacyjnymi z tym, że tylko właściwy adresat na nie reaguje (jak przy wysyłaniu sygnałów radiowych, które wprawdzie może odebrać każdy, ale które dotyczą tylko jakiegoś jednego okrętu na morzu). Gdy “sprawa jest ważna”, organizm uruchamia przekaz informacji dublowany: zagrożenie powoduje równocześnie wzmożenie gotowości tkanek i narządów drogami nerwowymi, a zarazem zostaje wyrzucony do krwi hormon “analogowego działania”, adrenalina. Ta wielość informacyjnych kanałów zapewnia działanie nawet,, gdy niektóre sygnały nie dochodzą.<br />Mówiliśmy już o bionice, nauce zajmującej się wcielaniem w technikę rozwiązań podpatrzonych w państwie ustrojów żywych; szczególnie wiele rezultatów dały badania narządów zmysłowych, którym czujniki technologa przeważnie ustępują znacznie pod względem czułości. Bionika jest działalnością biotechnologa–praktyka, zainteresowanego w rezultatach doraźnych. Natomiast bliskie bionice modelowanie układów żywych (zwłaszcza systemu nerwowego, jego części i narządów zmysłowych), nie mające na celu doraźności technicznej, ale raczej poznanie funkcji i struktury organizmów, należy do biocybernetyki. Zresztą granice między tymi nowymi gałęziami są płynne. Biocybernetyka wkroczyła już szerokim frontem w medycynę. Obejmuje ona protetykę organów i funkcji (sztuczne serce, serce—płuca, sztuczna nerka, wszczepiane pod skórę aparaty bodźcotwórcze dla serca, protezy elektronowe kończyn, aparaty do czytania i do orientacji dla ślepych — opracowuje się nawet metody pozagałkowego wprowadzania impulsów w nie uszkodzony nerw wzrokowy niewidomych, co ma związek z postulowaną przez nas fantomatyką), dalej — diagnostykę, jako wprowadzenie “elektronowych pomocników” lekarza, zarówno w formie maszyn diagnostycznych, istniejących już w dwu wersjach (maszyna “diagnosta ogólny” i maszyna “specjalistyczna”), jak i maszyn bezpośrednio wydobywających niezbędną informację z organizmu chorego (aparatura, samoczynnie rejestrująca np. elektrokar—diogram, elektroencefalogram, która dokonuje automatycznej preselekcji, odsiewając informację nieistotną i podając gotowe rezultaty mające diagnostyczną wartość); osobną dziedzinę stanowią “elektronowe przystawki sterujące”: należą tu samoczynny narkotyzator, który jednocześnie bada wartość szeregu parametrów organizmu, więc np. bioprądów mózgowych, ciśnienia krwi, stopnia jej utlenienia itd., w razie potrzeby zwiększając dopływ środka narkotyzującego lub trzeźwiącego albo podnoszącego ciśnienie w razie jego spadku, jak również projektowane aparaty mające już w stały sposób opiekować się pewnymi parametrami organizmu chorego, jak urządzenie, które chory nosi z sobą stale, a które u hipertonika systematycznym dozowaniem odpowiedniego środka utrzymuje jego ciśnienie krwi w normie. Jest to przegląd tyleż lapidarny, co niezupełny. Zauważmy, że tradycyjne środki medycyny, leki, należą do grupy “informatorów analogowych”, ponieważ z reguły podaje się je “ogólnikowo”, wprowadzając je do jam ciała, dotrzewiowo lub do koryta krwi, przy czym lek taki ma już “sam” znaleźć swojego “adresata” układowego bądź narządowego. Natomiast akupunkturę można uważać raczej za metodę wprowadzania informacji “dyskretnej”, przez drażnienie pni nerwowych, gdy więc farmakopea jest działaniem zmieniającym stan wewnętrzny homeostatu bezpośrednio, akupunktura jest działaniem na tego homeostatu “wejścia”.<br />Ewolucja, jak każdy konstruktor, nie może liczyć na osiągnięcie dowolnego rezultatu. Doskonały jest np. mechanizm “odwracalnej śmierci”, w jaką popadają rozmaite spory, glony, przetrwalniki, a nawet małe organizmy wielokomórkowe. Z drugiej strony, bardzo cenna jest stałocieplność ssaków. Połączenie tych cech byłoby rozwiązaniem wszechstronnym, ale nie jest ono możliwe. Co prawda zbliża się do niego zimowy sen pewnych zwierząt, nie jest on jednak prawdziwą “śmiercią odwracalną”. Funkcje życiowe, krążenie krwi, oddychanie, przemiana materii ulegają spowolnieniu, ale nie ustają. Poza tym stan taki przekracza regulacyjne zakresy mechanizmów fizjologicznych fenotypu. Możliwość jego wystąpienia musi być zaprogramowana dziedzicznie. Stan ten jest wszakże szczególnie cenny — zwłaszcza w erze kosmonautyki, i to najbardziej w postaci, w jakiej występuje u nietoperzy.<br />Przed ich ukształtowaniem się wszystkie nisze ekologiczne były z pozoru wypełnione. A więc, ptaki owadożerne wypełniały porę dnia i nocy (sowa), nie było też jak gdyby miejsca schronienia dla nowego gatunku na ziemi czy na drzewach. Otóż Ewolucja wprowadziła nietoperze w “niszę” zmierzchu, gdy ptaki dzienne już zasypiają, a nocne jeszcze nie wylatują na łowy. Zmienne i kiepskie warunki oświetlenia czynią wtedy oko bezsilnym. Rozwinęła więc “radar” naddźwiękowy nietoperzy. Nareszcie, za schronienie służą im często stropy jaskiń — również pusta dotąd nisza ekologiczna. Ale najdoskonalszy jest mechanizm hibernacyjny tych latających ssaków. Temperatura ich ciała może opadać do zera. Przemiana tkankowa praktycznie wówczas ustaje. Zwierzę wygląda nie jakby spało, lecz jakby było martwe. Przebudzenie rozpoczyna się od wzrostu przemiany w mięśniach. Po kilku minutach krążenie krwi i oddychanie są już żywe, i nietoperz staje się sprawny do lotu.<br />W bardzo podobny stan głębokiej hibernacji można wprowadzić człowieka — odpowiednią techniką farmakologiczną i zabiegami ochładzającymi. Jest to niezmiernie interesujące. Znamy wypadki, kiedy wrodzone choroby, będące rezultatem mutacji, a polegające na niewytwarzaniu przez organizm życiowo ważnych ciał, można kompensować, wprowadzając takie ciało do tkanek lub do krwi. Ale w ten sposób przywracamy tylko — czasowo — normę fizjologiczną. Natomiast zabiegi hibernacyjne wykraczają poza tę normę, poza możliwości ustrojowych reakcji, zaprogramowanych genotypowo. Okazuje się, że potencje regulacyjne są wprawdzie ograniczane przez dziedziczność, ale można je odpowiednimi zabiegami poszerzyć. Wracamy tu do sprawy “genetycznego zaśmiecenia” ludzkości, wywołanego, pośrednio, wstrzymaniem przez cywilizację działania doboru naturalnego, i bezpośrednio, skutkami cywilizacji, zwiększającymi mutabilność (promieniowania jonizujące, czynniki chemiczne itp. j. Okazuje się możliwe przeciwdziałanie lecznicze wywołanym dziedzicznością schorzeniom i niedomogom, bez zmiany zdefektowanych genotypów, ponieważ leczniczo wpływa się nie na plazmę rozrodczą, lecz na dojrzewający bądź dorosły organizm. Co prawda leczenie to ma swoją granicę. Defekty, wywołane wczesną manifestacją uszkodzeń genotypu, jak np. kalectwa thalidomidowe, najoczywiściej byłyby nieuleczalne. Zresztą, działanie leczniczo–farmakologiczne wydaje się nam dzisiaj najbardziej niejako naturalne, bo leży w tradycjach medycyny. Być może jednak, że usuwanie “lapsusów” kodu dziedzicznego okaże się zabiegiem prostszym (choć bynajmniej nie aż niewinnym), jak i, oczywiście, radykalniejszym w skutkach od późnej terapii zdefektowanych ustrojów.<br />Perspektywy tej “antymutacyjno–normalizującej” autoewolucji trudno przecenić: przekształceniami kodu dziedzicznego wpierw zredukowałoby się a potem sprowadziło do zera powstawanie wrodzonych defektów somatycznych i psychicznych, dzięki czemu znikną rzesze nieszczęsnych istot kalekich, których liczba sięga dzisiaj wielu milionów i będzie dalej rosła. Tak więc terapia genotypów, a właściwie ich bioinżynieria, okazałaby się w skutkach zbawienna. Ilekroć okaże się jednak, że nie wystarczy gen zmutowany usunąć, ale że trzeba go zastąpić innym, problem “komponowania cech” stanie przed nami w całej swej groźnej okazałości. Jeden z laureatów Nobla, który właśnie za badanie dziedziczności otrzymał nagrodę, a więc bezpośrednio jakby zainteresowany w sukcesach podobnych, oświadczył, że nie chciałby dożyć czasu ich realizacji, a to ze względu na przeraźliwą odpowiedzialność, jaką człowiek wówczas podejmie.<br />Chociaż twórcom nauki należy się największy szacunek, zdaje mi się, że ten punkt widzenia nie jest godny uczonego. Nie można równocześnie dokonywać odkryć i wymawiać się od ponoszenia odpowiedzialności za ich konsekwencje. Skutki takiego postępowania, choć w innych, niebiologicznych dziedzinach, znamy. Są one żałosne. Uczony próżno stara się zawęzić swą pracę tak, by miała charakter zdobywania informacji, murami chronionego przed problematyką jej użytkowania. Ewolucja, jakeśmy to już explicite i implicite ukazywali, działa bezwzględnie. Człowiek, poznając stopniowo jej czynności konstruktorskie, nie może udawać, że gromadzi wiedzę wyłącznie teoretyczną. Ten, kto poznaje skutki decyzji, kto zyskuje moc ich pobierania, będzie niósł ciężar odpowiedzialności, z którym Ewolucja, jako konstruktor bezosobowy, tak łatwo sobie radziła, bo dla niej nie istniał.<br /><br /><br /><br />Oczami konstruktora<br /><br /><br />Ewolucja jest, jako stwórca, niezrównanym żonglerem, wykonującym popisy akrobatyczne w nadzwyczaj trudnej — przez swą technologiczną wąskość — sytuacji. Zasługuje, bez wątpienia, na coś więcej od podziwu — na to, by się u niej uczyć. Ale jeśli odwrócimy oczy od swoistych utrudnień jej działania inżynieryjnego i skoncentrujemy się wyłącznie na jego rezultatach, przychodzi ochota napisania paszkwilu na ewolucję.<br />Oto zarzuty od mniej ku bardziej generalnym:<br /><br /><br />1) Niejednolita nadmiarowość przekazu informacyjnego i budowy narządów. Zgodnie z prawidłowością, wykrytą przez Dancoffa, Ewolucja utrzymuje nadmiar przesyłanej genotypowo informacji na możliwie najniższym poziomie, jaki jest jeszcze do pogodzenia z kontynuacją gatunku. Jest ona więc jak konstruktor, któremu zależy nie na tym, by wszystkie jego auta dojechały do mety: wystarczy mu zupełnie, jeżeli dojedzie ich większość. Ta zasada “konstruktorstwa statystycznego”, w której o sukcesie decydują przewaga, a nie całość rezultatów, jest naszej mentalności obca. Zwłaszcza gdy za niską nadmiarowość informacyjną przychodzi płacić nie defektami! maszyn, lecz organizmów, także ludzkich: rocznie 250 000 dzieci rodzi się z poważnymi wadami dziedzicznymi. Minimum nadmiarowości dotyczy też konstrukcji osobniczej. Wskutek niejednolitej zużywalności funkcji i narządów, organizm starzeje się nierównomiernie. Odchylenia od normy zachodzą w różnych kierunkach; mają zwykle charakter “słabości systemowej”, więc np. układu krążenia krwi, trawiennego, stawowego itp. Ostatecznie, mimo całej hierarchii regulatorów, zaczopowanie jednego naczyńka krwionośnego w mózgu albo defekt jednej pompy (serca) — powoduje śmierć. Pewne mechanizmy, które mają takim katastrofom przeciwdziałać, jak np. tętnicze zespolenia naczyń wieńcowych serca, w większości wypadków zawodzą, a ich obecność podobna jest całkiem do “formalnego wykonania przepisów”, jak w jakimś zakładzie, gdzie na właściwym miejscu znajdują się wprawdzie narzędzia przeciwpożarowe, ale tak ich mało, lub tak są “dla parady” przytwierdzone, że w razie nagłej potrzeby nie przydadzą się właściwie na nic.<br /><br /><br />2) Sprzeczna z zasadą poprzednią, oszczędności czy wręcz informacyjnego skąpstwa, zasada nieeliminowania z rozwoju osobniczego jego elementów zbędnych. Przenoszone są, niejako mechanicznie, przez inercję, relikty form dawno minionych, które dany gatunek poprzedziły. Tak np. podczas embriogenezy płód powtarza kolejno fazy rozwojowe zamierzchłych rozwojów embrionalnych, wykształcając kolejno, jak zarodek ludzki, skrzela, ogon itp. Zostają one użyte do innych celów (z łuków skrzelowych powstaje szczęka, krtań), więc pozornie jest to obojętne. Organizm jest jednak systemem tak złożonym, że każdy niekonieczny nadmiar złożoności zwiększa szansę dyskoordynacji, powstawania form patologicznych, wiodących ku nowotworzeniu itp.<br /><br /><br />3) Konsekwencją powyższej zasady “zbędnej komplikacji” jest istnienie biochemicznej indywidualności osobniczej. Międzygatunkowa przekazywalność informacji dziedzicznej jest zrozumiała, jako że jakaś panhybrydyzacja, możliwość krzyżowania nietoperzy z lisami i wiewiórek z myszami, obaliłaby ekologiczną piramidę ładu żywej przyrody. Ale ta wzajemna obcość genotypów różnogatunkowych kontynuowana jest także w obrębie jednego gatunku jako indywidualna odmienność białek ustrojowych. Nawet biochemiczna indywidualność dziecka różni się od takiej indywidualności matki. Ma to poważne konsekwencje. Owa indywidualność biochemiczna przejawia się zaciekłą obroną organizmu przed każdym białkiem innymi od własnego, uniemożliwiając dokonywanie ratujących życie transplantacji (skórnych, kostnych, narządowych itd.). Aby uratować życie ludziom, których szpik kostny był niezdolny do wytwarzania krwi, trzeba było pierwej porazić całą obronną aparaturę ich ciał — dopiero potem można było przeprowadzić przeszczepy tej tkanki, pochodzącej od ludzkich dawców.<br />Zasada biochemicznej indywidualności nie podlegała w ewolucji naturalnej naruszeniu, tj. selekcji na jednolitość białek ustrojowych gatunku, ponieważ organizm zbudowany jest tak, by polegać wyłącznie na samym sobie. Ewolucja nie uwzględniła możliwości wspomagającego interweniowania z zewnątrz. Tak więc przyczyny stanu realnego rozumiemy, ale nie zmienia to faktu, że medycyna, niosąc organizmowi pomoc, musi zarazem zwalczać “nierozumną” tendencję tegoż organizmu do obrony przed zbawiennymi zabiegami.<br /><br /><br />4) Ewolucja nie może osiągać rozwiązań na drodze zmian stopniowych, jeżeli każda z takich zmian nie jest użyteczna natychmiast, w danym pokoleniu. Analogicznie, nie może rozwiązywać zadań, które wymagają nie zmian drobnych, lecz radykalnej rekonstrukcji. W tym sensie jest ona “oportunistyczna” i “krótkowzroczna”. Bardzo wiele układów odznacza się przez to zawiłością, która byłaby do uniknięcia. Mówimy teraz o czymś innym niż — w punkcie drugim — “zbędnej komplikacji”, bo tam krytykowaliśmy jej nadmiar ze względu na drogę dojścia do stanu końcowego (komórka jajowa — płód — dojrzały organizm); w punkcie trzecim ukazaliśmy szkodliwość zbędnej komplikacji biochemicznej. Teraz, stając się coraz bardziej obrazoburczymi, krytykujemy już podstawowy plan poszczególnych rozwiązań ogólnoustrojowych. Ewolucja nie mogła np. wytworzyć urządzeń mechanicznych typu koła, ponieważ koło od pierwszej chwili musi być sobą, tj. posiadać oś obrotu, piastę, tarczę itd. Musiałoby więc powstać skokowo, bo najmniejsze nawet jest od razu gotowym kołem, a nie jakąś formą “przejściową”. Otóż co prawda nigdy nie było wielkiej potrzeby takiego właśnie mechanicznego urządzenia w ustrojach, ale dobitnie ukazuje ten przykład, jakiego to typu zadań Ewolucja rozwiązać nie potrafi. Wiele elementów mechanicznych ustroju można by zastąpić niemechanicznymi. Tak np. obieg krwi mógłby się opierać na zasadzie pompy elektromagnetycznej, gdyby serce było organem elektrycznym, wytwarzającym odpowiednio się zmieniające pola, a ciałka krwi były dipolami, bądź też posiadały znaczniejszy wtręt ferromagnetyczny. Taka pompa podtrzymywałaby krwiobieg bardziej równomiernie, z mniejszym nakładem mocy, niezależnie od elastyczności ścian naczyniowych, które muszą kompensować wahania ciśnienia przy kolejnych rzutach krwi w tętnicę główną. Ponieważ narząd przesuwający krew opierałby swą czynność na bezpośredniej przemianie energii biochemicznej w hemodynamiczną, jeden z trudniejszych i właściwie nie rozwiązanych — problem dobrego odżywienia serca w chwili, gdy ono tego najbardziej potrzebuje, tj. w momencie skurczu, przestałby w ogóle istnieć. W sytuacji urzeczywistnionej przez Ewolucję, kurcząc się, mięsień zgniata pewnego stopnia światło naczyń, które go odżywiają, przez co dopływ a więc i tlenu, do włókien mięśniowych chwilowo maleje. Serce oczywiści radzi sobie i w tym stanie rzeczy, ale rozwiązanie jest tym gorsze, że, j widać z powiedzianego, wcale niekonieczne. Nikła rezerwa nadmiarowi dostawy krwi powoduje obecnie, że niedomogi naczyń wieńcowych stanowi jedną z głównych przyczyn zgonów w skali światowej. Rozwiązanie “elektromagnetycznej pompy” nie zostało urzeczywistnione nigdy, aczkolwiek Ewolucja potrafi zarówno wytwarzać molekuły dipolowe, jak i organy elektryczne. Ale ukazany projekt wymagałby najzupełniej nieprawdopodobnej a równocześnie zachodzącej zmiany w dwu systemach od siebie całkiem prawi izolowanych: organy krwiotwórcze musiałyby rozpocząć produkcję postulowanych “dipoli” czy “erytrocytów magnetycznych”, a zarazem serce z mięśnia winno by się przekształcać w organ elektryczny. Otóż, taka koincydencja ślepych, jak wiemy, mutacji, to zjawisko, na które można czekać i miliard lat daremnie; jak to się i stało. Zresztą, nawet o ileż skromniejszego zadania, zamknięcia otworu przegrody międzykomorowej u gadów, Ewolucja nie dokonała; gorsza wydajność hemodynamiczna nie przeszkadza jej, bo też w ogóle pozostawia swym tworom najprymitywniejszy nawet rynsztunek biochemiczny i narządowy, jeśli sobie tylko z jego pomocą radzą w utrzymaniu gatunków.<br />Należy zauważyć, że na tym etapie naszej krytyki nie postulujemy rozwiązań niemożliwych ewolucyjnie, tj. biologicznie, jakimi byłyby pewne zmiany materiałowe (zastąpienie kostnych zębów stalowymi albo powierzchni stawowych z chrząstki — powierzchniami z teflonowych plastyków). Niepodobna sobie wyobrazić żadnych rekonstrukcji genotypu, które umożliwiłyby organizmowi wytwarzanie teflonu (fluorokarbonu). Natomiast zaprogramowanie w plazmie dziedzicznej organów typu wspomnianej “pompy hemoelektrycznej” zasadniczo przynajmniej byłoby możliwe.<br />Oportunizm i krótkowzroczność, a raczej ślepota Ewolucji, oznacza w praktyce stosowanie takich rozwiązań, jakie się losowo pojawiają jako pierwsze, i usuwanie ich tylko wtedy, jeśli przypadek stworzy odmienną możliwość. Gdy jednak dane raz rozwiązanie blokuje drogę do wszelkich innych, jakkolwiek byłyby doskonałe i o niebo wydajniejsze, rozwój daną układu zamiera. Tak np. szczęka drapieżców–gadów przez dziesiątki milionów lat pozostawała układem mechanicznie bardzo prymitywnym; rozwiązanie to “wleczone było” przez wszystkie omal gałęzie gadów, o ile pochodziły od wspólnych przodków; zmianę na lepsze “udało się” przeprowadził dopiero u ssaków (drapieżcę typu wilka), a więc niezmiernie późno. I słusznie zauważali nieraz biologowie, Ewolucja jest konstruktorem pilnym tylko w opracowywaniu rozwiązań bezwzględnie ważnych życiowo, o służą one organizmowi w fazie pełnej żywotności (do rozrodu płciowego) Natomiast wszystko, co nie ma takiego krytycznego znaczenia, zostaje mniej lub bardziej zaniedbane, puszczone na los przypadkowych metamorfoz i najzupełniej ślepych trafów.<br />Ewolucja nie może oczywiście przewidywać żadnej konsekwencji aktualnego działania, chociażby i wprowadzało ono cały gatunek w ślepą uliczkę rozwoju, a względnie nikła zmiana pozwoliła tego uniknąć. Realizuje to, co możliwe i wygodne natychmiast, nie troszcząc się o resztę. Organizmy większe posiadają większy mózg, w którym ilość neuronów wyprzedza wzrost masy, stąd pozorne zamiłowanie jej do “ortoewolucji”, powolnego, lecz ciągłego powiększania rozmiarów ciała, które jednak okazuje się bardzo często istną pułapką i narzędziem przyszłej zagłady: ani jedna ze starych [gałęzi olbrzymów (gady jurajskie np.) nie przetrwała do dzisiaj. Tak więc Ewolucja jest, przy całym swoim skąpstwie, które ujawnia w dokonywaniu “przeróbek” tylko najniezbędniejszych, konstruktorem najrozrzutniejszym z możliwych.<br /><br /><br />5) Jako konstruktor, jest ona również chaotyczna i nielogiczna. Widać to na przykład po sposobie, jakim rozdziela potencje regeneracyjne wśród gatunków. Organizm nie jest zbudowany na zasadzie technik ludzkich — części zamiennych makroskopowych. Inżynier projektuje tak, aby wymienne były całe bloki urządzeń. Ewolucja projektuje “zasadę części zamiennych mikroskopową”, przejawiającą się nieustannie, bo komórki narządowe (skóry, włosów, mięśni, krwi itp. — oprócz nielicznych, jak neurony) — wciąż ulegają wymianie — przez podział innych komórek; potomne są właśnie “częściami zamiennymi”. Byłaby to zasada doskonała, lepsza od inżynieryjnej, gdyby nie to, że praktyka przeczy jej tak często.<br />Organizm ludzki zbudowany jest z bilionów komórek; każda z nich zawiera nie tylko tę informację genotypową, jaka jest niezbędna dla wykonywanych przez nią funkcji, lecz informację pełną — tę samą, jaką ma komórka jajowa. Teoretycznie więc byłoby możliwe rozwinięcie komórki błony śluzowej języka (na przykład) w dojrzały ludzki organizm. W praktyce nie jest to możliwe, ponieważ owej informacji nie da się uruchomić. Komórki somatyczne nie mają embriogenetycznej potencji. Prawdę mówiąc, nie bardzo wiemy, czemu tak jest. Być może, odgrywają tu rolę pewne inhibitory (hamulce wzrostu), bo wymaga tego zasada współpracy tkankowej; rakowacenie, dodajmy za najnowszymi pracami, polegać ma na zaniku owych inhibitorów (histonów) w komórkach, które przeszły somatyczną mutację.<br />W każdym razie wydawałoby się, że wszystkie organizmy, przynajmniej tego samego szczebla rozwoju, winny regenerować mniej więcej tak samo, skoro wszystkie mają dość podobny nadmiar informacji komórkowej. Tak jednak nie jest. Nie ma nawet ścisłego związku między miejscem, zajmowanym przez gatunek w hierarchii ewolucyjnej, a jego możliwościami regeneracyjnymi. Żaba jest bardzo kiepskim regeneratorem, tak niemal marnym, jak człowiek. Otóż jest to nie tylko niekorzystne z osobniczego punktu widzenia, ale i nielogiczne z konstruktorskiego. Zapewne, stan ów wywołały okresie przyczyny w trakcie ewolucji. Ale my nie zajmujemy się teraz poszukiwaniem usprawiedliwień dla jej ułomności, jako stwórcy organicznych systemów. Stan końcowy każdej ewolucyjnej gałęzi, to jest żyjący obecnie “model wprowadzony do “masowej produkcji”, odzwierciedla, z jednej strony, aktualne warunki, jakim winien sprostać, jak i, z drugiej strony, tę miliardoletnią drogę ślepych prób i poszukiwań, jaką przeszli wszyscy jego przodkowie. Na kompromisowości zatem rozwiązań teraźniejszych dodatkowo ciąży bezwładność wszystkich poprzednich konstrukcji, które także były kompromisowe.<br /><br /><br />6) Ewolucja nie kumuluje własnych doświadczeń. Jest ona konstruktorem, zapominającym o minionych osiągnięciach. Za każdym razem musi ich poszukiwać od nowa. Gady dwukrotnie podejmowały inwazję powietrza raz, jak nagoskóre jaszczury, drugi raz, wytworzywszy upierzenie; za każdym razem musiały od nowa wykształcać adaptację do warunków lotu; narządowo–wykonawczą oraz neuralną. Kręgowce opuszczały ocean dla lądu i powracały do wody; i wówczas rozwiązania “akwatyczne” musiały być rozpoczynane od zera. Przekleństwem każdej doskonałej specjalizacji jest to, że przedstawia dostosowanie tylko do warunków aktualnych; im specjalizacja lepsza, tym łatwiej zamiana owych warunków wiedzie do zagłady! A właśnie najlepsze nieraz rozwiązania konstrukcyjne poupychane są w różnych bocznych, skrajnie wyspecjalizowanych liniach. Narząd zmysłowy okularnika reagujący na promienie podczerwone wykrywa różnicę temperatur rzędu 0,001 stopnia. Zmysł elektryczny niektórych ryb reaguje na różnice napięć rzędu 0,01 mikrowolta na milimetr. Organ słuchowy moli (pożeranych przez nietoperze) reaguje na drgania naddźwiękowej echolokacji tych “myszy latających”. Czułość zmysłu dotyku niektórych owadów jest już na granicy odbioru drgań molekularnych. Wiadomo, jak jest rozwinięty narząd powonienia u węchowców, do których należą też pewne owady. Delfiny posiadają system hydrolokacji, ekranem odbiorczym pęku wysyłanych drgań jest zaklęsła część czołowa czaszki, okryta poduszką tłuszczową, działa ona jak reflektor skupiający. Oko ludzkie reaguje na pojedyncze kwanty światła. Kiedy gatunek, który wykształcił takie organy, ginie, wraz z nim przepadają i podobne do wymienionych “wynalazki ewolucji”. Nie wiemy, jak wiele ich zginęło w ciągu minionych milionoleci. Jeśli zaś trwają, to nie ma możliwości upowszechnienia owych “wynalazków” poza obrębem gatunku, rodziny czy odmiany, w której doszło do ich powstania. W efekcie człowiek stary to istota bezzębna, chociaż problem został już, i to dziesiątki razy rozwiązany, za każdym nieco inaczej (u ryb, u rekinów, u gryzoni, itp.).<br /><br /><br />7) Najmniej wiemy o tym, w jaki sposób Ewolucja dokonuje swych “wielkich odkryć”, swoich rewolucji. Ma je bowiem; polegają na stwarzaniu nowych typów. Oczywiście, i tu postępuje stopniowo, bo inaczej nie może. Zarzucimy jej — w tej mierze — najwyższą już przypadkowość; typy powstają nie dzięki adaptacjom ani zmianom starannie przygotowywanym, lecz są wynikiem ciągnień na ewolucyjnej loterii, z tym, że bardzo często głównej wygranej w ogóle brak.<br />Tyleśmy już mówili o ewolucji genotypów, że to, co przedstawię za G. Simpsonem*, będzie chyba zrozumiałe bez wyjaśnień. W dużych populacjach, pod niskim ciśnieniem selekcyjnym, powstaje rezerwuar genetycznej zmienności utajonej (w zmutowanych recesywnie genotypach). W populacjach małych może natomiast dojść do przypadkowego ustalania nowych typów genetycznych; Simpson nazywa to “ewolucją kwantową” (skok jest jednak mniej rewolucyjny od tego, jaki w swoim czasie postulował Goldschmidt, nazywając wyniki hipotetycznych makrorekonstrukcji genotypowych hopeful monsters — “obiecującymi potworami”). Odbywa się to w ten sposób, że zachodzi skokowe przejście od heterozygotyczności do homozygotyczności mutantów; utajone dotąd cechy nagle się więc manifestują, i to w zakresie sporej ilości genów naraz (tego rodzaju zjawisko musi być niesłychanie rzadkie, powiedzmy, raz lub dwa razy na ćwierć miliarda lat). Izolacja i malenie populacji zachodzi najczęściej podczas gwałtownego wzrostu umieralności, w epokach klęsk i katastrof. Wtedy to spośród milionów ginących wynurzają się sporadycznie radiacje ewolucyjne; nie wyselekcjonowane, nowe, “próbne modele”, powstałe w opisany skokowy sposób, które dopiero dalszy bieg ewolucji poddaje “sprawdzeniu praktycznemu”. Ponieważ metoda Ewolucji jest zawsze losowa, okoliczności, sprzyjające “wielkim wynalazkom”, wcale nie muszą wywoływać ich w sposób konieczny, a chociażby tylko prawdopodobny. Prawda, że wzrost umieralności, że izolacja ułatwia “wynurzenie się” większej liczby fenotypowych mutantów z tajonej dotąd w gametach rezerwy “alarmowej”, ale sama owa rezerwa może się okazać nie tyle ratowniczym wynalazkiem, nową formą ustroju, co zlepkiem bezsensownych i szkodliwych cech Ciśnienie bowiem selekcyjne wcale się nie musi pokrywać kierunkowo z mutacyjnym; ląd może zamieniać się w wyspę, a owady bezskrzydłe, całkiem przypadkowo, zamieniać się będą w uskrzydlone, co ich sytuację jeszcze pogorszy. Jedno jest zupełnie tak samo możliwe, jak drugie; dopiero gdy wektory obu ciśnień, mutacyjnego i selekcyjnego, wskazują w tę samą stronę, możliwy jest prawdziwie znaczny postęp. Ale też to zjawisko, jak pojmujemy teraz, stanowi rzadkość nad rzadkościami. W oczach konstruktora, sytuacja ta równa się takiemu zaopatrywaniu szalup ratunkowych okrętu, aby, po katastrofie, rozbitków oczekiwały niespodzianki, co też mieści się w schowku z “racją żelazną” ich łodzi: słodka woda, czy może kwas solny, albo — puszki z konserwami, czy tylko z kamieniami? I chociaż brzmi to groteskowo, obraz jednak w gruncie rzeczy odpowiada właśnie metodzie Ewolucji, okolicznościom, w jakich dokonuje ona swych dzieł największych.<br />O tym, że nie mylimy się, świadczy monofiletyczność powstania gadów, płazów, ssaków: powstały bowiem tylko raz jeden, każda z klas raz tylko na przestrzeni wszystkich geologicznych epok. Byłoby bardzo ciekawe znać odpowiedź na pytanie, co by się też stało, gdyby 360 milionów lat temu nie powstały pierwsze kręgowce, czy trzeba by czekać “dalszych sto milionów lat”? Czy też powtórzenie się owej mutacyjnej kreacji byłoby jeszcze mniej prawdopodobne? I czy nie wyeliminował ów wynalazek innej konstrukcji, potencjalnie możliwej?<br />Są to pytania nierozstrzygalne, bo stało się tak, jak się stało. Co prawda, jakeśmy już mówili o tym, mutacja jest zawsze niemal zmianą jednej organizacji na organizację inną, chociaż często “adaptacyjnie bezsensowną”. Tak więc wysoki poziom uorganizowania genotypu stwarza warunki, w których seria ciągnień losowych, byle bardzo była długa, zjawisko skonstruowania odmiany czy gałęzi bardziej postępowej czyni prawdopodobieństwem niemal dowolnie bliskim jedności. (Przez “postępową” formę rozumiemy taką, która — za J. Huxleyem — nie tylko sama dominuje organizacją nad dotychczasowymi, ale stanowi przejście potencjalne ku dalszym etapom rozwoju). Na przykładzie “wielkich przewrotów” ewolucyjnych starliśmy się znowu, i to drastycznie, z dowodną statystycznością naturalnego konstruktorstwa. Organizm to pokaz, jak układ pewny można zbudować z elementów niepewnych. Ewolucja zaś to demonstracja, w jaki sposób grą hazardową z dwiema stawkami — życiem i śmiercią — można uprawiać inżynierię.<br /><br /><br />8) Przechodzimy do coraz bardziej fundamentalnej krytyki Ewolucji; należy więc, marginesowo, skrytykować jej metodę sterowania. Sprzężenie zwrotne, kontrolujące genotypy, jest raczej uchybowe, przez co właśnie przychodzi do “zaśmiecenia genetycznego” populacji. Głównym naszym tematem będzie teraz jedno z założeń wstępnych i najbardziej fundamentalnych: wybór budulca. Retortami i laboratoriami Ewolucji są malutkie kropelki białkowe kleju. Z nich wytwarza ona szkielety, krew, gruczoły, mięśnie, futra, tarcze pancerne, mózgi, nektary i jady. Wąskość “produkcyjnego gardła” zdumiewa w zestawieniu z uniwersalizmem produktów końcowych. Jeśli jednak nie zważać na restrykcje narzucone przez zimną technologię, jeśli nie doskonałość kunsztu akrobacji molekularnej i chemicznej nas interesuje, ale raczej ogólne zasady racjonalnego projektowania rozwiązań optymalnych, otwiera się obszar zarzutów.<br />Jak można sobie wyobrazić organizm doskonalszy od biologicznego? Jako system zdeterminowany — podobny w tym sensie ‘do ustrojów naturalnych — może to być układ, który ultrastabilność podtrzymuje dzięki dopływowi energii najwydatniejszej, więc, oczywiście, jądrowej. Rezygnacja z utleniania czyni zbędnymi układy krwionośny, krwiotwórczy, płuca, całą piramidę regulatorów oddychania centralnych, całą aparaturę chemiczną enzymów tkankowych, przemianę mięśniową oraz stosunkowo nikłą i drastycznie limitowaną moc mięśni. Energia jądrowa pozwala na przekształcenia uniwersalne; ośrodek płynny nie jest jej nośnikiem najlepszym (ale i taki homeostat można by zbudować, gdyby komuś szczególnie na tym zależało); otwiera ona szansę różnorodnego działania na odległość już to przewodowe i dyskretnie (“kable”, jak nerwy), już to analogowo (wówczas np. promieniowanie staje się odpowiednikiem analogowych informacjonośnych związków hormonalnych); promieniowania i pola siłowe mogą działać także na otoczenie homeostatu, a wówczas prymitywna mechanika kończyn z ich łożyskami ślizgowymi staje się zbędna. Zapewne — organizm “na energię jądrową” jest w naszych oczach tyleż groteskowy, co nonsensowny — ale warto uzmysłowić sobie, jak wygląda sytuacja człowieka w startującym pojeździe kosmicznym, aby właściwie ocenić całą kruchość i wąskość rozwiązania ewolucyjnego. Przy wzmożonej grawitacji ciało, składające się głównie z płynów, podlega gwałtownym przeciążeniom hydrodynamicznym — zawodzi serce, w tkankach już to brak krwi, już to rozrywa ona naczynia, powstają wysięki i obrzęki, mózg przestaje działać po krótkiej chwili, gdy ustaje dopływ tlenu, i nawet kostny szkielet okazuje się wówczas konstrukcją zbyt słabą, aby oprzeć się działającym siłom. Człowiek jest dzisiaj najbardziej zawodnym elementem u stworzonych przez siebie maszyn, jak również najsłabszym —mechanicznie — ogniwem uruchomionych procesów.<br />Ale nawet rezygnacja z energii jądrowej, pól siłowych itp., nie prowadzi nas w sposób konieczny z powrotem ku rozwiązaniom biologicznym. System doskonalszy od biologicznego to taki, który posiada o jeden więcej stopień swobody — w zakresie materiałowym. Którego kształt ani funkcja nie są predeterminowane. Który wytwarza wedle potrzeby narząd odbiorczy lub efektor, nowy zmysł lub nową kończynę, albo nowy sposób poruszania się. Który, jednym słowem, dokonuje bezpośrednio, dzięki władzy nad swoją “somą” tego, co my sami robimy okólnie, technologiami, za pośrednictwem regulatorów drugiego stopnia, tj. mózgów.<br />Okólność naszego działania można by jednak wyeliminować; jeśli się ma trzy miliardy lat czasu, można zgłębić takie tajemnice materii, aby stała się zbędna.<br />Problem budulca można rozpatrywać dwojako: pod kątem przystosowania doraźnego organizmów w Przyrodzie, i wówczas rozwiązanie przyjęte przez Ewolucję ma wiele stron dodatnich. Albo też, pod kątem potencji prospektywnych — a wtedy na plan pierwszy wysuwają się wszystkie jego ograniczenia. Najdonioślejsze dla nas jest ograniczenie w czasie. Jeśli się ma do dyspozycji miliardolecia, można skonstruować prawie–nieśmiertelność, oczywiście, gdy komuś na tym zależy. Dla Ewolucji była to sprawa zupełnie obojętna.<br />Dlaczego omawiamy problem starzenia się i śmierci w ustępie poświęconym mankamentom budulca? Czy nie jest to raczej sprawa organizacji tego budulca? Sami mówiliśmy przecież o tym, że protoplazma jest, potencjalnie przynajmniej, nieśmiertelna. Jest ona nieustannie samoodnawiającym ładem — przynajmniej więc w samej zasadzie jej konstrukcji nie tkwi konieczność ustania procesów, wywołanego ich rozsypką. Sprawa jest trudna. Jeśli mamy jakieś pojęcie o tym, co zachodzi w organizmie w ciągu sekund lub godzin, to o prawidłowościach, jakim podlega on w czasie, obliczanych latami, nie wiemy prawie nic. Tę naszą ignorancję przesłaniają wcale skutecznie takie terminy, jak “wzrost”, “dojrzewanie”, “starzenie się”, ale są jedynie na poły przenośne, mgliste nazwy stanów, a nie opisy ścisłe.<br />Ewolucja jest konstruktorem–statystykiem; to już wiemy. Ale uśredniająca, statystyczna jest nie tylko jej działalność gatunkotwórcza; na podobnych zasadach opiera się też budowa pojedynczego ustroju. Embriogenezs jest sterowanym ogólnie wybuchem chemicznym, o precyzji teleologicznej, podszytej znowu statystyką, ponieważ geny nie determinują ani ilości, ani położenia poszczególnych komórek “produktu końcowego”. Żadna z osobna wzięta tkanka wielotkankowca nie musi umrzeć, można takie tkanki hodować latami na sztucznych podłożach, wyosobnione z organizmu. On jest zatem śmiertelny, jako całość, nie jego elementy składowe. Jak to rozumieć? Organizm podlega w ciągu życia rozmaitym zakłóceniom i urazom. Jedne z nich pochodzą z otoczenia, innych on sam jest mimowolnym sprawcą. To ostatnie jest bodaj najistotniejsze. Mówiliśmy już o pewnych rodzajach wykolejania się procesów życiowych, które w ustroju złożonym są przede wszystkim utratą równowagi korelacyjnej. Jest ich kilka głównych typów: stabilizacja patologicznej równowagi, jak przy wrzodzie żołądka, błędne koło, jak przy nadciśnieniu, wreszcie reakcje lawinowe (epilepsja). Do reakcji takich można też zaliczyć, cum grano salis, nowotworzenie. Wszystkie takie zakłócenia przyspieszają starzenie się, ale zachodzi ono też u osobników, nigdy niemal nie chorujących. Możemy się domyślać, że starość to skutek statystycznej natury procesów życiowych, której bardzo prymitywnym obrazem jest strzał ładunkiem śrutu. Bez względu na to, jaka jest precyzja wykonania lufy, śruciny rozchodzą się coraz bardziej, w miarę jak powiększa się przebyta przez nie droga. Starzenie się, to podobny rozrzut procesów i wywołane nim stopniowo wychodzenie ich spod centralnej kontroli. A gdy ów rozrzut osiągnie wartość krytyczną, kiedy wyczerpią się rezerwy wszystkich aparatur kompensujących, następuje śmierć.<br />Otóż możemy podejrzewać, że ta statystyka, która jest niezawodna jako wstępnie przyjęta zasada wyniknięcia płynnej równowagi (Fliessgleichgewicht F. Bertalanffy’ego), dopóki budowane z zaakceptowanych tak elementów organizmy są proste, zawodzi, kiedy przekroczymy określoną granicę złożoności. Komórka jest, w takim ujęciu, tworem doskonalszym od wielokomórkowca, jakkolwiek by to paradoksalnie brzmiało. Musimy jednak zrozumieć, że mówiąc tak, używamy całkiem innego języka, czy też — zajmujemy się zupełnie innymi sprawami od tych, na jakie zważała Ewolucja. Śmierć jest jej konsekwencją wielokrotną, jako skutek ciągłej zmiany, jako wynik rosnącej specjalizacji, jako rezultat wreszcie wszczęcia działań na takim, a nie innym materiale — jedynym, jaki był możliwy do stworzenia.<br />W rzeczywistości więc nie uprawiamy paszkwilu na tę naszą bezosobową stwórczynię serio. Idzie nam o coś zupełnie innego. Pragniemy być po prostu doskonalszymi od niej konstruktorami i musimy uważać, abyśmy nie popełnili jej “błędów”.<br /><br /><br /><br />Rekonstrukcja człowieka<br /><br /><br />Problemem naszym ma być udoskonalenie człowieka. Możliwe tu są podejścia rozmaite. Można uprawiać “inżynierię zachowawczą”, którą jest po prostu medycyna. Wówczas norma, to jest przeciętność zdrowia, stanowi wzorzec; działanie podejmuje się po to, by każdy człowiek mógł osiągnąć taki stan.<br />Zakres owych działań powoli się zwiększa. Może nawet obejmować wbudowywanie w organizm parametrów genotypowo nie przewidzianych (jak wspomniana możliwość hibernacji). W płynny sposób da się przejść do protetyki coraz bardziej uniwersalnej. Do pokonywania sił obronnych ustroju, w celach skutecznej transplantacji narządów. Wszystko to jest już teraz realizowane. Dokonano już pierwszych przeszczepów nerki i płuca; dokonuje się ich, w zakresie daleko szerszym, na zwierzętach (“rezerwowe” serce). W USA istnieje nawet towarzystwo “wymiennych narządów”, koordynujące i popierające badania naukowego tego zakresu. Można więc stopniowo przestrajać organizm, zmieniając go w poszczególnych funkcjach i parametrach. Proces ten prawdopodobnie będzie szedł dwutorowo, pod naciskiem obiektywnych konieczności — i technologicznych możliwości: jako przemiany biologiczne (usuwanie przeszczepami defektów, kalectw itp.) oraz jako przemiany protezujące (gdy proteza mechaniczna, “martwa”, jest lepszym dla użytkownika rozwiązaniem od transplantatu naturalnego). Protezowanie, w takim zakresie, nie może, rozumie się, wieść do jakiejś “robotyzacji” człowieka. Cała ta faza, która obejmuje zapewne nie tylko koniec bieżącego stulecia, ale i początki następnego, zakłada akceptację podstawowego “planu konstrukcyjnego”, danego przez Naturę. A więc nie naruszone pozostają wytyczne budowy cielesnej, narządowej, czynnościowej, zarówno z przyjętym wstępnie założeniem białkowego budulca — jak i z jego nieuchronnymi konsekwencjami — starości i śmierci.<br />Przedłużenie życia poza granicę stu lat statystyczne (tj. aby taka była przeciętna długość osobniczego trwania) — bez ingerencji w informację dziedziczną — wydaje mi się nierealne. Mnóstwo mędrców wyjawiało nam już nieraz, że “właściwie”, że “w zasadzie” człowiek mógłby dożyć i 140–160 lat, skoro tak długo żyją jednostki; jest to argumentacja godna tej, która powiada, że “właściwie” każdy z nas mógłby być Beethovenem lub Newtonem, bo przecież i oni byli ludźmi. Oczywiście, że byli ludźmi, jak są nimi długowi ni górale kaukascy, ale doprawdy z tego dla przeciętnej populacyjnej nic wynika. Długowieczność jest wynikiem działania określonych genów; kto je upowszechni w populacji, uczyni ją długowieczną statystycznie. Jakikolwiek program bardziej radykalnych zmian jest dzisiaj i będzie w ciągu najbliższego stulecia zapewne nie do urzeczywistnienia. Można jedynie zastanawiać nad programem rewolucyjnej inżynierii organizmu. Prymitywnie, w s naiwny, ale jest to możliwe.<br />Trzeba się najpierw zastanowić nad tym, czego chcemy. <br />Podobnie jak istnieje skala wielkości przestrzennych, od chmur metagalaktycznych, przez galaktyki, lokalne układy gwiazd, systemy planetarni planety, ich biosfery, organizmy żywe, wirusy, molekuły, atomy aż d kwantów, tak samo też istnieje skala wielkości czasu, tj. jego różnych rozciągłości. Pokrywa się ona z grubsza z tamtą. Najdłuższe jest trwanie indywidualne galaktyk (kilkanaście miliardów lat), kolejno idą gwiazdy) (około 10 miliardów), ewolucja biologiczna jako całość — cztery do sześciu] miliardów, epoki geologiczne (150–50 milionów lat), sekwoja (około 6000 lat), człowiek (około 70 lat), mucha–jednodniówka, bakteria (około 15 minut), wirus, cis–benzen, mezon (milionowe części sekundy).<br />Konstrukcja istoty rozumnej o trwałości indywidualnej dorównującej rozciągłości epok geologicznych wydaje się zupełnie nierealna. Musiałaby taka osoba albo mieć rozmiary planetoidy — albo zrezygnować z ciągłej pamięci zdarzeń przeszłych. Oczywiście, tu pole dla groteskowych konceptów rodem z S–F: istoty długowieczne, które swą pamięć mają ulokowaną np. w gigantycznych “mnemotronach” podziemnych miasta i połączone są z rezerwuarami swych młodzieńczych wspomnień sprzed 100 000 lat falami j ultrakrótkimi. Tak więc granicą realnego podniesienia długowieczności ] wydaje się pułap biologiczny (sekwoja, zatem około 6 000 lat). Jaka powinna być najistotniejsza cecha tej istoty długowiecznej? Długowieczność nie może ‘ być wszak celem w sobie. Musi ona czemuś służyć. Bez wątpienia nikt, ani dzisiaj, ani za sto tysięcy lat, nie może w sposób pewny przewidzieć przyszłości. Podstawową zatem cechą “udoskonalonego modelu” winna być jego potencja autoewolucyjna. Aby mógł się przekształcić w taki sposób i w takim kierunku, jaki będzie mu odpowiadał, ze względu na tworzoną przezeń cywilizację.<br />Co więc jest możliwe? Prawie wszystko, z jednym bodaj wyjątkiem. Ludzie, zmówiwszy się, mogliby w pewnym dniu kilkudziesięciotysięcznego roku postanowić: “Dość — niech będzie tak, jak jest teraz, niechaj tak już odtąd będzie zawsze. Nie zmieniajmy, nie wynajdujmy, nie odkrywajmy niczego, ponieważ lepiej niż teraz być nie może, a gdyby nawet mogło, nie chcemy tego”.<br />Aczkolwiek wiele mało prawdopodobnych rzeczy przedstawiłem w tej książce, ta wydaje mi się najbardziej nieprawdopodobna ze wszystkich.<br /><br /><br /><br />Cyborgizacja<br /><br /><br />Na osobne rozpatrzenie zasługuje jedyny znany dzisiaj, na razie czysto hipotetyczny, projekt rekonstrukcji człowieka, wysunięty przez uczonych. Nie jest to projekt przebudowy uniwersalnej. Służyć ma określonym celom, to jest adaptacji do kosmosu jako “niszy ekologicznej”. Jest to tak zwany cyborg (skrót słów “cybernetyczna organizacja”). “Cyborgizacja” polega na usunięciu układu trawiennego (prócz wątroby, ewentualnie i elementów trzustki), przez co zbędne stają się też szczęki, ich mięśnie i zęby. Jeśli kwestia mowy ma zostać rozwiązana “kosmicznie” —przez stałe stosowanie łączności radiowej — znikają i usta. Cyborg posiada szereg elementów biologicznych, jak szkielet, mięśnie, skórę, mózg, ale ów mózg zawiaduje mimowolnymi dotąd funkcjami ciała świadomie, ponieważ w kluczowych punktach organizmu znajdują się pompy osmotyczne, wstrzykujące w razie potrzeby już to substancje odżywcze, już to ciała aktywizujące — leki, hormony, preparaty bodźcze — bądź, na odwrót, obniżające przemianę podstawową, a nawet wprowadzające w stan hibernowania. Taka gotowość autohibernacyjna może poważnie zwiększyć przeżywalność w wypadku jakiejś awarii itp. Układ krwionośny pomyślany jest dość “tradycyjnie”, chociaż cyborg może pracować w warunkach beztlenowych (ale naturalnie z zapasem tlenu w skafandrze). Cyborg nie jest już częściowo sprotezowanym człowiekiem. Jest człowiekiem częściowo przekonstruowanym, ze sztucznym układem odżywczo—regulacyjnym, umożliwiającym przystosowanie do rozmaitych kosmicznych środowisk. Nie jest on jednak zrekonstruowany mikroskopowo, tj. żywe komórki nadal są podstawowym budulcem jego ciała, poza tym zaś, rzecz oczywista, zmiany jego organizacji nie mogą się przenosić na potomstwo (nie są dziedziczne). Należy sądzić, że “cyborgizację” dałoby się uzupełnić rekonstrukcjami biochemizmu. Tak np. byłoby bardzo pożądane uniezależnienie organizmu od nieustannej dostawy tlenu. Ale to jest już droga ku owej “rewolucji biochemicznej”, o której mówiliśmy poprzednio. Zresztą wiadomo, że nie trzeba aż szukać ciał, magazynujących tlen skuteczniej od hemoglobiny, aby można obywać się bez dostępu powietrza względnie długo. Wieloryby mogą nurkować ponad godzinę, co nie jest tylko wynikiem zwiększenia pojemności płuc. Mają specjalnie po temu rozwinięte układy narządowe. Więc i “od wieloryba” można by ewentualnie zapożyczyć elementy reorganizacji.<br />Nie wypowiedzieliśmy się na temat, czy cyborgizacja jest pożądana, czy nie. Przytaczamy ją tylko dla ukazania, że problemy tego rodzaju są w ogóle przez fachowców poruszane. Należy jednak zauważyć, że projekt byłby dzisiaj najprawdopodobniej nie do urzeczywistnienia (nie tylko ze względu na etykę lekarską, ale i na nikłą szansę przeżycia tak zmasowanej chirurgicznej interwencji i zastąpienia tak ważnych życiowo narządów różnymi “pompami osmotycznymi”), chociaż w gruncie rzeczy jest dość “konserwatywny”.<br />Główne źródło krytycyzmu stanowi nie tyle zestaw proponowanych operacji, ile końcowy ich rezultat. Cyborg, wbrew pozorom, wcale nie jest człowiekiem bardziej uniwersalnym od “modelu dotychczasowego”. Jest OB “wariantem kosmicznym”, nie dla wszystkich bynajmniej ciał niebieskie! ale raczej dla podobnych do Księżyca czy Marsa. Tak więc zabiegi dość okrutne dają w istocie rezultat raczej nędzny pod względem adaptacyjnego uniwersalizmu; największy zaś sprzeciw budzi sama koncepcja “degeneralizowania człowieka”, tj. wytworzenia rozmaitych typów ludzkich, mniej więcej na podobieństwo i obraz różnych rodzajów mrówek. Może projektantom analogie te nie przychodziły na myśl, ale narzucają się nawet nieuprzedzonemu. Hibernować można i bez pomp osmotycznych, a tak samo dałoby się zaopatrzyć kosmonautę w szereg mikroprzystawek (samoczynnych bądź przezeń uruchamianych) dla wprowadzania do jego ustroju odpowiednich preparatów. Już to ów cyborgowski brak ust wydaje mi się efektem przeznaczonym dla szerokiej publiczności raczej aniżeli dla fachowców–biologów. Przyznaję lojalnie, ze łatwiej się w materii takich czy podobnych rekonstrukcji poruszać wśród ogólników o przyszłej ich konieczności, aniżeli zaproponować, choćby technicznie dziś nierealne, ale przekonujące konstruktorsko usprawnienia. Na razie chemia przemysłowa jest beznadziejnie w tyle za biochemią ustrojów, a inżynieria molekularna wraz z jej zastosowaniami informacjonośnymi tkwi w powijakach wobec molekularnej technologii organizmów. Jednakże te środki, jakich imała się — by tak rzec — “z rozpaczy” raczej, niż z wyboru, Ewolucja, zacieśniona obiektywnymi warunkami do “zimnej technologii” i do bardzo wąskiego zestawu pierwiastków (praktycznie—tylko węgiel, wodór, tlen, siarka, azot, fosfor oraz śladowo żelazo, kobalt i inne metale), nie mogą przedstawiać osiągnięcia szczytowego w konstruowaniu homeostatów na miarę Kosmosu. Gdy chemia syntez, teoria informacji, ogólna teoria układów pójdą daleko naprzód, ciało ludzkie okaże się w takim świecie jego elementem najmniej doskonałym. Wiedza ludzka przewyższy biologiczną, nagromadzoną w żywych ustrojach. Wówczas plany, poczytywane dziś za kalumnie na perfekcję rozwiązań ewolucyjnych, zostaną urzeczywistnione.<br /><br /><br /><br />Maszyna autoewolucyjna<br /><br /><br />Ponieważ możliwość przebudowy człowieka wydaje się nam czymś niesamowitym, skłonni jesteśmy sądzić, że niesamowite muszą być też stosowane w tym celu techniki. Chirurgia mózgów, “butelkowane płody, rozwijające się pod kontrolą inżynierii genetycznej” — oto obrazy, jakie nam w tej sferze przedstawia literatura fantastyczna. Tymczasem stosowane zabiegi mogą być zgoła niedostrzegalne. Od paru lat pracują w USA — nieliczne na razie — maszyny cyfrowe, zaprogramowane dla kojarzenia małżeństw. “Maszynowy swat” dobiera pary, najlepiej odpowiadające sobie pod względem cielesnym i umysłowym. Według (szczupłych na razie) danych trwałość kojarzonych maszynowo związków jest około dwa razy większa niż małżeństw zwykłych. W ostatnich latach obniżył się w Stanach wiek przeciętny zawierania małżeństw, a zawarte rozpadają się w 50 procentach do 5 lat, mnóstwo jest więc dwudziestolatków—rozwodników i dzieci pozbawionych normalnej opieki rodzicielskiej. Nie wynaleziono jeszcze sposobów zastąpienia czymkolwiek rodzinnej formy wychowania, bo nie jest to tylko kwestia środków na utrzymanie odpowiednich instytucji (ochronek); uczucia rodzicielskie nie mają namiastki, a ich wczesny i trwały brak powoduje nie to, że ujemne doznania dzieciństwa, lecz powstawanie nieodwracalnych czasem defektów w sferze tak zwanej uczuciowości wyższej. Tak przedstawia się stan aktualny. Ludzie tworzą pary metodą losową, którą można by nazwać brownowską — łączą się bowiem po pewnej ilości przelotnych kontaktów, gdy trafią wreszcie na partnerów “właściwych”, co poświadczać zdaje się wzajemna atrakcja. Lecz rozeznanie to jest właśnie dosyć losowe (skoro w 50% okazuje się błędne). “Maszynowe swaty” odmieniają ten stan rzeczy. Odpowiednie badania dostarczają maszynie wiedzy o psychosomatycznych cechach kandydatów, po czym wyszukuje ona pary, optymalnie sobie odpowiadające. Maszyna nie likwiduje swobody wyboru, bo nie do jednego tylko kandydata prowadzi. Działając probabilistycznie, proponuje wybór w obrębie odsianej grupy, mieszczącej się w przedziale ufności, przy czym grupy takie może maszyna selekcjonować spośród milionów ludzi, podczas gdy jednostka, postępująca tradycyjnie, “metodą losową”, może zetknąć się w życiu najwyżej z ich paroma setkami. Tak więc maszyna realizuje właściwie stary mit o mężczyznach i kobietach, przeznaczonych sobie, ale daremnie się szukających. Rzecz tylko w tym, aby świadomość społeczna fakt ów trwale przyswoiła. Co prawda są to argumenty racjonalne tylko. Maszyna poszerza możliwości wyboru, lecz czyni to w upośrednieniu, ponad głową osobnika, odbierając mu prawo do błędów i cierpień, wszelkich w ogóle przypadłości pożycia, lecz ktoś może właśnie takich przypadłości łaknąć, a przynajmniej życzyć sobie prawa do ryzyka. Panuje wprawdzie przekonanie, że zawiera się małżeństwo po to, aby w nim trwać, lecz ktoś właśnie woli może przeżyć nawet fatalnie zakończoną perypetię z lekkomyślnie wybranym partnerem, aniżeli żyć “długo i szczęśliwie” w harmonijnym stadle. Jednakże w uśrednieniu masowym korzyści kojarzenia małżeństw z pozycji “wiedzy lepszej”, jaką dysponuje maszyna, tak znacznie przeważają nad mankamentami, że technika podobna ma znaczne szansę upowszechnienia. Gdy nabierze cech normy kulturowej, małżeństwo, odradzane przez “maszynowego swata’’, będzie może rodzajem owocu zakazanego i przez to kuszącego, społeczeństwo zaś otoczy je aurą podobną do tej, jaka dawniej towarzyszyła np. mezaliansom. Zresztą może być i tak, że podobny “krok desperacki” będzie uznawany w pewnych kręgach za “wyraz szczególnej odwagi”, jako “wyzywanie niebezpieczeństwa”.<br />“Maszynowe swaty” mogą mieć bardzo poważne konsekwencje dla naszego gatunku. Gdy odszyfrowane zostaną osobnicze repertuary genotypowe i wprowadzone, obok ustalonych “osobowościowych profilów psychosomatycznych”, do maszynowej pamięci, zadaniem swata będzie dobór, przystosowujący nie tylko osoby do osób, lecz także genotypy do genotypów. Selekcja biec będzie dwustopniowo. Najpierw maszyna wydzieli klasę partnerów, co sobie psychosomatycznie odpowiadają, a potem podda ją odsiewowi drugiego stopnia, odrzucając takich kandydatów, którzy mogliby dać początek z prawdopodobieństwem istotnym dzieciom z pewnych względów nie pożądanym. Na przykład ułomnym, co bezopornie aprobujemy, albo obdarzonym niską inteligencją bądź osobowościowe niezrównoważonym —co budzi już, przynajmniej dziś, niejakie zastrzeżenia. Postępowanie to wydaje się pożądane — jako stabilizacja i ochrona substancji dziedzicznej gatunku — zwłaszcza w epoce, która zwiększa w środowisku cywilizacyjnym stężenie ciał mutagennych. Od stabilizowania genotypów populacji niedaleko do kierowania ich dalszym rozwojem. W ten sposób wkraczamy w strefę takiej kontroli planowanej, która stanowi płynne przejście ku sterowaniu ewolucją gatunku. Gdyż dobierać genotypy do genotypów, to tyle co ewolucją gatunku kierować. Podobna technika wydaje się najmniej drastyczna z możliwych, jako niedostrzegalna właściwie, lecz przez to właśnie stwarza drażliwy problem moralny. Zgodnie z dyrektywami naszej kultury, społeczeństwo winno być informowane o wszystkich, doniosłych przemianach — a taką byłby przecież jakiś (powiedzmy) “tysiącletni plan autoewolucyjny”. Udzielić jednak informacji, nie podając zarazem argumentów, to narzucać plany, a nie perswadować potrzebę ich realizacji. Argumenty wszakże będą mogli właściwie zrozumieć tylko posiadacze rozległej wiedzy w zakresie medycyny, teorii ewolucji, antropologii i genetyki populacyjnej. Inną osobliwością takiej techniki jest ta, że uzyskiwać rezultaty można w niej niejednakowo w obrębie rozmaitych cech ustrojowych. Stosunkowo łatwo byłoby np. —dążyć do upowszechnienia wysokiej inteligencji, jako naturalnej cechy gatunkowej, choć nie tak częstotliwej, jak można by sobie tego życzyć. Miałoby to ogromne znaczenie w epoce współzawodnictwa umysłowego ludzi i maszyn. Najtrudniej za to byłoby dokonać — ukazaną metodą — głębokich zmian ustrojowej organizacji. O jakie zmiany może chodzić? Zgodnie z niektórymi badaczami (takimi jak Dart na przykład) jesteśmy “obciążeni dziedzicznie”, a raczej odznaczamy się “asymetrią” dążeń do “zła” i “dobra” przez to, że przodkowie nasi praktykowali przez trzy czwarte miliona lat kanibalizm, i to nie jako wyjątek w obliczu śmierci głodowej (tak czynią “zwykłe” drapieżcę), lecz jako regułę. Wiedziało się o tym od dość dawna, lecz obecnie uważany bywa kanibalizm za czynnik twórczy antropogenezy, a tak się to wykłada, że roślinożerność nie maksymalizuje “rozumności”, banany bowiem nie zmuszają ich poszukiwacza do rozwijania taktyki, oceniającej błyskawicznie sytuacje, ani strategii podejść, walk i pościgów. Stąd też antropoidy zatrzymały się niejako w rozwoju, najszybciej zaś postępował w nim praczłowiek dlatego, ponieważ polował na równych sobie bystrością. Dzięki temu dochodziło do najenergiczniejszego odsiewu “nierozgarniętych”, bo ograniczony umysłowo roślinożerca najwyżej pości czasem, natomiast nie dość bystry łowca podobnych sobie musi rychło zginąć. Miał być tedy “wynalazek kanibalistyczny” — akceleratorem postępu umysłowego, jako iż walka wewnątrzgatunkowa zapewnia przeżywalność tylko posiadaczom najsprawniejszego rozumu, takiego więc, co przejawia uniwersalny transfer doświadczeń życiowych na nowe sytuacje. Zresztą był australopitek, o którym tu mowa, wszystkożercą; jakoż poprzedziła kulturę kamienia — osteodontokeratyczna, bo pierwszą, przypadkowo — przez ogryzienie — powstającą pałką jest kość długa, toteż pierwszymi jego naczyniami i maczugami były czaszki i kości, opar krwi zaś asystował powstawaniu pierwszych obrzędów. Nie wynika z tego, jakobyśmy odziedziczyli po przodkach “archetypy zbrodniczości”, bo nie dziedziczy się w pozapopędowej dziedzinie żadnej gotowej wiedzy, nakierowującej do określonych działań, i to jedynie można przypuszczać, że mózg i ciało człowieka ukształtowały sytuacje nieustannej walki. Daje też do myślenia “asymetria” dziejów kulturowych, w których dobre zamierzenia obracały się dość regularnie w zło, ale do metamorfozy odwrotnej jakoś nie dochodziło, a w jednej z panujących religii do dziś gra rolę szczególną krew — w doktrynie transsubstancjacji. Jeśli podobne hipotezy mają za sobą racje rzeczowe i głąb mózgów naszych ukształtowała się pod wpływem zjawisk owych setek tysięcy lat, niejaka melioracja gatunku — w zakresie tak zwanej “asymetrii’’ — byłaby prawdziwie pożądana. Oczywiście nie wiemy dzisiaj, ani c z y trzeba ją przedsięwziąć, ani też, j a k należałoby to robić; “maszyny matrymonialne” mogłyby do pożądanego stanu doprowadzić dopiero po wielu tysiącach lat, bo one mogą tylko maksymalizować tempa ewolucji naturalne, bardzo powolne przecież. W obliczu zatem tak rewolucyjnego planu trzeba by się może uciec do technik “przyśpieszonych”. W każdym razie jest tak, że o oporach, jakie budzi w nas perspektywa przemian autoewolucyjnych, decydują nie tylko ich rozmiary, lecz i samo ustopniowanie płynne przejść ku nim. “Przykrawanie mózgów i ciał” budzi odrazę, natomiast “maszynowe poradnictwo małżeńskie” wydaje się zabiegiem dość niewinnym — a jednak są to tylko drogi rozmaitej długości, mogące wieść do analogicznych rezultatów.<br /><br /><br /><br />Zjawiska pozazmysłowe<br /><br /><br />Wielu istotnych problemów nie tknęliśmy w ogóle w tej książce; liczne potraktowaliśmy bardziej pobieżnie, aniżeli na to zasługiwały. Jeśli u jej końca wspomnimy o telepatii i pokrewnych zjawiskach pozazmysłowych, to aby uniknąć zarzutu, że poświęcając tyle uwagi sprawom przyszłego świata, z taką nieustępliwością mechanizowaliśmy problemy ducha, aż popadliśmy w ślepotę. Skoro bowiem telepatia już dzisiaj wzbudza tak znaczne zainteresowanie, i to nawet w niektórych środowiskach naukowców, czy nie jest wysoce prawdopodobne, że dokładniejsze jej poznanie doprowadzi do radykalnej zmiany naszych poglądów fizykalnych, a być może nawet, zjawiska tego typu staną się dostępne zabiegom konstruktorskim? Jeśli człowiek może być telepatą i jeśli mózg elektronowy może być pełnowartościowym zastępcą człowieka, to prosty stąd wniosek, że i taki mózg, byle właściwie zbudowany, przejawi zdolność poznania pozazmysłowego. Stąd już prosta droga do przedstawiania rozmaitych nowych technik przesyłu informacji “kanałami telepatycznymi”, do bezludnych “telepatronów”, “telekinetorów”, jak również do cybernetycznego jasnowidzenia.<br />Znam dość dokładnie literaturę, poświęconą zjawiskom ESP (Extra–Sensory Perception, postrzeganie pozazmysłowe). Argumenty, wysuwane przeciwko wynikom badań takich uczonych, jak Rhine czy Soal, a zebrane w kostycznej, lecz inteligentnie napisanej książce G. Spencera Browna*, przemawiają mi dosyć do przekonania. Jak wiadomo, fenomeny lat dziewięćsetnych naszego stulecia, z takim przejęciem badane przez ówczesny świat naukowy, zachodzące pod obecność “mediów spirytystycznych”, ustały mniej więcej wtedy, gdy wprowadzono urządzenia podczerwone, pozwalające na obserwację wszystkiego, co się dzieje w najlepiej zaciemnionym pokoju. Widocznie “spirity” lękają się nie tylko ciemności, ale i podczerwonych lornetek.<br />Zjawiska badane przez Rhine’a i Soala nie mają nic wspólnego z “duchami”. Jako telepatia oznaczają przekazywanie informacji z umysłu do umysłu bez pośrednictwa kanałów materialnych (zmysłowych). Jako kryptestezja oznaczają uzyskiwanie informacji przez umysł z przedmiotów materialnych dowolnie ukrytych, osłoniętych i odległych, także bez pośrednictwa zmysłów. Jako psychokineza (PK) oznaczają manipulowanie przestrzenne obiektami materialnymi dzięki wysiłkowi czysto umysłowemu — znów bez materialnego efektora. Jako jasnowidzenie wreszcie oznaczają przewidywanie stanów przyszłych zjawisk materialnych bez posługiwania się wnioskowaniem ze znanych przesłanek (“spojrzenie duchem w przyszłość”). Badania takie, zwłaszcza prowadzone w laboratorium Rhine’a, dostarczyły olbrzymiego materiału statystycznego.<br />Warunki kontroli są surowe, wyniki statystycznie wcale ważkie, w przypadkach telepatii używa się najczęściej tak zwanych kart Zenera, w przypadku psychokinezy — maszynki, rzucającej kośćmi do gry; eksperymentujący usiłuje powiększyć lub zmniejszyć ilość wypadających oczek.<br />Spencer Brown atakuje metody statystyczne, powiadając, że w długich seriach losowych mogą się powtarzać pewne mało prawdopodobne sekwencje wyników i to z tym większym prawdopodobieństwem, im dłuższa będzie seria. Znane są takie zjawiska, jako tak zwane “passy szczęścia” (i pecha), wszystkim uprawiającym gry hazardowe. Brown uważa, że za sprawą czystego przypadku może dochodzić, w trakcie kontynuowania długich serii losowych, do rozbudowania się dowolnie prawie wielkiego odchylenia od średniej przeciętnej wyników. W samej rzeczy popiera tę tezę fakt, znany wszystkim, którzy zajmowali się układaniem tak zwanych tablic liczb losowych: nieraz aparatura, mająca produkować takie liczby z najzupełniej chaotycznym rozrzutem, produkuje serię dziesięciu, albo i stu zer pod rząd; oczywiście może to dotyczyć dowolnej cyfry. Otóż jest to właśnie wynik przypadku; techniki statystyczne, używane w eksperymentach przez uczonych, nigdy nie są “puste”, ponieważ wypełnia je (to znaczy, ich formuły) materialna treść zjawisk. Natomiast długotrwałe obserwowanie losowych serii całkiem pustych, czyli pozbawionych związków z jakimikolwiek materialnymi zjawiskami, może właśnie prowadzić do powstawania bardzo osobliwych z pozoru odchyleń, których nieistotność, tj. akcydentalność, wykazać można przez to, że takie odchylenia nie są powtarzalne, ale po pewnym czasie “same” rozmazują się i giną, za czym dalsze wyniki znów przez bardzo długi czas oscylują nieznacznie tylko wokół oczekiwanej przeciętnej statystycznej. Tak więc jeśli oczekujemy zjawiska, które nie zachodzi, używając w doświadczeniu serii losowej, w rzeczywistości notujemy po prostu zachowanie owej serii, oderwanej od wszelkich materialnych znaczeń, i “ważkie odchylenia statystyczne” co jakiś czas rozbudowują się, aby potem bez śladu się rozpłynąć. Argumenty Browna są wyczerpujące, ale nie przedstawię ich w pełni, ponieważ o nieistnieniu omawianych zjawisk przekonuje mnie coś innego.<br />Gdyby telepatyczne zjawiska były rzeczywistością, gdyby stanowiły swoisty kanał informacyjnego przekazu, uniezależniony od tych wszystkich zakłóceń szumami, jakim podlega przesyłana informacja zmysłowa, to ewolucja biologiczna bez wątpienia użyłaby takich fenomenów, ponieważ bardzo poważnie zwiększyłyby szansę przetrwania gatunków w walce o byt. Stado drapieżców, np. wilków, ścigające ofiarę w ciemnym lesie, roztrącane w biegu drzewami, o ileż łatwiej mogłoby stale być naprowadzane przez przewodnika na tracony ślad, gdyby pozostawał z towarzyszami w kontakcie telepatycznym, który, jak słyszymy, nie zależy ani od warunków atmosferycznych, ani od widoczności, ani od obecności przegród materialnych. Zwłaszcza już nie musiałaby ewolucja uciekać się do kłopotliwych i wymyślnych sposobów, mających na celu wzajemne odnajdywanie partnerów obu płci. Zwykły “zew telepatyczny” zastąpiłby powonienie, wzrok, zmysł hydrolokacyjny itd., itp.<br />Jedynym właściwie zastanawiającym przypadkiem jest casus pewnej ćmy, która zwabia partnerów płciowych z odległości kilku kilometrów. Skądinąd wiadomo jednak, jak czułe są narządy węchowe, czy węchowo–dotykowe owadzich czułków. Ćma zwabia partnerów, umieszczona w Mateczce z siatki; nie wiadomo nic o tym, aby zjawisko powtarzało się, kiedy ją zamknąć w naczyniu hermetycznym. Poprzednio ukazaliśmy na przykładach, jakiej czułości dochodzą poszczególne zmysły zwierząt. Byłoby to pracą Ewolucji najzupełniej zbędną, gdyby zjawiska telepatyczne podlegały prawom naturalnego doboru. Dopóki zaś dobór ów działa, nie ma takich cech organizmu, które nie mogłyby mu podlegać, jeśli raz się już przejawią. A skoro jakieś ćmy, ludzie lub psy w eksperymentach wykazują telepatię, stąd wniosek, że jest ona właściwa organizmom żywym. Więc i mezozoiczni przodkowie ich winni byli te zjawiska przejawiać.<br />Jeśli ewolucja przez dwa do trzech miliardów lat istnienia nie mogła skumulować zjawiska ponad tę zaledwie wykrywalną w tysięcznych eksperymentach miarę, to nie trzeba nawet analizy samego statystycznego narzędzia, aby dojść do wniosku, że cała ta problematyka żadnych na przyszłość perspektyw nie otwiera. W jakiekolwiek zresztą sięgniemy środowisko, dostrzegamy zarazem nadzwyczajną użyteczność potencjalną, na równi z całkowitą nieobecnością, zjawisk telepatycznych.<br />Ryby głębinowe żyją w zupełnej ciemności. Czy zamiast prymitywnych narządów fosforyzujących, jakimi zaledwie w małym promieniu rozświetlają swe pobliże, by unikać wrogów i szukać partnerów, nie posłużyłyby się raczej ich lokacją telepatyczną? Czy nie powinny istnieć wyjątkowo silne związki telepatyczne pomiędzy rodzicami a ich potomstwem? A jednak samica, jeśli ukryć jej potomstwo, będzie go szukała wzrokiem, węchem, tylko nie “zmysłem telepatycznym”. Czy nie powinny były wytworzyć silnej łączności telepatycznej nocne ptaki? Nietoperze? Takich przykładów można by podawać setki. Tak zatem możemy być. spokojni, przemilczając perspektywy rozwoju technologii telepatycznej, ponieważ jeśli nawet w sieciach statystycznych protokołów tkwi jakaś kruszyna obiektywnej prawdy, jakiegoś zjawiska nieznanego, nie ma ona nic wspólnego z poznaniem pozazmysłowym.<br />Co się tyczy psychokinezy, dość chyba kilku zdań dla zauważenia, że wszystkie statystyczne eksperymenty są zbędne, skoro wystarczy ustawić odpowiednio czuły, strunowy galwanometr Einthovena i poprosić jakiegoś atletę duchowego, aby spowodował przesunięcie wiązki światła, odbitej od lusterka galwanometru, a padającej na skalę, powiedzmy o jedną tysięczną milimetra. Potrzeba do tego siły, kilkanaście tysięcy razy mniejszej aniżeli ta, jakiej wymaga takie obracanie lecących z kubka na stół kości, które zmienia wynik, powiększając lub obniżając liczbę wypadających oczek w stosunku do oczekiwanej losowo. Atleta psychokinetyczny winien nam wdzięczność za ten pomysł, ponieważ na kości można wpływać przez krótką chwilę, nim wypadłszy z kubka, rozsypią się po stole, przed galwanometrem natomiast, działając na jego kwarcową strunę niezrównanej czułości, będzie mógł się koncentrować całymi godzinami, a nawet dniami.<br /><br /><br /><br />Zakończenie<br /><br /><br />Zakończenie książki jest po trosze jej podsumowaniem, warto więc może zastanowić się po raz ostatni nad ową skwapliwością, z jaką na martwe barki maszyn nie istniejących przerzuciłem odpowiedzialność za przyszłą Gnosis naszego gatunku. Mógłby ktoś spytać, czynie było to aby rezultatem niejakiej frustracji, niezupełnie przez autora uświadamianej, a stąd się biorącej, że —skutkiem ograniczeń własnych i historycznego czasu — niezdolny spenetrować naukę z jej perspektywami, wymyślił, a właściwie zmodernizował z lekka wersję owej sławnej “Ars Magna”, którą bystry Lullus zaproponował dosyć dawno, bo jeszcze w 1300 roku, a kilka wieków później Swift w “Podróżach Gullivera” wyśmiał należycie.</div><div>Pozostawiając na boku sprawę mojej niekompetencji, tyle bym odpowiedział. Książka ta tym się różni od fantazji, że szuka dla hipotez możliwie pewnego oparcia, przy czym za najtrwalsze ma to, co realnie istnieje. Stąd ciągłe jej odwołania do Natury, ponieważ pod tym adresem funkcjonują zarówno “samosprawcze predyktory apsychiczne” jak i “urządzenie rozumiejące” — pod postacią chromosomowych korzeni i mózgowej korony wielkiego drzewa ewolucji. Warte fatygi, bo sensowne jest tedy rozważanie, czy potrafimy je naśladować — co się atoli tyczy pryncypialne j możliwości ich budowy, nie ma dyskusji, ponieważ wszystkie te “urządzenia” istnieją, i nie najgorzej, jak wiadomo, przeszły miliardoletni test empiryczny.<br />Pozostaje kwestia, czemu przełożyłem model “chromosomowy” sprawstwa nierozumnego nad “mózgowy” — rozumiejącego. Była to decyzja oparta na czysto konstruktorskich, materiałowo–informacyjnych przesłankach, ponieważ pod względem pojemności, przepustowości, stopnia miniaturyzacji, oszczędności budulca, niezawisłości, wydajności, stabilności, szybkości, a wreszcie — uniwersalności — układy chromosomowe wykazują wyższość nad mózgowymi, zwyciężając je we wszystkich wymienionych konkurencjach. Ponadto pozbawione są — w aspekcie językowym — wszelkich ograniczeń formalnych, a w toku ich materialnego działania nigdzie nie pojawiają się kłopotliwe zagadnienia semantycznego bądź mentalnego charakteru. Wiemy wreszcie, że konfrontowanie z sobą na poziomie molekularnym agregatów genotypowych bezpośrednie, mające — ze względu na stany otoczenia — optymalizować rezultaty ich materialnego sprawstwa, jest możliwe, jak wskazuje na to każdy akt zapłodnienia. Zapłodnienie jest “podjęciem molekularnej decyzji” zachodzącym w konfrontacji dwu, alternatywnych częściowo “hipotez” o przyszłej postaci organizmu; “nośnikami” owych hipotez przeciwstawnych są gamety obu płci. Możliwość podobnego rekombinowania elementów materialnej predykcji nie wynika z nałożenia na procesy ontogenetyczne jakichś innych, względem nich zewnętrznych, ale wbudowana jest w samą strukturę chromosomów. Genotypy są nadto tak nauce drogiej sprawie predykcji poświęcone w sposób wyłączny i zupełny. Wszystkich owych przymiotów konstrukcyjnych jest mózg pozbawiony. Pełnej swojej informacyjnej zawartości nie mogą mózgi konfrontować (jak chromosomy) bezpośrednio, jako układy bardziej od genotypowych “definitywnie zamknięte”, znaczna zaś część ich wysokiej złożoności, na stałe związana zadaniami sterownictwa ustrojowego, “pracy predykcyjnej “oddawać się nie może. Zapewne—mózgi stanowią niejako wzorce czy prototypy już “gotowe”, “wypróbowane”, które należałoby “tylko” powtórzyć, może ze wzmocnieniem wybiórczym, aby okazały się w swoich syntetycznych wersjach wzbudnikami teorio twórczości, podczas kiedy zaprzęgnięcie do niej układów, tak swoiście wyspecjalizowanych jak chromosomowe, nie tylko będzie trudne nadzwyczaj, ale okazać się może w końcu niepodobieństwem. Efektywność atoli “urządzeń dziedziczności”, mierzona ilością bitów w jednostce czasu na atom nośnika, jest takiego rzędu, że warto — i nie jednym nawet pokoleniem — spróbować. Jaki zresztą technolog oprze się takiej pokusie? Z dwudziestu liter aminokwasowych zbudowała Natura język “w stanie czystym”, który wyraża — za nieznacznym przestawieniem sylab nukleotydowych — fagi, wirusy, bakterie, tyrannozaury, termity, kolibry, lasy i narody— jeśli ma tylko do dyspozycji czas dostateczny. Język ten, tak doskonale a teoretyczny, antycypuje nie tylko warunki dna oceanów i szczytów górskich, ale kwantowość światła, termodynamikę, elektrochemię, echolokację, hydrostatykę — i Bóg wie, co jeszcze, a czego my na razie nie wiemy! Czyni to tylko “praktycznie”, ponieważ, sprawiając wszystko, niczego nie rozumie, lecz o ileż sprawniejsza jest jego bezrozumność od naszej mądrości. Czyni to zawodnie, jest rozrzutnym szafarzem twierdzeń syntetycznych o własnościach świata, bo zna jego statystyczną naturę i zgodnie z nią właśnie działa: nie przywiązuje wagi do twierdzeń pojedynczych — liczy się dlań całość miliardoletniej wypowiedzi. Doprawdy, warto nauczyć się takiego języka, który stwarza filozofów, gdy nasz — tylko filozofie.<br /><br /><br />Kraków, w sierpniu 1966<br /><br /><br />Posłowie<br /><br /><br />Dwadzieścia lat później<br /><br /><br />I<br /><br /><br />Dwadzieścia lat to spory szmat życia ludzkiego i niemały książki, zwłaszcza poświęconej przyszłości, bo jak powiedziano, nic się teraz nie starzeje tak szybko jak przyszłość. Złośliwość tę wymierzono w futurologów. Jak król Midas obracał w złoto, czego tylko się tknął, tak futurologia chybiała każdego celu, do którego się złożyła. Powstają wprawdzie nowe prognozy, mało znane szerszej publiczności, lecz ich autorzy przemilczają swe dawniejsze przepowiednie. Tym samym rozstrzygają pytanie o naukowość futurologii na swoją niekorzyść, nauka stoi bowiem zgodnością predykcji i faktów, a uczenie się na popełnionych błędach jest jej siłą.<br />Nie po to wracam do “Summy”, żeby wyliczać zawarte w niej trafne domysły, ale po to, żeby uwyraźnić to, co mam w niej za najważniejsze. Mógłbym co prawda dowodzić mego prekursorstwa zestawianiem rozmaitych dat. Na przykład powiedzieć, że kiedy Marvin Minsky uznał za realne zjawisko “zdalną obecność człowieka” — nazwał ją “telepresence”, co odpowiada terminowi “teletaksja” w tej książce, właściwie jednak musiałbym cofnąć się jeszcze bardziej wstecz, bo o “telewizytach” pisałem już w roku 1951. Mógłbym zestawić datę publikacji “The Selfish Gene’’ R. Dawkinsa z datą wyjścia mego Golema: tu i tam tradycyjnie ustalony stosunek zapisów dziedziczności do istot żywych ulega odwróceniu; przykładów takiego pierwszeństwa nazbierałoby się więcej, ale nie o to mi chodzi. Ważniejsze jest to, że dobrze wybrałem główny kierunek rozważań. Bodajże lepiej, niż sam śmiałbym sądzić przed dwudziestu laty, nie przypuszczałem bowiem, że dożyję choćby i pierwocin tego, co przewidywałem. Nie doceniłem przyspieszenia cywilizacji, która, jak ktoś zauważył, ma coraz potężniejsze środki i coraz mętniejsze cele. Przyczyniają się do tego zmagania mocarstw o supremację i wysiłki utrzymania polityczno–gospodarczego status quo w świecie, który ustatecznić tak się nie daje. Choć nie należy to do zamierzonego tematu, dodam, że zagrożenie wojną atomową będzie zapewne malało, ponieważ broń nuklearna jest nazbyt miażdżąca i ślepa w działaniu, przez co potęgowana nie powiększa niczyjego bezpieczeństwa. Dlatego należy się spodziewać doskonalenia broni konwencjonalnych, które przestają być konwencjonalne już na naszych oczach. Samonaprowadzające się pociski są pierwszym krokiem ku broniom programowanym na samodzielność, więc ku inteligentnym, a takie nigdy się wśród konwencjonalnych nie znajdowały. Ów trend, nie mniej kapitałochłonny niż nuklearny, niełatwo będzie zahamować. Spoza widma wojny jądrowej wyłania się inne, konfliktów angażujących arsenały środków i technik nigdy dotąd nie wypróbowanych na wielką skalę, więc nieprzewidywalnych w wynikach jak wojna atomowa, chociaż ta nieprzewidywalność nie musi się równać masowemu ludobójstwu. Ciągły przyrost innowacji czyni walor strategiczny i taktyczny nowych broni niewiadomą, gdyż operacyjna skuteczność militarna zależy od rosnącej liczby środków ataku i obrony, kontrujących się dokładnie tylko na papierze albo w symulacyjnych grach wojennych. Chcę powiedzieć, że, jak gdyby paradoksalnie, im więcej coraz precyzyjniejszych broni zawierają arsenały, tym większą wagę zdobywa w realnym starciu przypadek, ponieważ tam, gdzie o skuteczności działania decydują coraz drobniejsze ułamki sekund, przepowiadanie skuteczności masowo zadawanych ciosów przestaje być możliwe. Wojnę światową łatwo rozgrywać dowolną ilość razy komputerowym symulowaniem, lecz w rzeczywistości można ją rozegrać tylko raz, a wówczas za późno, by uczyć się na popełnionych błędach. Zresztą wojny toczone przez ostatnich dwadzieścia lat nie były skutkiem racjonalnych decyzji ludzkich. Nie są bowiem racjonalne decyzje, które nie dają nikomu wygranej, przynosząc wszystkim straty. Futurologia nie przewidziała ani jednej z tych wojen, choć tak się starała. Nie mogła jednak, bo żadna z jej metod nie daje podstawy do prognoz polityczno–mliitarnych. Jak wynika z tego fiaska, ten, kto chce wszystko przepowiedzieć, we wszystkim się myli. Romantyczne mierzenie sił na zamiary zostało więc w futurologii całkowicie zdyskredytowane. Analiza prac futurologicznych ujawnia wszakże, że owo “wszystko” zawierało fatalną lukę. Obejmowało bowiem zewnętrzny wygląd dziejów do końca stulecia i poza nim w przejawach polityki, gospodarki, techniki i kultury, bez uwzględniania głównej siły napędowej zmian cywilizacyjnych, jaką jest nauka. Zamiast schodzić do badań podstawowych, w których kształtują się wielkie nastawienia teoretyczne, zawiadujące działaniem poznawczym na dziesiątki lat, futurologowie ograniczali się do powierzchownych przeglądów dokonań techniczno–produkcyjnych, z nich, a nie z fundamentalnych prac nauki czystej tworząc sobie bazę dla ekstrapolacji. Zamiast więc schodzić do korzeni, podawali za przyszłe plony spektakularnie wyolbrzymione owoce dnia. Przez to też poszli we władzę przelotnych mód i łatwo dających się unaocznić sensacji, które sami tworzyli dla rozciekawionej publiczności. Błąd ten pociągnął, za sobą stawianie technologii nad nauką, a był to błąd zasadniczy, gdyż technologia nie tylko nie usamodzielnia się dziś względem badań naukowych, lecz zależy od nich jak nigdy jeszcze w historii. Pozory często mylą. Rozziew czasowy między badaniami czystymi a ich zastosowaniem przemysłowym jest wciąż wielki, ale to dlatego, ponieważ aktualne zadania, jakie stawia sobie nauka, są niezmiernie złożone. Dawniej specjaliści poszczególnych fachów radzili sobie sami. Obecnie, tam zwłaszcza, gdzie jak w biologii nie można rozbić złożonych i przez to trudnych zadań na części proste, konieczna jest współpraca fachowców z dziedzin tak do niedawna odległych, jak informatyka z jej komputerami, biochemia i fizyka kwantowa. Stąd właśnie długie dojrzewanie przełomowych odkryć, ale też tym większe potem efekty ich kumulatywnego wdrożenia. Nigdy jeszcze nie było tak trudno jak dziś znaleźć domeną badań czystych, wyzbytych szansy praktycznego owocowania. Jak atomistyka zrodziła energetykę atomową, tak mechanika kwantowa rodzi nową technologię materiałów dla przemysłu, dzięki odatomowemu projektowaniu ciał stałych o pożądanych cechach, a biologia teoretyczna, zrodziwszy inżynierię genetyczną, bliską przemysłowych zastosowań, zmierza do jej spotęgowania przez skrzyżowanie z chemią kwantową i chemią autoreplikacyjnych polimerów. To właśnie przynieść winno realizację niejednego z fantastycznych pomysłów tej książki, fantastycznych dziś daleko mniej, niż kiedy ją pisałem. Mam na myśli zawładnięcie biotechnologią poprzez budowanie systemów, których nie plagiatowym wzorcem jest kod dziedziczności. Głównie tej sprawie poświęcę dalsze uwagi.<br />Teraz jednak powiem tylko, że o syntezie tkanko-podobnych materiałów, o substancjach pseudo biologicznych pod hasłem “sztuczne życie dla przemysłu” zaczęto pisać fachowe prace jakieś dziesięć lat po ukazaniu się “Summy”. Choć się ta koncepcja jeszcze nie zmaterializowała, nie jest już nieodpowiedzialną mrzonką dyletanta. Tak więc udało mi się odnaleźć zawczasu główny kierunek myśli badawczej, czy choć jeden z takich kierunków w jego przedmiocie i stylu, czyli to, co chętnie zwie się zwierzchnią paradygmatyką poznawczych robót. Zapewne — trafny domysł takiego kierunku, hipotez jeszcze nie powstałych bądź ledwie ząbkujących w nauce to jeszcze nie pełny sukces antycypacji. Toż i całość światowej nauki nie jest uodporniona na błąd i tym samym nadzieje uczonych pewnego momentu historycznego mogą się okazać wejściem w ślepą uliczkę. Co się jednak tyczy trzonu “Summy”, już i faktów namnożyło się dość, aby można uznać jej wywód za trafnie zorientowany — przy zastrzeżeniach i dopowiedzeniach, jakie nastąpią.<br />Najpierw dotknę nimi tytułu. Książka nie ogranicza się, jak chciał znakomity recenzent, Leszek Kołakowski, do filozofii techniki, ani, jak już nikt tego nie głosił, do filozofii nauki, zajmuje się bowiem procesem ich wzajemnego zrastania. Może nie powiedziałem tego tak wyraźnie i dobitnie, jak należało. Zresztą nie chcę sobie przypisać nienależnych zasług. Każdy tekst ma co najmniej dwa znaczenia: węższe, które włożył weń autor (na ile mu się udało), oraz szersze, jakie włoży w lekturę późniejszy czytelnik. Czterysta lat temu Francis Bacon utrzymywał, że możliwe są maszyny latające oraz maszyny, które będą mknęły po ziemi i chodziły po dnie morskim. Bez wątpienia nie wyobrażał ich sobie żadnym konkretnym sposobem, my jednak, czytając dziś jego słowa, nie tylko mimo woli wkładamy w nie wiedzę, że tak się stało, lecz bezlik znanych nam konkretów, co potęguje wagę owej wypowiedzi. Toteż i “Summę” można dziś czytać tak, jakby przewidywała więcej, niż myślałem pisząc, ponieważ kompetentny czytelnik, będzie rzutował w tekst nadwyżkę, którą tekst dopuszcza. Jeśliby więc można mówić tu o zasłudze, to takiej tylko, że “Summa” jest pojemnie rozciągliwa w tematach wysoce aktualnych, ponieważ doszło do nie zmyślonej już zbieżności moich konceptów z rozwojowym kierunkiem nauki. Oczywiście nie wszędzie. Ale na przykład domysł, jaki wypowiedziałem (co prawda poza “Summą”), przeznaczając go do protokołów amerykańsko–radzieckich obrad CETI w Biurakanie, w roku 1971, znalazł potwierdzenie. </div><div>Pisałem wtedy: “Jeżeli rozmieszczenie cywilizacji we Wszechświecie nie jest losowe, lecz wyznaczone przez dane astrofizyczne, jakich nie znamy, choć związane z obserwowalnymi zjawiskami, to szansę kontaktu będą tym mniejsze, im silniejszy jest związek umiejscowienia cywilizacji z charakterystyką gwiazdowego ośrodka, czyli, im bardziej różny jest rozkład cywilizacji w przestrzeni od rozkładu przypadkowego. Wszak nie wolno a priori wykluczać tego, że istnieją astronomicznie dostrzegalne wskaźniki istnienia cywilizacji. (…) Z tego wniosek, że program CETI wśród swoich reguł winien zawierać i taką, która uwzględnia przemijający charakter naszych wiadomości astrofizycznych, ponieważ nowe odkrycia będą wpływały na zmianę nawet fundamentalnych założeń programu CETI”.<br />Otóż to właśnie zaszło. Ze składu radioizotopów ziemskich, z danych astronomii galaktycznej i z modeli astro– oraz planetogenezy jak z części łamigłówki powstała całość o mocy hipotezy, rekonstruującej historię narodzin układu słonecznego i warunków, w jakich przyszło do powstania życia. Rzecz wymaga dość rozległej prezentacji. Dobre trzy czwarte galaktyk ma kształt spiralnego dysku, z jądrem, od którego odchodzą dwa ramiona, jak w naszej Drodze Mlecznej. Galaktyczny twór, złożony z chmur gazowych, pyłowych i gwiazd, które wciąż w nim powstają, obraca się, przy czym jądro wiruje z większą prędkością kątową niż ramiona, które nie nadążając, skręcają się, nadając całości kształt spiralny. <b>Ramiona nie poruszają się jednak z tą samą prędkością, co tworzące je gwiazdy.</b> Niezmienny kształt spirali zawdzięcza Galaktyka falom zgęszczenia, w których gwiazdy pełnią rolę molekuł w zwykłym gazie. Mając różne prędkości obrotowe, jedne gwiazdy pozostają w tyle za ramieniem, inne zaś doganiają je i przechodzą na wskroś. <b>Prędkość tożsamą z prędkością ramion mają tylko gwiazdy w połowie odległości od jądra</b>; jest to tak zwany okrąg korotacyjny (współbieżny). Obłok przedsłoneczny, z którego powstać miało Słońce z planetami, znajdował się u wewnętrznej krawędzi spiralnego ramienia i wchodził w nie około pięć miliardów lat temu. Doganiał przy tym ramię z nikłą prędkością, rzędu l km/sek. Obłok ten, znalazłszy się w fali zgęszczenia, ulegał przez długi czas kompresji, sprzyjającej powstaniu Słońca aż jego okolą powstawały planety. Skąd o tym wiadomo? Ze składu radioizotopów naszego układu oraz z dzisiejszego położenia tego układu — w rozsiewie między ramionami Strzelca i Perseusza. Ze składu radioizotopów wynika, że obłok prasłoneczny uległ co najmniej dwa razy skażeniu produktami wybuchów Supernowych. Różny okres rozpadu tych izotopów (jodu, plutonu i aluminium) pozwala określić, że pierwsze skażenie nastąpiło tuż po wejściu obłoku w wewnętrzny brzeg ramienia, a drugie (radioaktywnym aluminium) jakieś 300 000 000 lat później. Miliony lat potem Słońce, otoczone już planetami, opuściło spiralne ramię i odtąd porusza się w spokojnej próżni, ażeby za miliard lat wniknąć do następnego ramienia galaktycznego. Najwcześniejszy swój okres przebyło więc powstające Słońce w obszarze silnej radiacji i udarów sprzyjających planetogenezie, aby z zastygłymi, młodymi planetami wejść w przestwór wysokiej izolacji od wpływów zewnętrznych, w którym życie mogło rozwijać się na Ziemi bez zakłóceń. Jak wynika z tego obrazu, reguła kopernikańska, w myśl której Ziemia NIE znajduje się w osobliwie wyróżnionym miejscu, staje pod znakiem zapytania. Gdyby Słońce z planetami poruszało się dużo szybciej niż ramiona spirali, to często by je przecinało. Udary promienne i radioaktywne wywołane erupcjami Supernowych uniemożliwiłyby stateczny bieg ewolucji biologicznej albo by ją zniszczyły. Gdyby Słońce poruszało się na samym okręgu korotacyjnym, gdzie gwiazdy ani nie pozostają w tyle za ramieniem, ani go nie wyprzedzają, życie też nie mogłoby się utrwalić na Ziemi, bo tak samo prędzej czy później zabiłaby je bliska eksplozja Supernowej. Gdyby zaś Słońce poruszało się na dalekiej peryferii galaktyki i przez to nigdy nie przecinało jej ramion, nie utworzyłoby zapewne planet. Jak z tego widać, wiele różnych a niezależnych od siebie, warunków musiało się spełnić, aby Słońce pierwej zrodziło planetarną rodzinę, a potem mogło stać się inkubatorem ziemskiego życia. Planetogeneza wymagała zajść gwałtownych, biogeneza natomiast — miliardoletniego zacisza. Już od pewnego czasu było wiadome, że nasz układ planetarny powstał nie bez udziału pchnięcia wybuchem bliskiej gwiazdy. Rozbudowany w całościową hipotezę, nowy obraz ujawnia, skąd taka gwiazda mogła się wziąć. Supernowe nie pojawiają się na ogół poza strefami galaktycznych zgęstków. Najczęściej wybuchają w ramionach spiralnych. A zatem warunki niezbędne dla wstępnej i właściwej fazy narodzin życia panują przy korotacyjnym okręgu galaktyki, Jęcz ani w nim samym, ani w znacznych od niego odległościach. Tak sporządzony model jest jeszcze pełen luk, których omówienie pominiemy, aby nie wchodzić w kontrowersyjne zagadnienia astrofizyczne. To odtworzenie historii naszego systemu nie jest prawdą bezapelacyjną, Jęcz całością, lepiej zwierającą wszystkie uzyskane dane w jedność aniżeli mnę, konkurujące z nim rekonstrukcje. Zawsze zresztą jesteśmy w kosmogonii w sytuacji sędziów śledczych, dysponujących tylko materiałem poszlakowym, i rzecz w tym, aby ułożyć go w najbardziej spójny logicznie i przyczynowo kształt. Dokładne odtworzenie miliardoletniej historii astronomicznego układu we wszystkich szczegółach jest niemożliwością, ponieważ w procesach takich znaczną rolę odgrywają czynniki losowe. Zbyt bliska eksplozja Supernowej zamiast ścisnąć protoplanetamy obłok, przyspieszając jego kondensację, zmiotłaby go i tym samym udaremniła narodziny Ziemi i życia.<br />Image Spiralna struktura Galaktyki, ukształtowana falami zgęszczenia. Na jej schemat naniesiono orbitę, po której krążył prasłoneczny obłok, przecinając spiralne ramiona co najmniej raz, albo dwa razy, jeśli wiek tego obłoku wynosi więcej niż 9,2 miliarda lat. Wchodząc w ramię, obłok ulega skażeniu izotopami jodu i plutonu pochodzącymi z wybuchu bliskiej Supernowej. Izotopy te rozpadały się potem przez 100 milionów lat w czasie ruchu obłoku wewnątrz ramienia (Rysunek i dane według artykułu L. S. Maroczkina, Czy lokalizacja systemu słonecznego w Galaktyce jest wyjątkowa?, “Priroda” 1982, nr 6).<br />Ponadto Słońce nie porusza się w samej płaszczyźnie Galaktyki, lecz po orbicie, odchylonej od tej płaszczyzny o kilka stopni. Nie wiadomo, czy to nie ma znaczenia, związanego z losami naszego układu. W każdym razie patrzy na to, że planet biogennych, więc rodzących cywilizację, należy szukać w pobliżu okręgu współbieżności. Niezbyt to korzystne dla poszukiwaczy wewnątrz Drogi Mlecznej, bo strefa poszukiwań, leżąca w płaszczyźnie dysku czy tuż przy niej, odznacza się wysokim skupieniem chmur pyłowych, gazowych, gwiazd i radiacji, utrudniających bieg i wykrywanie sygnałów. Brak tego szkopułu przy obserwowaniu innych galaktyk, wtedy jednak w grę wchodzą gigantyczne odległości, czyniące dwustronną komunikację fikcją. Zarazem moc nadajników, służących kontaktom międzygalaktycznym, musi być wielka, akty zaś sygnalizacji są przejawem doskonałego altruizmu, ponieważ nadający nie może liczyć na żaden informacyjny zysk z odpowiedzi, skoro musi czekać na nią co najmniej kilkadziesiąt milionów lat. Z drugiej strony, obszar poszukiwań uległ zacieśnieniu, i w tym trzeba upatrywać niejaką korzyść. Tak oto badanie dynamiki i struktury galaktycznej rzuciło nowe światło na problematykę międzycywilizacyjnych kontaktów. Przyjęcie opisanego modelu każe poddać korekcie dotychczasowe oceny ilości biogennych układów w naszej Galaktyce. Wiemy prawie na pewno, że żadna z gwiazd pobliża słonecznego, w promieniu jakichś 50 lat świetlnych, nie jest takim układem (oczywiście bierzemy pod uwagę tylko układy, z którymi możliwy jest syngalizacyjny kontakt). Promień okręgu korotacyjnego mierzy około 10,5 kiloparseków, to jest 34 000 lat świetlnych. Galaktyka liczy mniej więcej 150 miliardów gwiazd; przyjmując, że jedna trzecia zawarta jest w jądrze i nasadach ramion spiralnych, otrzymujemy dla ramion sto miliardów gwiazd. Nie wiadomo, jak gruby jest torus, który należy zakreślić wokół okręgu korotacyjnego, aby ogarnąć całą strefę ekosferyczną, to jest sprzyjającą powstawaniu biogennych systemów. Przyjmijmy więc, że w tej strefie, tworzącej torus, znajduje się jedna stutysięczna wszystkich gwiazd, a zatem milion. Obwód korotacyjnego okręgu wynosi 215 000 lat świetlnych, gdyby więc każda ze znajdujących się tam gwiazd oświetlała cywilizację, to przeciętna odległość między dwiema równałaby się pięciu latom świetlnym. Tak jednak nie jest, skoro żadna z gwiazd słonecznego pobliża nie ma cywilizacji pod bokiem. Powiedzmy zatem, że i przy okręgu współbieżności tylko jedna gwiazda na sto spełnia warunki biogenetyczne: wówczas będzie ich w Galaktyce 10 000, a przeciętna odległość dwóch będzie wynosiła 500 lat świetlnych. Tak obliczona przeciętna nie jest jednak wiele warta, gdyż gwiazdy znajdujące się wewnątrz ramion źle rokują co do istnienia przy nich życia, a przecież takich właśnie jest najwięcej, gdyż w ramionach są silnie skupione. Wypadałoby więc szukać wzdłuż łuku korotacyjnego przed Słońcem i za Słońcem w galaktycznej płaszczyźnie, czyli między chmurami Perseusza i Strzelca, tam bowiem mogą się znajdować gwiazdy, które podobnie jak Słońce mają już za sobą galaktyczny pasaż i teraz wraz z naszym układem poruszają się w próżniowym rozsiewie międzyramiennym. Nie wiem, czy jakieś gwiazdy tej strefy były już uwzględnione w nasłuchach. Zadanie to wydaje się nie nazbyt trudne, bo takich gwiazd jest stosunkowo mało. Ale też odległość międzycywilizacyjną w rozziewie galaktycznym trudno szacować statystycznie, tam bowiem, gdzie ilość obiektów, o których chcemy się czegoś dowiedzieć podług uśrednienia, jest skąpa, założenia statystyczne często zawodzą. Trzeba zatem raczej szukać, niż obliczać. Wróćmy jeszcze raz do naszego modelu. Tam, gdzie okrąg korotacyjny tnie ramiona spiralne, mają one około 300 parseków grubości. Protosolarna orbita, nachylona pod kątem 7–8 stopni do galaktycznej płaszczyzny, przechodziła za pierwszym i dotąd jedynym przejściem przez ramię około 4,9 miliardów lat temu. Przez ponad trzysta milionów lat podlegał obłok przedsłoneczny burzliwym warunkom wewnątrz ramienia, a odkąd je opuścił, wędruje spokojną próżnią, przy czym wędrówka ta trwa tak długo, ponieważ okrąg współbieżności, przy którym porusza się Słońce, przecina spirale ramion pod ostrym kątem, przez co łuk międzyramienny orbity słonecznej jest dłuższy od łuku wewnątrz-ramieniowego. Gdy spojrzeć na schemat galaktyki, mając w pamięci przedstawiony model, cały problem planet zamieszkałych staje w niesamowitym, wręcz makabrycznym oświetleniu. Oto ramiona spirali okazują się zarazem sprawczyniami i potencjalnymi zabójczyniami życia, które najpierw w pasażu powołują do istnienia, a potem, ogarniając przy następnym obrocie układy z życiem już zrodzonym, rażą je zabójczym promieniowaniem Supernowych. To, co wszczyna życie, może je potem zniszczyć. Spirala jest jakby łożyskiem porodowym i wirującą gilotyną, zależnie od tego, w jakiej fazie rozwojowej wchodzą w nią układy planetarne. Co się zaś tyczy szans nawiązania łączności, mało, że za “rufą” systemu słonecznego strefa korotacyjna zagłębia się w wysokim stężeniu gwiazd, promieniowali, pyłów i gazów— tak samo jak przed nami. Mało takich przeszkód i zakłóceń sygnałowych, gdyż położenie gwiazd, które uformowały planety grubo przed Słońcem, nie jest dla ich mieszkańców do pozazdroszczenia. Choć bowiem dla poszczególnej gwiazdy nie są bliskie erupcje Supernowych zjawiskiem zbyt częstym, zachodząc co kilkadziesiąt milionów lat, również wchodzenie układu w strugi ich szczątków nie może być dla życia obojętne. Toteż cywilizacje w takich opresjach prawdziwie mają pilniejsze zadania na głowie od budowy nadajników komunikacyjnych, w postaci samozachowawczych robót. Wobec Supernowych są to zadania nie lada nawet dla istot, potężnie górujących nad nami. Jaka jest wiarygodność nowego modelu? Wyznaczy to zapewne niedaleka przyszłość, dzięki dalszym badaniom. Jeśli zaś rozumować przez analogię, model ten przemawia do przekonania, ponieważ i w przestrzeni okołogwiazdowej wyróżnia się tak zwana strefa ekosferyczna, poza którą, dla zbyt wysokich lub niskich temperatur, życie nie jest na planetach możliwe. U Słońca obejmuje ta strefa orbity Wenus i Marsa, zawierając Ziemię. Okrąg korotacyjny byłby zatem odpowiednikiem tej strefy, przeniesionej w wymiar galaktyczny, gdzie panują inne warunki i inne zagrożenia. W świetle powyższego można lepiej zrozumieć, co miałem na myśli, mówiąc o potencjalnym podwójnym znaczeniu przepowiedni czy chociażby tylko domysłu. Twierdząc, w 1971 roku, że wykrycie związku między zjawiskami astronomicznymi a powstawaniem życia spowoduje dogłębne przekształcenie programu CETI, trafiłem w sedno, bo takie przekształcenie będzie konieczne, jeśli korotacyjna lokalizacja Ziemi w Galaktyce zostanie uznana, dzięki dalszym badaniom, za zjawisko biogenetycznie typowe. Toteż ów domysł napełnia się takim znaczeniem, jakiego nie mogłem znać, gdy dałem mu wyraz. Sam ów domysł p tyle nie był banałem, że nikt go nie wypowiedział ani nie podtrzymał. Możliwość nielosowej dystrybucji życia w Kosmosie, mocno ograniczonej do pewnych wyróżnionych stref, nie była brana pod uwagę przy tworzeniu hipotez mających wyjaśnić Silentium Universi. Powstały za to hipotezy ratujące nas przed kosmiczną samotnością powołaniem do bytu zjawisk typu samobójstw atomowych czy technologicznych, jakoby właściwych każdej cywilizacji powyżej pewnego progu rozwoju. Tendencja ta, by opatrywać całą odpowiedzialnością za ich los żywe istoty, a nie zjawiska kosmiczne, stanowiła w moich oczach wyraz współczesnych lękowi dlatego odmówiłem jej obiektywnej wartości. W niejawny sposób z mego domysłu wynikało i to, że nowych odkryć, ustalających fakultatywne związki danych astrofizycznych z biogenezą, oczekiwałem przed odebraniem jakiegokolwiek sygnału “Innych”. Jeślibyśmy bowiem odebrali sygnał z pobliża określonej gwiazdy, nie musielibyśmy już okólną drogą hipotez rekonstruujących głęboką przeszłość Galaktyki szukać miejsca, z którego mogą płynąć sygnały.<br />Na pytanie, czemu względnie szybkie i łatwe wykrycie sygnałów miałem (i mam nadal) za nieprawdopodobne, odpowiedziałem w cytowanej już wypowiedzi dla biurakańskiego sympozjum. Twierdziłem w niej, że przedsięwzięcia sygnalizacyjne, na które musimy liczyć, skoro sami nie wysyłamy potężnych sygnałów w Kosmos, wynikają z niewiarygodnego dla mnie założenia, jakoby wysoko rozwinięte cywilizacje były całkowicie swobodne w swoim postępowaniu. Jest to skutkiem wyobrażenia, pisałem, że rozwój cywilizacyjny dzięki właściwym mu nieustannym postępom prowadzi na płaskowyż potęgi w błogostanie i spokoju, że dociera do stanu, w którym najbardziej dla nas kosztowne i altruistyczne działania są fraszką. Moim zdaniem natomiast wielka cywilizacja ma wielkie kłopoty, każda bowiem zmaga się z problemami na swoją miarę. Odkryte fakty nie przesądziły dotąd, czy mój sceptycyzm, który może być też nazwany swoistym pesymizmem, był słuszny. Stanowi jednak odpowiedź na postawione pytanie. (Por. “Problema CETI”, Izd. MIR, Moskwa 1975, str. 329—336).<br />Potencje życiorodne tkwią w tak szerokim wachlarzu cech materii, uwikłane są w tyle procesów największej i najmniejszej skali, że nie sądzę, aby został już definitywnie rozpoznany generacyjny mechanizm życia. Jakkolwiek hipoteza galaktyczna zdaje się spójnie łączyć wszystkie znane fakty, czyni to procedurą poszlakową, ponadto zaś może być w wielu miejscach atakowana. Aby nie poszerzać zbytnio tych uwag, wspomnę tylko o jednym takim miejscu. Założeniem tej hipotezy jest niezmienność okołogalaktycznej orbity przedsłonecznego obłoku. Tymczasem wielu astrofizyków kwestionuje taką niezmienność. Sądzą oni, że gwiazdy czy obłoki, wchodząc na swej okrężnej drodze w ramię, ulegają w nim perturbacjom grawitacyjnym od bliskości mnóstwa gwiazd, które spychają intruza z drogi i przemieszczają jego orbitę w kierunku odśrodkowym. Wychynąwszy po drugiej stronie ramienia, ciało takie ma więc nową, bardziej centryfugalną orbitę, po której porusza się aż do następnego przecięcia ze spiralą. Jeśli tak, to ani Słońce nie biegnie teraz tą samą orbitą, po jakiej biegło przed wejściem w spiralę, ani też towarzyszące mu gwiazdy nie są tymi samymi, jakie okalały je przy pierwszym wejściu. Gdyby jednak do takiego zepchnięcia z drogi nie doszło, znaczyłoby to, że los Prasłońca był wyjątkowy, jak los człowieka, który przechodząc przez tłum, ani razu nie zostanie w nim potrącony. Nie można tego wykluczyć, gdyby to jednak zaszło, stanowiłoby zajście statystycznie rzadkie, może nadzwyczaj rzadkie, czyli wyjątkowe, nie dające tym samym żadnych podstaw do tworzenia uogólnień, ważnych dla wszystkich przejść gwiazdowych przez spiralę. Słońce niewątpliwie żegluje teraz z planetami przez szeroką próżnię międzyramienną blisko okręgu korotacyjnego, ale gdyby się przy nim znalazło dzięki typowemu zepchnięciu z orbity od wpływów grawitacyjnych, i w tym wypadku posiadałoby wyjątkową przeszłość, o własnościach fatalnych dla astrofizyki, ponieważ nie można dokładnie ustalić rozmiarów takiego zepchnięcia jako wymiernej perturbacji dla każdej gwiazdy czy chmury. Z tego stanowiska nawet trafność rekonstrukcji przeszłości słonecznej ogranicza się do niej i tylko do niej, nic nie mówi natomiast o częstości takich zajść, a tym samym o normalnym generatywnym mechanizmie życia. Trzeba wszakże podkreślić, że z tej kontrowersji nie wynika “ignoramus et ignorabimus”. Dość otworzyć podręcznik astrofizyki sprzed dwudziestu lat, żeby stwierdzić, jak ogromne postępy zostały w tym czasie zrobione. Nie ma dziś zresztą dziedziny wiedzy, w której nie trzeba douczać się na bieżąco, dokonując brutalnych czystek na półkach biblioteki. Tak więc można się spodziewać niezadługo utrwalenia lub obalenia pokazanej hipotezy.<br /><br /><br />II<br /><br /><br />“Scientific American” poświęcił swój wrześniowy numer z 1981 r. w całości mikrobiologii przemysłowej. Zawierał artykuły o industrialnych mikroorganizmach, o hodowlach komórek tkankowych ssaków, oprogramowaniu genetycznym drobnoustrojów, o bakterialnym wytwarzaniu żywności, o farmakoprodukcji odbakteryjnej, o syntezie w przemyśle chemicznym, dokonywanej przez mikroby i wreszcie o mikrobiologu rolniczej. Przed dwudziestu laty procedury te tkwiły w powijakach lub jak programowanie genetyczne nie istniały. Wielki kapitał począł inwestować w tej dziedzinie: dowodem firmy jak “Gentech”. W popularnym miesięczniku “Discover” z maja 1982r. zapowiedziany na okładce artykuł nosi tytuł “Using bacteria to make computers”. Co prawda z tekstu wynika jedynie, że badacze spodziewają się takiego przerobienia bakterii, by produkowały odpowiedniki obwodów logicznych, więc jest to zapowiedź na wyrost. Dwadzieścia lat temu można było jednak znaleźć podobne kwestie tylko w tej książce. Dokonane postępy pozwalają uwyraźnić główny wywód “Summy” przez rozcięcie go na dwie części. Będą to technologia cisbiologiczna i transbiologiczna. Pod pierwszą należy rozumieć dwukierunkowe złączenie technik ludzkich ze sferą zjawisk życia. Wprowadzamy w tę sferę tradycyjnie produkowane urządzenia techniczne — głównie w protetyce, jak: sztuczne naczynia krwionośne, stawy, serca, ich rozruszniki itp. Ponadto przekształcamy na nasz użytek zjawiska tej sfery, jak o tym mówią teksty z “Scientific American”. Tak więc bionika, inżynieria genetyczna, nowa protetyka (zwłaszcza zmysłów) należą do cisbiotechnologii. Doszło już do łączenia fragmentów kodu DNA, pochodzących od bardzo odległych gatunkowo zwierząt. Robiono to na ślepo, lecz sporządzenie map genowych oraz powstających jako prototypy specjalnych urządzeń pozwoli celować takimi operacjami w pożądaną tkankę lub nawet w cały ustrój czy też pseudoustrój. Ogólnie zaś owładnięcie cisbiologiczne kodem to mniej więcej tyle, co wyuczenie się egzotycznego języka, żeby można się w nim swobodnie wypowiadać, a jak wiadomo, ktokolwiek to umie, potrafi budować i takie zdania, jakich nikt dotąd w tym języku nie wypowiedział. Jeśli będzie to wszakże język jakiegoś pierwotnego plemienia, zabraknie w nim mnóstwa swojskich nam wyrażeń, a już wykładać w nim fizykę teoretyczną byłoby niemożliwością. Tak więc nie wszystko da się wyartykułować w tym języku — i podobnie z kodem życia. Zbiór jego artykulacji, jako ustrojów zwierzęcych i roślinnych, jest wprawdzie potencjalnie nieskończony, ale zarazem ograniczony, boż nie da się tym kodem wyartykułować takiego fenotypu, który będzie na przykład dynamomaszyną czy stosem atomowym. Toteż przez technologię transbiologiczna chcę rozumieć przejęcie osnowy życia nie jako wzorca dla plagiatów bądź śmielszych rekombinacji, lecz jako logiczno-czynnościowego schematu do przemieszczenia w inne, pozabiologiczne stany materii. Technokod pozostanie zapisem sprawczej informacji, lecz może być zbudowany z abiologicznych elementów.<br />A jak się przedstawia wiedza o kodzie genetycznym w dwadzieścia lat po napisaniu “Summy”? Już wtedy został rozpoznany w budowie i w podstawowych funkcjach, lecz jego narodziny były zagadką odpierającą szturmy niby szklana góra: ani pierwszego stopnia, by nogę postawić. Dwa nurty badań, nieklasycznej termodynamiki i teoretycznej biologii molekularnej, musiały się skrzyżować, by rzucić światło na tę zagadkę. Pierwszy nurt wiąże się z pracami liii Prigogine’a, któremu zawdzięczamy teorię procesów dyssypacyjnych, czyli takich, odległych ód stanów równowagi termodynamicznej, w których powstają samorzutnie rozliczne konfiguracje struktur drobinowych podczas przepływu energii rozpraszanej (stąd właśnie “dyssypacja”) w sposób ciągły. Było to wielkim zaskoczeniem, dotąd bowiem sądzono, że przy ciągłym rozpraszaniu się energii nic ciekawszego od wzrostów entropii a tym samym chaosu nie zachodzi; tymczasem z teorii wynika, że nawet wpobliżu absolutnego zera materia podlega bogatym zróżnicowaniom strukturalnym, a w temperaturach, w jakich osiedliło się życie, ta jej aktywność jest dobitna. Z kolei Manfred Eigen stworzył modele molekularnych procesów, jakie mogły być wstępnymi etapami biogenezy. Pewne związki, obecne w roztworach ciepłego praoceanu, spotykając się z innymi w przypadkowych kolizjach, mogły się łączyć w koła przemian, a te z kolei tak wiązały się z innymi kołowymi reakcjami, że powstawała wzajemna zależność dynamiczna. Były to, jak je nazwał Eigen, hypercykle, o tyle “altruistyczne chemicznie”, że produkty jednego cyklu podtrzymywały drugi w ruchu i na odwrót. Te skrzyżne zależności dały początek autoreplikacji, a potem (miliony lat potem) współzawodnictwu na przetrwanie. Porządny wykład wymaga osobnej książki, wiec mogę tylko odesłać zainteresowanego do prac Eigena. Pominięcie to nie będzie dla nas zbyt wielką biedą, bo nie tyle o samym kodzie życia mamy rozprawiać, ile o jego nie istniejących krewnych. Należy się tu jednak taka jeszcze ważna uwaga. Potrafimy już utworzyć model kodowych narodzin w głowie i na papierze, lecz nie w szkle laboratoryjnym, ponieważ wypadłoby czekać na efekty co najmniej kilka milionów lat, ale chyba jednak dłużej. Byłoby też poręczniej zastąpić probówki oceanami. Chodzi bowiem o procesy masowo—statystyczne, których potężnie przyspieszyć nie można, jeśli się chce wyjść od prostych związków, a otrzymać w rezultacie choćby tylko jakieś prymitywne hypercykle. Jest to trochę jak na loterii liczbowej; jeśli tylko niewiele osób odgaduje cyfry, które będą wylosowane, może żadnej nie odgadną; gdy natomiast graczy są setki tysięcy, szansę trafienia rosną. Olbrzymia większość spontanicznie wszczętych reakcji chemicznych kończy się rozpadem czy utworzeniem ciał strącanych z roztworu; trzeba prawdziwie długo czekać, by wykrystalizowały się reakcje samopodtrzymujące, lecz znów ich lwia część wejdzie w jakiś ślepy zaułek. Sam upływ czasu jest niejako bezustannie działającym generatorem loteryjnym i jednocześnie sitem, odsiewającym przegrane; a oto następna strona rzeczy. Szansę trafienia na loterii liczbowej rosną zgodnie ze wzrostem ilości graczy, ponieważ można uczestniczyć w losowaniach dokonywanych w Warszawie, mieszkając i na Ziemi Ognistej; natomiast wszystkie ciała uczestniczące w grze chemicznej muszą być w niej fizycznie, a nie tylko obserwacyjnie obecne, toteż samym zwiększaniem ilości i różnorodności tych ciał czasu oczekiwania wygranej nie skrócimy. Ponadto nie znamy składu chemicznego hypercyklowych pierwocin życia i należy wątpić, czy go kiedykolwiek zidentyfikujemy. Współczesny kod życia nie jest na pewno identyczny ze swym protoplastą sprzed miliardów lat. Toż wczesna optymizacja kodu trwała przez cały archeozoik. Całkiem możliwe, że to, co dało początek kodowi nukleotydowemu, samo nie było mu nawet bardzo bliskie chemicznie. Dla nas najistotniejsze są dwie rzeczy. Najpierw ta, że warunki powstania kodu odcisnęły się nieodwracalnie w nim i jego tworach. Skład chemiczny roztworów, w jakich powstał kod, ukształtował informacyjno-energetyczną strukturę jego działania. Gdy sporządzić abstrakcyjny, czysto logiczny schemat pracy biokodu, nie można zeń wyczytać, czemu dzieli się na takie, a nie inne zespoły transkrypcyjne i pracuje taką, a nie inną ilością krokowych operacji. Zęby to pojąć, trzeba dopełnić ów schemat danymi chemii molekularnej. Nukleotydy, cegiełki kodu, nadawały się na trwały nośnik informacji i na jej samopowielającą się matrycę, a białka swą trzeciorzędną kłębkową strukturą przejawiały wysoką, bardzo swoistą aktywność katalityczną. Geny są przez to statyczne, a białka dynamiczne, ekspresja genów zaś to tyle, co przekład z dialektu nukleotydowego na dialekt aminokwasowy. Równie dobrze można rzec, że nukleotydy stanowią pamięć życia, a białka — jego procesory.<br />Obecnie już nie to najbardziej zadziwia nas w kodzie, że powstał spontanicznie, lecz to, że na miliardoletniej drodze od archebakterii do człowieka nigdzie nie ugrzązł definitywnie wyczerpawszy swoje rozwojowe możliwości. Ten podziw winien być zarazem źródłem otuchy, że i my osiągniemy podobną sprawność jako technologowie, ponieważ jest niemożliwe, aby kod wspinał się coraz wyżej po szczeblach drabiny ewolucyjnej za sprawą bezwyjątkowego trafiania na sprzyjające warunki, niby gracz, który inkasuje na loterii same tylko główne wygrane. Było niechybnie inaczej; kod nie stanowił jednego gracza, lecz rozmnożył się na setki ich milionów i próbował wszelkich dostępnych mu taktyk w nieprzeliczonych rozgrywkach, a dla nas pocieszające jako budzące nadzieje na przyszłość jest to, że nigdzie w owych grach nie natrafił na nie przepuszczającą dalej barierę. Z tego wynika bowiem, że raz wszczęta samoorganizacja przejawia niezmożenie płodną aktywność i że wskutek uruchomionego współzawodnictwa sama tworzy dynamiczny gradient optymizacyjny. Kod musiał przekazywać informację z wysoką wiernością, lecz nie aż nieomylnie, ponieważ pewna, drobna część jego omyłek w przekazie jest metodą stosowania błędu jako rezerwuaru twórczego bogactwa. Gdyby bardzo się mylił, nie moglibyśmy powstać, a gdyby wcale się nie mylił, też byśmy nie powstali, bo życie znieruchomiałoby na niskim szczeblu rozwoju. Nie na tym więc polega zadanie, że kreacyjną moc trzeba tchnąć w materię podług najstarszych wyobrażeń, ale na tym, by sprzęgnąć, a przez to i wyzwolić potencjalnie tkwiące w niej sprawności. Wszelkie surowce i materiały naszych technologii są zasadniczo bierne i dlatego musimy je obrabiać, kształtując podług uprzednio powziętych planów; chodzi o to, żeby od takiej bierności przejść do technologii substratów już na molekularnym poziomie czynnych.<br />Znając logiczną strukturę jednego języka etnicznego, można nią operować jako modelem wszystkich innych takich języków. A to, ponieważ składniki mowy, fonemy czy morfemy, są słabo zależne od materialnych warunków, jakie na mowę nakłada świat. Składniki te muszą być tylko takie, aby mogły je formułować ludzka krtań i usta przy wydechu, oraz, żeby przekazywane przez powietrze jako ośrodek fal akustycznych, dawały się dobrze rozpoznawać słuchem (pomijam tu sprawę języków pisanych, bo powstały dziesiątki tysięcy lat po narodzinach mowy). Natomiast restrykcje, nakładane przez świat na “mowę dziedziczności”, są nadzwyczaj silne, bo równe ograniczeniu nośników informacji do jednoznacznie określonych związków chemicznych. Nie znaczy to wcale, że każdy kod autoreplikacyjny, powstały gdziekolwiek we Wszechświecie, musi być tożsamy z ziemskim. Znaczy to tylko, że inny taki kod, powstały w odmiennych warunkach fizykochemicznych, tym samym musiałby mieć nałożoną przez te warunki strukturę także informacyjną, ponieważ każda samoorganizacja tego typu, wszczęta wewnątrz chemii, nie uwalniając się od jej praw, wykształca sieć swych powiązań sterowniczo—energetycznych, czyli właśnie strukturę informacyjną. Ta diagnoza nie musi być zmartwieniem dla inżynierii z zamierzenia biologicznej tylko, jest natomiast ogromnym szkopułem dla tego, kto by chciał nie tyle sam kod DNA ująć w ręce, lecz tylko jego zasadę działania, ażeby ją przemieścić czy przesadzić w obszary materii, odległe od biologicznych. Dylemat takiego kandydata na wszechkonstruktora wygląda następująco: Może on (może w zasadzie, bo dotąd tego jeszcze nie umiemy) tak] przekomponowywać kod DNA i takich dostarczyć mu budulców, żeby w wymuszonej inżynieryjnie embriogenezie wytworzył żywe gatunki, jakich nie ma, ponieważ ongiś wymarły, albo takie, jakie istnieją, lecz przydać im l nowych cech, bądź wreszcie takie, jakich nie było i nie ma, ponieważ w swym jednorazowym historycznie biegu ewolucja nie wyeksploatowała wszystkich potencji gatunkotwórczych, tkwiących potencjalnie w kodzie życia. Nie będzie jednak mógł zrobić nic więcej. Nie można, dajmy na to, nie tylko teraz, lecz i w dowolnie odległej przyszłości, sporządzić takiej odmiany kodu DNA, żeby tworzyła ustroje całkowicie niewrażliwe na radioaktywność. Z części samochodowych można tworzyć “hybrydy” różnych aut, ale na pewno nie można zbudować rakiety czy maszyny drukarskiej. Rozpiętość kodowej sprawności jest niezrównanie większa niż każdej z naszych oddzielnie wziętych technologii, lecz i jej są położone granice. Toteż “być albo nie być” tej książki zależy od tego, czy wykroczenie poza wydolność kodu biologicznego jest możliwe. Otóż upierałbym się przy stanowisku, że nie chodzi o fantasmagorię. Pewności mieć nie można, ale nie można też stawiać na samą tylko nadzieję, zwaną matką głupich. Przedstawię więc rozumowanie, którego nie ma w “Summie”, czyniące mi sprawę niebeznadziejną, najpierw w porządku abstrakcyjnie logicznym, a potem z uwzględnieniem aspektu fizycznego.<br />Dla wszystkich możliwych zadań jest tak oto: zawsze łatwiej jest rozwiązać jedno zadanie niż dwa. Jeśli zaś rozwiązanie jednego zadania jest niezbędne dla pokonania drugiego, to oczywiście tylko w tej kolejności można je atakować. Otóż biosfera Ziemi to skutek rozwiązania dwu kolejnych zadań: biogenezy i bioewolucji i są to takie zadania, które Natura musiała rozwiązać po kolei, ale my tej dubeltowej roboty dokładnie powtarzać nie musimy. Dwa wymienione zadania były dla Natury nierozłączne, my jednak możemy je rozłączyć, aby uporać się z każdym z osobna robotą teoretyczną i symulacyjną, na jaką Natury przecież nie stać. Powinno nam pójść łatwiej z pierwszym zadaniem, ponieważ mamy już na oku pewien wzorzec jego rozwiązania, w postaci życia. Co więcej, sporządzenie kodu (pierwsze zadanie) było trudniejsze od drugiego, gatunkotwórczego, a poznać to po czasie trwania obu. Od zaczątków kodu po takie jego okrzepnięcie, które dało wielogatunkowe radiacje bezjądrowców, upłynął dobry miliard lat. Potem tempo ewolucyjne uległo przyspieszeniu, tak że kolejne typy ustrojów coraz bardziej złożonych budowała ewolucja coraz szybciej. Oczywiście idzie o szybkość w rozumieniu porównawczym. Już nie miliard, lecz “tylko” setki milionów lat były potrzebne dla powstania ryb pancernych, płazów, owadów, a bodaj koło mezozoiku czy trochę (miliony lat) wcześniej prędkość specjacyjna osiągnęła swoje ewolucyjne maksimum: czas rzędu kilku milionów lat dla ukształtowania nowego gatunku. Podobną akcelerację wykazuje też ewolucja technologii człowieka, choć przebiegała większymi skokami, a zatem bardziej nierównomiernie, a jej przyspieszenie nie ustało po dziś dzień. Początki są widać zawsze najtrudniejsze. Tak więc dzieło biosferyczne składa się z dwóch rozłącznych, choć warunkujących się kolejnością zadań i w tym pokładam niejaką nadzieję. Przecież o wiele łatwiej jest posługiwać się językiem już istniejącym, aniżeli wykroczyć z niemoty dzięki wynalezieniu języka, jakiego nie było. Jeśli nawet istniejący język .nie dopuszcza pewnych artykulacji, nadal będzie łatwiej utworzyć w oparciu o ten język jakiś inny, jak, dajmy na to, ludzie utworzyli język matematyki, wychodząc z języka codzienności. Więc chyba nie doceniamy należycie różnorodności Kosmosu, utrzymując, jakoby cały konstruowalny w nim zbiór sprawczych języków ograniczał się do jedynego egzemplarza, jakim jest ziemski kod nukleotydowy, albo do blisko spokrewnionej rodziny takich organicznych kodów. Myślę, że Kosmos dopuszcza istnienie takiego zbioru sprawczych języków, w którym mieście się podzbiór języków samosprawczych. Pierwsze spontanicznie powstać nie mogą, drugie natomiast są do tego zdolne, jak kod DNA. To właśnie starałem się przedstawić w książce, podług wyobrażenia, że kodowy język elementarnego poziomu molekuł rodzi drzewo ewolucyjne, a w jego wysokich gałęziach powstają społeczne i rozumne istoty, wykształcające mowę jako języki następnego poziomu, ażeby, pozna wszy prawa obu poziomów, skonstruować poziom trzeci, języków sprawczych, których generatory są technologią następnej fazy cywilizacyjnej. Rozumowanie przez analogię powiadamia o różnej trudności dwu członów biotechnicznego zadania, lecz nie o właściwej dlań . strategu. W ostatniej instancji wyznacza ją niewątpliwie fizyka, zespołem fundamentalnych praw Natury, co jednak do niedawna wcale nie było pociechą, a teraz stawać się nią dopiero zaczyna. Najpierw jednak będzie wskazany naukoznawczy odskok od wywodu. Powiada się niekiedy, że badanie zdarzeń jednorazowych nie jest rzeczą nauki, lecz po zastanowieniu widać raczej, że nauka zajmuje się zarówno zajściami jednorazowymi, jak masowymi, przy czym robota teoretyczna mocno się dla obu przypadków różni. Teorie szerokozakresowe, właściwe fizyce przede wszystkim, jako dynamika ciał w ruchu (zwłaszcza przyspieszonym), jako hydrodynamika, jako termodynamika, jako astrofizyka kosmologiczna, jako teoria elektromagnetyzmu, razem z teoriami klasycznymi i kwantowymi, powiadają generalnie, jakie relacje zachodzą między pewnymi mierzalnymi wielkościami oraz że jeśli zajdzie pewne A, to z takim a takim prawdopodobieństwem zajdzie także B. Nie są jednak owe teorie szerokiego zasięgu kompletne w tym sensie, że w ogóle nie zajmują się ustaleniem warunków początkowych. Warunki te są dla owych teorii czymś zewnętrznym, co trzeba dopiero w nie wprowadzić. Stąd właśnie, z owej niezupełności, bierze się uniwersalna ważność takich teorii. Uderzona piłka tenisowa porusza się wprawdzie zgodnie z prawami dynamiki Newtona czy Einsteina (prawa Newtona wystarczą, bo przy tak małych szybkościach i masach relatywistyczne poprawki są zbędną), ale po to, żeby wyznaczyć elementy jej ruchu, trzeba podać warunki początkowe (kąt uderzenia, jego siłę, wielkość pola grawitacyjnego Ziemi itp.), których w teorii nie ma. To samo dotyczy równań mechaniki kwantowej i innych wymienionych teorii. Z astrofizyki można się dowiedzieć, jak powstają na przykład gwiazdy i planety, ale po to, żeby ustalić okoliczności powstania systemu słonecznego, znów trzeba wprowadzić do teorii dane warunków początkowych. Natomiast zajścia jednorazowe są to takie zajścia, których bez uwzględnienia warunków początkowych teoretycznie odzwierciedlić nie można. Tu wszakże zachodzi taka dodatkowa okoliczność: są zjawiska, które zaszły jeden raz, lecz należą one do mocnego zbioru zjawisk podobnych: jak właśnie powstanie Słońca, które powstało podobnie jak wszystkie gwiazdy. I są też zjawiska, które, być może, tak samo należą do zbiorów, ale my znamy tylko jeden przypadek ich zajścia. Takim właśnie przypadkiem jest powstanie i rozwój życia na Ziemi oraz jego pochodne, na przykład powstanie i rozwój cywilizacji. Teorie uniwersalne o wielkim zasięgu są zasadniczo ahistoryczne, ważność ich nie jest bowiem ograniczona przestrzennie ani zlokalizowana czasowo, natomiast teorie zajść unikalnych jak bioewolucja muszą być historyczne z samej natury rzeczy. Postulując zatem wielość sprawczych kodów, opieram się na jedynym tylko znanym egzemplarzu takiego kodu i stąd niepewność, nie mniejsza, niż kiedy postulujemy wielość cywilizacji kosmicznych, choć znamy tylko jedną. Ma to dla nas znaczenie, które jest kłopotem, ponieważ nie dysponujemy żadną ogólną teorią powstawania kodo w sprawczych ani też teorią działania takich kodów, która byłaby niezupełna i właśnie przez to uniwersalnie ważna dla wszystkich możliwych kodów tego rodzaju. Teoria taka nie obejmowałaby warunków początkowych (a więc nic by nie mówiła o tym, jaki był stan Ziemi fizyczny, jaki skład chemiczny jej oceanów, jaki atmosfery itd., gdy przyjść miało do początków molekularnej samoorganizacji, tej zamierzchłej rodzicielki kodu życia) i byłoby to jej zaletą, a nie wadą, ponieważ teoria ta wyjawiałaby, jakie cechy generalne są wspólną własnością wszystkich możliwych kodów. Tym samym pozwoliłaby nam odróżnić to, co w kodzie DNA jest czysto miejscowe, ukształtowane ziemskimi warunkami sprzed miliardów lat, od tego, co w nim jest typowe, jako współzachodzące w przypadku każdego innego kodu. Teoria taka, przez swą niezupełność, także by nam nie powiedziała, jakie warunki początkowe musimy spełnić, żeby skonstruować abiologiczny technokod, ale powiedziałaby nam dosyć, żebyśmy się od razu zorientowali w szansach takiego przedsięwzięcia. A to, ponieważ tak samo, jak każda inna teoria uniwersalnie ważna, wyjawiałaby zarówno, co może zajść realnie, jak też, co realnie zajść nie może. Jak bowiem wiadomo, każda taka teoria ma jakby awers i rewers: w awersie ustala zajścia możliwe, a w rewersie—niemożliwe (możliwe jest rozpędzenie ciała do szybkości bliskiej szybkości światła, ale niemożliwe jest przekroczenie tej szybkości; możliwe jest zmniejszenie entropii kosztem wzrostu jej w innym miejscu, ale nie jest możliwe zmniejszenie entropii “za darmo” itp.). Nie dysponując taką teorią, musimy sobie radzić bez niej, z tym, że jeśli uda się skonstruować chociaż jeden technokod, będzie to równoznaczne z urealnieniem budowy takiej właśnie teorii, tak że następne technokody można by już sporządzić z nieporównanie mniejszym nakładem trudów niż pierwszy. Po tym odskoku wróćmy do fizyki, którą nazwaliśmy najwyższą instancją nad kodem, teraz już rozumiejąc, jak niewiele pomocy możemy od niej oczekiwać. Dwa bieguny poczynań w dowolnym przedsięwzięciu to albo działanie w pełni prewidystyczne, albo w pełni losowe. W pełni prewidystycznie działa ten, kto znając wszystkie po temu niezbędne teorie fundamentalne, wszystkie warunki początkowe i brzegowe oraz takie dodatkowe informacje, jakich w tym repertuarze nie ma (np. dotyczące ilości fachowców i mocy do zaangażowania, dyspozycyjnych materiałów itp.) buduje rakietę księżycową, która po wylądowaniu wykona zadany program badawczy i przekaże wyniki drogą radiową na Ziemię. W pełni losowo zachowuje się szczur, który, zamknięty w klatce, miota się na wszystkie strony, żeby z niej wyjść. Praktyka inżynieryjna zbliża się do pierwszego bieguna, człowiek zgubiony w lesie do drugiego, uczony zaś, zbliżający się do odkrycia, pracuje metodą mieszaną, niejako pomiędzy obiema skrajnościami.<br />Mając za wzorzec kod życia, nie musimy oddać się metodzie czysto losowej, wiemy bowiem, że technokod, będący naszym celem, musi mieć szereg określonych właściwości jako nośnik informacji, dającej się precyzyjnie zdynamizować, do czego trzeba odpowiednich efektorów, ponadto zaś wiemy, że zbliżony do węgla chemicznie krzem też (co ostatnio odkryto) tworzy podwójne wiązania, typowe dla organicznych związków węgla jako szkieletowej struktury procesów życiowych. Moglibyśmy więc zacząć skromnie, od krzemu, albo wykorzystać dane z innego rozdziału chemii polimerów. Może też, nim weźmiemy się do dzieła, nadejdą nowe wiadomości o nowych związkach, tworzących polimery (tak sprawne przy autoreplikacjach) w szerszym przedziale temperatur i środowisk ciekłych niż życie oparte na białku. Tę, wstępnie chemiczną, więc budulcową stronę rzeczy pominę, nie abym ją miał za nic, ale dlatego, bo po jej przezwyciężeniu dopiero pojawią się rzeczywiste trudności projektu.<br />Może też, nim weźmiemy się do dzieła, nadejdą nowe wiadomości o nowych związkach, tworzących polimery (tak sprawne przy autoreplikacjach) w szerszym przedziale temperatur i środowisk ciekłych niż życie oparte na białku. Tę, wstępnie chemiczną, więc budulcową stronę rzeczy pominę, nie abym ją miał za nic, ale dlatego, bo po jej przezwyciężeniu dopiero pojawią się rzeczywiste trudności projektu.<br />W zasadzie moglibyśmy wyodrębnić z żywej komórki wszystkie składowe związki chemiczne, ale jej na powrót w życie nie złożymy. Dlaczego? Dla podobnej nieco przyczyny, dla której tylko w zasadzie można by zbudować w pełni urządzony dom od piwnic do strychu razem z patelnią w kuchni, na której smażą się ziemniaki, przez równoczesne zbliżenie ku sobie i dopasowanie wszystkich cegieł, zaprawy, tynków, dźwigarów, dachówek, rynien, elementów instalacji elektrycznej i wodociągowej, z meblami, tapetami, lampami i tak dalej. Budować trzeba po kolei i dom da się tak zbudować, ale nie żywa komórka. Dlaczego? Dlatego, ponieważ dom ma fundamenty, na których stawia się zrąb ścian i tak dalej, a komórka żadnych takich zaczątkowych miejsc nie ma: powstaje “naraz” metodą omne vivum ex vivo, i to jest właśnie metoda ewolucyjnie utworzona, w której “prace wstępne” trwały miliard lat. Rzecz więc cała w tym, jak ten ogromny czas miliony razy skrócić. Biorąc rzecz abstrakcyjnie, można sporządzić osobno zapis informacji kodowej, osobno syntetyzować odpowiednie efektory, osobno agregaty molekuł energodajnych, osobno zespół potrzebnych enzymów, a potem wziąć się do składania tych części, ale w tym celu pierwej trzeba wynaleźć odpowiednie urządzenia mikrotechniczne czy mikrochemiczne. Wnet okaże się, że takich mikroinstrumentów sporządzić się nie da i że najlepszymi narzędziami do składania molekularnych elementów w całość są inne rodzaje molekuł, albowiem tego wymaga już sama skala wielkości w owej budowie. Przyszłoby zatem wynajdywać molekuły–instrumenty, czyli utworzyć sztuczne środowisko, skierowane własnościami fizykochemicznymi nielosowo, lecz z bardzo precyzyjnym docelowym zogniskowaniem w realizację komórkowego projektu. Być może właśnie to jest droga, wzdłuż której dojdziemy do brzmiącej legendarnie syntezy życia w laboratorium. Ponieważ jesteśmy jeszcze od tej sprawności daleko, wszystko, co zapowiadam i nad czym się głowię, to zajęcie wysoce przedwczesne, które będzie tylko troszkę mniej przedwczesne, gdy dojdzie już do powtórzenia biogenetycznego aktu w probówkach. Niemniej uważam, że warto się zastanowić, co może być dalej. Czy mając już na podorędziu wszystkie formuły chemiczne lub fizykochemiczne składowych będziemy mogli uruchomić nasz nowy język sprawczy, wytłaczając w technokodzie odpowiednie programy działania? Tak prosto udać się to nie może. Zaoszczędziliśmy wprawdzie miliard lat robót wstępnych, wiemy jednak, że optymalnie już udoskonalony kod życia wytwarza gatunki w tempie co najmniej miliona lat dla jednego gatunku. Dlaczego? Dlatego, ponieważ pracuje metodą masowo—statystyczną: ogromny nadmiar prototypowych, niejako eksperymentalnych, zmutowanych genetycznie ustrojów musi przejść testy na przetrwanie w rodzicielskim środowisku, przy czym zachodzące dzięki mutacjom zmiany są drobne, krokowe, bo ta kreacyjna strategia jest metodą prób i błędów, podległą statystyce, która zapewnia nas, że jednoczesne zajście tylu korzystnych mutacji naraz, żeby dały w wyniku od razu nowy gatunek, odznacza się zerowym prawdopodobieństwem. Czy jednak my, ingerując z zewnątrz w nasz kod, nie możemy zastąpić metody, zwanej selekcją i doborem naturalnym, więc metody losowej, metodą prewidystyczną? Alternatywa ta nie zdaje należycie sprawy z problematyki wyboru. Kod życia jest jeden; z jego wyrazów składają się genotypy poszczególnych gatunków: populacja jednego gatunku stanowi zbiorowy rezerwuar zmienności dziedzicznej, a ponadto każdy genotyp, rozwijając się, tworzy fenotyp, przy czym między oboma znajduje się osobnicza rezerwa zmienności przystosowawczej do środowiska życiowego. Kod, to tyle co język pewnej grupy etnicznej; genotypom różnych gatunków odpowiadają dialekty oraz języki specjalistyczne (matematyki, logiki, kody programowania komputerów, jako że wszystkie one są pochodnymi języka etnicznego), przekładowi zaś genotypu na fenotyp odpowiada interpretacyjna zmienność sensów konkretnej wypowiedzi. Jeśli kontynuować to porównanie, języki formalne, jak maszynowe i matematyczne, mają bardzo wąskie pasmo interpretacyjne, czyli odznaczają się wysoką jednoznacznością i są w tym podobne do prostych ustrojów jak bakterie i pierwotniaki, które dzielą się rozmnażając i przez to ich genotyp sztywno zawiaduje fenotypem. Natomiast wypowiedzi interpretacyjnie wieloznaczne są jak genotypy wyższych organizmów, zdolne do wytworzenia rozmaitych środowiskowo fenotypów. Nie znając szczegółowej charakterystyki zmienności kodu, nie można zarzekać się z góry, jak optymalnie wykorzystać jego sprawczą potencję. Być może istnieją kody o większym i o mniejszym uniwersalizmie niż kod biologiczny. W każdym razie takie programowanie technokodowych artykulacji, żeby po prostu realizowały ściśle program i nic więcej, równa się rezygnacji ze wszystkich kreacyjnych i adaptacyjnych potencji kodu i tym samym stanowi powtarzanie, sposobem nietradycyjnym, tradycyjnej metody wytwórczej w technice. Nie możemy więc rozstrzygnąć tego dylematu. Możemy jedynie zauważyć, że w pełni twórcza moc biokodu realizuje się nadzwyczaj powoli i z wielkim marnotrawstwem inwestowanych środków materialnych, jako znaczną śmiertelnością osobników i wymieraniem całych gatunków. Jednakowoż ewolucja przez tę powolność i dzięki temu marnotrawstwu precyzyjnie dociera każdy swój produkt do warunków zewnętrznych i wewnętrznych (środowiska i ustroju). Prawdopodobnie trzeba będzie zastosować strategie mieszane, podług oceny kosztów liczonych przede wszystkim czasem trwania transformacji kodu w produkt końcowy. Teoretycznie ufundowany prewidyzm pozwala skrócić ten czas, lecz jednocześnie tłumi spontaniczną wynalazczość kodu, ulokowaną w jego zmienności. Wszelako ta wynalazczość potrzebuje eonów, żeby się ujawnić. Obecnie nic lepszego nie wymyślimy ponad zastąpienie realnego budownictwa symulacją komputerową. Co prawda symulować da się niewielkie etapy kodowych przekształceń, a nie ich całość na drodze od genotypu do fenotypu, bo ogrom zmiennych do uwzględnienia zagwoździ wnet najbardziej pojemny komputer. Na przyszłe generacje komputerów też nie ma co liczyć, znamy już bowiem nieprzekraczalne granice mocy obliczeniowej, tylko tak zwaną transcomputability (można ją nazwać “pozaobliczalnością”, gdyż nieobliczalność ma już ustalone znaczenie w polszczyźnie). Znamy też zadania, wymagające mocy leżącej poza tą barierą. Pozaobliczalność ustanawiają prawa i stałe Natury, jak stała Plancka czy szybkość światła. Już dziś zmuszają one projektantów do miniaturyzacji (aby bieg impulsów zużywał najmniej czasu) i do obniżania temperatury elementów logicznych (co zwiększa ich sprawność). Współczesne komputery docierają już do granic technicznej obróbki ciał stałych, w których trawi się obwody logiczne, np. na płytkach krzemu (chips). Znaczny postęp umożliwi dopiero przejście do budowania elementów na poziomie molekularnym, i tu droga naszych spekulacji przecina się z drogą informatyki. Jednakże definicja pozaobliczalności pozostaje w mocy; są zadania, jakich nie pokona nawet komputer zbudowany z całej materii Kosmosu; gdyby mógł nawet, niewielka byłaby radość, boż musiałby pracować w czasie o skali astronomiczne j i czego usiłujemy się przecież pozbyć jako największego kłopotu syntetycznej ewolucji technokodowej. Pod poziomem molekuł i atomów jako ostatnia deska ratunku znajduje się poziom cząstek elementarnych i ich zbitek w jądra, ale jakoś nie chce mi się wierzyć, żeby układy logiczne dało się upakować w nukleonach nawet i za tysiąc lat. Gdyby kod genotypów życia musiał zawierać całą informację o wszystkich krokach i fazach rozwoju płodowego (ogólniej zaś epigenezy, jako przekładania genotypu na fenotyp), to ewolucja na samym swym początku utknęłaby w miejscu. Wybieg polega na obdarzaniu cegiełek budulca autonomią. Kod jest jak strateg, tworzący armię przez to, że ją sam płodzi i ma żołnierzy zarazem posłusznych sobie oraz zdolnych do przejawiania inicjatywy. Ten kompromis, jako zespolenie posłuchu i samodzielności warto by przejąć, chociaż nie możemy nic powiedzieć o tym, jak to się robi, boż cały obszar epigenezy wciąż jest wielką białą plamą na mapach naszych wiadomości. Trudno nawet uznać, że skoro biokod to potrafi, tym samym rzecz jest możliwa, więc i nam winna się udać. Niechybnie jednak metody budowania komórkowego będą wypróbowane i nie można wykluczyć nawet rozwiązań tak dla nas dziś osobliwie brzmiących, jak budowania z takich technokomórek, z których każda zawiera odpowiednik genotypu — nanokomputera, złożonego z molekularnych obwodów, zasilanych elektrycznością albo, pozwólmy sobie raz jeden na fantazję, siłami oddziaływań podatomowych (międzycząsteczkowych). Takie jednak wizje to już nie prognozy, lecz marzenia.<br />Symulacja technokodowej ewolucji to gra, w której wygrane stanowią poznawczo bądź użytkowo zdatne pseudoprodukty kodu. Nie mając pojęcia, jakie mogą to być produkty, nie jesteśmy jednak skazani na milczenie. Metodę produkcyjną można rozważać i tam, gdzie konkretne produkty pozostają nieznane. Przypominam, że mamy do czynienia z językiem, a język to ma do siebie, że można w nim artykułować sensy banalne i genialne, przy czym ani językoznawca, ani gramatyk geniuszami być nie muszą. Ten, kto bada leksykografię, gramatykę generatywną i składnię pewnego języka, czy to etnicznego, czy sprawczego, nie musi się zbytnio troszczyć oto, co będzie w nim wyartykułowane. Zajmuje się tym, co i tak można artykułować: jak wiele informacji zawrzeć może jedna wypowiedź, jaka jest maksymalna praktycznie głębia logiczna w artykułowanym itp. Teoria języków etnicznych nie istnieje, można jedynie powiedzieć, że będzie podobna do teorii fizycznych, jako niezupełna (albo otwarta); ustali i ona własności pola językowego tak, jak teoria Einsteina ustala własności pola grawitacyjnego, milcząc o warunkach początkowych. Dla mowy te warunki wyznacza po prostu mówiący, boż zawsze mówi się coś konkretnego, toteż wypowiedzi są trajektoriami v polu językowym, tak jak drogi ciał niebieskich są trajektoriami w polu grawitacyjnym. Dodajmy, gdyśmy już użyli mowy jako pomocy poglądowej, że i w niej można stosować metodę dla wypowiedzi prewidystyczną albo losową. Prewidystycznie artykułuje wypowiedzi ten, kto je układa w głowie jak każdy człowiek, rozmawiający z innymi. Losowo zaś postępuje ten, kto używa metody anagramowej, by przekształcić dane mu zdanie w jakieś inne, przy czym (to jest reguła właściwa anagramom) zarówno zdanie początkowe, jak końcowe razem z pośrednimi muszą mieć jakiś sens. Praca polega na losowym zastępowaniu poszczególnych liter w wyrazach. Ewolucja pracuje tak właśnie, anagramowe. Zmianom liter odpowiadają mutacje, przeważnie dające “zdania bez sensu” lub z sensem uszkodzonym. Przy życiu pozostaje to tylko, co zachowało i po zmianie “sens”. Dba o to dobór naturalny, któremu wolno nota bene podłużać zdania, doda jąć do nich nowe litery i wyrazy składane z liter (genów). Przez to z krótkiego zdania wyjściowego może po tysiącach podstawień powstać długa fraza, znacząca coś całkiem innego niż wstępna. Ponieważ jednak czysto losowe rozwiązywanie anagramu byłoby wielce czasochłonne, miłośnik łamigłówek nie zmienia liter na ślepo, lecz przebiera je w głowie, żeby znaleźć to, co po podstawieniu zachowa sens. To, co miłośnik rozrywek umysłowych robi w głowie nad anagramem, odpowiada temu, co badacz kodowych potencji będzie robił w maszynie, symulującej artykulacje technokodu. Zakładam nader istotne uproszczenia względem bioewolucji w tym modelarstwie: produkty technokodu nie muszą się rozmnażać. Ponadto trzeba grę rozłamać na kolejne etapy. Etap, na którym jednostkami operacji są atomy, zakończy się po odnalezieniu takiej ich rodziny, która utworzy technokod z jego efektorami. Na następnym etapie jednostkami będą już elementy kodu traktowane jako litery pewnego alfabetu, układane w wyrazy i w zdania. Gdyby symulować język etniczny, gra okaże się niemożliwa, utknie bowiem zaraz w barierze pozaobliczalności; a to, ponieważ ograniczenia artykulacyjne mowy ludzkiej są słabe. Przez to właśnie można mówić rzeczy niestworzone, czyli fantastyczne i głupstwa. W mowie można wszak budować światy, sprzeczne ze światem realnym (kontrempiryczne), a nawet sprzeczne wewnętrznie wypowiedzi (antynomiczne). Natomiast ograniczenia języka sprawczego są bardzo silne, nakłada je bowiem zarówno materiał budowlany, jakim ten język zawiaduje (np. białka w epigenezie), jak i świat zewnętrzny, w którym przyjdzie egzystować ustrojom. Głupstwa wyrażane przez ewolucją podlegają karze tyleż surowej, co niezawinionej przez ich ofiary: gdy ewolucja myli się mutacjami, utworzone od tego stworzenia muszą zginąć. Kod błądzi więc albo ze skutkiem doraźnym (zmutowany letalnie gen udaremnia dalszy rozwój płodu) albo z opóźnionym (rozwój idzie dalej, lecz daje produkt niepełnowartościowy). Kod nie może wyartykułować byle czego, bo nie wszystko da się zeń sporządzić, jako artykulacja, i nie wszystko też, co da się nawet sporządzić, będzie sensowne funkcjonalnie. Moc ograniczeń obu tych zakresów jest tak znaczna, że stwarza w grze opór, który nazwiemy przeciwnikiem kodu w maszynie. Dla poglądowości uciekniemy się do porównania z szachami. Badacz to tylko arbiter i kibic. Graczem jest kod w maszynie, jako jeden szachista, a drugim jest cały zestrój wszystkich ograniczeń, jakim muszą podlegać artykulacje kodu. Są to ograniczenia wielu poziomów: atomowego, molekularnego, energetyczno–informacyjnych sprzężeń wielocząsteczkowych, przy czym wszystkie znajdują się pod restrykcjami termodynamiki i innych praw fizycznych, a ponadto na jeszcze wyższym poziomie działa “dobór techniczny”. Ten ostatni wytrąca z gry każdy produkt, który, chociaż konstruowalny niesprzecznie z prawami Natury, sprzecza się z ustanowionymi przez nas kryteriami (np. niezawodności urządzeń, wydajności i tak dalej). Mówiąc po prostu, maszyna dokonuje z kodem różnych ewolucji, a przeciwgracz, jakim jest model świata, pilnuje, żeby nie próbowała nimi wkroczyć w stany zakazane. Jeśli wkroczy, musi się cofnąć. Podprowadziwszy, tak z kilku stron porównaniami (język, szachy) do właściwej rzeczy, żeby ją choć trochę uwyraźnić, powiemy teraz, że symulacja kodowych ewolucji jest grą, której reguły zmieniają się w toku rozgrywki (chociaż nie wszystkie: ta część reguł, jaką ustanawia świat swoją fizyką, nigdy się nie zmienia). Trzymajmy się porównania z szachami jak pijany płotu. Własnościom pionów i figur odpowiadały własności atomów, a kombinacjom na szachownicy—konfiguracje molekularnych struktur, budowanych przez kod. Na następnym etapie cała skala gry się odmieni: teraz pion to już technogen, dyslokacja figur to technogenotyp, a drzewo rozgrywki to początek epigenezy (przekładania genotypu na fenotyp). Zaznaczam, że od tego etapu gry nie oczekujemy jeszcze żadnych takich kreacji technokodu, które miałyby wartość użytkową. Na to za wcześnie. Chcemy tylko wysondować graniczną rozpiętość twórczą kodu. Nie znamy granicznej rozpiętości biokodu, wiemy bowiem, co sporządził przez cztery miliardy lat, nie wiemy natomiast, co innego mógłby jeszcze lub alternatywnie sporządzić. Jeśli przez głębię logiczną rozumie się ilość operacji krokowych od początku do końca pewnego przetwarzania informacji, to przez głębię technologiczną będziemy rozumieli czasoprzestrzenny zasięg sterowniczo–regulacyjnego władztwa genotypu nad fenotypem. Najprawdopodobniej kod DNA, budując gigantozaury, zbliżał się już do granic takiego władztwa. W realnym świecie dla każdego kodu są te granice dwuzakresowe: ani w genotypie nie można pomieścić dowolnej ilości informacji sterującej, ani fenotypem nie można przekroczyć pewnych granic fizycznych. Nadmiar informacji pocznie na koniec urągać mechanizmom porządkującym ich przetwarzanie we właściwy sposób, a nadmiarowość fenotypu (choćby jako jego ogrom) ugrzęźnie w dyskoordynacji ustrojowej. (Ograniczenia te dotyczą tylko osobników, a nie ich zbiorów). Powiedzieliśmy, że symulacja jest grą ze zmieniającymi się regułami. Trzeba powiedzieć kilka słów o takich grach. Reguły szachów są ustalone, lecz gracz może je arbitralnie zmienić, sposobem zawsze niewłaściwym, ale nie zawsze niedorzecznym. Kto przy nieuwadze partnera schowa do kieszeni jego wieżę, łamie reguły sposobem dorzecznym, bo korzystnym dla ciebie. Dorzeczne, choć także niemoralne będzie zastąpienie ciągu biciem partnera szachownicą po głowie, gdyż uratuje przegrywającego przed matem. Niedorzeczne byłoby natomiast postawienie na szachownicy karalucha lub zaśpiewanie arii Radamesa z “Aidy”, mające zastąpić kolejny chód. Jedno ani drugie nic przecież graczowi nie da. Reguły szachów można gwałcić, ponieważ jest to gra czysto umowna. Gry zachodzące w Naturze takie nie są. Gracz, który bije partnera, zamiast grać, zmienia pole rozgrywki, bo wykracza z reguł szachowych i tym właśnie upodabnia się do tworów ewolucji, które grają w myśl zasady “catch as catch can”. Wszystkie chwyty są w Naturze dozwolone, dyrektywa przeżywania powiada bowiem “rób, co możesz, byłeś przetrwał! “Toteż tylko ta naczelna reguła pozostaje niezmiennie w mocy. Wszystkie inne mogą się zmieniać. Nie inaczej jest w realnych grach, jakie ludzie prowadzą z sobą w konfliktach wojennych, na zwycięstwo albo i na zniszczenie przeciwnika. Umowy, mające utrzymać walczących w ryzach etyki, są nagminnie gwałcone. Masowe rażenie bezbronnej ludności cywilnej też jest zmianą reguł, stosowanych tradycyjnie od stuleci. Symulujący komputer może zmieniać reguły gry w takiej mierze, w jakiej zezwala na to przeciwnik, który jest, przypominam, właśnie zestrojeni ograniczeń nałożonych na transformowalność kodowych artykulacji. Tan przeciwnik dba o to, żeby symulacja nie wykroczyła poza własności realnego świata. Arbiter, obserwator i zwierzchnik gry, jakim jest człowiek przy maszynie, utrąca jej grę za każdym razem, kiedy zabrnie ona w produkcję dziwolągów. Z czasem można by uzupełnić program po obu stronach, artykulacyjnej i restrykcyjnej, żeby osłabić zbyt ekscentryczną płodność maszyny, ale trzeba to robić z umiarem, by nie wylać dziecka z kąpielą. Nie każda ekscentryczność jest bezwartościowa.<br />Nim ruszymy dalej, przyjdzie otworzyć nawias dla kolejnej uwagi naukoznawczej. W empirii oponują sobie dwa przeciwstawne poglądy na urządzenie świata, wyrażane jako redukcjonizm i holizm (albo emergentyzm). Zgodnie z pierwszym, z najprostszych cegiełek materii można wyprowadzić własności wszystkiego, co istnieje lub może istnieć, a tylko my tego jeszcze nie umiemy. Podział nauki na różne dyscypliny przyrodoznawcze, jako fizykę, chemię, geologię, astrofizykę i tak dalej to więc rezultat ogromnych luk naszych wiadomości. W miarę ich zapełniania fizyka będzie przerastała w chemię (już przerasta), astronomia w astrofizykę (i to też zachodzi), potem fizykochemia kwantowa w biologię itp. Podług holizmu natomiast istnieją wprawdzie fundamentalne prawa Natury, którym podlegają wszystkie materialne zjawiska (prawa grawitacji, oddziaływań atomowych i elektromagnetycznych, prawa termodynamiki), ale ponadto są takie własności układów, których nie można wyprowadzić z ich części. Pierwsze stanowisko jest raczej optymistyczne, a drugie — pesymistyczne. Jeżeli bowiem nie można przepowiedzieć własności układu, jakiego dotąd nie było, to trzeba go dla poznania sporządzić. Z fundamentalnych praw bowiem wyprowadzić własności takiego układu nie da się nigdy. Emergentyzm to tyle, co wyłanianie się ; z całości cech, jakich nie ma w częściach nawet śladowo, bo całość (holos) jest do części nieredukowalna. To pesymistyczne, ograniczające nas stanowisko może zresztą powoływać się na fakty: z ogólnej teorii Einsteina w astronautyce np. się nie korzysta, bo nie sposób uzyskać rozwiązania dla kilku ciał w ruchu na gruncie tej teorii. Niby można, ale jest to tak diablo powikłane, że o wiele prościej używać teorii Newtona z należytymi poprawkami. To samo dotyczy też mechaniki kwantowej atomu. Oddziaływania atomów podlegają wprawdzie zupełnemu opisowi przez prawa mechaniki kwantowej, lecz do niedawna myśl o przepowiadaniu własności ciał przez ich wyprowadzenie z praw atomowych była tautologią, jako gołosłownym uznaniem, że prawa fundamentalne zawiadują wszystkimi stanami materii, ponieważ są fundamentalne. Podobnie jak przy teorii Einsteina, to, co niby można było zrobić w zasadzie, w praktyce zrobić się nie dało. W ostatnim ćwierćwieczu jednak rozziew między prawami podstawowymi a ich zastosowaniem praktycznym począł zanikać, zwłaszcza w fizyce ciała stałego. Teoria operująca pojęciami modelowymi tak zwanych pseudoatomów i pseudopotencjałów pozwala skutecznie przechodzić od prą w fundamentalnych do własności ciał stałych, także złożonych, przy czym uzyskiwane postępy są większe, niż można się było spodziewać. Zapewne można będzie kiedyś obstalować u fizyka projekt materiału o pożądanych własnościach (oczywiście nie najzupełniej dowolnych), tak jak można u budowniczego zamówić projekt domu. Nowina ta pocieszy bez wątpienia redukcjonistów, a jednocześnie mniej fantastyczną czyni myśl o symulacyjnej grze technokodowej, w jej stadiach zwłaszcza najwcześniejszych. Sądzę zresztą, wracając po zamknięciu nawiasu do tej gry, że jej rezultaty rzucą nowe, nie zawsze korzystne światło na dokonania ewolucji naturalnej.<br />Trzeba sobie uświadomić, że i z rozpoznanej do końca struktury biokodu nie jest wywiedlna jego faktyczna potencja kreacyjna ani na pierwszy rzut oka, ani w oparciu o jakąkolwiek teorię. Tak samo przecież nie jest wywiedlna ze znajomości słownika, składni i gramatyki języka etnicznego jego kreacyjna potencja, bo znaczyłoby to tyle, co możliwość przepowiadania, na bazie angielszczyzny na przykład, całego piśmiennictwa Anglosasów razem z dramatem elżbietańskim i wierszami Eliota. Co prawda redukcjonistyczne zastrzeżenie głosi, że niemożliwość jest praktyczna, a nie zasadnicza, boż składając słowa w zdania na chybił trafił przez kilka centylionów lat, w końcu dotarłoby się i do Szekspira z Eliotem, ale nie jest to metoda godna zalecenia, także w symulacyjnych grach kodowych.<br />Niemniej sądzę, że sporządzony technokod pozwoli na historycznie pierwsze rozpoznanie aksjometryczne dzieł biokodu. Potajemnie wyznaję taką złożoność dzieł kodu życia, która jest zarazem zbędna i konieczna.<br />Konieczna ze względu na początkowe i brzegowe warunki jego narodzin, boż powstał z tego, co było na podorędziu, a działał tędy i tak, jak podług owych startowych warunków mógł działać. Lecz narzucona historycznie konieczność może się okazać w oglądzie wyprowadzającym ją za nawias historii właśnie zbędną komplikacją. Zawarty w “Summie” paszkwil na ewolucję, dopowiedziany słowami mego fikcyjnego Golema (jakoby płody ewolucyjnych zmagań były tym podlejsze w ich technologicznych jakościach, im dalej od ewolucyjnej kolebki, oraz jakoby to, co życie robi na mikropoziomie, było sprawniejsze od tego, co potrafi wydźwignąć odmolekularnym sterowaniem na makropoziomy), stanowi rzeczywisty wyraz moich podejrzeń. Ta okoliczność, że my nawet w drobnej mierze nie potrafimy dokonać tego, co potrafiła ewolucja, jeszcze nie czyni podobnej krytyki bezprzedmiotową. Mistrzostwo ewolucji wciąż wydaje się nam nieprześcignione, lecz dopiero czy symulowane, czy realne badania kodów sprawczych mogą dostarczyć nam poza intuicyjnych miar kreacyjnej i funkcjonalnej sprawności tworzonego. Gdybym był inteligentnym robotem, a nie człowiekiem z kodu, krwi i kości, trząsłbym głową nad labiryntowymi błądzeniami ziemskiej ewolucji, pełen zdumienia i litości wobec tych wyrafinowanych wprawdzie, alei wymuszonych “ciężkimi warunkami” wybiegowi chwytów, jakich musiała się wciąż imać. Z tego rodzaju refleksji płynie zresztą dezaprobata Golema wobec żywych stworzeń, ujęta w tezę, że ewolucja zainwestowała precyzję najwyższej próby kwantowo-molekularnego poziomu w wiele mechanicznie prymitywnych rozwiązań narządowych na makro poziomie. Byłbym nawet skłonny sądzić, że sporo trudności, doświadczanych przy rozpoznawaniu mózgu ludzkiego pochodzi od “niekoniecznej komplikacji”, jako “za wleczenia “przez ewolucję rozmaitych “staroświeckich “ rozwiązań w obręb mózgu. Nie tyle myślę tu nawet o historycznie danym uwarstwieniu mózgu, odzwierciedlającego pniem, staromózgowiem, międzymózgowiem, i wreszcie nowomózgowiem miliony lat katorżnictwa ryb, płazów, gadów i ssaków, ile raczej o ledwie ostatnio dotkniętej (bo wcale jeszcze nie rozgryzionej) dwudzielności czynnościowej wielkich półkul. Z góry przepraszam wszystkich, którzy uznają to za kalumnie, lecz nikłość efektów, jakie pociąga za sobą rozcięcie wielkiego spoidła (corpus callosum) na całej przestrzeni od połączenia półkul przedniego (comisswa anterior) do tylnego (c. posterior) umacnia mnie w przekonaniu, że siedlisko rozumu można było zbudować lepiej. Powiada się, że prawa półkula jest niema (choć rozumie mowę), za to bardziej usposobiona muzycznie i irracjonalnie (oraz rzekomo intuicyjnie) od lewej, ale te diagnozy przyjdzie jeszcze opukać. W ostatniej milionoletniej chwili, gdy jęła powstawać mowa artykułowana, jej ośrodek skupił się w lewej półkuli, nader szczęśliwie, bo gdyby został zdublowany, musielibyśmy, mając dwa takie ośrodki, albo wszyscy się jąkać, albo bodajże objawiać znaczną zapadalność na rozszczepienia osobowości. Gdyby obie półkule systematycznie dopełniały się czynnościowo, to przecięcie wielkiego spoidła okazałoby się istną katastrofą tak zoperowanego człowieka, który musiałby przejawiać nie byle jaką utratę mocy umysłowej, dostrzegalną dla innych, jeśli nie dla niego samego, a tymczasem objawy wypadowe jako konflikty półkul są dziwnie; skromne. Epileptyk, człowiek zresztą umysłowo normalny, po takiej operacji dostrzega tylko, że na przykład gdy chce objąć żonę prawą ręką, lewa ją odpycha (fakt z historii choroby). Jeśli nic dramatyczniejszego jako spadek inteligencji chociażby nie zachodzi (toż prawa kora przestaje uczestniczyć w artykułowanym myśleniu i w mowie), nadmiarowość mózgu staje się porządnie zbędna, a jego sprawność tak przereklamowana, jak byłaby przereklamowana sprawność dwusilnikowego pojazdu, który po wyłączeniu jednego silnika spisuje się tak jak przedtem. Z tego, że jakoś wszystko razem działa, trudno czerpać pociechę wtedy zwłaszcza, gdy patrzeć na to, co (podobno) niższe ośrodki i prawa kora wyczyniają z pięknymi rezultatami racjonalnych prac lewej kory na świecie. Nie upierałbym się przy stanowisku, że to już pewne, ale poszlaki wspierające takie podejrzenia jednak się mnożą. Wzrostowi naszej wiedzy o sprawczych językach będzie towarzyszył spadek uznania dla dzieł ewolucji naturalnej. Ponieważ największym z możliwych głupstw jest powtarzanie cudzych błędów, inżynieria technokodowa będzie się zapewne sukcesywnie oddalała od biologicznych wzorców, i to, jak myślę mocniej w ich makroregionie niż na poziomie molekularnym. Jakkolwiek na upartego można poddawać działania ewolucji biologicznej ocenom etycznym, niezależnie od technologicznych, nikt ze specjalistów jawnie tego nie robi, aczkolwiek zdarzało mi się czytać prace paleontologów, pełne żalu nad hekatombą gadów jury i mezozoiku. Nie były to pretensje, świadomie adresowane do ewolucji, boż kto lepiej od ewolucjonisty może rozumieć, że nie jest ona osobą, więc stosowane przez nią taktyki są niepodległe etyce, jako bezintencjonahie. Sto z górą milionów lat kosmicznego zacisza Ziemi pchnęło wiele zwierząt na drogę ortoewolucji i gigantyzmu, z finałem w postaci takiego zoocydu, któremu dorównać mogłaby jedynie wojna atomowa w największej skali. Uzmysłowić sobie tych potopów życia w potopach śmierci nie można, toteż dziwiła mnie zawsze apodyktyczność, jaką antyewolucjoniści przejawiali od czasów Darwina po dzień wczorajszy ścierając się z darwinistami. Ich argumentem koronnym była niewyobrażalność takiego kumulowania się drobnych zmian, która mogłaby obdarzyć zwierzęta najniższe nawet znakomitymi w samozachowawczości instynktami. Argumenty takie nigdy nie kierują się w świat, lecz wskazują tylko na bezrozumne zadufanie ich autorów. Nikt, ale to nikt nie jest w stanie unaocznić sobie, przy najlepszej woli i największym wysiłku wyobraźni, jakich zmagań przestworem i jaką otchłanią czasu była ewolucja. Chociaż niepostrzegalny wzrokiem, ów gigantyczny kontynent otwiera się przed nami na styku dwu stuleci. Jeśli weń nie wkroczymy, będzie to wyłącznie nasza wina.<br /><br /><br />Kraków w lipcu 1982</div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div class="blogger-post-footer">„Analfabetami XXI wieku nie będą ci, którzy nie umieją pisać ani czytać, lecz ci, co nie potrafią oduczyć się wierutnych kłamstw, w które nauczono ich wierzyć i nie potrafią szukać ukrytej wiedzy, którą nauczono ich odrzucać”</div>#magnetartechprojecthttp://www.blogger.com/profile/00116426320285930090noreply@blogger.com0tag:blogger.com,1999:blog-1727701247933515471.post-19744085260209699992021-07-12T00:31:00.022+02:002023-02-25T19:18:10.010+01:00Stanisław Lem<div><span style="background-color: black;"><span style="color: #cc0000;"><br /><span style="font-family: inherit; font-size: medium;"><br /><br /><br /><br /><br /></span></span></span><div class="separator" style="clear: both; text-align: center;"><a href="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgNo-g5sVyEhosVcAnfh1eqTEWXdyq9aFpHSyDrx0wcAl05js2rnGfSNXzmRjy7Wz7iVql5vLQsaM_ASiLSM194L_3HFtaxx_rUKGadBq6U7ckIbTEGfKmx2xGcnhhrVgApupMm7hmgbAg/s788/lem-grafika.jpg" style="margin-left: 1em; margin-right: 1em;"><img border="0" data-original-height="444" data-original-width="788" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEgNo-g5sVyEhosVcAnfh1eqTEWXdyq9aFpHSyDrx0wcAl05js2rnGfSNXzmRjy7Wz7iVql5vLQsaM_ASiLSM194L_3HFtaxx_rUKGadBq6U7ckIbTEGfKmx2xGcnhhrVgApupMm7hmgbAg/s16000/lem-grafika.jpg" /></a></div></div><div><br /></div><div><br /></div><div><br /></div><div><br /></div><br /><br />Twórczość S. Lema porusza tematy takie jak: rozwój <a href="https://pl.wikipedia.org/wiki/Nauka">nauki</a> i <a href="https://pl.wikipedia.org/wiki/Technika">techniki</a>, natura ludzka, możliwość porozumienia się istot inteligentnych czy miejsce człowieka we <a href="https://pl.wikipedia.org/wiki/Wszech%C5%9Bwiat">Wszechświecie</a>. Dzieła Lema zawierają odniesienia do stanu współczesnego społeczeństwa i refleksje naukowo-filozoficzne na jego temat. Niektórym ze swoich utworów nadał charakter <a href="https://pl.wikipedia.org/wiki/Groteska">groteskowy</a>.<br /><br />Jest najczęściej tłumaczonym polskim pisarzem, a w pewnym okresie był najbardziej poczytnym nieanglojęzycznym pisarzem S-F, mimo małego odbioru w <a href="https://pl.wikipedia.org/wiki/Stany_Zjednoczone">Stanach Zjednoczonych</a>. Jego książki przetłumaczono na ponad 40 języków, osiągnęły łączny nakład ponad 30 milionów egzemplarzy.<br /><br />Był kandydatem do <a href="https://pl.wikipedia.org/wiki/Laureaci_Nagrody_Nobla_w_dziedzinie_literatury">Nagrody Nobla w dziedzinie literatury</a>. Ostatecznie przyznano ją jednak <a href="https://pl.wikipedia.org/wiki/Czes%C5%82aw_Mi%C5%82osz">Czesławowi Miłoszowi</a> w 1980.<br /><br />Był odznaczony między innymi medalem <a href="https://pl.wikipedia.org/wiki/Medal_%E2%80%9EZas%C5%82u%C5%BCony_Kulturze_Gloria_Artis%E2%80%9D">„Gloria Artis”</a> i najwyższym polskim odznaczeniem państwowym <a href="https://pl.wikipedia.org/wiki/Order_Or%C5%82a_Bia%C5%82ego">Orderem Orła Białego</a>. Jego nazwiskiem nazwano <a href="https://pl.wikipedia.org/wiki/(3836)_Lem">planetoidę</a> oraz <a href="https://pl.wikipedia.org/wiki/Lem_(satelita)">pierwszego polskiego satelitę naukowego</a>.<br /><br />Ukończył <a href="https://pl.wikipedia.org/wiki/Medycyna">medycynę</a>, ale nigdy nie podjął pracy jako <a href="https://pl.wikipedia.org/wiki/Lekarz">lekarz</a>.<div>Na jego twórczość miała wpływ trauma II Wojny Światowej, któą potem wyrażał w swoich powieściach na różne sposoby... </div><div> </div><div>Cytaty:</div><br />"Nie żałuj, nigdy nie żałuj, że mogłeś coś zrobić w życiu, a tego nie zrobiłeś. Nie zrobiłeś, bo nie mogłeś."<br /><br />"Nikt nie może być mi bliższy ode mnie, a ja, ja jestem sobie czasem taki daleki..."<br /><br />"O tym, że się jest szczęśliwym, wie się dopiero potem, kiedy to minęło. Człowiek żyje zmianą."<br /><br />"Teorie naukowe to psychiczna guma do żucia."<br /><br /> Szpital Przemienienia<br /><br /><br /><br /><br /><br />"Wcale nie chcemy zdobywać kosmosu, chcemy tylko rozszerzyć Ziemię do jego granic. Jedne planety mają być pustynne jak Sahara, inne lodowate jak biegun albo tropikalne jak dżungla brazylijska. Jesteśmy humanitarni i szlachetni, nie chcemy podbijać innych ras, chcemy tylko przekazać im nasze wartości i w zamian przejąć ich dziedzictwo. <div>Mamy się za rycerzy świętego Kontaktu. To drugi fałsz. Nie szukamy nikogo oprócz ludzi. Nie potrzeba nam innych światów. Potrzeba nam luster. Nie wiemy, co począć z innymi światami. Wystarczy ten jeden, a już się nim dławimy."<br /><br />"Człowiek, wbrew pozorom, nie stwarza sobie celów. Narzuca mu je czas, w którym się urodził, może im służyć albo buntować się przeciw nim, ale przedmiot służby czy buntu jest dany z zewnątrz. Aby doświadczyć całkowitej wolności poszukiwania celów, musiałby być sam, a to się nie może udać, gdyż człowiek nie wychowany wśród ludzi nie może się stać człowiekiem."<br /><br />"(...) nauka zajmuje się tylko tym, jak się coś dzieje, a nie dlaczego coś się dzieje(...)".<br /><br />"- Co będziemy robili? - spytała.- To, co się robi w nocy: spać.<br />- Kris.<br />- Co?<br />-Może zrobię ci nowy okład.<br />- Nie, nie trzeba. Nie trzeba... kochanie.<br />Kiedy to powiedziałem, sam nie rozumiałem, czy udaję, ale naraz w ciemności objąłem na oślep jej smukłe plecy i czując ich drżenie, uwierzyłem w nią. Zresztą nie wiem. Wydało mi się nagle, że to ja ją oszukuję, a nie ona mnie, bo jest tylko sobą.<br />Zasypiałem potem jeszcze kilka razy i wciąż z drzemki wyrywał mnie skurcz, łomocące serce uspokajało się powoli, przyciskałem ją do siebie, śmiertelnie znużony, badawczo dotykała mojej twarzy, czoła, bardzo ostrożnie, sprawdzając, czy nie mam gorączki. To była Harey. Innej, prawdziwszej nie mogło być.<br />Po tej myśli coś odmieniło się we mnie. Przestałem walczyć. Prawie natychmiast usnąłem."<br /><br />"Człowiek może ogarnąć tak niewiele rzeczy naraz; widzimy tylko to, co dzieje się przed nami, tu i teraz; unaocznienie sobie równoczesnej mnogości procesów, jakkolwiek związanych ze sobą, jakkolwiek się nawet uzupełniających, przekracza jego możliwości. Doświadczamy tego nawet wobec zjawisk względnie prostych. Los jednego człowieka może znaczyć wiele, los kilkuset trudno jest objąć, ale dzieje tysiąca, miliona nie znaczą w gruncie rzeczy nic..."<br /><br />Solaris<br /><br /><br /><br /><br /><br />"Ludzie nie pragną nieśmiertelności - podjąłem po chwili. - Nie chcą tylko, po prostu, umierać. Chcą żyć, profesorze Decantor. Chcą czuć ziemię pod nogami, widzieć chmury nad głową, kochać innych ludzi, być z nimi i myśleć o tym. Nic więcej."<br /><br />"Teologowie dychtońscy (...) nie mogli pojąć, czemu ludziom przykro myśleć o tym, że ich kiedyś nie będzie, a nie jest im tak samo przykro rozmyślając o tym, że ich przedtem nigdy nie było."<br /><br />"LEM jest to skrót nazwy LUNAR EXCURSION MODULE, czyli eksploracyjnego pojemnika księżycowego, który był budowany w USA w ramach "Projektu Apollo" (pierwszego lądowania na księżycu). LEM był wprawdzie zaopatrzony w mały móżdżek (elektronowy), urządzenie to służyło jednak wąskim celom nawigacyjnym i nie mogłoby napisać ani jednego sensownego zdania. O żadnym innym LEMie nic nie wiadomo."<br /><br />"...nie doceniłem <b>głupoty</b> panującej nam dziś mądrości. W naszej epoce - opakowań - liczy się etykieta, a nie zawartość..."<br /><br /> Dzienniki Gwiazdowe<br /><br /><br /><br /><br /><br />"Ja się tu chyba powieszę - pomyślał. Nie wpadło mu do głowy, że wobec braku ciążenia nawet takie wyjście nie jest możliwe."<br /><br />Opowieści o Pilocie Pirksie<br /><br /><br /><div><br /></div><div><br /></div><div><br /></div><div><br /></div><div>"Każdy człowiek jest tedy jakby główną wygraną na loterii, i to na takiej, na której wygrywa jeden los na ich teragigamegamulticentyliony. Dlaczego nie wyczuwamy na co dzień tej astronomicznie monstrualnej znikomości szans własnego i cudzego przyjścia na świat? Dlatego, odpowiada profesor Kouska, ponieważ nawet to, co najnieprawdopodniej zachodzi, skoro zachodzi, to zachodzi! A także, ponieważ na zwyczajnej loterii widzimy mrowie losów pustych i ten jeden, który wygrywa; natomiast na egzystencjalnej loterii losów przegrywających nie widać. "Puste losy są na loterii bytu niewidzialne!" - tłumaczy profesor Kouska. Przegrana na tej loterii to wszak tyle, co nieurodzenie, a kto się nie urodził, tego nie ma ani troszeczkę."<br /><br />Doskonała Próżnia<br /><br /><br /><br /><br /><br /><br />"Nie wszystko i nie wszędzie jest dla nas."<br /><br />"Niezwyciężony”, krążownik drugiej klasy, największa jednostka, jaką dysponowała baza w konstelacji Liry, szedł fotonowym ciągiem przez skrajny kwadrant gwiazdozbioru."<br /><br />Niezwyciężony<br /><br /><br /><br /><br /><br /><br />"Najłatwiej oczywiście zwalić wszystko na diabła i powiedzieć, że to on osobiście jest odpowiedzialny, że zło wstrzykiwane jest naszemu gatunkowi przez jakieś osobowe Belzebuby. Mnie się zdaje, że ono jednak siedzi w nas i że całkowicie go usunąć nigdy nie zdołamy."<br /><br />"Zwiastowanie i dzieworództwo? Może i było, ale powinna się w takim razie urodzić dziewczynka, skoro brakło męskiego chromosomu."<br /><br />Świat na krawędzi<br /><br /><br /><br /><br /><br />"Idiotów uszczęśliwić można byle czym, z rozumnymi jest gorzej. Rozumowi niełatwo dogodzić. Rozum bezrobotny to wprost jedna zmartwiona dziura, nicość, potrzebne mu są przeszkody. Szczęśliwy przy ich pokonywaniu, zwyciężywszy, wnet popada we frustrację, a nawet wariację. Trzeba mu więc stawiać przeszkody wciąż nowe, podług jego miary."<br /><br />"Gdy nęka cię garb i pokręcenie, a zarazem wierzysz, że jesteś taki, bo w tej postaci pragnął cię Przedwieczny i plan twego pokręcenia wypełniał mgławicę Jego zamysłów jeszcze przed stworzeniem świata, łatwo się wtedy ze swym stanem pogodzisz. Ale gdy ci powiedzą, że to jeno skutek pośliźnięcia się paru atomów, co nie powskakiwały na właściwe miejsca, cóż ci pozostaje prócz nocnego wycia?"</div><div> ( xd )</div><div><br />"Dwa są rodzaje mądrości: jedna umożliwia działanie, druga zaś od takowego powstrzymuje."<br /><br />Cyberiada<br /><br /><br /><br /><br /><br />"Marzenia zawsze zwyciężają rzeczywistość, gdy im na to pozwolić."<br /> <br />Kongres Futurologiczny<br /><br /><br /><br /><br /><br />"Cokolwiek robimy bowiem, robimy w życiu, i doświadczenie pokazuje, że matematyka również nie jest azylem doskonałym, ponieważ mieszkaniem jej jest język."<br /><br />"Mądrze skonstruowany telewizor upowszechnia intelektualną brednię, wspaniałe techniki komunikacyjne służą temu, żeby, zamiast upić się na swoim podwórku, przebrany za turystę debil mógł to samo uczynić w pobliżu bazyliki Świętego Piotra."<br /><br />Głos Pana<br /><br /><br /><br /><br /><br />"Z chrześcijańskiej miłości bliźniego wyprowadzono konieczność masowych rzezi innowierców, rozrywania końmi bogobojnych interpretatorów Ewangelii, grabienia bliźnich, uprowadzania niewolników, a mówiąc sumarycznie, nie ma tak wymyślnej zbrodni, której by nie dokonano pod auspicjami miłości oraz bojaźni Bożej."<br /><br />Wizja Lokalna<br /><br /><br /><br /><br /><br />"(...) dziś nie ma już tragedii. Nie ma nawet jej szansy. Zlikwidowaliśmy piekło namiętności, a wtedy okazało się, że za jednym zamachem i niebo przestało istnieć. Wszystko jest teraz letnie (...)"<br /><br />Powrót z Gwiazd<br /><br /><br /><br /><br /><div><div><div><div aria-expanded="false" class="partial-collapse collapse show" id="comment21553" style="box-sizing: border-box; height: auto; overflow: hidden;"><div class="collapse-content" style="box-sizing: border-box;"><p style="box-sizing: border-box; font-family: Lora, serif; margin: 0px 0px 0.5rem;"><span><span style="background-color: black; color: red; font-size: large;"><br /></span></span></p><p style="box-sizing: border-box; font-family: Lora, serif; font-size: 16px; margin: 0px 0px 0.5rem;"><br /></p></div></div></div></div></div></div></div><div class="blogger-post-footer">„Analfabetami XXI wieku nie będą ci, którzy nie umieją pisać ani czytać, lecz ci, co nie potrafią oduczyć się wierutnych kłamstw, w które nauczono ich wierzyć i nie potrafią szukać ukrytej wiedzy, którą nauczono ich odrzucać”</div>#magnetartechprojecthttp://www.blogger.com/profile/00116426320285930090noreply@blogger.com0tag:blogger.com,1999:blog-1727701247933515471.post-32288490016608674932021-06-26T23:54:00.033+02:002023-02-25T19:18:21.536+01:00Carl Sagan<p><span style="color: #0b5394;"></span></p><div class="separator" style="clear: both; text-align: center;"></div><div><br /><br /><br /><br /><br /><a href="#"><img border="0" src="https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEj0Hg5yprXmiCyvgD9UsJ_8fHLr76BwpXAnaknV9vphyphenhyphenkY3WPzl5RVQ20-5N_kcwlXmYXOOM3soV6L23fmCkiCNy_BT16PvnxkehHoCakh9v3wMXPDXLb0U5wX2WDcOTAAQUKRfm_pUjbU/w490-h640/f457276832.jpg" /></a><br /><br /><br /><br /><br /><br /><br /><br />Carl Edward Sagan (ur. <a href="https://pl.wikipedia.org/wiki/9_listopada">9 listopada</a> <a href="https://pl.wikipedia.org/wiki/1934">1934</a> w <a href="https://pl.wikipedia.org/wiki/Nowy_Jork">Nowym Jorku</a>, zm. <a href="https://pl.wikipedia.org/wiki/20_grudnia">20 grudnia</a> <a href="https://pl.wikipedia.org/wiki/1996">1996</a> w <a href="https://pl.wikipedia.org/wiki/Seattle">Seattle</a>) – <a href="https://pl.wikipedia.org/wiki/Stany_Zjednoczone">amerykański</a> <a href="https://pl.wikipedia.org/wiki/Astronom">astronom</a>, pisarz i popularyzator nauki, pionier w dziedzinie <a href="https://pl.wikipedia.org/wiki/Astrobiologia">egzobiologii</a>.<br />Jego rodzice byli Żydami, ojciec przybył do Stanów Zjednoczonych z <a href="https://pl.wikipedia.org/wiki/Kamieniec_Podolski">Kamieńca Podolskiego</a>. W wieku 25 lat uzyskał doktorat z astronomii i astrofizyki. Jedną z jego żon była <a href="https://pl.wikipedia.org/wiki/Lynn_Margulis">Lynn Margulis</a>.<br /><br />Był profesorem astronomii i nauk kosmicznych w Laboratorium Badań Planetarnych w <a href="https://pl.wikipedia.org/wiki/Cornell_University">Cornell University</a>. Był współzałożycielem <a href="https://pl.wikipedia.org/wiki/The_Planetary_Society">The Planetary Society</a> i <a href="https://pl.wikipedia.org/w/index.php?title=Committee_for_the_Scientific_Investigation_of_Claims_Of_the_Paranormal&action=edit&redlink=1">Committee for the Scientific Investigation of Claims Of the Paranormal</a>. Wspierał projekt <a href="https://pl.wikipedia.org/wiki/Search_for_Extraterrestrial_Intelligence">SETI</a> (the Search for Extraterrestrial Intelligence – poszukiwanie pozaziemskiej inteligencji). Światowy rozgłos uzyskał jako autor książek popularnonaukowych oraz współautor i prowadzący serial telewizyjny Cosmos. Na podstawie jego powieści Contact w 1997 powstał <a href="https://pl.wikipedia.org/wiki/Kontakt_(film_1997)">film o tym samym tytule</a> z <a href="https://pl.wikipedia.org/wiki/Jodie_Foster">Jodie Foster</a> w roli głównej. Również jeden z odcinków <a href="https://pl.wikipedia.org/wiki/Z_Archiwum_X">Z Archiwum X</a> (sezon 2, odcinek 1) bazuje na podobnych motywach. Także lądownik Mars Pathfinder (1997) został nazwany jego imieniem: „Carl Sagan Memorial Station”.<br /><br />W 1977 otrzymał <a href="https://pl.wikipedia.org/wiki/Nagroda_Pulitzera">Nagrodę Pulitzera</a> za książkę Rajskie smoki. Jego imieniem została nazwana planetoida <a href="https://pl.wikipedia.org/wiki/(2709)_Sagan">(2709) Sagan</a> oraz <a href="https://pl.wikipedia.org/wiki/Sagan_(krater_marsja%C5%84ski)">krater marsjański</a>. W 1980 został laureatem <a href="https://pl.wikipedia.org/wiki/Lowell_Thomas">Nagrody Lowella Thomasa</a>. Laureat <a href="https://pl.wikipedia.org/wiki/Medal_Oersteda">Medalu Oersteda</a> za nauczanie fizyki (1990).<br />Książki wydane w Polsce:</div><div><br /></div><div>Kosmiczne związki, </div><div>Spojrzenie na Ziemię z kosmicznej perspektywy,</div><div><a href="https://pl.wikipedia.org/wiki/Kosmos_(ksi%C4%85%C5%BCka_Carla_Sagana)">Kosmos</a>,</div><div>Rajskie smoki,</div><div>Szepty Ziemi, </div><div>Międzygwiezdna wiadomość Voyagerów,</div><div>Cienie zapomnianych przodków,</div><div>Błękitna kropka,</div><div>Człowiek i jego przyszłość w kosmosie </div><div>S<a href="https://pl.wikipedia.org/wiki/%C5%9Awiat_nawiedzany_przez_demony">wiat nawiedzany przez demony,</a></div><div><a href="https://pl.wikipedia.org/wiki/%C5%9Awiat_nawiedzany_przez_demony">Nauka jako światło w mroku</a>,</div><div>Miliardy, miliardy- rozmyślania o życiu i śmierci u schyłku tysiąclecia,</div><div>Umysł Broca, </div><div>Refleksje o nauce.</div><div><br /></div><div>Cytaty:</div><div><br />Spójrz ponownie na tę kropkę. To Nasz dom. To my. Na niej wszyscy, których kochasz, których znasz.<span style="font-family: inherit;"><span style="font-family: inherit;"> O których kiedykolwiek słyszałeś. Każdy człowiek, który kiedykolwiek istniał, przeżył tam swoje życie. To suma naszych radości i smutków. To tysiące pewnych swego religii, ideologii i doktryn ekonomicznych. To każdy myśliwy i zbieracz. Każdy bohater i tchórz. Każdy twórca i niszczyciel cywilizacji. Każdy król i chłop. Każda zakochana para. Każda matka, ojciec i każde pełne nadziei dziecko. Każdy wynalazca i odkrywca. Każdy moralista. Każdy skorumpowany polityk. Każdy wielki przywódca i wielka gwiazda. Każdy święty i każdy grzesznik w historii naszego gatunku, żył tam. Na drobinie kurzu zawieszonej w promieniach Słońca. Pomyśl o rzekach krwi przelewanych przez tych wszystkich imperatorów, którzy w chwale i zwycięstwie mogli stać się chwilowymi władcami fragmentu tej kropki. Naszym pozom. Naszemu urojonemu poczuciu własnej ważności, naszej iluzji posiadania jakiejś uprzywilejowanej pozycji we wszechświecie, rzuca wyzwanie ta oto kropka bladego światła...</span></span></div><span style="font-family: inherit;"><br />Zdajemy się żądać dla siebie uprzywilejowanej pozycji nie z racji naszych dokonań, lecz z racji naszego istnienia, z racji bodaj samego faktu, że jesteśmy ludźmi i urodziliśmy się na Ziemi. Można by to określić mianem antropologicznej pychy.<br /><br />Szczególnie w obecnych czasach, gdy ludzkość trapi tak wiele trudnych i złożonych problemów, istnieje olbrzymia potrzeba rozwijania swobodnego i nieskrępowanego myślenia.<br /><br />Naszą planetą rządzą wariaci. Nie mogą być normalni, pomyśl tylko, co każdy z nich musi przejść, żeby się wdrapać tak wysoko. Muszą mieć wąskie horyzonty, żeby tak ostro iść w kierunku, w którym widzą tylko swój stołek. A poza tym, jakże krótko rządzą. Po parę lat, w najlepszym wypadku dekadę. Są więc nerwowi i dbają tylko o to, co im pozwoli utrzymać władzę na ten krótki czas.<br /><br />Ewolucję gatunku ludzkiego można określić jako narastającą zgodność między obrazami w naszym mózgu a rzeczywistością zewnętrznego świata.<br /><br />Jedna z najsmutniejszych lekcji płynących z historii ludzkości brzmi: jeśli oszukiwano nas przez wystarczająco długi czas, to mamy tendencję do odrzucania jakichkolwiek dowodów na występowanie tego oszustwa. Nie jesteśmy zainteresowani odnalezieniem prawdy. Oszustwo nas pochłonęło. Po prostu zbyt bolesne byłoby przyznanie się, nawet przed samym sobą, że zostaliśmy oszukani. Gdy raz oddasz szarlatanowi władzę nad sobą, niemal nigdy nie możesz jej odzyskać. Tak więc stare oszustwa nadal trwają, a tymczasem pojawiają się nowe.<br /><br />Gdzie niewiedza jest rozkoszą, szaleństwem jest być mądrym.<br /><br />Nie macie prawie żadnej teorii organizacji społecznej, fatalnie zacofaną ekonomię, żadnego pojęcia o zasadach historycznego przewidywania, a do tego słabą wiedzę o was samych. Biorąc pod uwagę wielką zmienność waszego świata, dziwię się, że jeszcze nie rozwaliliście go na kawałki. To dlatego nie chcemy was jeszcze spisać na straty. Wy, ludzie, macie szczególny talent przystosowywania się, przynajmniej na krótki dystans.<br /><br />Kiedy już urodzą się poza Ziemią pierwsze dzieci, kiedy już założymy bazy i farmy na planetoidach, kometach, księżycach oraz planetach, kiedy będziemy korzystali z miejscowych zasobów i wychowywali nowe pokolenia na innych światach — wtedy dokona się trwała zmiana w historii ludzkości. Jednak opanowywanie innych światów nie oznacza wyrzeczenia się naszego, podobnie jak powstanie na drodze ewolucji płazów nie stanowiło końca ryb.<br /><br />Lepsza jest okrutna prawda niż miłe złudzenie. W ostatecznym rozrachunku często okazuje się, że fakty są korzystniejsze niż fantazje.<br /><br />Trzeba nam czegoś więcej niż rocznicowy sentymentalizm, niedzielna pobożność i patriotyzm. Tam, gdzie to konieczne, musimy rzucić wyzwanie konwencjonalnej mądrości. Pora nauczyć się czegoś od tych, którzy tu polegli. Naszym wyzwaniem jest pogodzić się, nie po masakrze i masowym mordzie, lecz zamiast. Czas, byśmy padli sobie w ramiona. Czas działać.<br /><br />W czasie wojny, gdy człowiek staje przeciwko człowiekowi, dehumanizacja przeciwnika jest rzeczą normalną dla obu stron. Znikają wtedy naturalne zahamowania, które wstrzymują istotę ludzką od rzezi na przedstawicielach swojego gatunku.<br /><br />Przemysł wielorybniczy polega na barbarzyńskim handlu zwłokami i płynami ustrojowymi wielorybów. Tłuszcz służy do wyrobu szminek, smarów przemysłowych i innych produktów nawet obecnie, gdy nie mają one już znaczenia gospodarczego i można bez trudu zastąpić je materiałami syntetycznymi.<br /><br />W miarę postępu cywilizacji nasze problemy stają się tak złożone, że nie dbamy już o relacje międzyludzkie.<br /><br />My, którzy przeżywamy dramat ludzkiego życia na Ziemi, nie wiemy, jaka miara smutku lub nadziei jest właściwa dla naszej egzystencji. Nie wiemy, czy przeżywamy tragedię, komedię czy wielką przygodę.<br /><br /><br /><br /><br /><br /><br /></span><br /><div class="blogger-post-footer">„Analfabetami XXI wieku nie będą ci, którzy nie umieją pisać ani czytać, lecz ci, co nie potrafią oduczyć się wierutnych kłamstw, w które nauczono ich wierzyć i nie potrafią szukać ukrytej wiedzy, którą nauczono ich odrzucać”</div>#magnetartechprojecthttp://www.blogger.com/profile/00116426320285930090noreply@blogger.com0