Translator

Popularne posty

Odwiedzający

Polecany post

MagnetarTechProject - astronautyka drogą bez odwrotu

Już od siódmego roku życia dzięki dziecięcej pasji rozbudzonej dziwnymi dla mnie wtedy powtarzającymi się snami, pełnymi futurystycznych wiz...

Obserwatorzy

O mnie

Moje zdjęcie
Niezależnie od narzuconych przez system schematów myślenia, w czasach masowego zwiedzenia a raczej informacyjnej wojny, w oparciu o logikę i filozofię, drogą wiodącą pomiędzy nauką, przypominającą miejscami fantazję bądź religię a teoriami spiskowymi będącymi formą obrony społecznej przeciw manipulacjom systemu, jako osoba od urodzenia nie asymilująca się ze skrzywionym humanistycznie społeczeństwem, postaram się oddzielić informacyjne ziarno od plew dla nowej cywilizacji, prawa, nauki i technologii. Kłamstwo zawsze jest skomplikowane, a prawda jest tak prosta, jak Wszechświat, który wiecznie i niezmiennie posiada jedno źródło i prawo.

23 kwietnia, 2022

Ciemna materia i energia nie istnieje.






Każdy zawodowy astronauta powinien mieć jakieś pojęcie elektryczne, wiedzieć co to jest plazma i dlaczego Wszechświat jest przede wszystkim ELEKTRYCZNY. Astrofizyk nie studiujący zjawisk elektrycznych , nie ma bladego pojęcia co dzieje się w przestrzeni kosmicznej. Wskazane byłoby także chociaż jakieś minimalne przeszkolenie potencjalnego astronauty w tym kierunku. Dawniej każdy kapłan biorący udział w obsłudze  biblijnej "Arki Przymierza" musiał mieć pojęcie o elektryczności. Inaczej praca w pobliżu i w kontakcie z urządzeniem elektrycznym mogłaby go zabić tak jak to się działo z osobami postronnymi zapewne wtedy i w obecnych czasach. Przykładowo jak z pakistańskimi amatorami pozującymi do zdjęć na dachu wagonu kolejowego. 

Przestrzeń kosmiczną należy rozumieć jako niezły kawał przewodnika elektrycznego tyle że o najwyższej oporności ze wszystkich dostępnych substancji. Wszystkie substancje są w pewnej mierze przewodnikami jak też izolatorami. Za przenoszenie energii odpowiadają fotony. Bez wyjątku o jakim rodzaju energii czy oddziaływania mówimy. Materia zbudowana jest z fotonów przechwyconych na atomowych orbitalach. Nie istnieją elektrony. Za elektrony wzięto mylnie orbitale atomowe które są wirami elektromagnetycznymi pełnymi fotonów. Tak jak z resztą wszystkie inne pola elektromagnetyczne. W tym kontekście przestrzeń która potrzebuje transmitera energii świetlnej, cieplnej jak i pozostałych, jest przewodnikiem wypełnionym fotonami o niesamowicie ogromnym potencjale elektrycznym ponieważ przekrój przewodnika jest nam nie znany. I mimo że fotony są określone jako bez-masowe oraz nie– elektryczne to nie jest tak do końca. Sprawdźmy przewodność elektryczną tak zwanej próżni -8,84·10−12 F/m. Jeśli tak zwana próżnia ma swoją przenikalność elektryczną to jednak nie jest to próżnia. Gdyby przestrzeń kosmiczna była próżnią bez jakiejkolwiek cząsteczki NIE POWINNA W OGÓLE PRZEWODZIĆ GRAMA ENERGII!! Jeśli przestrzeń kosmiczna ulega przebiciu elektrycznemu to znaczy że jest tam materiał który temu przebiciu ulega.
Nie mówię tu o odwracaniu uwagi jak kota ogonem jaki stosują lemingi nauki mówiąc że w przestrzeni nie ma próżni bo mamy przecież cząsteczki typu gazy, pyły, itp które spotyka się raz na centymetr czy metr. To nie o tym mówimy. To nie spowoduje przeniesienia ładunku "elektrycznego". Mówię o obecności fotonów obrazowo mówiąc umieszczonych jeden przy drugim, będących w stanie bardzo niskiego potencjału. Można też równie dobrze powiedzieć że gdy fotony czyli eter nie jest w ruchu wtedy przestrzeń jest monolitem wypełnionym jednorodną substancją. Można uformować twierdzenie że "ładunek elektryczny to jest zdolność do przenoszenia poprzez fotony, energii elektrycznej z punktu o większej ich ilości do punktu o ilości mniejszej".
W pozornie pustej monolitycznej przestrzeni jako pierwszym stanie skupienia, fotonowa przestrzeń którą pod względem strukturalnym możemy opisać jako jeden nieruchomy foton w stanie niskiej energii mamy jeszcze takie zjawisko jak plazma.  
Plazma to drugi  stan skupienia występujący we Wszechświecie w wielokrotnie większej ilości niż następujące po nim gazy, ciecze czy występujący w najmniejszej ilości 5-ty stan stały. Oczywiście odwraca to teorię Big Bangu do góry nogami, według której do dziś plazmy pozostało najmniej ze wszystkich stanów skupienia.
 Zgodnie z obecną fizyką "kiedy jeden lub więcej zewnętrznych walencyjnych elektronów (chmur fotonowych = orbitali - przypis mój) zostanie oddzielonych od atomu, mówimy, że atom jest zjonizowany. Wykazuje wówczas dodatni ładunek elektryczny, i jest zwany jonem dodatnim.
Z drugiej strony, jeśli dodatkowy elektron (chmura fotonowa) jest dodany do obojętnego elektrycznie atomu, zyskuje on ładunek ujemny, i jest nazywany jonem ujemnym."
Siły elektryczne pomiędzy jonami o różnym potencjale są rzędy wielkości większe, niż siły mechaniczne, np wytwarzane grawitacją (jest to tylko stały słaby wielkopowierzchniowy prąd protofotonowy). Elektryczna plazma jest chmurą "jonów" i "elektronów" (wszystko zbudowane z fotonów), które, na skutek wzbudzenia pod wpływem pól elektromagnetycznych, mogą zaświecić i zachowywać się w niezwykły sposób.
Najbardziej znanymi przykładami elektrycznej plazmy są lampy neonowe, błyskawice czy spawarka. Ziemska jonosfera jest przykładem plazmy, która nie emituje widzialnego światła. Plazma wypełnia przestrzeń naszego Układu Słonecznego. Chmura cząstek tworzących wiatr słoneczny jest plazmą. Cała nasza Droga Mleczna składa się głównie z plazmy.  W rzeczywistości, 99% widzialnego materialnego Wszechświata jest plazmą a astro
nauci jakby tego wszystkiego było mało, twierdzą że przestrzeń kosmiczna śmierdzi SPALONYM METALEM! Więc przestrzeń kosmiczna jest typowo elektrycznym zjawiskiem W CAŁOŚCI , z małymi wyjątkami na powierzchni żywych biologicznie planet i może gdzieś tam większych księżyców.









Na zdjęciu Kristian Birkeland w swoim laboratorium.






Pod koniec XIX wieku,  Norweg, fizyk, Kristian Birkeland wyjaśnił, że powodem dla którego widzimy zorze polarne, jest ich plazmowa natura. Odkrył również zwinięte, korkociągowe ścieżki prądu elektrycznego w plazmie. Czasami są one widoczne, czasem nie - zależy to od gęstości prądu w plazmie. Dzisiaj, te strugi jonów i elektronów nazywane są prądami Birkelanda. Tajemnicze Ognie Świętego Elma, elfy, dżety i niebieskie fontanny, związane z burzami elektrycznymi na Ziemi, są przykładami takich właśnie prądów biorących początek w plazmie górnej atmosfery.
Na początku XX wieku, laureat nagrody Nobla, Irwing Langmuir, studiował elektryczną plazmę w swoim laboratorium w General Electric. Rozwinął on wiedzę na temat inicjowania prądów Birkelanda. W istocie to on pierwszy użył słowa plazma na określenie
 samoorganizującego się zjonizowanego gazu, w obecności prądów elektrycznych i pól magnetycznych.
Istnieją trzy różne stany funkcjonowania plazmy:

1 Tryb ciemnego prądu - natężenie prądu elektrycznego (prędkość przepływu zróżnicowanych ilościowo fotonów na orbitalach jonów) wewnątrz plazmy jest niewielkie. Plazma nie świeci. Jest całkowicie niewidoczna. Nie wiemy o jej istnieniu, dopóki nie zmierzymy aktywności elektrycznej czułymi instrumentami. Obecnie przykładami plazmy operującej w ciemnym trybie są włókna plazmowe łączące magnetosfery galaktyk, gwiazd, planet a także ich magnetosfery.

2 Tryb żarzenia - natężenie prądu elektrycznego jest znaczne. Plazma się jarzy. Jasność jarzenia zależy od jeszcze większej ilości i prędkości jonów wchodzących w skład prądu. Przykłady: lampa neonowa, mgławica emisyjna, powierzchnia Słońca i innych gwiazd.

3 Tryb łuku - natężenie i prędkość strumienia prądu jest już bardzo wysokie. Plazma silnie promieniuje w całym widmie. Prąd ma tendencje do tworzenia skręconych włókien. Przykładami takiego trybu są spawarka, błyskawica, wyładowania pomiędzy blisko położonymi ciałami niebieskimi jak pulsary, fotosfery gwiazd i słoneczna.

(4. Tryb protoplazmy lub pierwszy stan skupienia- przestrzenny- 
prąd praktycznie nie płynie, plazma w stanie ruchu bliskim zerowego (fotony przed uzyskaniem ruchu- energii lub po utracie energii) wypełnia cały Wszechświat POD CIŚNIENIEM - przyp. mój)

We wszystkich tych trybach plazma emituje mierzalne promieniowanie elektromagnetyczne (szum radiowy). Przez cały czas gęstość prądu (ampery na metr kwadratowy) determinuje stan, w jakim znajduje się plazma. Atomowa struktura jonizowanego gazu również ma na to wpływ.
Jedną z najbardziej istotnych właściwości plazmy jest jej zdolność do samo organizacji - czyli elektrycznego izolowania się jednych jej części od pozostałych.
Osobiście uważam że plazma jest wręcz świadoma, tak samo jak cała przestrzeń jest monolitem świadomości. Warstwa izolacyjna nazywana jest warstwą podwójną (DL). Gdy studiuje się plazmę w laboratorium, jest ona z reguły zamknięta w cylindrycznej szklanej tubie. Na obu końcach tuby znajdują się elektrody. Jedna elektroda (zwana anodą) posiada większy woltaż niż druga (katoda). Przy takim ustawieniu następuje jonizacja i zaczyna płynąć prąd. Jony dodatnie (atomy pozbawione części "elektronów"[fotonów]) oddalają się od anody, a jony ujemne (atomy z dodatkowymi "elektronami"[fotonami]) będą się do niej przybliżać. Matematyczna suma tych dwóch przeciwnie skierowanych przepływów jest całkowitym prądem płynącym w plazmie.
Jeżeli różnica potencjałów pomiędzy elektrodami jest wystarczająco duża, gdzieś pomiędzy nimi uformuje się warstwa podwójna. Skupi się na niej niemal cały spadek napięcia, przyłożony pomiędzy elektrody. Plazma po stronie anody będzie miała w przybliżeniu taki sam woltaż, jak anoda, zaś plazma po drugiej stronie - jak katoda. Obie części plazmy będą od siebie odizolowane przez DL. Cząstki po jednej stronie DL nie odczuwają pola elektrycznego, ze względu na równoważący ładunek po drugiej. Niemniej całkowity prąd elektryczny, jest wszędzie taki sam (po obu stronach DL). Plazma jest doskonałym przewodnikiem, a co za tym idzie, nie ma na niej znaczącego spadku napięcia podczas przewodzenia prądu - stąd potrzeba warstwy podwójnej, która bierze na siebie większość spadku napięcia. Innymi słowy, DL znajduje się tam, gdzie jest w plazmie najsilniejsze pole elektryczne.
Jeśli włoży się do plazmy ciało obce, utworzy się wokół niego warstwa podwójna, izolująca go od reszty plazmy. Efekt ten stwarza problemy z wykrywaniem napięcia w plazmie przez sondy, w celu zmierzenia potencjału w danym miejscu. Jest to dobrze znana właściwość plazmy. W laboratorium rozwinięto wiele metod, aby to ominąć.
W kosmosie niemożliwym jest wysłać próbnik, aby zmierzyć woltaż słonecznej plazmy w jakimś miejscu. Woltaż jest wielkością względną (jak prędkość), musi być mierzony względem czegoś. Próbnik zacząłby podróż, mając woltaż równy powierzchni Ziemi. W miarę przedzierania się przez plazmę słoneczną, będzie zmieniał potencjał i przejmował woltaż danego miejsca aczkolwiek w kosmosie można zmierzyć natężenie pola elektrycznego.
Prąd elektryczny, przechodzący przez plazmę, przyjmuje skręconą formę, odkrytą przez Birkelanda. Prądy Birkelanda najczęściej pojawiają się w parach. Pary te mają tendencję do ściskania pomiędzy sobą dowolnego materiału za pomocą silnego pola elektromagnetycznego (szybki masowy ruch eteru (mas fotonowych) w plazmie. Nazywa się to skurczem "Z". W ten sposób w kosmicznej skali włóknach prądowych powstały galaktyki spiralne. Patrz symetryczny dimorficzny tależowy układ tych galaktyk. 
Zdolność prądu Birkelanda do gromadzenia i kompresowania nawet nie zjonizowanego materiału nazywa się konwekcją Marklunda.
Przez lata zakładano, że plazma jest doskonałym przewodnikiem, do tego stopnia, że każde pole magnetyczne w niej powstałe będzie w nią "wmrożone".
Techniczne wyjaśnienie jest następujące: jedno z równań Maxwella wskazuje, że pole elektryczne w regionie jest zerowe, to pole magnetyczne musi być tam niezmienne względem czasu - stałe. Jeśli więc każda plazma jest doskonałym przewodnikiem (czyli nie może posiadać pola elektrycznego - a więc różnicy potencjałów), wówczas każde pole magnetyczne wewnątrz niej musi być zamrożone - czyli nie może się w żaden sposób zmieniać.
Obecnie wiemy, że między różnymi punktami w plazmie mogą być niewielkie różnice potencjału. Inżynier plazmowy Hannes Alfvén wskazał na ten fakt podczas swojego przemówienia po otrzymaniu nagrody Nobla z fizyki w 1970. Przewodność elektryczna każdego materiału, z plazmą włącznie, zdeterminowana jest przez dwa czynniki: gęstość dostępnych nośników (jonów) w materiale, oraz ich ruchliwość. W plazmie, ruchliwość nośników jest ogromna. Jony i "elektrony" mogą się poruszać w przestrzeni kosmicznej bardzo swobodnie. Ale ich koncentracja (ilość na jednostkę objętości) może w ogóle nie być duża, jeśli plazma jest pod niskim ciśnieniem. Tak więc, chociaż plazma jest bardzo dobrym przewodnikiem, mogą w niej występować słabe pola elektryczne. 
Plazma nie jest doskonałym przewodnikiem, jest odpowiednikiem kabli przesyłających prąd. Jest to dobrze znane zjawisko, że jeśli jakiś przewodnik przecina pole magnetyczne, zaczyna w nim płynąć prąd. Na tej zasadzie działają prądnice i alternatory. A zatem, jeżeli dojdzie do względnego ruchu plazmy, powiedzmy w ramieniu galaktyki, i pola magnetycznego w tym samym miejscu, w plazmie popłynie prąd Birkelanda. Prąd ten wytworzy z kolei własne pole magnetyczne.
Zjawiska plazmowe są skalowalne. Oznacza to, że elektryczne i fizyczne właściwości plazmy pozostają takie same, niezależnie od jej rozmiaru. Oczywiście, zjawiska dynamiczne zachodzą znacznie szybciej w małym laboratorium niż w galaktyce. Są one jednak identyczne, gdyż wynikają z tych samych praw fizyki. Mamy więc odpowiedni sposób do symulowania kosmicznej plazmy w laboratorium i generowania efektów dokładnie takich, jak w przestrzeni kosmicznej. W rzeczywistości, prądy elektryczne w plazmie powodują większość zjawisk obserwowanych astronomicznie, które nie są możliwe do wyjaśnienia tylko przy pomocy grawitacji oraz magnetyzmu.
Dlaczego astrofizycy ignorują zjawiska elektryczne?
Skoro położono tak mocny fundament pod pracę nad elektrycznymi własnościami Wszechświata, dlaczego główny nurt astrofizyki wciąż ignoruje to pole badań, zamiast tego łatając swoje upadające, grawitocentryczne modele coraz większą ilością teoretycznych fikcji? Dlaczego konwencjonalni astronomowie i kosmologowie systematycznie wyłączają pola elektryczne oraz prądy nie tylko ze swoich rozważań, ale i ze swoich programów? Dlaczego świadomie ignorują fakt, że wiele niewyjaśnionych zjawisk da się łatwo wyjaśnić poprzez rozpoznanie istnienia pól i prądów elektrycznych w plazmie słonecznej i galaktycznej?
Odpowiedź brzmi: magnetyzm był znany od średniowiecza. Nawet już wcześniej wiedziano, że kawałek żelaza może oddziaływać z innym na odległość, choć nie wyjaśniono mechanizmu pola elektromagnetycznego do dzisiaj.
Ale wcześni astronomowie (jak ich współcześni kuzyni) nie byli uprzedzeni o istnieniu zjawisk elektrycznych. Johannes Kepler (1571-1630) wyjaśnił już matematycznie kształt orbit planet, gdy Izaak Newton opublikował swój traktat o grawitacji w 1687. Gdy to nastąpiło, nic więcej nie było potrzebne do wyjaśnienia i przewidywania ruchów planet. 
Wszystko było rozwiązane. Aż do dzisiaj...
Było to oczywiście na długo przed Benjaminem Franklinem (1706-1790) i jego puszczaniem latawca w czasie burzy, oraz zanim James Clerk Maxwell (1831-1879) wyprowadził swoje równania, łączące pola magnetyczne z elektrycznymi, ale pola elektryczne są trudne do zmierzenia a astronomowie nie wiedzieli, że będą one im potrzebne. Zatem nigdy ich nie włączali do zaakceptowanego modelu grawitacyjnego, w jakim od zawsze działa Układ Słoneczny czy cały kosmos.
Oto dlaczego do dzisiaj, większość astrofizyków nigdy nie zaliczyło kursu elektrodynamiki czy dynamiki i wyładowań plazmy. Próbują opisać dynamikę plazmy przy pomocy równań stosowanych tylko do dynamiki płynów i efektów magnetycznych. To jest to, co Alfvén nazwał magneto-hydrodynamiką. Nie zdają sobie sprawy, że magneto oznacza również elektro. ZAWSZE. A to z kolei wyjaśnia, dlaczego ślepi astronomowie mówią o wietrze słonecznym, skręconym warkoczu czy falach uderzeniowych, zamiast o prądzie elektrycznym w plazmie, polach elektrycznych, skurczach plazmy typu "Z" i warstwach podwójnych. Wyjaśnia to również, dlaczego twierdzą oni, że linie pola magnetycznego nie mogą się gromadzić, łączyć i rekombinować.
 
Wszechświat jest elektryczny ale i świadomy jednocześnie a więc na początku kiedy istniała ciemna i pusta przestrzeń, była już obecna INFORMACJA jak ma wyglądać materia. Na początku był to -można wprost powiedzieć- pusty choć nie próżniowy Wszechświat bez plazmowych sieci galaktyk, gwiazd, ich planet i życia biofizycznego. Od strony fizycznej był na początku wolną od materii przestrzenią pełną wyłącznie fotonów. Dokładniej protofotonów- eteru w stanie bezruchu o niskiej energii.  Pełny substancji w której łatwo przenosił się ruch w postaci drgań elektromagnetycznych. Materia powstała później. Nie odwrotnie! Potem ...COŚ zmieniło ciśnienie w różnych punktach przestrzeni wywołując wysokie róznice napięcia aż do pierwszego wyładowania. Coś świadomego wprowadziło wibracje a raczej wibrację, starter który możemy określić jako biblijne SŁOWO – informacja która była „na początku". Od tego pierwszego boskiego grzmotu proces lawinowo zaczął się powtarzać dla innych części przestrzeni. Powstała sieć elektryczna w której plazmowych włóknach przypominających pioruny lecz bez dżwięku, w ciszy narodziły się nasze galaktyczne "domy". Cały Wszechświat od wtedy tworzy się i zmienia płynnie swoje parametry elektryczne w przestrzeni pomiędzy gromadami galaktyk i wewnątrz galaktyk co rzutuje na zmienność zachowań gwiazd, w tym także cykli słonecznych tej jedynej gwiazdy którą znamy świecącej tuż obok nas. Nawet planety podlegają tym prądom bezpośrednio. Pola magnetyczne indukują się z zewnątrz do wewnątrz w zależności od rezystancji przewodnika. W tym świetle terraforming Marsa polegałby nie na detonacji bomby tylko zrzuceniu asteroid lodowych z Pasa Planetoid na powierzchnię aby zwiększyć przewodnictwo planety. jednocześnie otrzymujemy tym sposobem poprawę w kwestii hydro, atmo i magnetosfery. Zawsze najpierw lepiej jest poukładać informacje, potem działać. Naukowcy są po prostu niedouczeni i w zrozumiały sposób zamistyfikowani obowiązującą do dziś, przestarzałą wobec nowych faktów, dziedziną nauki inżynieryjnej. Jeśli więc Wszechświat samoistnie tworzy się elektrycznie to z pewnością inne cywilizacje zamiast z przeciwległego krańca Wszechświata transportować minerały o bardzo dużej zawartości pierwiastków z wysoką liczbą atomową, mogą produkować je na miejscu za pomocą urządzeń o wysokich parametrach elektrycznych.


„Jeśli chcesz zrozumieć Wszechświat, zacznij myśleć w kategoriach energii, częstotliwości i wibracji.”
N. Tesla










Kwazary dziećmi galaktyk.

 











Kwazary i galaktyki spiralne niewiele się różnią w zakresie struktury.
Kwazar to jeden z najbardziej niezwykłych obiektów w kosmosie. Choć na pierwszy rzut oka, kwazar może się wydawać gwiazdą o wielkiej jasności, to jednak błędne założenie. Jak bardzo się różni od gwiazd? 
Nieznanej natury ciała niebieskie przypominające gwiazdy wzbudzały zainteresowanie astronomów już w XIX wieku. Wtedy nikt jednak nie przypuszczał, że obiekty te są czymś innym niż gwiazdami. Prowadzone w latach 1917-1922, przez Hebera Curtisa i Ernsta Öpika, obserwacje dowiodły, że są niewielkimi galaktykami. Pierwotne wyobrażenia miały jednak wpływ na ich nazwanie. Określono je mianem quasi-stellar radio source lub quasi-stellar object (w skrócie quasar), czyli gwiazdopodobnymi obiektami emitującymi fale radiowe — kwazarami.
Prowadzone w latach 50. i 60. badania naprowadziły astronomów na trop co do natury kwazarów. Pierwszym opisanym kwazarem był 3C 273 znajdujący się w gwiazdozbiorze Panny. Oddalony jest o 2,44 mld lat świetlnych od Ziemi. Wyznaczenie dokładnych współrzędnych, pozwoliło otrzymać widmo tego promieniowania, które było ekstremalnie przesunięte ku czerwieni. Według oficjalnej nauki  świadczy to o niezwykle dużym oddaleniu tego obiektu od naszej galaktyki. Oczywiście to bzdura ponieważ widmo przesunięte ku czerwieni połączone z wielką jasnością obiektu odpowiada za siłę wysyłanego promieniowania docierającą do nas mimo tłumiącego działania cząsteczkowo falowej bezpróżniowej przestrzeni kosmicznej w zakresie wyższych częstotliwości. Im wyższa częstotliwość tym bardziej tłumi ją eteryczna przestrzeń. Stąd jeśli obiekt ma bardzo silną moc emitowaną, tym silniejsze promieniowanie elektromagnetyczne, w tym podczerwone światło, do nas dociera. Taka prosta rzecz.
Holenderski astronom Maarten Schmidt uznał, że widmo kwazara 3C 273 jest aktywnym jądrem galaktyki, świecącym 100 razy jaśniej, niż wszystkie gwiazdy Drogi Mlecznej razem wzięte. Hipoteza naukowca była kwestionowana, ponieważ nie potrafiono wówczas wyjaśnić, jak nieduży w kosmicznej skali obiekt może wytwarzać tak znaczne ilości promieniowania. Zgodnie z ówczesnym stanem wiedzy, jego aktywność radiowa i jasność sugerowały też, że musiał być blisko Ziemi, a nie bardzo daleko, jak postulował Schmidt. Dopiero późniejsze badania pozwoliły poprawić hipotezę i wyjaśnić czym są kwazary. Jednak dopiero dzisiaj patrząc na Wszechświat jak na elektryczne zjawisko, możemy zrozumieć jego istotę w 100 % ach.
Odkrycia zakończyły dyskusję na temat tego, czy kwazar to gwiazda. Okazało się, że jest rodzajem galaktyki aktywnej. Tego typu ciała kosmiczne mogą być wielkości np. Układu Słonecznego. W sercu kwazara znajduje się czarna dziura, czyli wir elektromagnetyczny wyzwalany najsilniejszym polem elektromagnetycznym jakie posiadają właśnie kwazary. Wir w którym materia rozgrzewana jest do większych temperatur niż w standardowych wielkoobszarowych galaktykach i wytwarza promieniowanie w każdym zakresie – optycznym, radiowym, rentgenowskim i gamma. Najaktywniejsze kwazary wyrzucają nadmiarowe strumienie materii w postaci dżetów. Same kwazary powstają przez wyrzucenie ich co jakiś czas z centrum wielkich spiralnych galaktyk gdy nagromadzi się w okolicy wirów czarnych dziur bardzo dużo materii, ale nie wystąpią regularnie dżety promieniowania Hawkinga.

Jedną z cech wyróżniających kwazary jest ich silna aktywność radiowa. To właśnie emitowany przez nie punktowy sygnał radiowy był przyczyną uważania kwazarów za gwiazdy. 
Kwazary wyróżnia też jasność przewyższająca inne ciała niebieskie. Rozgrzana materia wirująca wokół czarnej dziury, przyćmiewa blask własnej galaktyki. Największe kwazary mogą świecić nawet miliony razy jaśniej od Słońca. Ekstremalne są również temperatury. Wir znajdujący się w centrum rozgrzewa swoją rotacją trafiającą do niego materię do milionowych wartości, znacznie wyższych niż temperatura gwiazd. Dla porównania powierzchnia Słońca to 5500 ℃. Nawet otaczające wiele kwazarów obłoki gazowe, zwane halo, bywają dużo gorętsze od niektórych gwiazd. Ich temperatura może osiągać dziesiątki tysięcy ℃.

Kwazary to najjaśniejsze obiekty kosmiczne znane człowiekowi. Największe z nich osiągają jasność przewyższającą Słońce o zawrotne wartości. Jakie są największe kwazary? Lider peletonu co jakiś czas się zmienia. W 2015 roku rekordowy wynik należał do SDSS J010013.02+280225.8. Kwazar ten świecił 429 bln (429 000 000 000 000) razy mocniej od Słońca. Znajduje się w odległości 13,8 mld lat świetlnych od Ziemi. 

Obecnie pierwsze miejsce zajmuje kwazar J043947.08+163415.7. Jego jasność wynosi tyle, co 600 bln Słońc. Oddalony jest o 12,8 mld lat świetlnych. Kwazary w ciemnościach Wszechświata są dosłownie jak kosmiczne latarnie! 3C 273 to pierwszy obiekt, który został zidentyfikowany jako kwazar 


Oprócz kwazarów znajdujących się na drugim końcu Wszechświata są również obiekty będące bliżej Ziemi. Niemniej, nawet bliskie kwazary są od nas oddalone o miliony lat świetlnych. Najbliżej Ziemi jest kwazar UGC 8058 (znany też jako Mrk 231 lub Markarian 231). Jego odległość od naszej planety wynosi 600 mln lat świetlnych. Położony jest w konstelacji Wielkiej Niedźwiedzicy.

Kwazar ten ma wyjątkową cechę. Zazwyczaj materia wokół czarnej dziury widoczna jest w promieniowaniu ultrafioletowym. U Markarian 231 wędruje ona gwałtownie w kierunku jądra galaktyki. Oznacza to, że centrum kwazara w pobliżu wiru czarnej dziury otacza pusta przestrzeń. Dzieje się tak dlatego, że po wewnętrznej krawędzi kwazara krąży druga czarna dziura. Okrążają się one podobno w cyklu 1,2 roku ziemskiego.

Blazary. Bogaty zbiór aktywnych jąder galaktyk obejmuje również blazary. Mianem tym określa się kwazary o ekstremalnych właściwościach. Blazar charakteryzuje się szybką zmiennością promieniowania radiowego na wszystkich częstotliwościach i skalach czasowych. Promieniowanie świetlne we wszystkich zakresach jest, w zależności od blazara, albo silnie spolaryzowane, albo znajduje się w stanie niemal całkowitego zaniku.

Choć przyczyna tego zjawiska nie została jeszcze wyjaśniona, to astronomowie przypuszczają, że problemem może być obserwowanie go w pobliżu osi relatywistycznego dżetu (strumienia). Taki strumień zdaje się pozornie zmieniać jasność wiązki światła. Oznacza to, że fale emitowane przez źródło mają zupełnie inną częstotliwość, niż ta z jaką obserwator widzi strumień.

Termin blazar pochodzi od nazwy nadanej przez niemieckiego astronoma Cuno Hoffmeistera jednemu z ciał niebieskich. W 1929 roku opublikował on katalog 354 gwiazd zmiennych, czyli takich, które zmieniają jasność w krótkich odstępach czasu. Jedna z nich, znajdująca się w gwiazdozbiorze Jaszczurki została nazwa BL Lacertae, w skrócie BL Lac. Jak wiemy, badania nad tego typu obiektami w latach 60. i 70. wykazały, że nie są to gwiazdy a kwazary. Z połączenia nazw BL Lac i quasar powstała nazwa blazar. Najbliższy z nich znajduje się 2,5 mld lat świetlnych od Ziemi.

Wszechświat to miejsce pełne niezwykłych zjawisk i obiektów, których naturę dopiero zaczynamy pojmować gdy patrzymy nań jak elektrycy czy elektronicy. Znalezienie każdej kolejnej zagadki prowadzi do pytań, czy w kosmosie istnieje coś jeszcze większego, jaśniejszego lub cięższego. Gdzie leży granica? A może powinniśmy zapytać — czy istnieje jakakolwiek granica?

Zaproponowana klasyfikacja galaktyk (sekwencja Hubble’a) została stworzona w 1926 roku przez Edwina Hubble’a. Według jednych teorii powstawały one w wyniku zapadnięcia się wielkoskalowych obłoków gazu, według innych przez połączenie się wielu gromad gwiazd. Do takich zderzeń galaktyk dochodzi cały czas. Większość galaktyk zgrupowana jest w większe struktury tzw. grupy bądź gromady galaktyk, w których występują oddziaływania elektrograwitacyjne utrzymujące je ze sobą. Droga Mleczna wraz z 50 galaktykami stanowią Grupę Lokalną o rozciągłości 10 milionów lat świetlnych. Natomiast Grupa Lokalna wraz z kilkuset innymi gromadami (łącznie około 100 tysięcy galaktyk) wchodzi w skład supergromady Laniakea.

Galaktyki eliptyczne mają symetrię kulistą lub elipsoidalną. Jasność powierzchniowa galaktyki eliptycznej jest największa w środku i zmniejsza się stopniowo na zewnątrz. W galaktykach tych nie występuje w zauważalnych ilościach pył i gaz. Cała widoczna materia jest skupiona w starych gwiazdach, które powstały zapewne w krótkim okresie w początkowych etapach formowania się galaktyki.

Galaktyki spiralne to takie, które gdy ich powstawanie nie zostaje zakłócone postronnymi zjawiskami elektrycznymi, składają się z jądra i z ramion, zazwyczaj z dwóch lub wielokrotności 2, rzadziej z jednego czy z trzech. Wszystkie ramiona leżą w jednej płaszczyźnie, którą nazywamy dyskiem galaktycznym. Jądro galaktyk spiralnych zbudowane jest ze starych gwiazd. W środku spiralnych galaktyk zawsze znajduje się czarna dziura. W ramionach dominują małe jasne gwiazdy. Nauka przypuszcza, że galaktyki spiralne utworzone zostały z obłoków materii, które wypełniały bardzo młody Wszechświat. Oczywiście jest to bzdura. 

Wg nauki galaktyki soczewkowate stanowią ogniwo pośrednie między galaktykami eliptycznymi a spiralnymi. Kolejna bzdura. Jądro takiej galaktyki jest podobne do silnie spłaszczonej galaktyki eliptycznej, natomiast wokół znajduje się dysk, ale bez żadnych śladów struktury spiralnej. Galaktyki te nie zawierają młodych gwiazd ani materii międzygwiezdnej, co jest typowe dla galaktyk eliptycznych.

Galaktyki nieregularne, o osobliwym wyglądzie, to takie które nie wykazują symetrii charakterystycznych dla galaktyk eliptycznych i spiralnych. Dzielimy je na dwa typy. Pierwszy zaliczamy obecnie do skrajnych odmian galaktyk spiralnych, gdyż mają z nimi wiele cech wspólnych: wirują wokół własnych osi, wykazują silne spłaszczenie i ślady struktury spiralnej. Odróżnia je natomiast to, że nie ma w nich jądra i ramion. Drugi typ to grupa galaktyk zupełnie nieregularnych o bezkształtnym wyglądzie, niewielkich rozmiarach i sporej jasności powierzchniowej. W galaktykach tego rodzaju znajduje się także dużo młodych gwiazd. Stanowią one od 5 do 10 % wszystkich galaktyk.

Wymienione galaktyki stanowią ogromne skupiska materii pod różną postacią. Głównymi skupiskami są gwiazdy – kuliste ciała niebieskie.
 
Narodziny gwiazdy - nauka oficjalnie nie ma żadnych informacji, pochodzących z bezpośrednich obserwacji o tym, jak wygląda pierwszy etap formowania się gwiazdy. Istnieją jednak przesłanki, by sądzić, że wszystko zaczyna się, gdy chmura gazu i pyłu kosmicznego (obłok), w której dominujący udział ma wodór, gromadzi się wokół przypadkowego zagęszczenia. Takie zagęszczenie może być wywołane strumieniem materii wyrzuconej z innej gwiazdy, która wybuchła (supernowa).
Protogwiazda - Na skutek grawitacji obłok kurczy się. W miarę kurczenia, wzrasta jego temperatura. Powstaje dysk z kulistą centralną częścią – protogwiazdą. Cała chmura gazowo‑pyłowa obraca się wokół własnej osi początkowo wolno, a w miarę kurczenia się – coraz szybciej. Proces kurczenia się obłoku i powstawania protogwiazdy może trwać kilkaset tysięcy lat. Gdy temperatura protogwiazdy osiągnie odpowiednio wysoką wartość, w jej centralnej części rozpoczyna się proces syntezy (łączenia) jąder wodoru w jądra helu. Energia wydzielana w tym procesie powstrzymuje grawitacyjne zapadanie. Gwiazda zaczyna świecić.

Jeśli mowa jednak o elektrycznych procesach ponieważ we Wszechświecie nie ma inncyh procesów niż elektryczne, gwiazdy powstają wraz ze skurczem plazmy po kilka kilkanaście sztuk wdłuż włókna plazmowego. Energia jest tak silna że powstają parametaliczne lub wręcz metaliczne odpryski jak podczas elektrycznego zwarcia czy spawania metali. Te metalowe odpryski stają się gwiazdami gdy zaczyna się na ich powierzchni indukować prąd zwarciowy z pola elektromagnetycznego galaktyki.









29 października, 2021

Elektryczne gwiazdy







Zdjęcie przedstawia fale tsunami z ciekłego kwarcu nad ferrytową powierzchnią Słońca








Do dziś koncepcja gazowego modelu Słońca nie wyjaśniła przyczyn ruchu plam słonecznych, rozbłysków słonecznych, milionów stopni Celsiusza temperatury korony słonecznej ani też przyczyny 11-letniego cyklu aktywności Słońca itp. Do tej pory model ten nie wytworzył praktycznie żadnych zdolności przewidywania i niewiele związków przyczynowo-skutkowych, aby wyjaśnić, co dzieje się na Słońcu. Model gazowy nigdy tak naprawdę nie wyjaśnił najbardziej podstawowego i ważnego zachowania Słońca, nawet po czterech wiekach wysiłku. Opierając się na niezdolności modelu gazowego do wyjaśnienia wewnętrznego działania Słońca i na podstawie współczesnych zdjęć satelitarnych z programów YOHKOH, SOHO i TRACE oraz z analizy spektralnej z programu SERTS nadszedł czas, aby środowisko naukowe i akademickie zaczęło wycofywać się z posłuszeństwa tradycyjnemu modelowi gazowemu, który po raz pierwszy zaproponował Galileusz. Jest to moment aby poważnie i sceptycznie przyjrzeć się założeniu Galileusza. Dowody zebrane w ciągu ostatnich kilku dekad z tych satelitów i programy kosmiczne sugerują elektrycznie przewodzący model Słońca jako ciała stałego, zorientowany na powierzchnię który musi się pojawić aby zająć miejsce starego modelu gazowego, zorientowanego na jądro gwiazd. Fotosfera Słońca jest często mylona z jego powierzchnią. W rzeczywistości, jest to tylko "płynopodobna" warstwa plazmy zbudowana z neonu, pod którą znajduje się właściwa powierzchnia. Widoczna warstwa składa się z włókien "penumbry", sięgających na kilka tysięcy kilometrów w głąb Słońca.


















Widoczna neonowa warstwa plazmy, którą nazywamy fotosferą, oraz cieńsza, gęściejsza warstwa zbudowana z plazmy krzemowej, całkowicie pokrywają skalistą, wapniowo-ferrytową warstwę powierzchniową Słońca. Widoczna warstwa fotosferyczna pokrywa powierzchnię Słońca, jak ziemskie oceany pokrywają większość stałej powierzchni Ziemi. Fotosfera Słońca jest tak jasna, że nie możemy zobaczyć ciemniejszych, bardziej stałych elementów powierzchni pod fotosferą bez pomocy technologii satelitarnej. Skład i wewnętrzna mechanika Słońca pod widoczną fotosferą pozostawała zagadką przez stulecia. Jest to cały stos niewyjaśnionych zjawisk, do dnia dzisiejszego zbijających z tropu teoretyków modelu gazowego, ponieważ nie rozpoznali oni warstwy przejściowej ze stopu żelaza, znajdującej się pod fotosferą. Słońce w świetle tych faktów jawi się jako samoładująca się elektroda spawarki plazmowej, gdzie pobór ładunku odbywa się poprzez reakcje elektryczne pomiędzy siecią trójwymiarowych włókien plazmowych w przestrzeni kosmicznej, oddziałującą na tkwiące wzdłuż tych włókien galaktyki spiralne. Poprzez przepływ prądu w osi tych galaktyk, tworzy się pole elektromagnetyczne zamknięte wokół przewodnika galaktyki jako symulatora płaskiego okrągłego wycinka przewodu elektrycznego. Poprzez wyjątkową intensywność pola w wyniku jego przekroju w centrum pola elektromagnetycznego tworzą się wiry zwane czarnymi dziurami które są skutkiem wirowania tego pola. Prędkość obrotowa czarnej dziury zależna jest wprost proporcjonalnie od średnicy i przewodności a więc gęstości (masy) danej galaktyki spiralnej. Ta zależność elektromagnetyczna przekłada się na siłę indukcji wobec ruchu sferycznego kawałka przewodnika naszego Słońca i reszty układu słonecznego a więc na siłę indukcji elektromagnetycznej sumy działania poszczególnych planet Układu Słonecznego. Choć jest to "zimna" wersja plazmy, napięcia są wystarczające do podtrzymania zjawiska prądów zwarciowych na powierzchni gwiazd oraz planet. Sferyczna powierzchnia ciał niebieskich wywołuje prądy wirowe jak w przypadku stojana czy wirnika w silniku. Dlatego jest on złożony z blach aby tych prądów uniknąć. Należy traktować każde ciało niebieskie jako rodzaj przewodnika. Kulistego wycinka przewodu w którym zachodzi indukcja tych prądów gdy jest on w ruchu wewnątrz jakiegokolwiek pola e.m.  Na szczęście zastępy nowych satelitów oraz heliosejsmologia zaczynają rzucać nowe światło na tą warstwową powłokę Słońca, położoną jakieś 4800 km pod fotosferą a ostatnie badania nad wiatrem słonecznym sugerują, że ma ona również swój początek w tej warstwie przejściowej, tak samo jak naładowane elektrycznie pętle koronalne. SOHO, satelita należący do NASA, oraz program satelitarny Trace, zarejestrowały tą warstwę przejściową, położoną pod fotosferą choć się tym głośno nie chwalą bo nie pasuje to przecież do popełnionych błędów w teorii  które musiałyby unieważnić wcześniejsze "odkrycia". Nauka NIGDY błędów jawnie nie koryguje co jest zrozumiałe ... każdemu trudno przyznać się do błędu. Personalnie czy zbiorowo, nie ma znaczenia. Jednak to na nauce spoczywa o wiele większa odpowiedzialność. Zamiast tego nauka nadpisuje nową konwencjonalną łatkę i gotowe. Założę się że ogłoszą to tuż przed armagedonem kiedy już nie da się dłużej utrzymać błotnej lawiny kłamstw.
Satelity i technologie XXI wieku pozwalają nam spojrzeć przez zewnętrzne warstwy plazmy chromosfery i fotosfery, aby zbadać skalną, wapienno ferrytową warstwę przejściową z niezwykła precyzją. Galileusz był ojcem i założycielem teorii gazowego Słońca. Obserwował je przez względnie prymitywny teleskop i zauważył, że plamy nie poruszają się równomiernie po powierzchni fotosfery. Zaobserwował również, że jego "powierzchnia" rotuje szybciej na równiku niż w okolicach biegunów. Ze swoich badań nad plamami oraz ich niecodziennym układem obrotów, Galileusz wywnioskował, że musi patrzeć na jakiś rodzaj atmosfery gazowej. Był to słuszny wniosek, aczkolwiek wiemy dzisiaj, że fotosfera Słońca jest formą gorącej, zjonizowanej cienkiej warstwy plazmy.









 Rozkład równoleżnikowy plam słonecznych, zależny od siły indukcji pola elektromagnetycznego Drogi Mlecznej w 11 letnim takcie zmian jej prawie stałego pola elektromagnetycznego.







 Niestety, potem Galileusz założył, że nie istnieje żadna inna stała warstwa pod widzialną fotosferą. 


Było to jak spojrzeć na świat pokryty wodą, bez możliwości dojrzenia dna, i założyć, że po prostu cały ten świat składa się z wody. Dokładnie jak z błędnym założeniem pustej przestrzeni kosmicznej. Spojrzeć w kosmos i założyć że jest pusty podczas gdy tak samo nie widzimy powietrza będąc w atmosferze ani wody gdy zanurzymy oczy w jeziorze. Galileusz nie dysponował "oczami" za miliony dolarów, oraz modułem obrazowania dopplerowskiego, pozwalającymi zajrzeć pod chaotyczną powierzchnię fotosfery. Tylko przez ostatnie 10 lat otrzymaliśmy technologie pozwalającą zweryfikować założenia Galileusza poprzez obserwacje nowoczesnymi satelitami. Programy satelitarne Yohkoh, SOHO, Trace, RHESSI, Hinode, Stereo i Geos dały nam nowe zestawy oczu, nowe sposoby patrzenia na Słońce, i nowy wgląd pod warstwy Słońca, obserwowane po raz pierwszy przez Galileusza. Teleskopy kosmiczne Hubble, Chandra i Spitzer dały nam wgląd w inne układ słoneczne, galaktyki, pozwoliły nam spojrzeć na pierwotne struktury Wszechświata, oraz ujrzeć Wszechświat w całkiem nowym widmie energetycznym.










Statystyka plam słonecznych. Tu też możemy wyróżnić około 100 letni cykl zmian pola galaktyki. 







To, co ujawniły nam o strukturze naszego Wszechświata, jest na prawdę przełomowe! Podczas gdy model gazowy posiada powszechne poparcie od ponad 50 lat, to nie zawsze tak było. W rzeczywistości już sto lat temu astronomowie wierzyli w Słońce zbudowane z żelaza, z których najgodniejszym wzmianki jest dr. Kristian Birkeland. Jak widać, gremium naukowe nie wzięło tego co zbadał pod uwagę,mimo iż prawda nie jest zależna od ilości osób ją wypowiadających a wręcz przeciwnie, sądząc po statystycznym rozkładzie poziomu inteligencji w społeczeństwie... 
Badał on zorzę polarną i interesował się oddziaływaniami elektrycznymi pomiędzy Ziemią a Słońcem. Jego wczesne badania laboratoryjne z naelektryzowaną żelazną sferą umieszczoną w komorze próżniowej ("terrella") pozostawiły po sobie zdjęcia bardzo przypominające współczesne zdjęcia rentgenowskie Słońca, zrobione przez satelity.





      

Eksperymenty wysokonapięciowe w laboratorium











 Zdjęcie Słońca. Dzięki możliwościom nowych sond badawczych na środku zdjęcia widzimy krater na wyraźnie LITEJ, a podobno przecież dotychczas rzekomo płynnej/gazowej powierzchni Słońca ... nie wiedzą teraz co z tym zrobić..









 Technika obrazowania różnicowego, używana zarówno przez NASA, jak i Lockheed Martin, po raz pierwszy ujawniła nam, że Słońce nie jest kulą wodoru z dodatkiem helu! Posiada twardą i sztywną ferrytową powierzchnię, schowaną pod fotosferą!!! O ile w każdej gwieździe zachodzi przemiana pierwiastków prostych na bardziej złożone, nie jest ona dowodem powstawania energii na drodze syntezy jądrowej. Przeciwnie. Skutkiem ubocznym jej utraty.  Dlatego też wszelkie eksperymenty fuzji jądrowej jak eksperyment chiński "Sztuczne Słońce" czy "Słońce na Ziemi" nigdy nie pozwolą otrzymać więcej energii niż zużyto. Miliony pieniędzy wywalone w błoto z powodu tylko błędnych teorii i idei. Zasilanie gwiazdy pochodzi z zewnątrz. Z pola elektromagnetycznego Galaktyki. Zdjęcia są dostępne na stronie NASA oraz Lockheed Martin, można je więc sprawdzić samodzielnie. Tak jak przypuszczał Birkeland, Słońce posiada dobrze zdefiniowaną stałą powierzchnię, która obraca się jednostajnie raz na 27,3 dnia. Dr Birkeland wyprzedził swoje czasy o co najmniej 100 lat. Ważne potwierdzenie jego teorii słonecznych oraz eksperymentów laboratoryjnych, nadeszło jakieś 40 lat później, w pracy dr Charles'a Bruce'a. Bruce udokumentował szereg zjawisk słonecznych, powiązanych bezpośrednio z wyładowaniami elektrycznymi na powierzchni Słońca. Bruce potwierdził to, co Birkeland przewidywał prawie 50 lat wcześniej, pokazując, że aktywność elektryczna jest bezpośrednio odpowiedzialna za wysoko energetyczne wyładowania na powierzchni Słońca. Elektryczna natura pętli koronalnych została potwierdzona przez Uniwersytet Maryland. Znaczący zbiór danych, będących tego potwierdzeniem, został dostarczony jakąś dekadę potem przez dr Olivera Manuela. Dr Manuel potwierdził analizą izotopową księżycowej gleby, oraz studiowaniem meteorytów, że Słońce zbudowane jest głównie z żelaza i plazmy. Niestety, jego dokonania nie zostały wizualnie potwierdzone przez następne trzy dekady. Tym niemniej okazało się, że obrazy z nowoczesnych satelitów dostarczyły bardzo mocnego poparcia obserwacyjnego dla elektrycznego modelu Słońca, opisanego pierwotnie przez dr Kristiana Birkelanda, a zweryfikowanego później przez dr Charlesa Bruce'a i dr Olivera Manuela. 

Dr Charles Bruce, oraz inni naukowcy zademonstrowali już elektryczną naturę aktywności Słońca, oraz zaproponowali teorie jego stałej powierzchni, opartej na bezpośrednich obserwacjach. Jednak modele te nigdy nie zaistniały i zostały usunięte w cień pomiędzy środkiem a końcem XX wieku przez model gazowy. Na szczęście w nauce wciąż istnieje niewielka ilość specjalistów i niezależnych politycznie myślicieli, którzy długi czas promowali bardzo odmienny, bardzo twardy i żelazny model naszej gwiazdy, oparty na uważnych badaniach i obserwacjach. W ostatnim czasie, wiele konkluzji dr Manuela o tym, że Słońce zbudowane jest z metalu, potwierdzone zostało bezpośrednimi dowodami. Okazuje się, że te wizualne obserwacje stałej, żelaznej powierzchni, zostały przewidziane przez chemię jądrową przeszło trzy dekady temu, podczas gdy eksperymenty je potwierdzające, oraz niektóre przewidywania matematyczne, były zweryfikowanej już 50 lat temu, a były pierwotnie zaproponowane przez Birkelanda ponad 100 lat temu! 
Badania widma kwazarów (a są to w istocie małe galaktyki) wykazały znaczną potencjalną zawartość żelaza, wprowadzając w ostatnich latach poważne wątpliwości astrofizyków co do modelu gazowego. Biorąc pod uwagę wyniki badań widmowych gwiazd, dość znaczna część gwiazd może posiadać metaliczną powierzchnię co sugeruje że gwiazdy powstają na dwa sposoby. 
Ze skurczu plazmy podczas powstawania galaktyki jako główny masowy i początkowy sposób (bo gwiazdy poza galaktykami nie powstają), oraz z pozostałości po tak zwanym dotychczasowo wybuchu a raczej wyładowaniu supernowych, z których zbudowane jest wiele małych quasi gwiazd pochodzenia planetarnego, planet a także księżyców, występujących w znacznej ilości względem już wymienionych, ze względu na relatywnie małe wielkości, w tym także nasz dziwny, tytanowy, pusty wewnątrz Księżyc choć są przypadki sklejenia się i zastygnięcia dwóch sfer po wyładowaniu supernowej, jak min. znana charakterystyczna planetoida z Pasa Kuipera- Ultima Thule. Przypomina to rozrzut małych metalopochodnych sfer podczas procesu spawania. Ten właśnie proces jest źródłem powstawania wielu często niewyjaśnialnych struktur księżyców także i w naszym skromnym układzie Słonecznym.  Powstawanie metalowych sfer w ogromnej z naszego punktu widzenia skali, nie jest wyzwaniem dla gigantycznego Wszechświata. 
 
Rejestrowane zwiększone ilości zórz polarnych i temperatury w całym Układzie Słonecznym, którym podlega dziś Ziemia, są spowodowane cyklicznością zmian ładunku elektrycznego w plazmowych włóknach łączących gwiazdy, które z kolei zależą od cyklu zmian natężenia prądu plazmowych włókien łączących galaktyki. Takie zjonizowane, mimo iż niewidoczne włókna, pozwalają obcym podróżować elektromagnetycznymi maszynami ze znacznym przyspieszeniem wobec sektorów przestrzeni nie zjonizowanej przebiegiem tych włókien. 

Elektryczny model Słońca odrzuca problematyczne narodziny gwiazd przez akrecję grawitacyjną. Gwiazdy powstają w wyniku konwekcji Marklunda naładowanych cząstek w pyłowej plazmie w kierunku osi galaktycznych włókien prądu Birkelanda. W gwiazdach nie ma silnika termojądrowego! 

Dr Carl A. Rouse jest nazywany „cichym astrofizykiem, którego „niestandardowe” modele wnętrza Słońca prowokują społeczność fizyków słonecznych od prawie 40 lat”. Odkrył on na podstawie swoich badań pulsujących gwiazd zmiennych, że coś jest nie tak ze standardowym modelem wnętrza gwiazd. Stosując zwykłe założenia, nie mógł dopasować obserwowanej masy, jasności i promienia Słońca! Odkrył, że jego model działał tylko przy założeniu, że Słońce ma jądro z ciężkich pierwiastków. Co więcej, może odtworzyć obserwowane oscylacje heliosejsmiczne. Praca Rouse'a zasługuje na większą uwagę, ponieważ pasuje do historii kosmologii plazmowej powstawania gwiazd w zwarciu Z, w którym ciężkie pierwiastki są skoncentrowane w jądrze. Pasuje również do modelu elektrycznych gwiazd Elektrycznego Wszechświata, w którym deficyt neutrin słonecznych nie jest już „jednym z największych nierozwiązanych problemów fizyki słonecznej”, ponieważ światło słoneczne jest sferycznym zjawiskiem wyładowania elektrycznego napędzanym przez galaktykę. Wyjaśnia po prostu, dlaczego natężenie promieniowania słonecznego wykazuje modulację identyczną z modulacją neutrin. Reakcje jądrowe zachodzą na Słońcu tak samo, jak w rozbijaczach atomów na Ziemi, poprzez koncentrację energii elektrycznej na celu.










Ogólna forma wzoru linii pola magnetycznego w wolnej od sił osiowo symetrycznej strukturze włókienkowej. Włókno jest przezroczyste, więc temperatura spada w kierunku osi z powodu preferencyjnego chłodzenia najgęstszych obszarów. Tak więc zjonizowane składniki plazmy są konwekcyjne do wewnątrz z prędkością V przez gradient temperatury. Konwekcja plazmy w wolnych od sił polach magnetycznych jako mechanizm separacji chemicznej w plazmie kosmicznej. To bardzo wydajny mechanizm, który powoduje wymiatanie materii za pomocą siły dalekiego zasięgu 1/r.
Marklund wyjaśnia: „W mojej pracy w ”Nature„  plazma konwekcyjnie przemieszcza się promieniowo do wewnątrz, z normalną prędkością E x B/B², w kierunku środka cylindrycznej rury strumienia. 









To dlatego plamy słoneczne widzimy jako ciemniejsze / zimniejsze. Słońce jak i inne gwiazdy podlega zasadzie że im głębiej zmierzymy temperaturę tym będzie chłodniej...Ten diagram pochodzi z e-booka „The Sun„ . Uproszczone oszacowanie rozmiaru Słońca ma na celu pokazanie, że atmosfera gwiazdy może w znacznym stopniu przyczynić się do jej pozornego rozmiaru, określonego przez cienką żółtą fotosferę co ostatnio miało miejsce w przypadku powiększenia rozmiaru gwiazdy Betelgeza. Nie wybuchła bo... gwiazdy nie wybuchają. Odrzuciła nadmiar ładunku elektrycznego i ...”zmalała„ .



Podczas tej konwekcji do wewnątrz, różne składniki chemiczne plazmy, z których każdy ma swój specyficzny potencjał jonizacji, wchodzą do stopniowo chłodniejszego regionu. Składniki plazmy rekombinują i stają się neutralne, a zatem nie są już pod wpływem wymuszania elektromagnetycznego. Potencjały jonizacji określą zatem, gdzie różne gatunki zostaną zdeponowane lub zatrzymane w swoim ruchu”.  Gwiazdy utworzone w ten sposób mają zewnętrzną otoczkę z helu i wodoru. Działając do wewnątrz, wodór, tlen i azot utworzą środkowe warstwy atmosferyczne, a żelazo, krzem i magnez utworzą rdzeń, który jest chłodny.
Ostatnie odkrycia z dziedziny heliosejsmologii sugerują istnienie na powierzchni Słońca, dwustronnej uwarstwionej powłoki, położonej tuż pod fotosferą. Widzimy więc warstwę przejściową za pomocą technologii satelitarnych, a heliosejsmologia pozwala nam zmierzyć jej grubość. W tym przypadku znaleziono taką warstwę w odległości 0,99 promienia, zaczynającą się tuż pod fotosferą. Heliosejsmologia pozwala nam usłyszeć to, co widzimy na zdjęciach satelitarnych. Co więcej, mamy rosnącą pulę dowodów że nasze Słońce posiada wyraźną powłokę rozwarstwień na bardzo niewielkiej głębokości pod fotosferą. Dane te sugerują, że warstwowa powierzchnia żelaza pokryta jest oprócz neonu przez stosunkowo cienką warstwę krzemowej plazmy w roli płynnego izolatora, zbudowanej na wzór tranzystora, lub raczej diody tunelowej, który ulega przebiciu wyładowaniami o napięciu większym od jej napięcia nominalnego, aby po rozładowaniu nadmiaru napięcia powrócić do pierwotnego stanu. Taki model Słońca staje się bardzo zrozumiały dla wszelkiej maści elektrotechników i elektroników. Na podobnej zasadzie działają generatory które nazywa pulsarami. Jaki sens mają w tym świetle usilne i kosztowne zabiegi uruchomienia reaktorów termojądrowych skoro nawet w gwiazdach nie funkcjonują??
Teraz możemy zacząć obserwować Słońce i cały z resztą Wszechświat na nowo. Jako twór nie tyle elektryczny co w istocie elektroniczny. Wręcz rzekłbym świadomy, jeśli mózg człowieka jest tworem bioelektronicznym, powtarzając słowo za słowem to co twierdził nasz rodak Ks. Włodzimierz Sedlak a dawniej sugerował spalony za to na stosie Giordano Bruno.
Zapraszam więc z tą wiedzą na nowo do teleskopów... :)









26 września, 2021

Elektryczna pogoda








Poniższe fragmenty pochodzą z raportu opublikowanego w magazynie Instytutu Inżynierów Elektryków i Elektroników (IEEE), SPECTRUM. Raport pokazuje, że kiedy nauka zgubiła drogę, inżynierowie muszą wykorzystać swoją intuicję, aby zrobić postęp.

Elektryczna technologia wytwarzania deszczu, błogosławieństwem dla Meksyku.

Co najmniej od początku lat czterdziestych do końca XX wieku w stanie Jalisco w środkowym Meksyku zawsze padało więcej deszczu niż w sąsiednim Aguascalientes. Jednak w 2000 roku na skrawku spieczonych pastwisk w Aguascalientes pracownicy Electrificación Local de la Atmósfera Terrestre SA (ELAT) z siedzibą w Meksyku wznieśli osobliwe pole połączonych ze sobą metalowych słupów i drutów przypominających nieco szkielet karnawałowego namiotu. Od tego czasu na równiny Aguascalientes spadło mniej więcej tyle samo deszczu, co na jego bardziej bujną sąsiadkę. To był pomysł krnąbrnej grupy rosyjskich emigrantów, słupy i przewody są w rzeczywistości siecią przewodników, których zadaniem jest jonizacja powietrza. Jeśli technika jest wykonywana prawidłowo, naturalny prąd między ziemią a jonosferą jest wzmacniany, prowadząc – przez mechanizm, który nie jest w pełni zrozumiały – do opadów deszczu. Obecnie istnieje 36 takich instalacji w sześciu stanach w Meksyku, a agencje rządu federalnego zdecydowały się wesprzeć budowę i eksploatację kolejnych, potencjalnie zmieniając pogodę w większości wyschniętego północnego i środkowego Meksyku. Tymczasem do maja konkurent ELAT, Earthwise Technologies Inc. z Mexico City i Dallas, może zdobyć prawo do założenia stacji jonizacyjnych w ubogim w wodę hrabstwie Webb w południowo-zachodnim Teksasie, co uczyniłoby ją pierwszą tego typu instalacją w Stanach Zjednoczonych.
Naukowcy i autorytety różnią się co do tego, czy jonizacja powietrza może spowodować duże zmiany pogody. „Jonizacja jest wysoce niekonwencjonalna i nie widziałem żadnych konkretnych dowodów opublikowanych w recenzowanym czasopiśmie, ani nie widziałem wystarczającej wiarygodnej weryfikacji naocznych świadków, że technologia działa zgodnie z reklamą” – mówi George Bomar, meteorolog, któremu powierzono rząd Teksasu z licencjonowaniem projektów modyfikacji pogody w tym stanie.
Jest to powszechne zjawisko dysonansu poznawczego w nauce. Rosjanie przeprowadzają eksperyment pogodowy, który zgodnie z przyjętą teorią powinien zakończyć się niepowodzeniem. Dlatego naukowiec skarży się, że „nie widział żadnych konkretnych dowodów opublikowanych w recenzowanym czasopiśmie”. Ale skarga sprowadza się do kwestii wiary. Naukowcy nie wierzą, że energia elektryczna jest wkładem do systemów pogodowych. Ci, którzy uważają, że elektryczność atmosferyczna jest skutkiem, a nie przyczyną pogody, prawie na pewno znajdą podstawy do odrzucenia finansowania lub publikacji takiego eksperymentu. To samo dotyczy publikacji relacji wiarygodnych świadków. Przez dziesięciolecia piloci linii lotniczych byli świadkami dziwnych błyskawic nad burzami, ale zniechęcono ich do zgłaszania tego. Ignorancja i zaprzeczenie jest niesprawiedliwe i nienaukowe. Postępy pochodzą z kwestionowania ustalonych przekonań.
Technologia jonizacji nazywana jest IOLA (jonizacja lokalnej atmosfery) przez Earthwise lub ELAT (elektryfikacja atmosfery) przez firmę ELAT.
IOLA i ELAT konkurują z konwencjonalnym zasiewaniem chmur, które – choć również nie zostało udowodnione naukowo – jest stosowane w ponad 24 krajach i 10 stanach USA. Zasiewanie chmur zwykle polega na rozproszeniu środka chemicznego, takiego jak jodek srebra, w formacjach chmur, co pomaga w tworzeniu się kryształków lodu, prowadząc, jak się sądzi, do większych chmur i większych opadów niż bez zasiewania. Podejście jonizacyjne, według Bissiachi, obecnie wiceprezesa ds. badań i rozwoju w ELAT, wykonuje podobną pracę, ale dwukrotnie. Jony przyciągają wodę w atmosferze, tworząc aerozol wytwarzający chmury, a także ładują pył już w powietrzu, dzięki czemu cząstki stają się bardziej atrakcyjnymi jądrami dla kropelek wody, które łączą się i opadają na ziemię w postaci deszczu. Wydaje się, że podstawowym problemem w uzyskaniu akceptacji dla technologii jonizacji jest łatwy opis tego, co powoduje deszcz. I to jest problem odziedziczony po ekspertach – meteorologach i naukowcach zajmujących się atmosferą. Cząsteczka wody jest fascynująca, ponieważ w przeciwieństwie do cząsteczek azotu i tlenu w powietrzu jest spolaryzowana elektrycznie.













Na rysunku strona tlenowa (niebieska) cząsteczki wody jest bardziej ujemna niż strona wodorowa (czerwona), tworząc dipol elektryczny. W polu elektrycznym cząsteczka wody będzie się obracać zgodnie z polem. Kiedy kondensuje się w chmurze, średni elektryczny moment dipolowy cząsteczki wody w kropli deszczu jest o 40 procent większy niż pojedynczej cząsteczki pary wodnej. To wzmocnienie wynika z dużej polaryzacji spowodowanej polem elektrycznym indukowanym przez otaczające cząsteczki wody. W atmosferycznym polu elektrycznym molekuły wody zostaną zrównane z dipolami skierowanymi pionowo i w sensie określonym przez polaryzację ładunku w chmurze. Warto zauważyć, że wierzchołki chmur burzowych są naładowane dodatnio, a podstawa jest ujemna. To jest odwrotność promieniowej polaryzacji ładunku w samej Ziemi. I to właśnie ta polaryzacja ładunku powoduje powstanie siły przyciągania niskiego rzędu, którą nazywamy grawitacją. Proponuje się więc, aby reakcje kropelek wody w chmurach nazywać efektem antygrawitacyjnym. Wydaje się, że jest to związane z „Efektem Biefielda-Browna”, w którym naładowany kondensator planarny wysokiego napięcia ma tendencję do poruszania się w kierunku elektrody dodatniej. Ten efekt może wyjaśniać, w jaki sposób miliony ton wody mogą być zawieszone kilometry nad ziemią, gdy krople chmur są około 1000 razy gęstsze niż otaczające powietrze. Oczywiście rodzi to kwestia separacji ładunków w chmurach. Konwencjonalny pogląd „odizolowanej Ziemi” mówi, że ładunek dodatni i ujemny są „w jakiś sposób” oddzielone pionowymi wiatrami w chmurach i że ten proces podczas burz jest odpowiedzialny za ładowanie jonosfery i wywoływanie atmosferycznego pola elektrycznego. Ale to nasuwa pytanie o przyczynę i skutek. Ostatnie loty balonem na dużych wysokościach wykazały, że ładunek nie jest gromadzony w chmurze, on już istnieje w jonosferze powyżej. Doskonale wyjaśnia to model ELEKTRYCZNEGO WSZECHŚWIATA.
„Burze to nie generatory prądu, to elementy pasywne w obwodzie międzyplanetarnym, jak samonaprawiający się, nieszczelny kondensator. Energia zmagazynowana w „kondensatorze” chmury jest uwalniana jako błyskawica podczas zwarcia. Zwarcia mogą wystąpić zarówno w chmurze, jak i w poprzek zewnętrznych ścieżek rezystancyjnych do Ziemi lub jonosfery. Ładunek w „kondensatorze” chmury powoduje powstawanie gwałtownych pionowych wiatrów elektrycznych wewnątrz chmury, a nie odwrotnie”.
Ten pogląd jest zgodny z raportem (17 listopada 2003) w Geophysical Review Letters autorstwa Josepha Dwyera z Florida Institute of Technology, który mówi, że zgodnie z konwencjonalną teorią pola elektryczne w atmosferze po prostu nie mogą urosnąć na tyle, aby wywołać piorun. „Tradycyjny pogląd na to, jak powstaje piorun, jest błędny”. I tak oficjalnie „prawdziwe pochodzenie błyskawicy pozostaje tajemnicą”.
Para wodna we wznoszącym się powietrzu ochładza się i kondensuje, tworząc chmury. Konwencjonalne wyjaśnienie unoszenia się powietrza opiera się na ogrzewaniu słonecznym. Elektryczny model pogody ma dodatkowe źródło energii galaktycznej (to samo, które zasila Słońce), które napędza ruch powietrza. Jest to, to samo źródło energii, które napędza silne wiatry wysokopoziomowe na gigantycznych planetach zewnętrznych, gdzie energia słoneczna jest przecież bardzo słaba. Gdy para wodna skondensuje się w kropelki, bardziej prawdopodobne jest, że miliony ton wody mogą pozostać zawieszone kilometry nad Ziemią za pomocą zjawisk elektrycznych, a nie termicznych przeciągów. Czy możemy wyjaśnić, w jaki sposób „wzmacnia się naturalny prąd między Ziemią a jonosferą” i jak może to zwiększyć opady? Wydaje się, że wynika to naturalnie z elektrycznego modelu pogody, ponieważ generatory jonów dostarczają ruchome nośniki ładunku do dielektryka / atmosfery, co zwiększa prąd upływu między Ziemią a jonosferą. Pionowe prądy upływowe napędzają pionowy ruch powietrza. W niektórych przypadkach te niewidzialne prądy są prawdopodobnie odpowiedzialne za to niewidzialne zagrożenie dla samolotów — rzekome turbulencje powietrza. A najpoważniejsze wiatry pionowe znajdują się w burzach, gdzie energia elektryczna jest dramatycznie widoczna.
Instalacje Earthwise to konstrukcje o wysokości około 7 metrów, w kształcie krótkich, otwartych wież kontroli ruchu lotniczego, w których znajdują się  generatory jonów i dmuchawy do podnoszenia jonów. Oddzielne anteny wzmacniają jonizację, manipulując lokalnymi polami elektrycznymi i elektromagnetycznymi. Instalacje ELAT działają w ten sam sposób, ale są bardziej prymitywne z wyglądu, składają się z 37-metrowej wieży centralnej otoczonej ośmiometrowymi słupami rozmieszczonymi heksagonalnie w odległości 150 metrów. Wieża i słupki są połączone ze sobą przewodami, które ustawione na wysokie napięcie prądu stałego przez 2-kilowatowy generator, jonizują cząsteczki powietrza takie jak azot i tlen. Według Bissiachi, gdy jony unoszą się w górę, wytwarzają około 1 miliampera prądu. Mówi, że prąd ten zalewa naturalny prąd Ziemi – około 1 pikoampera – i może wpływać na pogodę do 200 kilometrów od stacji!
Podsumowując wszystkie testy przeprowadzone w latach 2000-2002, ELAT i jej amerykański i kanadyjski odpowiednik Ionogenics w Marblehead w stanie Massachusetts twierdzą, że jonizacja doprowadziła do około dwukrotności średnich opadów historycznych, stymulując między innymi 61-procentowy wzrost produkcji fasoli w Basen centralny Meksyku w ciągu ostatnich trzech lat. Dla porównania, zasiewanie chmur zwykle zapewnia jedynie 10-15 procentową poprawę w opadach deszczu.

Pomimo rzekomych sukcesów jonizacja ma swoich krytyków. Naukowcy zajmujący się atmosferą, którzy skontaktowali się w sprawie tego artykułu, zauważyli, że nawet cztery lata testów były zbyt krótkim okresem, aby udowodnić, że obserwowane efekty nie były spowodowane jakąś nadzwyczajną zmiennością lokalnej pogody. Bissiachi twierdzi, że krytyka prowadzi do głębszych uprzedzeń. „Meteorolodzy nie są przyzwyczajeni do myślenia, że ​​zjawiska elektryczne mogą być ważne dla normalnego modelu hydrodynamicznego”, mówi.
Technologia modyfikacji pogody zawsze miała trudności z poddaniem się rygorystycznym badaniom naukowym. Ross N. Hoffman, wiceprezes Atmospheric and Environmental Research Inc. w Lexington w stanie Massachusetts, pomógł w przygotowaniu naukowego przeglądu dotyczącego zasiewania chmur, który został opublikowany przez Narodową Radę ds. Badań Naukowych USA w Waszyngtonie w listopadzie 2003 r. że nawet po ponad 50 latach użytkowania, zasiewanie chmur pozostało nieudowodnione z naukowego punktu widzenia. „Jonizacja napotyka te same problemy, co rozsiewanie chmur” — mówi. Wśród nich są niepewność co do naturalnej zmienności opadów, niemożność dokładnego pomiaru opadów oraz potrzeba randomizacji i powtórzenia eksperymentów. To ostatnie jest szczególnie kłopotliwe, ponieważ firmy zajmujące się modyfikacją pogody są zazwyczaj zatrudniane do wywoływania deszczu, kiedy tylko mogą. Hoffman zauważa, że ​​losowe włączanie lub wyłączanie systemu w celu udowodnienia działania, nie leży w interesie klienta. Jonizacja ma również wątpliwości co do swojej podstawowej wiarygodności. Brian A. Tinsley, fizyk z University of Texas w Dallas i ekspert od wpływu jonów i prądu w atmosferze, wskazuje, że jonosfera ma około 250 000 woltów w porównaniu do zerowego potencjału powierzchni ziemi. Ale wpływ powstałego prądu i zmian w nim spowodowanych przez promieniowanie kosmiczne i inne zjawiska na tworzenie się kropel i opady jest „stosunkowo mały” i ograniczony do pewnych typów chmur w określonych lokalizacjach, mówi. Biorąc pod uwagę wielkość naturalnego napięcia i skromność jego wpływu na opady, skuteczna modyfikacja pogody za pomocą jonizacji, jego zdaniem, wymagałaby ogromnego poboru mocy i setek kilometrów kwadratowych anten. Jednak jeśli konwencjonalna teoria nie wyjaśnia burz elektrycznych, nie można jej wykorzystać do dyskontowania wyników eksperymentów jonizacyjnych. Zamiast tego konwencjonalna teoria powinna mieć wątpliwości co do swojej podstawowej wiarygodności. Eksperci od pogody mają ograniczony pogląd na elektryczną naturę Ziemi i jej środowiska. „Ogromny wkład mocy” jest swobodnie dostępny z włókien plazmowych galaktyki. Ta galaktyczna energia elektryczna napędza systemy pogodowe na wszystkich planetach i procesy termojądrowe na Słońcu. Tak więc eksperyment z jonizacją przypomina raczej bramkę sterującą w tranzystorze, gdzie niewielki prąd płynący do bramki sterującej wpływa na całą moc wyjściową tranzystora. Ta metoda kontroli pogody powinna w końcu zmusić krytyków do ponownego przemyślenia koncepcji procesów kształtowania pogody.








12 września, 2021

Księżycowe kłamstwo?










W świetle nowo odkrytych zjawisk astrofizyki lub choćby tylko tych obowiązujących oficjalną naukę, lądowanie człowieka na Księżycu w 1969 roku nie mogło mieć miejsca w przeciwieństwie do bezzałogowego okrążenia Księżyca i nikt z obecnej cywilizacji nigdy ZAŁOGOWO nie mógł dotrzeć na Księżyc aż do dzisiaj. 
Z kilku powodów. 
Pomijając na razie wszelkie rozważania, o których dałoby się wiele więcej powiedzieć, jak dywagacje nad możliwym fałszowaniem filmów i zdjęć z Księżyca w które nie będę wnikał, do dzisiaj od tamtego czasu nie ma kontynuacji tej technologii a tłumaczenie tego gigantycznymi finansami na rzecz zimnej wojny, nie przekonuje mnie z powodu braku jakichkolwiek efektów technologicznych przez blisko 50 lat! 
A przecież w wielu innych przypadkach tak się właśnie tłumaczy rozwój technologii, mimo początkowego jej użycia do wojny, nie wspominając o tym, jakim majątkiem dysponują dziś wielkie prywatne korporacje i osoby. Co mogłyby zrobić gdyby tylko chciały dysponując majątkiem większymi niż budżet nie jednego państwa? Zadziwiają też wieloletnie przygotowania do wznowienia księżycowych lotów kosmicznych. Czekałem na nie już jako nastolatek i od tamtej pory ... o rety! Nic się nie stało!

















Wszystko zamyka się wkoło prostej dedukcji. Zajmę się tu tylko fizycznymi warunkami lotu. Jeśli promieniowanie kosmiczne spoza Układu Słonecznego nie jest szkodliwe, po co Słońcu heliopauza? Jeśli jest szkodliwe, wtedy musielibyśmy się przed nim tym bardziej chronić im większe odległości mielibyśmy do pokonania a poza Ukłądem Słonecznycm chronić musielibyśmy się bezwzględnie! Dalej- jeśli promieniowanie pochodzące z wiatru słonecznego nie jest szkodliwe, możemy latać po całym Układzie Słonecznym w aluminiowej puszce o poziomie skomplikowania pralki automatycznej. Jeśli możemy, po co nam Ziemska magnetosfera? 
Gdyby w odległości do Księżyca i z powrotem promieniowanie wiatru słonecznego nie było szkodliwe to i w locie na Marsa można by je również ostatecznie pominąć bo w tym przypadku cały czas oddalamy się od Słońca a wiatr słoneczny słabnie. 
Odległość z Ziemi do Marsa to w najlepszym wypadku - po tej samej stronie Słońca-  50 milionów km. Odległość do Księżyca wynosi około 380 000 km. 
Magnetosfera Ziemi jest spłaszczona od strony Słońca wiatrem słonecznym do 50 000 km, ale od strony poza słonecznej wydłużona do 500 000 km. 
Tak więc tylko czasowo omiata swoim magnetycznym ogonem nasz Księżyc. Nie daje to pełnej ochrony. Nie wspominając o Pasach radiacyjnych Van Allena i o tym, że trudno wykonać taki pojazd ze względu na problemy techniczne: temperatura graniczna materiałów, naprężenia i wynikające z tego zakłócenia łączności, ale mało tego.

Trzeba wspomnieć że Rosjanie tuż przed końcem przygotowań do swojej misji załogowej na Księżyc zauważyli problem niełatwy do przeskoczenia. Na wysokości ~1000 km lotu balistycznego promieniowanie powodowało oślepienie załogi, obojętnie czy przy otwartych, czy zamkniętych powiekach. Przypomnę tylko że Stacja Orbitalna ISS znajduje się na wysokości około 400 km, a już na tej wysokości promieniowanie jonizujące- lekkie atomy- tzw. jądra helu i podobne, porażają siatkówkę oka silnymi błyskami. Co działoby się z ludzkim okiem w przestrzeni kosmicznej całkowicie poza magnetosferą?? Na tej samej wysokości zanika również tzw. Rezonans Schumanna, częstotliwość 7,83 Hz bez której mózg ludzki wpada w niekontrolowane stany psychiczne. Więc trzeba tą częstotliwość symulować niezależnie na pokładzie każdej kosmicznej maszyny przeznaczonej do lotu na Marsa i dalej. Do tego dochodzi jeszcze aspekt psychologiczny. Kto w ogóle odważyłby się lecieć na dwa tygodnie w otwartą przestrzeń kosmiczną poza Ziemię jako pierwszy, nie wiedząc co go tam czeka skoro nikt przed nim tam nie był? Tylko szaleniec który postawi wszystko co ma, na jedną kartę a przecież to szkoleni piloci byli.

No... chyba że załogowy lot nagrano w studiu Stanleya Kubricka... ktoś poleciał na wielkiej rakiecie,  a po czasie misji wodował w oceanie. Księżycową wizję dograno w Hollywood i odtworzono równolegle wraz z relacją z orbity w TV. Mam przed oczami te posępne miny astronautów podczas udzielanego zaraz po powrocie, wywiadu dziennikarskiego. Zachowywali się dokładnie tak jakby nie dotarli do założonego przez Kennedy`ego celu...
Nieżyjący już Michael Collins razem z Neilem Armstrongiem i Buzzem Aldrinem należał do załogi statku Apollo 11, który 20 lipca 1969 roku (niby) wylądował na Księżycu. Dziwne tylko że podczas wywiadu zachowywali się tak, jakby przechodzili jakieś załamanie psychiczne. Od tamtego czasu  nieco za długo odwleka się loty. 

Moim zdaniem NASA boi się lecieć na Marsa czy gdziekolwiek, bo dobrze tam wiedzą od czasu rzekomego lotu Apollo 11, że to się nie uda bez REALNEJ elektromagnetycznej ochrony przed promieniowaniem. Jak więc amerykanie w takich warunkach dolecieli do Księżyca? Więc albo promieniowanie kosmiczne i słoneczne JEST, albo NIE JEST szkodliwe dla człowieka. Pora się panowie z NASA zdecydować w zależności od opcji:

- astronauci byli na Księżycu i nie przejmujemy się wpływem promieniowania, bo przecież wtedy NIE BYŁO przeciw niemu żadnej ochrony i jakoś dali radę,

albo:

-NIKT TAM NIE BYŁ (chyba że weźmiemy pod uwagę obcych) i musimy znaleźć sposób na ochronę przed promieniowaniem zanim polecimy na Księżyc czy Marsa.

Całościowy wniosek jest jednoznaczny. Na powierzchni Księżyca przy ówczesnym stanie technologii mogły być zrealizowane jedynie automatyczne misje bezzałogowe. 





Proszę pana, ja i chłopcy mamy to wypracowane, jeśli zostawimy radiolatarnię i materiały do budowy szklarni, czy możemy zamiast tego wziąć samochód?


Jest jeszcze inna , trzecia możliwość. 
Każda sfera pola magnetycznego chroni przed kolejnym coraz mniej szkodliwym poziomem promieniowania. Począwszy od pola elektromagnetycznego galaktyki które chroni życie gwiazd przez najbardziej szkodliwym promieniowaniem otwartego kosmosu, następnie pole elektromagnetyczne gwiazdy chroni przed mniej szkodliwym promieniowaniem wewnętrznym samej galaktyki i w końcu pole elektromagnetyczne planety chroni swoje życie przed promieniowaniem wewnętrznym swojej gwiazdy. W przypadku Ziemi przed polem E.M.Słońca. Logicznie rozumując, trzeba wziąć pod uwagę fakt że gdyby promieniowanie kosmiczne nie było szkodliwe dla istot żywych, Ziemia nie posiadałaby magnetosfery, bo nic w przyrodzie nie pojawia się „na zapas”, no może oprócz rozrodczego materiału genetycznego, chociaż wobec potwornie wielkich ilości przestrzeni w kosmosie względem materialnej części Wszechświata, to sprawa dyskusyjna czy aby tego materiału jest aż tak dużo.

Nie można inaczej ochronić się przed promieniowaniem na dłuższym dystansie lotu, jak zastosować generator dokładnie takiego samego pola, którym chroni nas Ziemia, lecz o większym natężeniu, a wtedy będzie w małym pojeździe nawet o wiele skuteczniejszy. Wszelkie pasywne osłony materiałowe są po pierwsze zbyt dużej masy aby były łatwe do wystrzelenia i skuteczne dla stosowania w przestrzeni kosmicznej. Po drugie nie powinno się promieniowania w nieskończoność pochłaniać. Trzeba je rozpraszać / odbijać. Do tego wystarcza nam ten sam uniwersalny, znany kosmitom elektromagnetyczny mechanizm niwelatora/rozpraszacza fotonowych strumieni elektromagnetycznych i grawitacyjnych, który jednocześnie przy ekstremalizacji tej siły, zaczyna przyciągać nas do pokładu statku. 

Na marginesie... Mars pola elektromagnetycznego nie posiada ( posiada jakieś szczątkowe w różnych miejscach o różnej sile), więc bez technologicznej symulacji takiego pola, nie ma mowy o stałym zasiedleniu tej czy podobnej planety o stałym gruncie.

Budując pojazd zdolny do lotów kosmicznych należy wyposażyć go w ochronne pole magnetyczne.
Aby taki pojazd był ekonomiczny, można takie pole wzmacniać w pobliżu gwiazd lub dla oszczędności mocy pojazdu, osłabiać jak we wnętrzu wiru czarnej dziury lub w dalekiej od sieci galaktyk przestrzeni kosmicznej, ponieważ w obu tych miejscach panuje kompletna cisza- brak smogu elektromagnetycznego.

Projekt który niedawno rozpocząłem, posiada stosunkowo proste wysokonapięciowe żyroskopowe siłowniki magnetyczne zakłócające grawitację jako doziemny ruch „elektro-grawito-fotonów” (nazwa własna), które jednocześnie są tarczą dla promieniowania, podobną działaniem do ziemskiej magnetosfery. Naśladują one proste podstawowe prawo natury, która wytwarza wszystko, co istnieje, za pomocą  wiru i tak samo wirem oddziałują dla zakłócenia prądu złożonego z "elektro-grawito-fotonów". Ziemskie pole elektromagnetyczne opiera się wiatrowi słonecznemu tylko i wyłącznie dlatego, że jest to kontrakcja, przeciwdziałanie tym samym cząsteczkom lub ich pochodnym fraktalizacjom. Wiatr słoneczny wykazuje ruch falowy a pole magnetyczne toroidalny. To cała różnica.
Wniosek jest taki, że Wszechświat gdy się mu wnikliwie przyjrzeć, wygląda na zasadniczo elektryczny a w przestrzeń kosmiczną najbezpieczniej i najekonomiczniej jest lecieć wyłącznie maszynami elektromagnetycznymi, choć na pewno koncepcja konstrukcyjna prostych elektromechanicznych siłowników którymi będę niedługo dysponować na poziomie modelu, nie będzie odpowiednio wydajna i trwała dla lotów międzygwiezdnych. Dotychczasowe technologie są mało skuteczne, zarówno  dla  ochrony, tak jak stacje kosmiczne z aluminiowym korpusem, czy transportu, jak rakiety w lotach kosmicznych, które w istocie są kierowanymi w niebo większego kalibru pociskami. W każdym razie oczyszczenie naszego nieba zaśmieconego zbiornikami, osłonami i innej maści drobnym żelastwem  pozostałym po technologii rakietowej, tego typu maszynami elektrycznymi, będzie wtedy przyjemnością i całkiem niezłym biznesem złomiarskim. 


Bitchute