Nauka To Lubię

Oficjalna strona Tomasza Rożka

Tag: życie

Burza światła

Podobno dzisiaj i jutro widoczna na polskim niebie ma być zorza polarna. O ile nie będzie chmur. 156 lat temu miała miejsce największa opisana burza geomagentyczna. Gdyby zdarzyła się dzisiaj, zamilkłyby telefony, radia i stacje telewizyjne. Najpewniej uszkodzona zostałaby także infrastruktura energetyczna.

Dzisiaj, a może nawet jutro widoczna ma być na polskim niebie zorza polarna. O ile nie będzie chmur.  156 lat temu miała miejsce największa opisana burza geomagentyczna. Gdyby zdarzyła się dzisiaj, zamilkłyby telefony, radia i stacje telewizyjne. Najpewniej uszkodzona zostałaby także infrastruktura energetyczna.

>>> Więcej naukowych ciekawostek na FB.com/NaukaToLubie

Dokładnie 1 września 1859 roku na Słońcu zdarzył się potężny wybuch. Materia słoneczna została wyrzucona w przestrzeń z prędkością dochodzącą nawet do 900 km na sekundę. Wybuchy na Słońcu to nic niezwykłego, ale ten był wyjątkowo silny. Co ciekawe nasza dzienna gwiazda wcale nie była wtedy w fazie swojej największej aktywności.

Tymczasem na Ziemi…     

… rozpętała się burza światła. Dzień po wybuchu na Słońcu, wyrzucona z jego powierzchni materia dotarła do Ziemi. Naładowane elektrycznie cząstki, w zderzeniu z naszą atmosferą, a właściwie hamowane przez ziemskie pole magnetyczne były źródłem jednej z największych, kiedykolwiek rejestrowanych zórz polarnych. W 1859 roku nie było telefonów komórkowych, telewizorów ani odbiorników radiowych. Gdyby były, na pewno by zamilkły. Straty byłyby ogromne. Do listy strat trzeba doliczyć stacje transformatorowe i całą flotyllę satelitów. Nie tylko tych naukowych, ale także komercyjnych. Szacuje się, że dzisiaj straty spowodowane burzą porównywalnej wielkości wyniosłyby około 2 trylionów dolarów. Trylion to miliard miliardów. Wtedy, w połowie XIX wieku, zaburzona została jedynie raczkująca wtedy łączność telegraficzna. Pierwszy telegraf elektryczny zbudowano 22 lata wcześniej, w 1837 roku. Dzisiaj burza sparaliżowałaby życie. Trudno je sobie wyobrazić bez elektronicznej komunikacji, prądu czy choćby GPS’a. Wtedy, w zasadzie nikomu nie utrudniła życia. Mocno je za to urozmaiciła.

Zorze na Kubie

Na wysokości od 100 do 400 km nad naszymi głowami naładowane elektrycznie cząstki pochodzące ze Słońca (elektrony i protony), są przechwytywane przez ziemskie pole magnetyczne. Zaczynają się poruszać wzdłuż jego linii. Te zagęszczają się w okolicach biegunów i tam cząstki wiatru słonecznego zderzają się z atomami rozrzedzonej atmosfery. Atom w który uderzają traci część swoich elektronów (zjawisko jonizacji). Gdy „złapie” je z powrotem, energię którą otrzymał od protonu czy elektronu ze Słońca, wypromieniowuje w postaci światła. To światło, to zorza polarna. Luminescencję rozrzedzonych gazów zaobserwowano także wokół biegunów innych planet, m.in. Jowisza, Saturna, Urana, Neptuna, a nawet Marsa.

Zorze występują zwykle w okolicach biegunów. 150 lat temu, w wyniku rekordowej ilości naładowanych cząstek, zjawisko było widoczne jednak w całej Ameryce Północnej, a nawet na Kubie. Zorze były tak intensywne i jasne, że ludzie wstawali w środku nocy myśląc, że już świta. Ich zdziwienie, a może przerażenie, musiało być całkiem spore gdy zamiast wschodu Słońca na niebie pojawiły się piękne, kolorowo pulsujące niby-płomienie.

To może się zdarzyć jutro

Na dużych szerokościach geograficznych zorze polarne – nazywane czasami światłami północy – mają kolor biały, żółty i zielony, na niższych, charakteryzują je kolory ciemniejsze: czerwone, niebieskie, a nawet fioletowe. Zorze polarne w Polsce zdarzają się rzadko i tylko w okresie najwyższej aktywności Słońca. Co około 11 lat nasza dzienna gwiazda przeżywa burzliwe chwile. Kolejne maksimum było rejestrowane w latach 2012-2013. Nie powinniśmy być tego jednak całkowicie pewni. Nasza gwiazda jest nieprzewidywalna. Gdy coś stanie się na jej powierzchni, mamy kilkadziesiąt godzin czasu na przygotowanie się na niesamowite zjawisko. A gdyby eksplozja na Słońcu była duża, lepiej wyłączyć wszystkie urządzenia elektroniczne i … zaopatrzyć się w świeczki. Prądu może nie być przez kilka dni.

>>> Więcej naukowych ciekawostek na FB.com/NaukaToLubie

5 komentarzy do Burza światła

Szkodliwe szufladki

Wściekam się, że nauk ścisłych w szkole często uczy się w tak nieatrakcyjny sposób. Jaki jest tego efekt? Na hasło „jestem fizykiem” widzę w oczach wielu (zbyt wielu) młodych ludzi przerażenie pomieszane ze współczuciem. Już słyszę jak w myślach mówią „mój Boże, jakie on musiał mieć nieszczęśliwe życie”.

Wściekam się, że nauk ścisłych w szkole często uczy się w tak nieatrakcyjny sposób. Kogo to wina? Wszystkich po trochu. Ale nie o tym chcę pisać (a przynajmniej nie tym razem). Wiem za to jaki jest efekt. Otóż na hasło „jestem fizykiem” widzę w oczach wielu (zbyt wielu) młodych ludzi przerażenie pomieszane ze współczuciem. Już słyszę jak w myślach mówią „mój Boże, jakie on musiał mieć nieszczęśliwe życie”.

>> Polub FB.com/NaukaToLubie i pomóż mi tworzyć stronę pełną nauki. 

W czym jest problem z nauczaniem przedmiotów ścisłych? Otóż z tym, że niewielu udaje się nimi zaciekawić. Dlaczego fizyka jest nudna? Bo ciągle wzory. A chemia? Bo nic nie kapuję z tych doświadczeń. To może biologia? A kogo interesują pantofelki?

Myślę, że jednym z głównych problemów… mój były szef, wybitny fizyk, który jako pierwszy człowiek na świecie wyprodukował kompletny atom antymaterii mawiał, że nie ma problemów, są tylko wyzwania… no to jeszcze raz. Myślę, że jednym z głównych wyzwań jakie stoją przed współczesną edukacją, jest zasypywanie szufladek, które sami stworzyliśmy w naszych mózgach, a teraz kopiujemy je do mózgów naszych dzieci. Chodzi mi o szufladki z napisem „fizyka”, „chemia”, „biologia”, „matematyka”. Małe, zainteresowane światem, dziecko nie rozróżnia dziedzin nauki. Dla niego jest nieistotne czy zmieniające kolor jesienne liście to domena biologii, chemii czy fizyki (prawdę mówiąc wszystkiego po trochu). Podobnie jak nie interesuje je czy spadającym z chmury deszczem powinien zajmować się fizyk czy chemik (podobnie jak poprzednio i jeden i drugi może o tym zjawisku sporo opowiedzieć). Dziecko interesuje znalezienie odpowiedzi, a nie to, kto jej udziela. Tymczasem my zamiast odpowiadać, zbyt wiele energii poświęcamy na to by dokładnie „rozdzielić kompetencje”.

Gdzie przebiega granica pomiędzy fizyką i chemią? A gdzie pomiędzy chemią i biologią? Czy cykle komórkowe to biologia czy chemia? A budowa materii? Atomy są chemiczne czy fizyczne? A potęgi? Powinien ich uczyć matematyk, fizyk czy chemik? W rzeczywistości uczy tego każdy na swój sposób, a uczeń – nie tylko ten, który miewa trudności z nauką – zastanawia się czy potęgi znane z matematyki, to te same o których słyszał na chemii czy fizyce? Na domiar złego, niektóre zjawiska zamiast pojawiać się równocześnie, na lekcjach np. chemii i fizyki wprowadzane są w sporych odstępach czasowych. To wszystko powoduje, że czym dłużej młody człowiek jest pod opieką systemu edukacji, tym większy ma problem z ogarnięciem nauk przyrodniczych jako całości. W pewnym sensie to powrót do dalekiej przeszłości, kiedy uważano, że prawa natury nie są uniwersalne. Że zasady, które rządzą zjawiskami przyrody nie wszędzie tak samo „działają”. Osobą, która dokonała przełomu, był Izaak Newton, lekarz, fizyk, filozof, ekonomista i teolog. Prawo powszechnego ciążenia jego autorstwa jako bodaj pierwsze pokazało, że „tutaj” czyli na Ziemi i „tam” czyli w kosmosie, obowiązują te same zasady. Że te same prawa opisują ruch planety wokół Słońca i ruch spadającego z drzewa jabłka. I pomyśleć, że 330 lat po opublikowaniu prac Newtona, nasz system edukacji wypuszcza „w świat” ludzi, którzy mają wątpliwości, czy gęstość oznaczana w chemii jako „d” a w fizyce jako ρ (ro), to ta sama wielkość.

Nasze wyobrażenie o świecie, nasza wiedza o nim jest weryfikowana praktycznie każdego dnia. Ale prawdziwe rewolucje zdarzają się stosunkowo rzadko. Kto tych rewolucji dokonuje? Czyimi rękami są one wprowadzane? Gdyby prześledzić historię nauki, dosyć szybko można dojść do wniosku, że rewolucje robią ci, którzy nie zostali zaszufladkowani, ci którzy potrafią się wznieść ponad tradycyjny – sztuczny i moim zdaniem mocno krzywdzący młodego człowieka – podział na przedmioty. Tak było nie tylko setki lat temu, kiedy jedna osoba studiowała tak różne (z dzisiejszego punktu widzenia) kierunki jak medycyna, filozofia, nauki przyrodnicze, teologia i prawo (Kopernik, Newton czy Kant), ale także w czasach nam bliższych (Hubble, Lemaitre, Rubin). Prawdziwych odkryć, prawdziwych rewolucji w nauce dokonują ci, którzy swoją wiedzą ogarniają wiele półek w bibliotece, a nie ci, którzy znają tylko kilka książek na wyrywki. Choćby znali je na pamięć. No bo na dobrą sprawę, czy jest sens czytać książki na wyrywki, czasami nie po kolei? Wydaje mi się, ba! jestem tego pewny, że opowiadana w książkach historia nabiera rumieńców, wciąga i inspiruje dopiero wtedy gdy jest opowiedziana w całości.

male wielkie odkrycia 1500px 3d

„Małe wielkie odkrycia – najważniejsze wynalazki, które odmieniły świat”. Steven Johnson

A skoro już piszę o książkach i półkach. Do przemyśleń nad systemem edukacji nakłoniła mnie lektura pewnej książki. Nakładem wydawnictwa Sine Qua Non właśnie ukazały się „Małe wielkie odkrycia – najważniejsze wynalazki, które odmieniły świat”. Bardzo żałuję, że w polskiej szkole w ten sposób nie uczy się nauk ścisłych. Jasne, na fizyce czy na chemii muszą być wzory i zadania z treścią, ale szkoda, że bardzo często przysypani rachunkami, zapominamy co tak właściwie liczymy. Steven Johnson, autor „Małe wielkie odkrycia…” napisał książkę, która pokazuje historię rozwoju naszej cywilizacji. Pokazuje zawiłą, ale równocześnie pasjonującą drogę jaką przechodzili ludzie ciekawi i uparci. Nie opisuje pojedynczych wynalazków, nie dzieli ich na te dokonane przez fizyków, chemików i biologów. Pokazuje historię dochodzenia do odkryć. Do wybudowania teleskopu przyczyniło się oblężenie, setki lat wcześniej, Konstantynopola. Do skonstruowania pierwszego mikroskopu, wynalezienie dużo wcześniej prasy drukarskiej. Ta książka jest pełna, tak zaskakujących „związków”. Nie będę więcej zdradzał. Powiem tylko, że te największe odkrycia nie byłyby możliwe, bez tych małych. Małych wcale nie znaczy banalnych i nudnych. Przeciwnie. Małych, znaczy tajemniczych, nieznanych i nieoczywistych.

>> Polub FB.com/NaukaToLubie i pomóż mi tworzyć stronę pełną nauki. 
7 komentarzy do Szkodliwe szufladki

W kosmosie woda jest wszędzie!

Jest na planetach, księżycach, kometach a nawet… w mgławicach. Dość powszechnie panująca opinia o tym, że woda jest obecna tylko na Ziemi, jest kompletnie błędna. Wody w kosmosie jest bardzo dużo. Ale to wcale nie musi znaczyć, że wszędzie tam jest życie.

Dość powszechnie panująca opinia o tym, że woda jest obecna tylko na Ziemi, jest kompletnie błędna. Choć w kolejnym odcinku „Megaodkryć” na National Geographic Channel będzie mowa o „Wodnej apokalipsie” to okazuje się, że ta wspomniana apokalipsa to nasz ziemski problem.

>> Polub FB.com/NaukaToLubie i pomóż mi tworzyć stronę pełną nauki. 

Woda płynna jest na przynajmniej kilku obiektach Układu Słonecznego. Kilka tygodni temu odkryto ją także na powierzchni Marsa. Co zaskakuje, obłoki pary wodnej „wiszą” także w przestrzeni kosmicznej. Kilka lat temu odkryto taki wokół kwazaru PG 0052+251. Póki co, to największy ze wszystkich znanych rezerwuarów wody w kosmosie. Dokładne obliczenia wskazują, że gdyby całą tę parę wodną skroplić, byłoby jej 140 bilionów (tysięcy miliardów) razy więcej niż wody we wszystkich ziemskich oceanach. Masa odkrytego wśród gwiazd „zbiornika wody” wynosi 100 tysięcy razy więcej niż masa Słońca. To kolejny dowód, że woda jest wszechobecna we wszechświecie.

Do wyboru: lód, woda i para

Naukowców nie dziwi sam fakt znalezienia wody, ale jej ilość. Cząsteczka wody (dwa atomy wodoru i jeden atom tlenu) jest stosunkowo prosta i występuje we wszechświecie powszechnie. Bardzo często łączy się ją z obecnością życia. Faktem jest, że życie, jakie znamy, jest uzależnione od obecności wody. Ale sam fakt istnienia gdzieś wody nie oznacza istnienia tam życia. Po to, by życie zakwitło, musi być spełnionych wiele różnych warunków. Woda wokół wspomnianego kwazaru jest w stanie gazowym, a woda niezbędna do życia musi być w stanie ciekłym. Nawet jednak ciekła woda to nie gwarancja sukcesu (w poszukiwaniu życia), a jedynie wskazówka.

Takich miejsc, którym badacze się przyglądają, jest dzisiaj w Układzie Słonecznym przynajmniej kilka. Woda może tu występować – tak jak na Ziemi – w trzech postaciach: gazowej, ciekłej i stałej. I właściwie we wszystkich trzech wszędzie jej pełno. Cząsteczki pary wodnej badacze odnajdują w atmosferach przynajmniej trzech planet Układu Słonecznego. Także w przestrzeni międzygwiezdnej. Woda w stanie ciekłym występuje na pewno na Ziemi. Czasami na Marsie, najprawdopodobniej na księżycach Jowisza, ale także – jak wykazały ostatnie badania – na księżycach Saturna. A na jednym z nich – Enceladusie – z całą pewnością. Gdy kilka lat temu amerykańska sonda kosmiczna Cassini-Huygens przelatywała blisko tego księżyca, zrobiła serię zdjęć, na których było wyraźnie widać buchające na wysokość kilku kilometrów gejzery. Zdjęcia tego zjawiska były tak dokładne, że badacze z NASA zauważyli w buchających w przestrzeń pióropuszach nie tylko strugi wody, ale także kłęby pary i… kawałki lodu. Skąd lód? Wydaje się, że powierzchnia Enceladusa, tak samo zresztą jak jowiszowego księżyca Europy, pokryta jest bardzo grubą (czasami na kilka kilometrów) warstwą lodu. Tam nie ma lądów czy wysp. Tam jest tylko zamarznięty ocean. Cały glob pokryty jest wodą.

061215_europa_02

Powierzchnia jowiszowego księżyca Europa

Nie tylko u nas

Skoro cała powierzchnia księżyców Jowisza i Saturna pokryta jest bardzo grubym lodem, skąd energia gejzerów? Skąd płynna woda pod lodem? Niektóre globy żyją, są aktywne. Ich wnętrze jest potężnym reaktorem, potężnym źródłem ciepła. Tak właśnie jest w przypadku zarówno Europy, jak i Enceladusa. Swoją drogą ciekawe, co musi się dziać pod kilkukilometrowym lodem, skoro woda, która wydrążyła sobie w nim lukę, wystrzeliwuje na wiele kilometrów w przestrzeń?

Może nie morza, jeziora czy chociażby bajora, ale lekka rosa – wodę znajduje się także na powierzchni naszego Księżyca. Zaskakujące odkrycie to dzieło indyjskiej sondy Chandrayaan-1, potwierdzone przez dwie amerykańskie misje (Deep Impact i Cassini).

Niejedna praca naukowa powstała też na temat wody na Czerwonej Planecie. Wiadomo, że jest na marsjańskich biegunach. Nie brakuje jednak danych, że woda, nawet w stanie ciekłym, pojawia się czasowo w różnych innych miejscach planety. Wyraźnie ją widać na zboczach kraterów, o ile padają na nie promienie letniego Słońca.

Z badań amerykańskiej sondy Messenger, która od 2004 roku badała Merkurego, wynika, że woda jest także w atmosferze pierwszej od Słońca gorącej planety. Co z innymi planetami spoza Układu Słonecznego? Na nich też pewnie jest mnóstwo wody. Tylko jeszcze o tym nie wiemy. Chociaż… Pierwszą egzoplanetą, na której najprawdopodobniej jest woda jest HD 189733b, która znajduje się 63 lata świetlne od nas. Ta planeta to tzw. gazowy gigant. Ogromna kula gorących i gęstych gazów z płynnym wnętrzem. Gdzie tutaj miałaby być woda? Wszędzie – twierdzą badacze. Dzięki aparaturze wybudowanej w California Institute of Technology, USA udało się odkryć, że mająca prawie 1000 st. C atmosfera zawiera duże ilości pary wodnej.

>> Polub FB.com/NaukaToLubie i pomóż mi tworzyć stronę pełną nauki. 

Czy któreś z tych kosmicznych źródeł wody będzie nas w stanie uchronić przez niedostatkiem pitnej wody na Ziemi? Tego jeszcze nie wiemy, choć problem braku podstawowej do życia substancji wydaje się być coraz bardziej palący. Przekonują o tym hollywoodzka gwiazda – Angela Basset – i jej goście – światowej sławy naukowcy, którzy próbują odpowiedzieć na pytanie czy czeka nas „Wodna Apokalipsa” w ostatnim już odcinku niezwykłej serii „Megaodkrycia” na National Geographic Channel. Jeśli chcecie wiedzieć, gdzie najtęższe umysły naukowe szukają teraz źródeł H2O, oglądajcie „Wodną Apokalipsę” – już w niedzielę, 13 grudnia, o 22.00 na National Geographic Channel.

 

 

Brak komentarzy do W kosmosie woda jest wszędzie!

Czy zgasną światła na Ziemi ?

Światowa konsumpcja energii do 2050 roku podwoi się. Jeżeli nie znajdziemy nowych źródeł – może nam zabraknąć prądu.

W Paryżu trwa międzynarodowy panel klimatyczny. Wiele wątków, wiele interesów, wiele sprzecznych celów. Energia jest tematem, który z klimatem wiąże się bezpośrednio. I pomijając kwestie emisji i CO2, warto zdać sobie sprawę z tego, że światowa konsumpcja energii do 2050 roku podwoi się. Jeżeli nie znajdziemy nowych źródeł – będzie kłopot.

Słońce jest dostawcą większości energii dostępnej dzisiaj na Ziemi. Dostarcza ją teraz i dostarczało w przeszłości nie tylko dlatego, że świeci, ale także dlatego że pośrednio powoduje ruchu powietrza (czyli wiatry) i wody (czyli fale). Dzisiaj dostępne źródła energii można więc podzielić na te zdeponowane przez Słońce w przeszłości – nazwane nieodnawialnymi –  i te udostępniane nam na bieżąco – czyli odnawialne. Z tego podziału wyłamuję się energetyka jądrowa, geotermalna i grawitacyjna oraz fuzja jądrowa.

Najefektywniejszym odbiornikiem energii słonecznej na Ziemi jest roślinność. Dzięki zjawisku fotosyntezy, gdy Słońce świeci – rośliny rosną. Rosną i rozprzestrzeniają się także dlatego, że wieje wiatr. Bardzo długo człowiek korzystał tylko z tego przetwornika energii słonecznej. Drzewo jednak wolniej rośnie niż się spala. Z biegiem lat było nas coraz więcej i coraz więcej energii potrzebował nasz przemysł. Wtedy zaczęło brakować lasów pod topór. Całe szczęście umieliśmy już wydobywać i spalać węgiel, ropę naftową i gaz. Ale w gruncie rzeczy to to samo, co spalanie drewna. Tyle tylko, że w przypadku drzewa energia słoneczna była „deponowana” na Ziemi przez kilka dziesięcioleci, a w przypadku węgla czy ropy – przez miliony lat.

Kłopot w tym, że spalanie kopalin jest toksyczne. Badania przeprowadzane w różnych krajach potwierdzają, że typowa elektrownia węglowa o mocy 1 GWe  powoduje przedwczesną śmierć od 100 do 500 osób. Nie są to ofiary związane z wydobywaniem węgla, czy jego transportem, a jedynie ci, którzy mieli wątpliwe szczęście mieszkać w sąsiedztwie dymiącego komina. Oczyszczanie spalin jest bardzo drogie, a usuwanie szkód środowiskowych związanych z wydobyciem kopalin, w zasadzie niewykonalne. Skoro więc nie paliwa tradycyjne, to może odnawialne?  Siłownie wykorzystujące energię wody, wiatru czy Słońca powinny być budowane jak najszybciej tam, gdzie jest to opłacalne. Nie ulega jednak wątpliwości, że nie wszędzie jest. W Islandii, bogatej w gorące źródła, aż 73 proc. całej produkcji energii stanowi energia odnawialna. W Norwegii (długa i wietrzna linia brzegowa) 45 proc energii produkują wiatraki, a w niektórych krajach Afryki ponad połowa całej wyprodukowanej energii jest pochodzenia słonecznego. Ale równocześnie w proekologicznie nastawionych – ale nie usytuowanych – Niemczech mimo miliardowych inwestycji i olbrzymiej ilości elektrowni wiatrowych zielona energia stanowi około 20 proc. całej zużywanej energii. W tych statystykach nie liczę biomasy, bo ta nie jest żadną energią odnawialną.

Energia zdeponowana przez Słońce w przeszłych epokach wyczerpuje się, a korzystanie z niej w dotychczasowy sposób jest zbrodnią na środowisku naturalnym, z kolei energii dawanej nam przez Słońce „on-line” jest za mało. No więc jaki jest wybór? Wydaje się, że dzisiaj istnieją dwa scenariusze. Obydwa opierają się na skorzystaniu z nieograniczonej energii zdeponowanej jeszcze w czasie Wielkiego Wybuchu. Ta energia nas otacza w postaci materii, ale nie na poziomie związków chemicznych, ale na poziomie pojedynczych jąder atomowych. Jak to rozumieć ? Zanim powstał węgiel kamienny czy ropa naftowa, strumień energii ze Słońca umożliwiał zachodzenie tutaj, na Ziemi, przemian chemicznych, dzięki którym np. rozwijała się bujna roślinność. Dzięki światłu, wodzie i dwutlenkowi węgla tworzą się węglowodany (cukry), białka i tłuszcze. W tych reakcjach nie tworzą się jednak nowe atomy. Dzięki energii z zewnątrz już istniejące łączą się w większe kompleksy. Energia jest zmagazynowana w połączeniach pomiędzy atomami, w wiązaniach.  Ale same pierwiastki też są magazynami energii – energii, która umożliwiła ich stworzenie – pośrednio czy bezpośrednio – w czasie Wielkiego Wybuchu.

Tę energię da się pozyskać na dwa sposoby. Pierwszy to fuzja jądrowa, a drugi to rozszczepienie jądra atomowego. W pierwszym przypadku energia jest uwalniana przez łączenie dwóch lżejszych elementów w pierwiastek cięższy. Część masy tych pierwszych jest zamieniana na energię, którą można zamienić na prąd elektryczny. Paliwem w takim procesie mogą być powszechnie dostępne w przyrodzie lekkie pierwiastki. Produktem końcowym reakcji – oprócz dużej ilości energii – jest nieszkodliwy gaz – hel. Niestety fuzja jądrowa to śpiew przyszłości. Choć naukowcy usilnie nad tym pracują, najwcześniej będziemy mieli do niej dostęp dopiero za kilkanaście, kilkadziesiąt lat. Drugi scenariusz jest w pewnym sensie odwrotnością fuzji jądrowej. W rozszczepieniu jądra atomowego pierwiastek ciężki zostaje rozerwany na elementy lżejsze. I to ten rozpad jest źródłem energii. Pierwsza elektrownia jądrowa została wybudowana w 1942 roku, a dzisiaj dzięki energetyce jądrowej niektóre kraje pokrywają ponad 75 % całego swojego zapotrzebowania na energię elektryczną.

Przewidywanie przyszłości zawsze obarczone jest spora niepewnością. W każdej chwili, może się okazać, że ktoś wymyślił zupełnie nową technologię pozyskiwania energii. Wtedy powyższe rozważania w jednej chwili mogą się stać nieaktualne. Jeżeli jednak nic takiego się nie stanie, nie ma wątpliwości, że z wyczerpaniem paliw kopalnych będziemy musieli się zmierzyć nie za kilkaset, ale za kilkadziesiąt lat. Oszczędzanie energii, zwiększanie efektywności jej wykorzystania nie zahamuje tego procesu tylko go nieznacznie opóźni. Od nas zależy czy na czas przygotujemy się do tej chwili, czy obudzimy się w świecie ciemnym, zimnym i brudnym. I wcale nie trzeba czekać na moment, w którym wyczerpią się pokłady węgla. W końcu „epoka kamieni łupanego nie skończyła się z powodu braku kamieni”.

 

 

 

Brak komentarzy do Czy zgasną światła na Ziemi ?

TworzyMy atmosferę

To my tworzymy atmosferę, którą później oddychamy. Albo – trzeba niestety to przyznać – atmosferę, którą się podtruwamy. Na przełomie jesieni i zimy jakość powietrza w Polsce jest dramatyczna!  

>>> Polub FB.com/NaukaToLubie to miejsce w którym komentuję i popularyzuję naukę.

Jakość powietrza na przełomie jesieni i zimy jest najgorsza, bo wtedy powietrze jest wilgotne a szkodliwe cząsteczki mają się o co „zawiesić”. Gdy przychodzi sroga zima zanieczyszczenia są mniej szkodliwe, bo są szybko rozwiewane. W czasie mrozu powietrze jest suche (woda osiada jako szron albo śnieg) a to znaczy, że czystsze.

Kraków – brudne miasto

Dowodów na to, że zatrute powietrze powoduje wiele groźnych chorób jest tak wiele, że aż trudno zrozumieć dlaczego wciąż tak mało energii poświęcamy jego ochronie. Z badań ankietowych wynika, że aż 81 proc. pytanych nie uważa zanieczyszczenia powietrza za problem miejsca w którym mieszka. Fakty są jednak takie, że poziom zanieczyszczenia powietrza w Polsce jest jednym z najwyższych w Unii Europejskiej. Pod względem stężenia pyłu zawieszonego PM10 wywołującego m.in. astmę, alergię i niewydolność układu oddechowego w całej Europie gorsza sytuacja niż w Polsce jest tylko w niektórych częściach Bułgarii. W przypadku pyłu PM2,5 stężenie w polskim powietrzu jest najwyższe spośród wszystkich krajów w Europie, które dostarczyły dane. Podobnie jest ze stężeniem rakotwórczego benzopirenu. Gdy Polskę podzielono na 46 stref w których badano jakość powietrza, okazało się, że aż w 42 poziom benzopirenu był przekroczony. Wczytywanie się w statystyki, liczby, tabelki i wykresy może przyprawić o ból głowy. Okazuje się bowiem, że wśród 10 europejskich miast z najwyższym stężeniem pyłów zawieszonych, aż 6 to miasta polskie; Kraków, Nowy Sącz, Gliwice, Zabrze, Sosnowiec i Katowice. Bezsprzecznym liderem na liście miast z największym zanieczyszczeniem jest od lat Kraków. Tam liczba dni w roku w których normy jakości powietrza są przekroczone wynosi 151. Kraków jest trzecim najbardziej zanieczyszczonym miastem europejskim. Brudne powietrze to nie tylko takie w którym przekroczone są normy stężania pyłów zawieszonych czy wielopierścieniowych węglowodorów aromatycznych (WWA), w tym benzopirenu (te powstają w wyniku niecałkowitego spalania np. drewna, śmieci czy paliw samochodowych). My i nasze dzieci (także te, które jeszcze się nie urodziły) oddychamy tlenkami azotu (główne źródło to spaliny samochodowe), tlenkami siarki (spalanie paliw kopalnych), przynajmniej kilkoma metalami ciężkimi np. kadmem, rtęcią, ołowiem, a także tlenkiem węgla.

Piece i samochody

Źródła poszczególnych zanieczyszczeń występujących w atmosferze są różne, ale w brew pozorom nie są one związane z przemysłem. Głównym ich źródłem jesteśmy my sami, a konkretnie indywidualne ogrzewanie domów i mieszkań oraz transport drogowy. Ponad 49 proc. gospodarstw domowych ma własne piece centralnego ogrzewania. Samo to nie byłoby problemem gdyby nie fakt, że przeważająca większość tych pieców to proste konstrukcje, które można scharakteryzować dwoma określeniami: są wszystkopalne i bardzo mało wydajne. Duża ilość paliwa, którą trzeba zużyć oraz fakt, że często używane jest w nich paliwo niskiej jakości powodują, że duże miasta w Polsce w okresie jesienno – zimowym praktycznie są cały czas zasnute mgłą. Swoje dokładają także samochody. Liczba samochodów osobowych zarejestrowanych w Polsce wynosi 520 pojazdów na 1000 mieszkańców a to więcej niż średnia europejska. Nie jest to bynajmniej powód do dumy. Spory odsetek samochodów na naszych drogach nie zostałby zarejestrowany w innych unijnych krajach. Także ze względu na toksyczność spalin.

>>> Polub FB.com/NaukaToLubie to miejsce w którym komentuję i popularyzuję naukę.

O szkodliwości zanieczyszczonego powietrza można by pisać długie elaboraty. W zasadzie nie ma organu, nie ma układu w naszym ciele, który nie byłby uszkadzany przez związki chemiczne zawarte w zanieczyszczeniach. Przyjmuje się, że z powodu zanieczyszczenia powietrza umiera w Polsce ponad 40 tys. osób rocznie. To ponad 12 razy więcej osób niż ginie wskutek wypadków drogowych! Grupami szczególnie narażonymi są dzieci i osoby starsze. Zanieczyszczenia bardzo negatywnie wpływają na rozwój dziecka przed urodzeniem. Prowadzone także w Polsce badania jednoznacznie wskazywały, że dzieci, których matki w okresie ciąży przebywały na terenach o dużym zanieczyszczeniu powietrza, miały mniejszą masę urodzeniową, były bardziej podatne na zapalenia dolnych i górnych dróg oddechowych i nawracające zapalenie płuc w okresie niemowlęcym i późniejszym, a nawet wykazywały gorszy rozwój umysłowy.

To problem każdego!

W sondażu przeprowadzonym na zlecenie Ministerstwa Środowiska w sierpniu 2015 r. czystość powietrza była wymieniana jako jedna z trzech – obok bezpieczeństwa na drogach i poziomu przestępczości – najważniejszych kwestii, od których zależy komfort życia w danej miejscowości. Problem z tym, że większość pytanych nie widzi tego problemu w miejscowości w której mieszka. Temat dla nich istnieje, ale jest abstrakcyjny, mają go inni. Prawda jest inna. Nawet w wypoczynkowych miejscowościach jak Zakopane czy Sopot jakość powietrza jest koszmarna. Tymczasem problem w dużej części można rozwiązać bez dodatkowych inwestycji czy zwiększania rachunki np. za ogrzewanie. Wystarczy zmienić własne nawyki. Kupno węgla o odpowiednich parametrach to pozornie wyższy wydatek. Lepszy węgiel ma jednak wyższą wartość opałową, czyli trzeba go zużyć mniej by wyprodukować podobna ilość ciepła. Nic nie kosztuje dbanie o sprawność domowego pieca przez regularne czyszczenie go. Nic nie kosztuje (można dzięki temu nawet zaoszczędzić), zamiana w mieście samochodu na komunikacje miejską albo rower.

A miejsce śmieci… jest w śmietniku. Inaczej pozostałości z ich spalania, będę kumulowały się w naszych płucach. Polacy w domowych piecach spalają rocznie do 2 mln ton odpadów. W konsekwencji do atmosfery i do naszych płuc trafiają m.in. toksyczne dioksyny, furany, cyjanowodór.

>>> Polub FB.com/NaukaToLubie to miejsce w którym komentuję i popularyzuję naukę.

 

Tekst został opublikowany w tygodniku Gość Niedzielny.
2 komentarze do TworzyMy atmosferę

Technologia demencji z pomocą

To, że nasz świat się starzeje wiedzą wszyscy. Ale niewiele osób zdaje sobie sprawę z konsekwencji z jakimi się to wiąże. Przed ogromnymi wyzwaniami stoją służba zdrowia i publiczne usługi.  Ale także system ubezpieczeń społecznych i… architektura.

>>> Polub FB.com/NaukaToLubie to miejsce w którym komentuję i popularyzuję naukę.

Każdy chyba intuicyjnie czuje, czym jest tzw. inteligentny dom (mieszkanie). To miejsce – w największym skrócie – które dostosowuje się do człowieka. I to na każdym z możliwych poziomów. Do człowieka i dla człowieka. Inteligentne domy wiążą się z tzw. internetem rzeczy i w przyszłości będą czymś oczywistym nie tylko dla osób starszych. Tyle tylko, że tak jak osoba w pełni sił obejdzie się bez udogodnień w swoim mieszkaniu, tak osoba starsza, z ograniczeniami fizycznymi a czasami także psychicznymi, może mieć z tym problem.

Kilka lat temu pracujący w brytyjskim Uniwersytecie Bath uczeni zabrali się za urządzanie wnętrz. Tym razem zamiast architektów czy dekoratorów pierwsze skrzypce grali jednak inżynierowie i informatycy. I tak powstało być może pierwsze mieszkanie nafaszerowane nowoczesnymi technologiami, które zostało zaprojektowane specjalnie dla osób, które z powodu demencji czy urazów cierpią na zaniki pamięci.

Osoba cierpiąca na zaburzenia pamięci czy ograniczoną zdolność do zapamiętywania informacji jest uzależniona od innych. Ktoś musi przypilnować czy podopieczny sam nie wychodzi z domu (często nie zdając sobie sprawy dokąd się wybiera), sprawdzić czy zamknął okna (szczególnie, gdy na zewnątrz jest zimno) lub czy zgasił światła, gdy idzie spać. Ktoś musi także skontrolować czy wyłączył kuchenkę po podgrzaniu obiadu albo zobaczyć czy nie odkręcił wody nad umywalką w łazience, a potem o tym zapomniał. Te, czy też inne czynności nie są zwykle uciążliwe, ale wymagają przez cały czas obecności innych. Nie zawsze jest to jednak możliwe. Często w takich przypadkach – dla własnego bezpieczeństwa – osoby z zaburzeniami pamięci wysyłane są do domów opieki lub domów spokojnej starości. Tam całodobową opiekę zapewnia im profesjonalna kadra. Ale czy jest ona rzeczywiście zawsze potrzebna ? Na miejsca w tego typu ośrodkach trzeba czasami długo czekać, a biorąc pod uwagę tempo starzenia się społeczeństw, w przyszłości czas oczekiwania może być jeszcze dłuższy. Jest jeszcze coś. Nie ulega wątpliwości, że zmiana miejsca zamieszkania, a przez to także środowiska, czy kręgu znajomych wpływa bardzo niekorzystnie na osoby starsze.

Dlatego powstało pierwsze na świecie mieszkanie przyjazne i bezpieczne dla osób z zaburzeniami pamięci. Zainstalowany w nim system składa się z sensorów, które połączone są w sieć z urządzeniami najczęściej używanymi w gospodarstwie domowym. Do sieci podłączone są także wszystkie włączniki światła oraz urządzenia „mówiące” i wyświetlające komunikaty. Poza tym czujniki umieszczone są w drzwiach wyjściowych i wszystkich oknach. Sercem systemu jest komputer, który analizuje wszystkie dostarczane mu dane. To on decyduje, czy zwrócić się do właściciela mieszkania, czy – szczególnie wtedy gdy kolejne komunikaty nie przynosiły skutku – zadzwonić po pomoc.

Konstruktorzy systemu podkreślają, że dla osób starszych czy z różnego typu urazami równie ważne jak rzeczywista opieka jest poczucie bezpieczeństwa. Pewność, że w razie wypadku odpowiednie służby zostaną automatycznie powiadomione i przyjdą z pomocą. Wielką zaletą zaprojektowanego systemu jest to, że w przyszłości będzie go można zamontować w całości lub w częściach w już istniejących mieszkaniach. Dotychczasowe próby stworzenia „inteligentnych”, naszpikowanych elektroniką domów wiązały się z koniecznością budowy ich od samych niemalże fundamentów. Teraz jest inaczej. Osoba mająca coraz większe problemy z koncentracją będzie mogła zainstalować sobie komponenty systemu w swoim własnym mieszkaniu. Nie będzie się także musiała obawiać generalnego remontu ścian czy okien. Wszystkie urządzenia działają w technologii bezprzewodowej i przekuwanie się przez mury w czasie ich instalacji nie jest konieczne.

Co w takim razie potrafi inteligentne mieszkanie dla osób starszych ? Jednym z największych zagrożeń dla kogoś kto ma kłopoty z koncentracją jest zostawienie włączonej kuchenki elektrycznej lub gazowej. Jeżeli czujniki wykryją taką sytuację zasygnalizują głosowo, że powinna ona zostać wyłączona. Jeżeli pierwsze ostrzeżenie nic nie pomoże, system je powtórzy. Jeżeli nawet to nie da odpowiedniego rezultatu, kuchenka zostanie automatycznie wyłączona. To samo stanie się, gdy włączą się czujniki dymu zainstalowane nad kuchenką. W tym przypadku komputer natychmiast zadzwoni do odpowiednich służb i powiadomi je o zdarzeniu. Cały czas – nawet po wyłączeniu kuchenki – system sprawdza jaka jest temperatura grzejników. Tak długo jak są one gorące, na zainstalowanym nad kuchenką ekranie wyświetlane będzie ostrzeżenie o ryzyku oparzenia. Komputer główny cały czas „wie”, w którym pokoju przebywa właściciel mieszkania. Jeżeli w środku nocy wyjdzie z łóżka i będzie zmierzał w kierunku łazienki, automatycznie zapali się w niej światło. Jeżeli po skorzystaniu z toalety osoba wróci do łóżka, a zapomni zgasić światło – to, po kilku minutach wyłączy się ono samo. Podobnie jak samoczynnie zakręci się kurek z wodą, gdy umywalka czy wanna zostanie w całości napełniona. Gdy w nocy właściciel postanowi pospacerować po swoim mieszkaniu, w pokojach, do których wejdzie, automatycznie będą się włączały światła, a w  tych, z których wyjdzie wyłączały. Oczywiście światła będą też mogły być włączane i wyłączane „ręcznie”. Jeżeli „nocne zwiedzanie” będzie trwało zbyt długo, system przez zamontowane w mieszkaniu głośniki zwróci właścicielowi uwagę, że czas iść już spać. Jeżeli ani ten, ani powtórzony po kilku chwilach komunikat nie odniesie skutku, komputer skontaktuje się telefonicznie z opiekunem. Tak samo zresztą zareaguje, gdy podopieczny o nietypowych (zadanych wcześniej) godzinach otworzy drzwi wejściowe do swojego mieszkania i będzie miał zamiar wyjść na zewnątrz. System poprosi o wejście z powrotem, a jeżeli to nie pomoże, skontaktuje się  z opiekunem.

System można rozbudowywać według potrzeb osoby z niego korzystającej. Komputer będzie przypominał o zażyciu lekarstw zalecanych przez lekarza. O inteligentnym domu możemy mówić wtedy, gdy wszystko co automatyczne, połączone jest w zintegrowany system zarządzania i nadzoru. Gdy właściciel słucha jakiejś muzyki szczególnie często, system wie, że to jego ulubiona. Oczywiście ulubioną (nawet w zależności od pory dnia) można zdefiniować samemu. System też wie, że właściciel lubi kawę rano, ale po południu herbatę. To można także zaprogramować, albo poczekać, aż odpowiedni program sam się tego nauczy. Wiele pomysłów zaprojektowanych z myślą o osobach starszych – nie mam co do tego żadnych wątpliwości – znajdzie powszechne zastosowanie. Jak chociażby system, który z chwilą wyjścia domownika, automatycznie zamknie główny zawód wody i gazu, wyłączy wszystkie zbędne obwody elektryczne i uzbroi alarm. To wszystko może stać się wtedy gdy system czujników sam wykryje, że w domu już nikogo nie ma, albo wtedy gdy domownik na progu zawoła „wychodzę !”. W inteligentnym domu, głosem będzie można załatwić wszystko. Choć to wydaje się być udogodnienie dla wszystkich, dla starszych będzie to szczególnie istotne. Seniorzy często mają kłopoty ze wzrokiem i mniej precyzyjne palce niż osoby młode. Włączanie opcji na panelu czy klawiaturze może być dla nich kłopotliwe.

Co ciekawe, inteligentne domy są nie tylko bardziej przyjazne i bezpieczniejsze, ale także dużo oszczędniejsze w utrzymaniu. Oszczędzają wodę, energię elektryczną, gaz, ale przede wszystkim czas właścicieli. A to znaczy, że są odpowiedzią nie tylko na wyzwanie związane z średnim wiekiem społeczeństw uprzemysłowionych, ale także na wyzwanie związane z ochroną środowiska i oszczędzaniem energii.  

>>> Polub FB.com/NaukaToLubie to miejsce w którym komentuję i popularyzuję naukę.
1 komentarz do Technologia demencji z pomocą

Myśląca maszyna

Na samą myśl o tym, że komputer mógłby myśleć, myślącemu człowiekowi włosy stają dęba. A może wystarczy nauczyć maszynę korzystania z naszych myśli?

Myślenie maszyn to temat, który wywołuje sporo emocji. Czy zbudujemy kiedykolwiek sztuczny mózg? Czy maszyny (komputery, programy) mają świadomość? A może w przyszłości nas zastąpią? Cóż, zastępują już dzisiaj. I dobrze, że zastępują, w końcu po to je budujemy. Czy myślą? Nie da się odpowiedzieć na to pytanie, zanim nie sprecyzujemy dokładnie co to znaczy „myśleć”. Jeżeli oznacza „podejmować decyzje”, to tak, komputery potrafią to robić. Potrafią też się uczyć i wyciągać wnioski z przeszłości. Nie potrafią robić rzeczy abstrakcyjnych. I przede wszystkim nie mają poczucia osobowości, nie mają poczucia swojej odrębności i swoich własnych celów. Owszem maszyny robią wiele rzeczy celowych, ale realizują nie swoje cele, tylko cele konstruktora czy programisty.

Deep brain stimulator.

(credit:  Asylum Entertainment)

Deep brain stimulator.

(credit: Asylum Entertainment)

Łowienie sygnałów

Samoświadomość czy kreatywność wydają się być barierą, która jeszcze długo nie zostanie złamana. To czy powinna być złamana, to zupełnie inny temat. Ale być może nie ma potrzeby na siłę nadawać maszynom cech ludzkich mózgów, może wystarczy w jakiś sposób je z naszymi mózgami zintegrować? Różnice pomiędzy tym, jak działa nasz mózg i „mózg” maszyny są spore. Może warto się zastanowić nad tym, czy maszyna nie mogłaby w pewnym sensie skorzystać z tego co MY mamy w głowie. Ten sam problem można postawić inaczej. Czy nasz mózg jest w stanie dogadać się bezpośrednio z maszyną? Czy jest bezpośrednio w stanie przekazywać jej informacje albo nią sterować?

Słowo „bezpośrednio” ma tutaj kluczowe znaczenie. Nasze mózgi dogadują się z komputerem, ale pomiędzy umysłem a procesorem w maszynie jest cała masa stopni pośrednich. Np. palce piszącego na klawiaturze, sama klawiatura. W końcu język, w którym piszemy komendy (albo tekst). Te stopnie pośrednie powodują, że czas pomiędzy myślą, która zakwita nam w mózgu a jej „materializacją” bywa długi. Każdy stopień pośredni jest potencjalnym miejscem pojawienia się błędu. W końcu ile razy wpisywana przez klawiaturę komenda czy tekst zawierał literówki? Jest jeszcze coś. Nie każdy fizycznie jest w stanie obsługiwać komputer czy jakiekolwiek inne urządzenie elektroniczne. Zwłaszcza dla takich ludzi stworzono interfejs mózg – komputer (IBC). Urządzenie, które pozwala „zsynchronizować” mózg z komputerem, pozwalające wydawać komendy urządzeniom elektronicznym za pomocą fal mózgowych. Dzisiaj z IBC korzystają nie tylko niepełnosprawni, ale także gracze komputerowi. W przyszłości być może będzie to standardowy sposób obsługi elektroniki.

Jak to działa? Komórki nerwowe w mózgu człowieka porozumiewają się pomiędzy sobą poprzez przesyłanie impulsów elektrycznych. Te można z zewnątrz, czyli z powierzchni czaszki, rejestrować. W ostatnich latach nauczyliśmy się je także interpretować. To istne szukanie igły w stogu siana. Mózg każdej sekundy przetwarza miliony różnych informacji, przesyła miliony impulsów do mięśni rozlokowanych w całym ciele. Każdy taki sygnał pozostawia „ślad”, który można podsłuchać.

Neural net firing reversed.

(credit:  Asylum Entertainment)

Neural net firing reversed.

(credit: Asylum Entertainment)

Czujnik w okularach

Nie powiem, że potrafimy podsłuchać wszystko. To byłaby nieprawda. Mówiąc szczerze, jesteśmy dopiero na samym początku drogi. W przypadku IBC bardzo pomocna jest  świadomość użytkownika (pacjenta?) korzystającego z interfejsu. Człowiek ma bowiem zdolności do takiego aktywizowania mózgu, by sygnały z tym związane, można było wyraźniej „usłyszeć” na powierzchni czaszki. Dzięki temu, osoby sparaliżowane, myślami są w stanie poruszać mechanicznymi nogami (czyli tzw. egzoszkieletem) albo wózkiem inwalidzkim. W ten sam sposób człowiek ze sprawnie działającym mózgiem jest w stanie komunikować się z otoczeniem chociażby poprzez pisanie na ekranie, nawet gdy jest całkowicie sparaliżowany. Myśli o literach, a te wyświetlają się na odpowiednim urządzeniu.  W podobny sposób, w przyszłości być może będzie wyglądało sterowanie telefonem komórkowym czy jakimkolwiek innym urządzeniem. Pewną trudnością jest to, że – przynajmniej dzisiaj – po to, by wspomniane impulsy można było zarejestrować, do skóry głowy muszą być przyłożone elektrody. Albo korzystający z interfejsu człowiek musi mieć ubrany specjalny czepek z czujnikami. Ale w przyszłości być może wystarczą czujniki w okularach? Okularach, w których zainstalowana będzie kamera, a na szkłach wyświetlane będą dodatkowe informacje. Takie okulary już są i nazywają się GoogleGlass.

Złożony i skomplikowany

Interfejs mózg – komputer odbiera sygnały z powierzchni skóry, rejestruje je i interpretuje. Czy możliwe jest przesyłanie informacji w odwrotną stronę, czyli z jakiegoś urządzenia do mózgu? Na razie tego nie potrafimy, ale nie mam wątpliwości, że będziemy próbowali się tego nauczyć (znów, czy powinniśmy to robić, to zupełnie inny temat). To znacznie bardziej skomplikowane niż sczytywanie potencjałów elektrycznych z powierzchni czaszki. W którymś momencie tę barierę może przekroczymy i wtedy będziemy mieli dostęp do nieograniczonej ilości informacji nie poprzez urządzenia dodatkowe takie jak komputery, tablety czy smartfony. Wtedy do tych informacji będzie miał dostęp bezpośrednio nasz mózg. Na to jednak zbyt szybko się nie zanosi. Nie z powodu samej elektroniki, raczej z powodu naszego mózgu. Panuje dość powszechna zgoda, że to najbardziej skomplikowany i złożony system jaki znamy. Nie tylko na Ziemi, ale w ogóle. Choć od lat na badania mózgu przeznacza się ogromne kwoty pieniędzy, choć w ostatnich latach poczyniliśmy ogromne postępy, wciąż niewiele wiemy o CZYMŚ co waży pomiędzy 1,2 a 1,4 kg

>>> Zapraszam na profil FB.com/NaukaToLubie (kliknij TUTAJ). To miejsce w którym staram się na bieżąco informować o nowościach i ciekawostkach ze świata nauki i technologii.

Brak komentarzy do Myśląca maszyna

Marsjanin okiem naukowca ;-)

Film Marsjanin jest niezły, choć książka 100 razy lepsza. Ale do rzeczy. Czy możliwa jest historia astronauty Marka Watneya, którego  gra Matt Damon? Postanowiłem popastwić się nad scenariuszem.

Wiem, że piszę to nico późno (w większości kin film już zszedł z ekranów), ale potraktujcie to jako pewien rodzaj próby. W polskim internecie naukowcy (dziennikarze naukowi) zwykle nie recenzują filmów. Ciekaw jestem jaka będzie reakcja na moją recenzję.

Film warto zobaczyć, a jeszcze bardziej warto przeczytać książkę. Piękne krajobrazy, dobre efekty specjalne i ciekawa historia nie zmieniają jednak tego, że opowiedziana w nim historia nie ma prawa się zdarzyć i to z wielu różnych powodów. Ja wspomnę o czterech. Jeżeli nie oglądałaś, jeżeli nie oglądałeś filmu, za chwilę zdradzę kilka szczegółów jego fabuły.

Burza piaskowa, ewakuacja załogi. Zdjęcie z filmu

1.Załogowa misja na Marsa musi w trybie natychmiastowym ewakuować się z planety z powodu silnej burzy piaskowej. Ta nadchodzi tak szybko, że astronauci mają dosłownie kilka minut na spakowanie się i wystrzelenie na orbitę. Tymczasem marsjańska burza byłaby dla sprzętu i ludzi  niegroźna. Marsjańska atmosfera jest z grubsza 200 razy rzadsza od ziemskiej. Nawet jak mocno wieje, niewiele ma to wspólnego z niszczycielskim żywiołem. Marsjańskie burze po prostu nie mają mocy którą mają burze na Ziemi. Marsjańska burza nie może przewracać metalowych konstrukcji. Poza tym da się ją przewidzieć z dużym wyprzedzeniem. Jeżeli w ogóle mówić o niebezpieczeństwach związanych z burzami piaskowymi na Czerwonej Planecie, to nie z powodu siły wiatru tylko znacznie mniejszych niż na Ziemi ziarenek pyłu. Te wcisną się wszędzie powodując uszkodzenia sprzętu. No ale tego w filmie nie było.

martian-gallery13-gallery-image

Uprawa ziemniaków w marsjańskim habitacie. Zdjęcie z filmu

2.Główny bohater ulega wypadkowi, a ewakuująca się załoga święcie przekonana o jego śmierci zostawia go samego na planecie. Mark Watney oczywiście się nie załamuje, tylko szybciutko liczy że na pomoc będzie musiał czekać kilka lat. Sprawdza racje żywnościowe i wychodzi mu, że tych ma za mało. Postanawia więc uprawiać w habitacie ziemniaki. Nawozi do wnętrza labu marsjański grunt i… no i tutaj zaczynają się kolejne kłopoty. Warstwa gruntu jaką przenosi do habitatu jest za mała żeby cokolwiek na niej wyrosło. Ale nie to jest najciekawsze. Z jakiś powodów astronauta postanawia nawozić ekskrementami ziemię po to by ziemniaki szybciej rosły. Po pierwsze nie wiem po co jakikolwiek nawóz. Marsjański grunt jest bardzo bogaty w mikroelementy i minerały. Nawet jeżeli chcieć go nawozić, to ludzkie odchody to nienajlepszy pomysł. Znacznie lepiej byłoby używać odpadków organicznych. Totalnym odlotem jest produkcja wody dla uprawy ziemniaków. Do tego Mark używa hydrazyny, czyli paliwa rakietowego. W teorii reakcja którą przeprowadza jest możliwa, w praktyce cały habitat wyleciałby w powietrze. Po to żeby z hydrazyny odzyskać wodór, po to by po połączeniu z tlenem powstała woda, musi zachodzić w ściśle kontrolowanych warunkach. A nie w namiocie zrobionym z worka.

Habitat, ściana na której główny bohater zaznacza liczbę spędzonych na Marcie dni. Zdjęcie z filmu

3.Największe moje wątpliwości budzi jednak nie burza, ani nie uprawa ziemniaków, tylko długi czas przebywania człowieka na Czerwonej Planecie. O ile dobrze liczę Mark Watney przebywał tam około 20 miesięcy. Nawet gdyby miał wodę i pożywienie wróciłby stamtąd chory. Do powierzchni Marsa z powodu bardzo cienkiej i rzadkiej atmosfery dochodzi dużo więcej promieniowania kosmicznego niż do powierzchni Ziemi. Z szacunków wynika, że po to by człowiek mógł czuć się na Marsie równie bezpieczny co na Ziemi, na Czerwonej Planecie musiałby przebywać pod osłoną około 2 metrów litej skały. Tymczasem w filmie nie widzimy bunkrów czy podziemnych schronów, tylko pomieszczenia wykonane z dość cienkich materiałów. Także kombinezon głównego bohatera jest cieniutki. Mark spaceruje, podziwia widoki a nawet wypuszcza się w dość dalekie trasy w pojeździe, który zresztą wygląda na zbyt ciężki jak na marsjańskie warunki. Jeden z łazików marsjańskich, nieporównywalnie mniejszy i lżejszy, kilka lat temu zakopał się w wydmie a wyciąganie go zajęło kilka tygodni.

Dalekie wycieczki piesze. Dość niebezpieczna rozrywka na Marsie. Zdjęcie z filmu

4.Natomiast najwiekszy odlot – dosłownie i w przenośni – to powrót z Marsa na Ziemię, a szczególnie jego początkowa faza, czyli opuszczenie Marsa. Nic tu się nie zgadza. Proca grawitacyjna pomiędzy Ziemia i Marsem zadziała tylko w dość specyficznych warunkach, na pewno nie takich jak te pokazane w filmie. Rozebranie rakiety, którą astronauta Mark Watney wydostaje się z powierzchni Marsa na jego orbitę spowodowałoby jej rozbicie. Pomijam już fakt, że okna zatkane materiałem z zużytego spadochronu to już nawet nie fikcja rodem z gwiezdnych wojen, tylko raczej z Hi-Mena… (dla młodszych Czytelników, He-Men to taka bajka rysunkowa, którą oglądali Wasi rodzice 😉 ). No i w końcu manewry na orbicie. Hamowanie przez wysadzenie w powietrze części stacji, przedziurawienie kombinezonu po to by używać go jak silniczka manewrowego. W końcu spotkanie… no i happy end. Nie o to chodzi że ostatnie sceny filmu sa mało prawdopodobne. One są nierealne i przeczą zasadom fizyki.

Podsumowując.

P1000471

Pustynia Atacama, Chile. Zdjęcie: Tomasz Rożek

Oczywiście takich filmów jak Marsjanin nie ogląda się po to by uczyć się fizyki. To jasne. Lubię się jednak czasami poznęcać nad filmami. Mnie najbardziej podobały się w tym filmie plenery. Spora część z nich była wykreowana komputerowo, ale część scen była grana na Chilijskiej pustyni Atacama. Byłem na niej jakiś czas temu i jeżeli Mars wygląda choć trochę jak ona… warto tam polecieć. Chociażby dla widoków. No i niebieskiego zachodu Słońca, którego akurat w filmie nie było. No bo wiecie, że na Ziemi, czyli niebieskiej planecie słońce zachodzi na czerwono, ale na czerwonej planecie na niebiesko.

P1000318_Fotor

Pustynia Atacama, Chile. Niedaleko tego miejsca testuje się marsjańskie łaziki. Zdjęcie: Tomasz Rożek

>>> Zapraszam na profil FB.com/NaukaToLubie (kliknij TUTAJ). To miejsce w którym staram się na bieżąco informować o nowościach i ciekawostkach ze świata nauki i technologii.

14 komentarzy do Marsjanin okiem naukowca ;-)

Jesteśmy w centrum?

Czy Ziemia leży w centrum wszechświata? To pytanie w XXI wieku może u niektórych wywołać  uśmiech politowania. Ale czy powinno?

Jesteśmy jedynym gatunkiem na Ziemi, który współtworzy środowisko w którym żyje. To ciekawe, bo to środowisko, które sami kreujemy, ma ogromny wpływ na kolejne pokolenia. Choć na Ziemi żyją tysiące, dziesiątki tysięcy gatunków zwierząt i roślin, tylko człowiek ma umiejętności, choć chyba powinienem napisać możliwości, by ziemię w tak ogromnym stopniu przekształcać. Jesteśmy niezwykłym gatunkiem, który żyje na niezwykłej planecie.

CopernicSystem

Rysunek Układu Słonecznego jaki pojawił się w dziele De revolutionibus orbium coelestium.

Przez setki lat, odpowiedź na tytułowe pytanie nie budziła żadnych wątpliwości. Ziemia była w centrum wszystkiego i centrum wszystkiego. Obiekty niebieskie (ze Słońcem i Księżycem włącznie) krążyły wokół naszej planety, a sama Ziemia była rusztowaniem o które opierała się cała reszta. Ten obraz runął około połowy XVI wieku. W 1543 roku w Norymberdze ukazało się dzieło kanonika Mikołaja Kopernika – astronoma, matematyka, ale także prawnika, lekarza i tłumacza. W De revolutionibus orbium coelestium – o obrotach sfer niebieskich – Kopernik obalił geocentryczną wizję świata i całkiem sprawnie (choć ze sporymi błędami) przedstawił system heliocentryczny. Ziemia przestała być w centrum. Jej miejsce zajęło Słońce. Oczywiście nikt wtedy nie myślał nawet o galaktykach, gwiazdach supernowych czy czarnych dziurach.

Dla Kopernika sytuacja była w zasadzie dosyć prosta. Słońce w centrum, a wszystko inne krążące wokoło. Mechanizm wszechświata wyglądał podobnie z tą tylko różnicą, że w samym jego centrum znajdowała się nie jak u starożytnych Ziemia, ale nasza dzienna gwiazda. Kilkadziesiąt lat po Koperniku, na początku XVII wieku obserwacje tego co znajduje się poza naszym układem planetarnym rozpoczął Galileusz. Pierwszą osobą, która przedstawiła koncepcję budowy galaktyki był urodzony w Królewcu filozof i matematyk, Immanuel Kant. Była połowa XVIII wieku i nikt poważny nie uznawał już Ziemi za geometryczne centrum wszechświata. Inaczej było jednak ze Słońcem. Wiedziano już o tym, że gwiazd w naszej galaktyce jest bardzo wiele. Wiedziano nawet że krążą one wokół jednego punktu. Bardzo długo uznawano jednak, że tym centralnym punktem jest właśnie Słońce i nasz układ planetarny.

BN-IB371_0424hu_J_20150423201321

Edwin Hubble z negatywem jednej z zaobserwowanych przez siebie galaktyk. źródło: www.wsj.com

Choć w XIX wieku Ziemia od wielu setek lat nie była już traktowana jako geometryczne centrum wszechświata, była jedyną znaną planetą co do której istniała pewność, że jest kolebką życia. Była też częścią jedynego znanego układu planetarnego. Poza Układem Słonecznym nie obserwowano żadnych planet. Ziemia nie leżała w centrum, ale była symbolicznym centrum. Na przełomie XVIII i XIX wieku najpierw Charles Messier, a później William Herschel skatalogowali setki i tysiące mgławic, które później, dzięki pracy amerykańskiego astronoma Edwina Hubble’a (lata 20te XX wieku) okazały się odległymi galaktykami. Odkrywano wiele, zaglądano coraz głębiej i dalej, ale jedno nie ulegało zmianie. W całym ogromnym wszechświecie, wszechświecie w którym istnieją miliardy galaktyk a każda jest domem dla setek miliardów gwiazd do 1990 roku istniało tylko dziewięć planet. Niesamowita historia !

Sytuacja uległa zmianie dokładnie 9 stycznia 1992 roku. To wtedy ukazała się w prestiżowym czasopiśmie Nature praca polskiego astronoma Aleksandra Wolszczana. Opisywała ona dokonane dwa lata wcześniej odkrycie trzech pierwszych planet poza Układem Słonecznym. Krążyły wokół pulsara PSR B1257+12, niecały 1000 lat świetlnych od Ziemi. Dzisiaj, 23 lat po tym odkryciu znanych jest prawie 2000 planet poza Układem Słonecznym, a planety pozasłoneczne, tzw. egzoplanety są odkrywane wręcz hurtowo.

The artist's illustration featured in the main part of this graphic depicts a star and its planet, WASP-18b, a giant exoplanet that orbits very close to it. A new study using Chandra data has shown that WASP-18b is making the star that it orbits act much older than it actually is.  The lower inset box reveals that no X-rays were detected during a long Chandra observation.  This is surprising given the age of the star, suggesting the planet is weakening the star's magnetic field through tidal forces.

To nie zdjęcie, tytlko artystyczna wizja ogromnej planety WASP-18b, która krąży bardzo blisko powierzchni swojej gwiazdy.

Planet jest sporo, ale czy one są takie jak Ziemia ? Nie! Po pierwsze przeważająca większość z nich jest dużo większa od Ziemi. To gazowe giganty takie jak „nasz” Jowisz i Saturn. Dużych planet odkrywamy tak dużo, bo znacznie łatwiej je wykryć. Ziemia różni się od innych jednak tym, że tutaj jest życie, a „tam” – niewiadomo. Co do tego, że proste bakteryjne życie istnieje w przestrzeni kosmicznej, praktycznie możemy mieć pewność, ale z życiem inteligentnym nie jest wcale tak prosto. Jest w tym pewien paradoks. Czym więcej wiem o życiu, tym chętniej przyznajemy, że to proste, jednokomórkowe jest wszechobecne i wszędobylskie. Proste formy mają niesamowitą zdolność do adaptowania się i do zasiedlania miejsc, które – jeszcze do niedawna byliśmy tego pewni – absolutnie nie nadają się do życia. Z życiem złożonym, nie mówiąc już o jego inteligentnej wersji, jest dokładnie na odwrót. Czym więcej wiemy, tym dłuższa staje się lista czynników, warunków, które muszą zostać spełnione, by życie jednokomórkowe wyewoluowało do wersji złożonej. Dzisiaj ta lista ma już kilkaset pozycji, wśród nich takie jak odpowiednia wielkość planety, odpowiednia odległość od gwiazdy i odpowiedni skład atmosfery. Te wspomniane warunki są w sumie logiczne. Ale dalej na tej liście jest pole magnetyczne i gorące jądro planety, siły pływowe, a więc tektonika płyt. Bardzo ważna jest aktywność wulkaniczna oraz wyładowania atmosferyczne.

Kiedyś powszechnie uważano, że Ziemia w skali kosmicznej jest ewenementem. Potem takie myślenie zarzucono. Gdybym napisał, że dzisiaj wraca się do tego, chyba bym przesadził. Ale faktycznie, coraz częściej zdajemy sobie sprawę z tego, że inteligentne istotny w kosmosie mogą być wielką rzadkością. I to pomimo tego, że planet we wszechświecie jest niepoliczalnie dużo. Czyżby więc Ziemia z ludźmi „na pokładzie” była egzemplarzem niepowtarzalnym? Na razie jest. Wiele, bardzo wiele wskazuje na to, że tak pozostanie jeszcze przez dość długi czas. A może nawet na zawsze.

2 komentarze do Jesteśmy w centrum?

Fagi – dobre wirusy

– Jak to się dzieje, że ci ludzie nie chorują – zastanawiał się widząc Hindusów kąpiących się i pijących wodę z Gangesu. Rzeki, która jest ściekiem. Więcej! wszystko wskazuje na to, że oni są przez to zdrowsi !

Bakterie stają się dla nas coraz groźniejsze. Coraz częściej zdarza się, że nie dają im rady nawet najbardziej zaawansowane terapie antybiotykowe. Sytuacja wymaga podjęcia niestandardowych metod. A może przeciwnie, wymaga powrotu do źródeł?

Ta historia rozpoczyna się w Indiach ostatnich lat XIX wieku. To wtedy przypłynął tam młody brytyjski biochemik i bakteriolog Ernest Hanbury Hankin. Ma jeden cel, walkę z cholerą, która miejscami przybiera rozmiary epidemii. Sukcesów nie ma praktycznie żadnych, a jego desperację potęguje fakt, że w Indiach zdają się nie działać reguły, których nauczył się w Anglii. Młody badacz zauważa bowiem, że na cholerę bardzo rzadko chorują ci, którzy kąpią się w rzece Ganges. Dla Hindusów sprawa jest oczywista, wody rzeki są święte, a każdy kto się w nich kąpie jest „chroniony”. Dla naukowca, sprawa jest trudna do zrozumienia. Przecież Ganges to ściek! To miejsce które powinno być źródłem problemu, a nie lekarstwem. Ku konsternacji większości Europejczyków, a już na pewno tych, którzy mieli wykształcenie medyczne czy biologiczne, Hindusi wodę z Gangesu pili. I? I nic im się nie działo. Jak to możliwe? Brytyjski naukowiec uważał, że w rzece musi być coś, co pijących jej wodę uodparnia. Fenomen dotyczył nie tylko wody w Gangesie, ale także w innych rzekach, równie zanieczyszczonych.

W 1896 roku Ernest Hanbury Hankin opublikował pracę naukową, w której stawiał tezę, że, w badanej przez niego wodzie istnieją czynniki antybakteryjne, które są na tyle małe, że nie sposób zatrzymać ich nawet na najdrobniejszych filtrach. Praca nie została jednak zauważona. Dopiero 20 lat później odkryto co tym czynnikiem jest. Dwa zespoły badaczy, brytyjski i francuski, odkryły bakteriofagi, czyli wirusy, które niszczą bakterie. Nazwa bakteriofag oznacza dosłownie „zjadacze bakterii”. W rzeczywistości wirusy nie pożerają bakterii. Ale o tym za chwilę. Dalsze badania pokazały, że w zasadzie każda bakteria ma swojego faga, czyli wirus, który bez większych problemów może sobie z nią poradzić. Pierwszy przypadek uleczenia wirusami zakażenia bakteryjnego (konkretnie chodziło o infekcję laseczką czerwonki, czyli siejącą śmierć dezynterią) miał miejsce w 1915 roku.

ganges

Zagadka: znajdź głowę chłopaka w śmieciach

Pierwszy nazwę bakteriofag zastosował pracujący w Paryżu Kanadyjczyk, Félix d’Herell. Nie jest ona do końca ścisła, bo sugeruje, że wirusy pożerają bakterie. W rzeczywistości wirusy niczego nie zjadają. Nie są organizmami żywymi, więc nie potrzebują źródła energii do zaspokajania swoich potrzeb. Jak w takim razie zabijają? Bakteriofagi, jak zresztą wszystkie wirusy, komórki żywych organizmów wykorzystują. Wirusy są kapsułkami zawierającymi materiał genetyczny. Nie potrafią same się poruszać. Posiadają jednak „klucze” do żywych komórek. Każda żywa komórka w swojej ścianie ma receptory. To coś w rodzaju zamka do drzwi. Ten, kto posiada klucz, może wejść do środka. Wirusy posiadają klucze, czyli białka pasujące do receptorów. Gdy cząsteczka wirusa znajdzie się w bezpośredniej bliskości komórki, jest bardzo prawdopodobne, że dojdzie do adsorpcji. Wirus otwiera zamek. Chwilę później następuje penetracja. Specjalną igiełką fag wkłuwa się do wnętrza bakterii i wstrzykuje tam swój materiał genetyczny. Komórka (w przypadku fagów komórka bakteryjna) nie ma pojęcia, że jest zainfekowana. Przecież wirus miał „legalne klucze”. Gdy materiał genetyczny znajdzie się w środku, dochodzi do tzw. replikacji genomu. Komórka replikuje wirusy z taką prędkością, że wkrótce zostaje – dosłownie – rozerwana z powodu ich natłoku w swoim wnętrzu. Od momentu „włożenia klucza do zamka” do unicestwienia bakterii mija nie więcej niż 30 minut! Każda zainfekowana komórka wyprodukuje kilkadziesiąt wirusów. A każdy z nich gotowy jest do ataku na nową bakterię.

W naturalnych warunkach pomiędzy bakteriami i wirusami ustala się pewna równowaga, ale gdyby tak wirusy antybakteryjne namnażać i traktować jako najlepszy z dostępnych antybiotyków? Wirusami leczono zanim, zanim ktokolwiek wiedział, czym są ci „niewidzialni” zabójcy bakterii. Félix d’Herelle leczył fagami śmiertelnie chorych na czerwonkę. „Ozdrowienie” następowało po kilkudziesięciu godzinach. Dzisiaj do koncepcji leczenia wirusami coraz częściej się wraca. Antybiotyki wydają się skuteczne, ale tylko na krótką metę. Bakterie potrafią się na nie uodparniać. W Polsce jedna trzecia szczepów dwoinki zapalenia płuc jest odporna na penicylinę. Na fagi nie da się uodpornić, bo te mutują tak samo szybko jak same bakterie. W Polsce znajduje się jeden z dwóch na świecie (i jedyny w Europie) ośrodek naukowy, który prowadzi terapię bakteriofagami. Kilka lat temu rozmawiałem z jego szefem, profesorem Andrzejem Górskim. Powiedział mi wtedy, że do Laboratorium Bakteriofagowego w Instytucie Immunologii i Terapii Doświadczalnej PAN we Wrocławiu zgłaszają się setki osób cierpiących na zakażenia, których żadne antybiotyki nie potrafią wyleczyć. Naukowcom z Wrocławia udaje to w ponad 80 procentach. W porównaniu z terapią antybiotykami, fagi są tańsze, a na pewno nie mniej skuteczne. Ponadto leczenie fagami nie powoduje skutków ubocznych, bo działanie wirusów jest ściśle ukierunkowane i wybiórcze. Określony bakteriofag atakuje tylko jeden gatunek bakterii. W ten sposób po terapii fagami oszczędzamy te „dobre bakterie”, np. z wnętrza układu pokarmowego. Tymczasem antybiotyki tak nie potrafią. – Czasami wystarczy kilkadziesiąt godzin, by osoba od lat cierpiąca na zakażenie uwolniła się od kłopotu. Leczymy nawet infekcje wywołane przez szczepy gronkowca złocistego – śmiercionośne bakterie, będące największym postrachem oddziałów intensywnej terapii – mówił mi prof. Górski.

Skoro mają tyle zalet, dlaczego bakteriofagami nie leczy się powszechnie? Przeszkodą jest prawo. Formalnie (w Unii Europejskiej i USA) przed skomercjalizowaniem, terapia musi być zarejestrowana, a jeszcze wcześniej poprzedzona badaniami klinicznymi. I tutaj pojawiają się problemy formalne. Terapia fagami nie jest zunifikowana, tylko po to by była skuteczna musi być tworzona dla każdego pacjenta osobno. Tego typu postępowanie wymyka się jednak normom, jakie ustalają prawnicy i urzędnicy. Nie bez znaczenia jest pewnie fakt, że przemysł farmaceutyczny czerpie ogromne korzyści z produkcji antybiotyków. Tańsza i w wielu przypadkach skuteczniejsza metoda leczenia fagami może być traktowana jako niechciana konkurencja. – Terapia fagowa to z formalnego punktu widzenia wciąż eksperyment, a do zaakceptowania nowości potrzeba czasu – powiedział mi kilka lat temu prof. Górski. Od tego czasu nic się nie zmieniło.

Drugi – poza Polską – ośrodek leczący fagami znajduje się w stolicy Gruzji, Tbilisi. Założył go zresztą Félix d’Herelle, ten sam, który nadał nazwę bakteriofagom. Ten zagorzały komunista pracował w Związku Radzieckim do śmierci. Gruziński instytut nie podlega pod prawo europejskie i amerykańskie, więc ma większą swobodę w działaniu, niż ośrodek we Wrocławiu. Kilka lat temu, Instytut z Gruzji założył filię w Meksyku, gdzie nie obowiązuje amerykańskie prawo, a bogatym (i chorym) Amerykanom znacznie łatwiej dojechać tam niż do Gruzji.

 

1 komentarz do Fagi – dobre wirusy

Co by się stało…

…gdyby uderzyła w nas asteroida albo kometa? Właśnie jedna z nich przelatuje rekordowo blisko Ziemi. Za pomocą prostych symulatorów (linki w tekście) można sobie wyobrazić rozmiar kataklizmu.

…gdyby uderzyła w nas asteroida albo kometa? Jedna właśnie przelatuje obok nas w rekordowo małej odległości zaledwie 500 tysięcy kilometrów od nas. Skutki kolizji zależą od wielu czynników, w tym od struktury obiektu, jego wielkości, energii ale także kąta pod jakim obiekt wszedłby w ziemską atmosferę. Za pomocą prostych symulatorów można sobie wyobrazić rozmiar kataklizmu.

Co nam może grozić?

Według NASA to największe zbliżenie tak dużego obiektu od 2006 roku. Asteroida 2015 TB 145 została zauważona dość późno bo zaledwie kilka tygodni temu. Porusza się względem Ziemi z prędkością ponad 125 tys km/h a jej rozmiar wynosi około 300 metrów na 600 metrów.Tak późna obserwacja może dziwić, bo obiekty tych rozmiarów śledzone są czasami przez całe lata. Tym razem jest inaczej, bo asteroida znajduje się na dość niestandardowej orbicie. Z tego powodu NASA obiekt uznała za niebezpieczny. Nawet największe komputery Agencji nie są w stanie dokładnie wyliczyć drogi po której asteroida będzie się poruszała. Różne obliczenia wskazują jednak, że minie Ziemię w odległości około 500 tysięcy kilometrów. To niemalże o włos. Dla porównania odległość pomiędzy Ziemią a Księżycem wynosi niecałe 400 tysięcy kilometrów.

Eksperci z NASA uspokajają, że do kolizji nie dojdzie, co by się stało, gdyby jednak… W poniższej tabelce na czerwono zaznaczyłem skutki jakie wywołałoby uderzenie w Ziemię takiej asteroidy jak ta, która właśnie nas mija.

Gdyby asteroida miała średnicę do 25 metrów, takie obiekty uderzają w Ziemię średnio raz na 150 lat, najprawdopodobniej w całości spaliłaby się w ziemskiej atmosferze. Zagrożenie związane z takim „spotkaniem” byłoby zerowe. Meteor czelabiński, który wszedł w ziemską atmosferę 15 lutego 2013 roku miał nie więcej niż 20 metrów średnicy. W wyższych warstwach atmosfery obiekt rozpadł się na drobne kawałki i większość z nich wyparowała w drodze do powierzchni Ziemi. te nieliczne, które „przetrwały” lekko uszkodziła kilka tysięcy budynków (w dość ciasno zabudowanym mieście) i niewielkie obrażenia około tysiąca osób. W przeważającej większości, chodziło o rany spowodowane odłamkami szkła. Straty zostały spowodowane przez falę uderzeniową, a nie odłamki meteorytu.Tak duży obiekt jak meteor czelabiński ostatni raz wszedł w ziemską atmosferę w 1908 roku, czego skutkiem była katastrofa tunguska.

A co z większymi obiektami?

obiekt czas skutki
do 50 m co 1500 lat zniszczenia obejmują średniej wielkości miasto, pojawiają się pożary i fale tsunami
do 150 m co 20 000 lat zniszczenia obejmują kilkaset kilometrów kwadratowych
do 300 m co 100 000 lat totalne zniszczenia w promieniu 100 km, szkody w promieniu kilkuset kilometrów
do 600 m co 200 000 lat tsunami na całej planecie, zniszczenia obszaru porównywalnego z Polską
do 1000 m co 1 000 000 lat poważne zmiany klimatyczne odczuwalne na całej planecie, zniszczony obszar porównywalny z całą Europą
do 5000 m co 20 000 000 lat globalne zniszczenie, pyły powstałe w wyniku kolizji zasłaniają Słońce, wieloletnia zima na całej planecie
powyżej 10 000 m co 100 000 000 lat po nas…

 

 

 

 

 

 

 

 

 

 

W Układzie Słonecznym znajdują się miliony, miliardy obiektów, które potencjalnie mogłyby nam zagrozić. Grawitacyjną ochronę nad naszą małą planetą sprawuje jednak Słońce i dwa gazowe giganty, czyli Jowisz i Saturn. To one ściągają na siebie przeważającą większość obiektów, które mogłyby uderzyć w Ziemię. Warto także zdawać sobie sprawę z tego, że odległości w kosmosie są… prawdziwie kosmiczne. Nawet jeżeli mówimy o tak bliskim przelocie jak ten aktualny. Spróbowałem to pokazać w jednym z moich filmików.

Asteroida w nas (nie) uderzy – Nauka. To lubię.

miniatura

Dane w powyższej tabelce są mocno przybliżone, oddają jednak skalę zagrożenia. Dla osób bardziej zainteresowanych polecam dwa symulatory/kalkulatory, dzięki którym można policzyć i zobaczyć zagrożony przez kosmiczny obiekt obszar.

– Pierwszy symulator jest dla mnie zaawansowanych:

uderzenie

– Drugi dla osób, które nieco bardziej chcą się zagłębić w problem:

uderzenie2

>>> Zapraszam na profil FB.com/NaukaToLubie (kliknij TUTAJ). To miejsce w którym staram się na bieżąco informować o nowościach i ciekawostkach ze świata nauki i technologii.

3 komentarze do Co by się stało…

Kolorowa jesień naukowo

Jest taki moment w roku, kiedy las – zwykle zielony – mieni się niemalże wszystkimi możliwymi kolorami. Dlaczego liście zmieniają kolor jesienią?

Liście są zielone, bo zawierają chlorofil. To związek chemiczny, barwnik, który potrafi „produkować” elektrony pod wpływem światła słonecznego. Po co roślinom elektrony? Potrzebują ich po to, by zaszła fotosynteza, czyli proces, w trakcie którego – w skrócie – z wody, dwutlenku węgla i światła powstają cukry i tlen. Ten ostatni jest usuwany do atmosfery, a cukry stanowią pożywienie dla roślin. W ciągu roku ilość wody i dwutlenku węgla jest mniej więcej stała. Co innego jednak ze światłem. Jego ilość w ciągu 12 miesięcy zmienia się diametralnie.

Sekret tkwi w świetle
Chlorofil to niejedyny barwnik – choć najważniejszy – z wielu występujących w roślinach zielonych. Gdy jesienią temperatura obniża się i powoli spada ilość dochodzącego do powierzchni ziemi światła słonecznego, dla roślin to znak, że zbliża się zima. Czas odpoczynku, a właściwie snu. To także sygnał, by przestać produkować chlorofil. To dosyć racjonalna decyzja. Skoro światła i tak jest coraz mniej, a za chwilę przyjdzie w ogóle „przystopować”, po co tracić energię na produkcję chlorofilu?

A więc chlorofilu jest coraz mniej, ale tutaj niespodzianka. Można by się spodziewać, że wraz z zanikiem barwnika liści, powinny one stawać się coraz bardziej przezroczyste. Otóż nie! Chlorofil znika a wraz ze zbliżaniem się zimy „do głosu” dochodzą inne barwniki. Są w liściach przez cały czas, ale „hegemonia” chlorofilu powoduje, że tych innych po prostu nie widać. Pojawiają się dopiero wtedy, gdy zmniejsza się ilość zielonego barwnika. Liście stają się coraz bardziej żółte i pomarańczowe, ale nie dlatego, że przysychają, ale dlatego, że znajduje się w nich całkiem sporo barwników z grupy karotenoidów. To te, które nadają kolor marchewce czy pomarańczom. Dzięki karotenoidom liście stają się żółte, pomarańczowe czy brązowe. Ale nie wszystkie liście są tak samo żółte. Sekret tkwi w ilości dochodzącego do powierzchni ziemi światła, a także temperaturze, gatunku drzewa, a nawet odczynie pH gruntu, na którym roślina się rozwija. Na jesień bardzo żółte są liście osiki, ale już liście klonu czy jesionu w ogóle nie żółkną. Te stają się intensywnie czerwone.

O co chodzi z czerwienią?
Barwniki, które odpowiadają za wiele odcieni czerwieni jesiennych liści, pochodzą z grupy antocyjanidyn. Te same związki występują zresztą w kwiatach. I tutaj ciekawostka. Dokładnie ten sam barwnik (cyjanidyna) nadaje róży kolor krwistej czerwieni i chabrom ciemnego błękitu. Wracając jednak do liści. Tak jak barwnik żółty czy pomarańczowy jest w liściach przez okrągły rok, tak barwniki czerwone produkowane są dopiero jesienią. Bez sensu? Po co tuż przed opadnięciem liść traci energię na produkcję czegokolwiek? To rzeczywiście swego rodzaju tajemnica. Dzisiaj naukowcy sądzą, że barwniki z grupy czerwonych chronią komórki liści przed zamarznięciem.

Jesienią nocne przymrozki są czymś zupełnie normalnym. Rośliny, w których liściach jest dużo czerwonych barwników, są odporniejsze na nie. To, co zastanawia badaczy, to fakt, że związki z grupy antocyjanidyn są produkowane także w innych okolicznościach. Na przykład wtedy, gdy roślinę zaatakują jednokomórkowe grzyby, gdy natężenie światła UV jest zbyt wielkie albo gdy zanieczyszczenie środowiska staje się dla nich uciążliwe. Czerwone liście mogą świadczyć o chorobie roślin. I znowu pojawia się pytanie. Dlaczego wyczerpana, chora roślina marnuje swoją energię na produkcję czerwonych barwników ? Czy nie lepiej, by w tej sytuacji ją oszczędzała? Eksperci przypuszczają, że jeżeli antocyjanidyny są produkowane po to, by liść wisiał na drzewie tylko troszkę dłużej, może oznaczać, że tuż przed zimą drzewo chce pobrać ze środowiska coś, co pomoże mu we wzroście w kolejnym sezonie. Być może tak jest rzeczywiście. W końcu liść zawiera wiele soli mineralnych czy pierwiastków, które roślinie mogą się jeszcze przydać. Część z nich drzewo odzyska, gdy liść zgnije na powierzchni gruntu, ale być może substancje najbardziej potrzebne roślina chce odzyskać bezpośrednio z liścia? Jeżeli tak, czerwone barwniki przypominałyby nieco komandosów czy BORowców, którzy w sytuacji zagrożenia pilnują ewakuacji ważnych osób. Dbają by liść wisiał jak najdłużej, po to by zanim spadnie, udało się z niego nak najwięcej wyciągnąć.

Przepis na kolorową jesień
Niektóre barwniki są charakterystyczne dla konkretnego gatunku roślin. Inne występują we wszystkich, ale pojawiają się w zależności od warunków zewnętrznych. To dlatego liście nawet dwóch stojących obok siebie drzew mogą mieć nieco inny odcień. Czy można sformułować przepis na kolorową jesień? Listę warunków, jakie muszą zostać spełnione, by spacer po jesiennym lesie był przeżyciem wręcz metafizycznym? Można się o to pokusić. Temperatura powietrza powinna spadać powoli, nie gwałtownie. To samo dotyczy ilości dochodzącego do liści światła. Pogoda powinna być słoneczna, a niebo niezasnute chmurami. Tylko wtedy chlorofil będzie ustępował innym barwnikom w sposób ciągły. Jakiekolwiek nagłe zmiany mogą spowodować, że liście znajdą się na ziemi, zanim zdążą zapłonąć feerią kolorów. Jeżeli jest zbyt mokro, liście wcześniej spadną, a jeżeli zbyt często chmury będą przysłaniały słońce, liście nie wyprodukują czerwonego barwnika. W skrócie: jesień musi być ciepła, sucha i słoneczna. Wtedy będzie złota, czerwona, brązowa, żółta, pomarańczowa…

 

Polecam wideo  „Tajemnica czerwonego drzewa – Nauka. To lubię.”

 

Polecam wideo „Liście jesienią (okiem fizyka) – Nauka. To lubię.”

Brak komentarzy do Kolorowa jesień naukowo

Fizyka tłumu

Zatłoczone miejsca mogą być bardzo niebezpieczne. Nie, nie z powodu kieszonkowców, tylko z powodu trudnych do opanowania reakcji tłumu. Duża grupa ludzi w określonych sytuacjach zachowuje się jak „jeden organizm” a nie jak grupa organizmów niezależnych.

Dwa dni temu, w Bydgoszczy, w czasie studenckiej imprezy wybuchła panika. Jedna osoba zginęła, a kilka kolejnych zostało rannych. Do dramatu doszło nie na dużej sali, tylko w wąskim przejściu. Kilkanaście dni wcześniej, w czasie hadżu – pielgrzymki wyznawców Allaha do Mekki, w tłumie zginęło około 500 osób. W styczniu 1990 roku, w tym samym miejscu zadeptano ponad 1500 ludzi. W czym jest problem? Ludzie w swoim zachowaniu podobni są do zwierząt, np. mrówek, ryb w ławicy czy ptaków w kluczu. Poruszają się w sposób uporządkowany i określony. Do czasu. Gdy wybucha panika, uporządkowanie ustępuje chaosowi. Wbrew pozorom ten chaos można ujarzmić… za pomocą równań matematycznych.

Szybko ale bezpiecznie

Z pozoru sytuacje takie jak w saudyjskiej Mekce zdarzają się rzadko. I całe szczęście. Ale nie chodzi tylko o tragedie w których giną ludzie. Gdy trzeba ewakuować centrum handlowe, liczy się każda chwila. Jak zaprojektować wyjścia ewakuacyjne? Zrobić jedno duże, czy kilka mniejszych? A kibice piłkarscy na dużym stadionie? Po skończonym meczu tysiące ludzi chce jak najszybciej dostać się do swoich samochodów czy do środków komunikacji publicznej. Jak oznaczyć ciągi komunikacyjne? Wypuszczać ludzi partiami czy po prostu otworzyć drzwi i „niech sami sobie radzą”. Problem jest ważny nawet dla linii lotniczych. I nie tylko w sytuacjach zagrożenia życia. Każda minuta postoju na płycie lotniska kosztuje. Jak pasażerów szybko „usadzić” na miejscu i co zrobić by po wylądowaniu jak najszybciej – bezpiecznie – opuścili oni samolot? Pytań jest naprawdę wiele. Tylko dlaczego mają na nie odpowiadać fizycy? Ano dlatego, że duża grupa ludzi podobna jest do płynu. Ten w niektórych sytuacjach porusza się przewidywalnie i wtedy mówimy o przepływie laminarnym, ale czasami ten porządek zamienia się w chaos i wtedy mówimy o przepływie turbulentnym. Fizycy tymi przepływami zajmują się od dawna, bo to od nich zależy np. opór z jakim musi poradzić sobie jadący autostradą samochód, bo to od nich zależy sprawność silnika odrzutowego samolotu. Od niedawna wiadomo jednak, że te same równania, które opisują mechanikę płynów, można stosować do dużych grup ludzi.

Mrówki też ludzie

Mrówki zwykle wybierają drogę… którą chodzi większość. „Domyślają się” – i słusznie – że kierunek który wybrało więcej mrówek jest z jakiś powodów bardziej atrakcyjny. I tak tworzą się tzw. mikrostużki, czyli drogi, które z jakichś powodów są przez mrówki preferowane. Podobnie zachowują się ryby w ławicy. I ludzie na chodniku. Nawet w dużym tłumie, nie poruszamy się całkowicie losowo i chaotycznie. Często, nawet nieświadomie, wybieramy drogę, którą idzie przed nami osoba poruszająca się w podobnym tempie co my. Gdy ktoś idzie wolniej, albo szybciej nie zwracamy na niego uwagi. Nasz mózg podświadomie śledzi tylko tych, którzy idą w naszym tempie. My sami też możemy być dla kogoś „przewodnikiem”, a ten ktoś dla kolejnej osoby. I już się tworzą mikrostrużki. To dlatego na szerokim trakcie ludzie idący w jednym kierunku jakoś automatycznie trzymają się jednej strony. Tylko co jakiś czas ktoś próbuje przebić się ”pod prąd”. Podstawowa i święta zasada jest taka, żeby tak projektować trakty, by ruch na nich mógł być płynny. I tak, lepiej, gdyby korytarz skręcał łukiem niż pod kątem prostym. Lepiej też by na skrzyżowaniu traktów było coś co trzeba okrążyć (fontanna, rzeźba,…), bo to zwiększa płynność ruchu. Niestety, te z pozoru proste zasady, gdy wybucha panika przestają obowiązywać i pojawia się chaos. Podobnie zresztą jak u mrówek, ryb w ławicy, a nawet u ptaków w stadzie. Za wszelką cenę nie można do tego dopuścić. Nie ma co liczyć na rozwagę czy trzymanie nerwów na wodzy. Ludzie w panice przestają zdawać sobie sprawę z tego co robią. Choć nie sposób przewidzieć, co zrobi konkretna osoba, naukowcy potrafią przewidzieć co będzie robiła duża grupa ludzi. Do tego zatrudniają największe komputery świata i… setki wolontariuszy. Ci, czasami sa narażeni na niebezpieczeństwo. W czasie próbnych ewakuacji jakie prowadzono w czasie budowy samolotu Airbus 380, z 900 ochotników, 30 zostało rannych w tym jedna osoba ciężko. Z międzynarodowych norm wynika, że samolot powinny być zaprojektowany w ten sposób, by ewakuacja wszystkich pasażerów nie trwała dłużej niż 90 sekund.

Dym i kamery

Gdy z końcówki palącego się knota świecy ulatnia się dym, początkowo jego strużka unosi się pionowo do góry. Można wręcz dostrzec równoległe do siebie pasma. To tzw. przepływ laminarny. Po kilkunastu centymetrach dym zaczyna jednak tworzyć zawirowania. Uporządkowana jeszcze przed chwilą stróżka staje się chaotyczna i nieprzewidywalna. Tak wygląda przepływ turbulentny. Naukowcy z Uniwersytetu w Dreźnie analizujący przypadki w których tłum zaczyna tratować ludzi, zauważyli, że zagrożenie pojawia się wtedy, gdy ludzie zaczynają poruszać się jak ciecz albo gaz w czasie przepływu turbulentnego. Tak długo, jak „przepływ” ludzi jest laminarny – nie ma problemu. Turbulentny, czyli chaotyczny przepływ pojawia się gdy wybucha panika, ale sam może być źródłem paniki. W Mekce droga pielgrzymów wiodła przez most Jamarat, który jest węższy niż droga do niego prowadząca. To zwężenie w przeszłości powodowało, że ludzie zaczynali poruszać się turbulentnie. Chaos powodował wybuch paniki, a panika – jeszcze większy chaos. Po sugestiach jakie niemieccy fizycy wysłali władzom Arabii Saudyjskiej, drogę pielgrzymów nieco przebudowano.

Co jeszcze może mieć znaczenie? Na przykład wyrwa w drodze, w zasadzie jakakolwiek przeszkoda. Ale także kłótnia czy bijatyka dwóch idących obok siebie osób. Schody, krawężnik, nawet moment w którym pieszy schyla się, by podnieść coś, co wypadło mu z ręki. Niemieccy badacze sugerują więc, by nad miejscami gdzie poruszają się duże grupy ludzi umieszczać kamery, które automatycznie będą wykrywały w których miejscach ruch zaczyna być turbulentny. Zanim dojdzie do tragedii (przecież z tyłu napierają kolejne masy ludzi), odpowiednie służby mogą zareagować. Mają na to od kilku, do kilkunastu minut.

Wąsko źle, szeroko też niedobrze

Ślepe stosowanie zasad jakie rządzą mechaniką płynów (analogia do dymu papierosowego) jest jednak skuteczne tylko do pewnego stopnia. Ludzie ze sobą współdziałają, oddziałują na siebie znacznie bardziej niż cząsteczki gazu czy płynu. W końcu widzą, co robią inni. Gdy wziąć pod uwagę to wszystko okazuje się, że pomieszczenie (pokój, stadion czy pokład samolotu) najszybciej pustoszeje, gdy … nikt się nie śpieszy. Tylko wtedy wyjście nie staje się wąskim gardłem. Gdy wzrasta prędkość ludzi idących ku wyjściu, drzwi „korkują się”, a ludzie opuszczają pomieszczenie grupkami. To spowalnia opuszczanie zagrożonego terenu. Dlatego lepiej jest projektować więcej węższych wyjść niż mniej szerszych. Ale tutaj – uwaga – sprawa jest bardziej złożona. Pomijając szczegóły (które choć bardzo ciekawe, zajęłyby tutaj zbyt dużo miejsca), okazuje się, że gdy ludzie współpracują z sobą (np. znajomi z pracy) szybciej wyjdą wąskim wyjściem. Gdy raczej konkurują o to kto szybciej się wydostanie, lepsze są wyjścia szerokie (chociażby miałoby ich być mniej). Gdy wyjścia są szerokie, dobrze przed nimi stawiać kolumny. Z symulacji komputerowych wynika, że w sytuacji krytycznej przed wyjściem rzadziej tworzą się wtedy kolejki, a w efekcie „przepływ” staje się bardziej laminarny. Z kolei przed wąskimi wyjściami dobrze jest zamontować równoległe  barierki (takie jak przy wejściu do metra), które spowodują, że już przed wejściem, ludzie będą szli w uporządkowanym szyku.

Kilka lat temu niemiecki rząd uruchomił projekt Hermes, w ramach którego powstał system kierujący tłumem. Kamery obserwują prędkość ludzi, a komputery za pomocą znaków świetlnych i dźwiękowych decydują którędy tłum prowadzić. Na stadionie czy w czasie dużej wystawy gdy trzeba zarządzić ewakuację, któreś z wyjść może być zablokowane (albo za bardzo oblegane). Wtedy kierowanie się w jego kierunku jest bardziej niebezpieczne niż nawet dołożenie drogi i udanie się do innego wyjścia. Dawanie ludziom jasnych sygnałów co mają robić w czasie zagrożenia jest niezwykle istotne. Zauważono (zresztą u zwierząt występuje ten sam mechanizm), że w sytuacjach kryzysowych podążamy raczej za tłumem, w grupie czujemy się bezpieczniej. Bez wyraźnej informacji duża grupa może przemieszczać się w kierunku jednego wyjścia („tam idą wszyscy, widocznie ktoś zna najlepszą drogę”), podczas gdy inne będą puste.

Dzisiaj jeszcze zbyt wcześnie by dogłębnie przeanalizować to co dwa dni temu stało się w Bydgoszczy. Przejście było wąskie, ludzi było dużo, okna były pozamykane. Brak tlenu przyspiesza podejmowanie irracjonalnych decyzji. Niektórzy świadkowie twierdzą, że ktoś w przejściu rozpylił gaz. Być może po to by uspokoić ludzi. Jeżeli tak było rzeczywiście, tylko pogorszył sytuację. Wyjaśnienie przyniesie śledztwo.

>>> Zapraszam na profil FB.com/NaukaToLubie (kliknij TUTAJ). To miejsce w którym staram się na bieżąco informować o nowościach i ciekawostkach ze świata nauki i technologii.

4 komentarze do Fizyka tłumu

Co tam się dzieje? Komety czy Obcy?

Wokół jednej z setek tysięcy gwiazd, które obserwuje teleskop Kepler krążą duże obiekty. Naukowcy nie widzą czym one są, ani jak powstały. Internety już mówią o tworach obcych cywilizacji.

Wiecie co to jest Brzytwa Ockhama? To zasada zgodnie z którą przy „wyjaśnianiu zjawisk należy dążyć do prostoty, wybierając takie wyjaśnienia, które opierają się na jak najmniejszej liczbie założeń i pojęć”. Trudno obcą cywilizację uznać za najbardziej oczywisty powód niezrozumiałych obserwacji astronomicznych. Oczywiście nie można jej też całkowicie wykluczyć.

Co konkretnie tak zadziwiło astronomów? W 2009 roku Teleskop Kosmiczny Keplera wśród setek tysięcy gwiazd wypatrzył KIC 8462852. Ta nie świeciła jednak tak jak inne słońca. Coś w sposób nieregularny zakłócało jej obserwację. Tym „czymś” jest duża ilość niewielkich, ale bardzo gęstych obiektów. – Prawdę mówiąc, światło emitowane przez KIC 8462852 było najdziwniejszą rzeczą, jaką zaobserwował Kepler od początku swojego istnienia – powiedziała badaczka z Yale Tabetha Boyajian. Kepler pracuje na orbicie od kilku lat. Inny badacz, Jason Wright, astronom z Penn State University powiedział, że był pod wrażeniem tego, jak niesamowicie to wyglądało. – Obca cywilizacja to ostatnia hipoteza, jaką powinniśmy w takim przypadku rozpatrywać, ale to coś wyglądało tak, jak gdyby stworzyli to właśnie kosmici. (oryginał wypowiedzi : „I was fascinated by how crazy it looked”. “Aliens should always be the very last hypothesis you consider, but this looked like something you would expect an alien civilization to build.”).

Jako że zdjęcia pochodzą sprzed kilku lat, badacze twierdzą, że bardzo dokładnie sprawdzili sprzęt i nie ma mowy o usterce czy pomyłce. – Tam na prawdę krąży ogromna ilość obiektów, ściśniętej materii – powiedziała Boyajian. Czym te obiekty mogą być? No właśnie tutaj zaczyna się kłopot. Bo lista naturalnych wytłumaczeń tego fenomenu jest bardzo krótka. W zasadzie, choć i to jest bardzo mało prawdopodobne, podobny efekt dałyby tylko komety. Być może inna gwiazda przyciągnęła w stronę KIC 8462852 sznur komet. Trudno nawet oszacować prawdopodobieństwo takiego zdarzenia, bo… nigdy wcześniej niczego podobnego nie zaobserwowano.

I co teraz? Dane są analizowane, a gwieździe wokół którejś coś krąży od stycznia będą się przyglądały ziemskie radioteleskopy. Gwiazda KIC 8462852 na nocnym niebie znajduje się pomiędzy gwiazdozbiorami łabędzia i lutni. Patrząc tam można sobie przez chwile pomyśleć…. że ktoś patrzy stamtąd w naszym kierunku. Nie, no błagam, musi być jakieś bardziej przyziemne wytłumaczenie 😉

Zapraszam na profil FB.com/NaukaToLubie (kliknij TUTAJ). To miejsce w którym staram się na bieżąco informować o nowościach i ciekawostkach ze świata nauki i technologii.

2 komentarze do Co tam się dzieje? Komety czy Obcy?

Type on the field below and hit Enter/Return to search