Nauka To Lubię

Oficjalna strona Tomasza Rożka

Tag: życie

Szkodliwe szufladki

Wściekam się, że nauk ścisłych w szkole często uczy się w tak nieatrakcyjny sposób. Jaki jest tego efekt? Na hasło „jestem fizykiem” widzę w oczach wielu (zbyt wielu) młodych ludzi przerażenie pomieszane ze współczuciem. Już słyszę jak w myślach mówią „mój Boże, jakie on musiał mieć nieszczęśliwe życie”.

Wściekam się, że nauk ścisłych w szkole często uczy się w tak nieatrakcyjny sposób. Kogo to wina? Wszystkich po trochu. Ale nie o tym chcę pisać (a przynajmniej nie tym razem). Wiem za to jaki jest efekt. Otóż na hasło „jestem fizykiem” widzę w oczach wielu (zbyt wielu) młodych ludzi przerażenie pomieszane ze współczuciem. Już słyszę jak w myślach mówią „mój Boże, jakie on musiał mieć nieszczęśliwe życie”.

>> Polub FB.com/NaukaToLubie i pomóż mi tworzyć stronę pełną nauki. 

W czym jest problem z nauczaniem przedmiotów ścisłych? Otóż z tym, że niewielu udaje się nimi zaciekawić. Dlaczego fizyka jest nudna? Bo ciągle wzory. A chemia? Bo nic nie kapuję z tych doświadczeń. To może biologia? A kogo interesują pantofelki?

Myślę, że jednym z głównych problemów… mój były szef, wybitny fizyk, który jako pierwszy człowiek na świecie wyprodukował kompletny atom antymaterii mawiał, że nie ma problemów, są tylko wyzwania… no to jeszcze raz. Myślę, że jednym z głównych wyzwań jakie stoją przed współczesną edukacją, jest zasypywanie szufladek, które sami stworzyliśmy w naszych mózgach, a teraz kopiujemy je do mózgów naszych dzieci. Chodzi mi o szufladki z napisem „fizyka”, „chemia”, „biologia”, „matematyka”. Małe, zainteresowane światem, dziecko nie rozróżnia dziedzin nauki. Dla niego jest nieistotne czy zmieniające kolor jesienne liście to domena biologii, chemii czy fizyki (prawdę mówiąc wszystkiego po trochu). Podobnie jak nie interesuje je czy spadającym z chmury deszczem powinien zajmować się fizyk czy chemik (podobnie jak poprzednio i jeden i drugi może o tym zjawisku sporo opowiedzieć). Dziecko interesuje znalezienie odpowiedzi, a nie to, kto jej udziela. Tymczasem my zamiast odpowiadać, zbyt wiele energii poświęcamy na to by dokładnie „rozdzielić kompetencje”.

Gdzie przebiega granica pomiędzy fizyką i chemią? A gdzie pomiędzy chemią i biologią? Czy cykle komórkowe to biologia czy chemia? A budowa materii? Atomy są chemiczne czy fizyczne? A potęgi? Powinien ich uczyć matematyk, fizyk czy chemik? W rzeczywistości uczy tego każdy na swój sposób, a uczeń – nie tylko ten, który miewa trudności z nauką – zastanawia się czy potęgi znane z matematyki, to te same o których słyszał na chemii czy fizyce? Na domiar złego, niektóre zjawiska zamiast pojawiać się równocześnie, na lekcjach np. chemii i fizyki wprowadzane są w sporych odstępach czasowych. To wszystko powoduje, że czym dłużej młody człowiek jest pod opieką systemu edukacji, tym większy ma problem z ogarnięciem nauk przyrodniczych jako całości. W pewnym sensie to powrót do dalekiej przeszłości, kiedy uważano, że prawa natury nie są uniwersalne. Że zasady, które rządzą zjawiskami przyrody nie wszędzie tak samo „działają”. Osobą, która dokonała przełomu, był Izaak Newton, lekarz, fizyk, filozof, ekonomista i teolog. Prawo powszechnego ciążenia jego autorstwa jako bodaj pierwsze pokazało, że „tutaj” czyli na Ziemi i „tam” czyli w kosmosie, obowiązują te same zasady. Że te same prawa opisują ruch planety wokół Słońca i ruch spadającego z drzewa jabłka. I pomyśleć, że 330 lat po opublikowaniu prac Newtona, nasz system edukacji wypuszcza „w świat” ludzi, którzy mają wątpliwości, czy gęstość oznaczana w chemii jako „d” a w fizyce jako ρ (ro), to ta sama wielkość.

Nasze wyobrażenie o świecie, nasza wiedza o nim jest weryfikowana praktycznie każdego dnia. Ale prawdziwe rewolucje zdarzają się stosunkowo rzadko. Kto tych rewolucji dokonuje? Czyimi rękami są one wprowadzane? Gdyby prześledzić historię nauki, dosyć szybko można dojść do wniosku, że rewolucje robią ci, którzy nie zostali zaszufladkowani, ci którzy potrafią się wznieść ponad tradycyjny – sztuczny i moim zdaniem mocno krzywdzący młodego człowieka – podział na przedmioty. Tak było nie tylko setki lat temu, kiedy jedna osoba studiowała tak różne (z dzisiejszego punktu widzenia) kierunki jak medycyna, filozofia, nauki przyrodnicze, teologia i prawo (Kopernik, Newton czy Kant), ale także w czasach nam bliższych (Hubble, Lemaitre, Rubin). Prawdziwych odkryć, prawdziwych rewolucji w nauce dokonują ci, którzy swoją wiedzą ogarniają wiele półek w bibliotece, a nie ci, którzy znają tylko kilka książek na wyrywki. Choćby znali je na pamięć. No bo na dobrą sprawę, czy jest sens czytać książki na wyrywki, czasami nie po kolei? Wydaje mi się, ba! jestem tego pewny, że opowiadana w książkach historia nabiera rumieńców, wciąga i inspiruje dopiero wtedy gdy jest opowiedziana w całości.

male wielkie odkrycia 1500px 3d

„Małe wielkie odkrycia – najważniejsze wynalazki, które odmieniły świat”. Steven Johnson

A skoro już piszę o książkach i półkach. Do przemyśleń nad systemem edukacji nakłoniła mnie lektura pewnej książki. Nakładem wydawnictwa Sine Qua Non właśnie ukazały się „Małe wielkie odkrycia – najważniejsze wynalazki, które odmieniły świat”. Bardzo żałuję, że w polskiej szkole w ten sposób nie uczy się nauk ścisłych. Jasne, na fizyce czy na chemii muszą być wzory i zadania z treścią, ale szkoda, że bardzo często przysypani rachunkami, zapominamy co tak właściwie liczymy. Steven Johnson, autor „Małe wielkie odkrycia…” napisał książkę, która pokazuje historię rozwoju naszej cywilizacji. Pokazuje zawiłą, ale równocześnie pasjonującą drogę jaką przechodzili ludzie ciekawi i uparci. Nie opisuje pojedynczych wynalazków, nie dzieli ich na te dokonane przez fizyków, chemików i biologów. Pokazuje historię dochodzenia do odkryć. Do wybudowania teleskopu przyczyniło się oblężenie, setki lat wcześniej, Konstantynopola. Do skonstruowania pierwszego mikroskopu, wynalezienie dużo wcześniej prasy drukarskiej. Ta książka jest pełna, tak zaskakujących „związków”. Nie będę więcej zdradzał. Powiem tylko, że te największe odkrycia nie byłyby możliwe, bez tych małych. Małych wcale nie znaczy banalnych i nudnych. Przeciwnie. Małych, znaczy tajemniczych, nieznanych i nieoczywistych.

>> Polub FB.com/NaukaToLubie i pomóż mi tworzyć stronę pełną nauki. 
7 komentarzy do Szkodliwe szufladki

W kosmosie woda jest wszędzie!

Jest na planetach, księżycach, kometach a nawet… w mgławicach. Dość powszechnie panująca opinia o tym, że woda jest obecna tylko na Ziemi, jest kompletnie błędna. Wody w kosmosie jest bardzo dużo. Ale to wcale nie musi znaczyć, że wszędzie tam jest życie.

Dość powszechnie panująca opinia o tym, że woda jest obecna tylko na Ziemi, jest kompletnie błędna. Choć w kolejnym odcinku „Megaodkryć” na National Geographic Channel będzie mowa o „Wodnej apokalipsie” to okazuje się, że ta wspomniana apokalipsa to nasz ziemski problem.

>> Polub FB.com/NaukaToLubie i pomóż mi tworzyć stronę pełną nauki. 

Woda płynna jest na przynajmniej kilku obiektach Układu Słonecznego. Kilka tygodni temu odkryto ją także na powierzchni Marsa. Co zaskakuje, obłoki pary wodnej „wiszą” także w przestrzeni kosmicznej. Kilka lat temu odkryto taki wokół kwazaru PG 0052+251. Póki co, to największy ze wszystkich znanych rezerwuarów wody w kosmosie. Dokładne obliczenia wskazują, że gdyby całą tę parę wodną skroplić, byłoby jej 140 bilionów (tysięcy miliardów) razy więcej niż wody we wszystkich ziemskich oceanach. Masa odkrytego wśród gwiazd „zbiornika wody” wynosi 100 tysięcy razy więcej niż masa Słońca. To kolejny dowód, że woda jest wszechobecna we wszechświecie.

Do wyboru: lód, woda i para

Naukowców nie dziwi sam fakt znalezienia wody, ale jej ilość. Cząsteczka wody (dwa atomy wodoru i jeden atom tlenu) jest stosunkowo prosta i występuje we wszechświecie powszechnie. Bardzo często łączy się ją z obecnością życia. Faktem jest, że życie, jakie znamy, jest uzależnione od obecności wody. Ale sam fakt istnienia gdzieś wody nie oznacza istnienia tam życia. Po to, by życie zakwitło, musi być spełnionych wiele różnych warunków. Woda wokół wspomnianego kwazaru jest w stanie gazowym, a woda niezbędna do życia musi być w stanie ciekłym. Nawet jednak ciekła woda to nie gwarancja sukcesu (w poszukiwaniu życia), a jedynie wskazówka.

Takich miejsc, którym badacze się przyglądają, jest dzisiaj w Układzie Słonecznym przynajmniej kilka. Woda może tu występować – tak jak na Ziemi – w trzech postaciach: gazowej, ciekłej i stałej. I właściwie we wszystkich trzech wszędzie jej pełno. Cząsteczki pary wodnej badacze odnajdują w atmosferach przynajmniej trzech planet Układu Słonecznego. Także w przestrzeni międzygwiezdnej. Woda w stanie ciekłym występuje na pewno na Ziemi. Czasami na Marsie, najprawdopodobniej na księżycach Jowisza, ale także – jak wykazały ostatnie badania – na księżycach Saturna. A na jednym z nich – Enceladusie – z całą pewnością. Gdy kilka lat temu amerykańska sonda kosmiczna Cassini-Huygens przelatywała blisko tego księżyca, zrobiła serię zdjęć, na których było wyraźnie widać buchające na wysokość kilku kilometrów gejzery. Zdjęcia tego zjawiska były tak dokładne, że badacze z NASA zauważyli w buchających w przestrzeń pióropuszach nie tylko strugi wody, ale także kłęby pary i… kawałki lodu. Skąd lód? Wydaje się, że powierzchnia Enceladusa, tak samo zresztą jak jowiszowego księżyca Europy, pokryta jest bardzo grubą (czasami na kilka kilometrów) warstwą lodu. Tam nie ma lądów czy wysp. Tam jest tylko zamarznięty ocean. Cały glob pokryty jest wodą.

061215_europa_02

Powierzchnia jowiszowego księżyca Europa

Nie tylko u nas

Skoro cała powierzchnia księżyców Jowisza i Saturna pokryta jest bardzo grubym lodem, skąd energia gejzerów? Skąd płynna woda pod lodem? Niektóre globy żyją, są aktywne. Ich wnętrze jest potężnym reaktorem, potężnym źródłem ciepła. Tak właśnie jest w przypadku zarówno Europy, jak i Enceladusa. Swoją drogą ciekawe, co musi się dziać pod kilkukilometrowym lodem, skoro woda, która wydrążyła sobie w nim lukę, wystrzeliwuje na wiele kilometrów w przestrzeń?

Może nie morza, jeziora czy chociażby bajora, ale lekka rosa – wodę znajduje się także na powierzchni naszego Księżyca. Zaskakujące odkrycie to dzieło indyjskiej sondy Chandrayaan-1, potwierdzone przez dwie amerykańskie misje (Deep Impact i Cassini).

Niejedna praca naukowa powstała też na temat wody na Czerwonej Planecie. Wiadomo, że jest na marsjańskich biegunach. Nie brakuje jednak danych, że woda, nawet w stanie ciekłym, pojawia się czasowo w różnych innych miejscach planety. Wyraźnie ją widać na zboczach kraterów, o ile padają na nie promienie letniego Słońca.

Z badań amerykańskiej sondy Messenger, która od 2004 roku badała Merkurego, wynika, że woda jest także w atmosferze pierwszej od Słońca gorącej planety. Co z innymi planetami spoza Układu Słonecznego? Na nich też pewnie jest mnóstwo wody. Tylko jeszcze o tym nie wiemy. Chociaż… Pierwszą egzoplanetą, na której najprawdopodobniej jest woda jest HD 189733b, która znajduje się 63 lata świetlne od nas. Ta planeta to tzw. gazowy gigant. Ogromna kula gorących i gęstych gazów z płynnym wnętrzem. Gdzie tutaj miałaby być woda? Wszędzie – twierdzą badacze. Dzięki aparaturze wybudowanej w California Institute of Technology, USA udało się odkryć, że mająca prawie 1000 st. C atmosfera zawiera duże ilości pary wodnej.

>> Polub FB.com/NaukaToLubie i pomóż mi tworzyć stronę pełną nauki. 

Czy któreś z tych kosmicznych źródeł wody będzie nas w stanie uchronić przez niedostatkiem pitnej wody na Ziemi? Tego jeszcze nie wiemy, choć problem braku podstawowej do życia substancji wydaje się być coraz bardziej palący. Przekonują o tym hollywoodzka gwiazda – Angela Basset – i jej goście – światowej sławy naukowcy, którzy próbują odpowiedzieć na pytanie czy czeka nas „Wodna Apokalipsa” w ostatnim już odcinku niezwykłej serii „Megaodkrycia” na National Geographic Channel. Jeśli chcecie wiedzieć, gdzie najtęższe umysły naukowe szukają teraz źródeł H2O, oglądajcie „Wodną Apokalipsę” – już w niedzielę, 13 grudnia, o 22.00 na National Geographic Channel.

 

 

Brak komentarzy do W kosmosie woda jest wszędzie!

Czy zgasną światła na Ziemi ?

Światowa konsumpcja energii do 2050 roku podwoi się. Jeżeli nie znajdziemy nowych źródeł – może nam zabraknąć prądu.

W Paryżu trwa międzynarodowy panel klimatyczny. Wiele wątków, wiele interesów, wiele sprzecznych celów. Energia jest tematem, który z klimatem wiąże się bezpośrednio. I pomijając kwestie emisji i CO2, warto zdać sobie sprawę z tego, że światowa konsumpcja energii do 2050 roku podwoi się. Jeżeli nie znajdziemy nowych źródeł – będzie kłopot.

Słońce jest dostawcą większości energii dostępnej dzisiaj na Ziemi. Dostarcza ją teraz i dostarczało w przeszłości nie tylko dlatego, że świeci, ale także dlatego że pośrednio powoduje ruchu powietrza (czyli wiatry) i wody (czyli fale). Dzisiaj dostępne źródła energii można więc podzielić na te zdeponowane przez Słońce w przeszłości – nazwane nieodnawialnymi –  i te udostępniane nam na bieżąco – czyli odnawialne. Z tego podziału wyłamuję się energetyka jądrowa, geotermalna i grawitacyjna oraz fuzja jądrowa.

Najefektywniejszym odbiornikiem energii słonecznej na Ziemi jest roślinność. Dzięki zjawisku fotosyntezy, gdy Słońce świeci – rośliny rosną. Rosną i rozprzestrzeniają się także dlatego, że wieje wiatr. Bardzo długo człowiek korzystał tylko z tego przetwornika energii słonecznej. Drzewo jednak wolniej rośnie niż się spala. Z biegiem lat było nas coraz więcej i coraz więcej energii potrzebował nasz przemysł. Wtedy zaczęło brakować lasów pod topór. Całe szczęście umieliśmy już wydobywać i spalać węgiel, ropę naftową i gaz. Ale w gruncie rzeczy to to samo, co spalanie drewna. Tyle tylko, że w przypadku drzewa energia słoneczna była „deponowana” na Ziemi przez kilka dziesięcioleci, a w przypadku węgla czy ropy – przez miliony lat.

Kłopot w tym, że spalanie kopalin jest toksyczne. Badania przeprowadzane w różnych krajach potwierdzają, że typowa elektrownia węglowa o mocy 1 GWe  powoduje przedwczesną śmierć od 100 do 500 osób. Nie są to ofiary związane z wydobywaniem węgla, czy jego transportem, a jedynie ci, którzy mieli wątpliwe szczęście mieszkać w sąsiedztwie dymiącego komina. Oczyszczanie spalin jest bardzo drogie, a usuwanie szkód środowiskowych związanych z wydobyciem kopalin, w zasadzie niewykonalne. Skoro więc nie paliwa tradycyjne, to może odnawialne?  Siłownie wykorzystujące energię wody, wiatru czy Słońca powinny być budowane jak najszybciej tam, gdzie jest to opłacalne. Nie ulega jednak wątpliwości, że nie wszędzie jest. W Islandii, bogatej w gorące źródła, aż 73 proc. całej produkcji energii stanowi energia odnawialna. W Norwegii (długa i wietrzna linia brzegowa) 45 proc energii produkują wiatraki, a w niektórych krajach Afryki ponad połowa całej wyprodukowanej energii jest pochodzenia słonecznego. Ale równocześnie w proekologicznie nastawionych – ale nie usytuowanych – Niemczech mimo miliardowych inwestycji i olbrzymiej ilości elektrowni wiatrowych zielona energia stanowi około 20 proc. całej zużywanej energii. W tych statystykach nie liczę biomasy, bo ta nie jest żadną energią odnawialną.

Energia zdeponowana przez Słońce w przeszłych epokach wyczerpuje się, a korzystanie z niej w dotychczasowy sposób jest zbrodnią na środowisku naturalnym, z kolei energii dawanej nam przez Słońce „on-line” jest za mało. No więc jaki jest wybór? Wydaje się, że dzisiaj istnieją dwa scenariusze. Obydwa opierają się na skorzystaniu z nieograniczonej energii zdeponowanej jeszcze w czasie Wielkiego Wybuchu. Ta energia nas otacza w postaci materii, ale nie na poziomie związków chemicznych, ale na poziomie pojedynczych jąder atomowych. Jak to rozumieć ? Zanim powstał węgiel kamienny czy ropa naftowa, strumień energii ze Słońca umożliwiał zachodzenie tutaj, na Ziemi, przemian chemicznych, dzięki którym np. rozwijała się bujna roślinność. Dzięki światłu, wodzie i dwutlenkowi węgla tworzą się węglowodany (cukry), białka i tłuszcze. W tych reakcjach nie tworzą się jednak nowe atomy. Dzięki energii z zewnątrz już istniejące łączą się w większe kompleksy. Energia jest zmagazynowana w połączeniach pomiędzy atomami, w wiązaniach.  Ale same pierwiastki też są magazynami energii – energii, która umożliwiła ich stworzenie – pośrednio czy bezpośrednio – w czasie Wielkiego Wybuchu.

Tę energię da się pozyskać na dwa sposoby. Pierwszy to fuzja jądrowa, a drugi to rozszczepienie jądra atomowego. W pierwszym przypadku energia jest uwalniana przez łączenie dwóch lżejszych elementów w pierwiastek cięższy. Część masy tych pierwszych jest zamieniana na energię, którą można zamienić na prąd elektryczny. Paliwem w takim procesie mogą być powszechnie dostępne w przyrodzie lekkie pierwiastki. Produktem końcowym reakcji – oprócz dużej ilości energii – jest nieszkodliwy gaz – hel. Niestety fuzja jądrowa to śpiew przyszłości. Choć naukowcy usilnie nad tym pracują, najwcześniej będziemy mieli do niej dostęp dopiero za kilkanaście, kilkadziesiąt lat. Drugi scenariusz jest w pewnym sensie odwrotnością fuzji jądrowej. W rozszczepieniu jądra atomowego pierwiastek ciężki zostaje rozerwany na elementy lżejsze. I to ten rozpad jest źródłem energii. Pierwsza elektrownia jądrowa została wybudowana w 1942 roku, a dzisiaj dzięki energetyce jądrowej niektóre kraje pokrywają ponad 75 % całego swojego zapotrzebowania na energię elektryczną.

Przewidywanie przyszłości zawsze obarczone jest spora niepewnością. W każdej chwili, może się okazać, że ktoś wymyślił zupełnie nową technologię pozyskiwania energii. Wtedy powyższe rozważania w jednej chwili mogą się stać nieaktualne. Jeżeli jednak nic takiego się nie stanie, nie ma wątpliwości, że z wyczerpaniem paliw kopalnych będziemy musieli się zmierzyć nie za kilkaset, ale za kilkadziesiąt lat. Oszczędzanie energii, zwiększanie efektywności jej wykorzystania nie zahamuje tego procesu tylko go nieznacznie opóźni. Od nas zależy czy na czas przygotujemy się do tej chwili, czy obudzimy się w świecie ciemnym, zimnym i brudnym. I wcale nie trzeba czekać na moment, w którym wyczerpią się pokłady węgla. W końcu „epoka kamieni łupanego nie skończyła się z powodu braku kamieni”.

 

 

 

Brak komentarzy do Czy zgasną światła na Ziemi ?

TworzyMy atmosferę

To my tworzymy atmosferę, którą później oddychamy. Albo – trzeba niestety to przyznać – atmosferę, którą się podtruwamy. Na przełomie jesieni i zimy jakość powietrza w Polsce jest dramatyczna!  

>>> Polub FB.com/NaukaToLubie to miejsce w którym komentuję i popularyzuję naukę.

Jakość powietrza na przełomie jesieni i zimy jest najgorsza, bo wtedy powietrze jest wilgotne a szkodliwe cząsteczki mają się o co „zawiesić”. Gdy przychodzi sroga zima zanieczyszczenia są mniej szkodliwe, bo są szybko rozwiewane. W czasie mrozu powietrze jest suche (woda osiada jako szron albo śnieg) a to znaczy, że czystsze.

Kraków – brudne miasto

Dowodów na to, że zatrute powietrze powoduje wiele groźnych chorób jest tak wiele, że aż trudno zrozumieć dlaczego wciąż tak mało energii poświęcamy jego ochronie. Z badań ankietowych wynika, że aż 81 proc. pytanych nie uważa zanieczyszczenia powietrza za problem miejsca w którym mieszka. Fakty są jednak takie, że poziom zanieczyszczenia powietrza w Polsce jest jednym z najwyższych w Unii Europejskiej. Pod względem stężenia pyłu zawieszonego PM10 wywołującego m.in. astmę, alergię i niewydolność układu oddechowego w całej Europie gorsza sytuacja niż w Polsce jest tylko w niektórych częściach Bułgarii. W przypadku pyłu PM2,5 stężenie w polskim powietrzu jest najwyższe spośród wszystkich krajów w Europie, które dostarczyły dane. Podobnie jest ze stężeniem rakotwórczego benzopirenu. Gdy Polskę podzielono na 46 stref w których badano jakość powietrza, okazało się, że aż w 42 poziom benzopirenu był przekroczony. Wczytywanie się w statystyki, liczby, tabelki i wykresy może przyprawić o ból głowy. Okazuje się bowiem, że wśród 10 europejskich miast z najwyższym stężeniem pyłów zawieszonych, aż 6 to miasta polskie; Kraków, Nowy Sącz, Gliwice, Zabrze, Sosnowiec i Katowice. Bezsprzecznym liderem na liście miast z największym zanieczyszczeniem jest od lat Kraków. Tam liczba dni w roku w których normy jakości powietrza są przekroczone wynosi 151. Kraków jest trzecim najbardziej zanieczyszczonym miastem europejskim. Brudne powietrze to nie tylko takie w którym przekroczone są normy stężania pyłów zawieszonych czy wielopierścieniowych węglowodorów aromatycznych (WWA), w tym benzopirenu (te powstają w wyniku niecałkowitego spalania np. drewna, śmieci czy paliw samochodowych). My i nasze dzieci (także te, które jeszcze się nie urodziły) oddychamy tlenkami azotu (główne źródło to spaliny samochodowe), tlenkami siarki (spalanie paliw kopalnych), przynajmniej kilkoma metalami ciężkimi np. kadmem, rtęcią, ołowiem, a także tlenkiem węgla.

Piece i samochody

Źródła poszczególnych zanieczyszczeń występujących w atmosferze są różne, ale w brew pozorom nie są one związane z przemysłem. Głównym ich źródłem jesteśmy my sami, a konkretnie indywidualne ogrzewanie domów i mieszkań oraz transport drogowy. Ponad 49 proc. gospodarstw domowych ma własne piece centralnego ogrzewania. Samo to nie byłoby problemem gdyby nie fakt, że przeważająca większość tych pieców to proste konstrukcje, które można scharakteryzować dwoma określeniami: są wszystkopalne i bardzo mało wydajne. Duża ilość paliwa, którą trzeba zużyć oraz fakt, że często używane jest w nich paliwo niskiej jakości powodują, że duże miasta w Polsce w okresie jesienno – zimowym praktycznie są cały czas zasnute mgłą. Swoje dokładają także samochody. Liczba samochodów osobowych zarejestrowanych w Polsce wynosi 520 pojazdów na 1000 mieszkańców a to więcej niż średnia europejska. Nie jest to bynajmniej powód do dumy. Spory odsetek samochodów na naszych drogach nie zostałby zarejestrowany w innych unijnych krajach. Także ze względu na toksyczność spalin.

>>> Polub FB.com/NaukaToLubie to miejsce w którym komentuję i popularyzuję naukę.

O szkodliwości zanieczyszczonego powietrza można by pisać długie elaboraty. W zasadzie nie ma organu, nie ma układu w naszym ciele, który nie byłby uszkadzany przez związki chemiczne zawarte w zanieczyszczeniach. Przyjmuje się, że z powodu zanieczyszczenia powietrza umiera w Polsce ponad 40 tys. osób rocznie. To ponad 12 razy więcej osób niż ginie wskutek wypadków drogowych! Grupami szczególnie narażonymi są dzieci i osoby starsze. Zanieczyszczenia bardzo negatywnie wpływają na rozwój dziecka przed urodzeniem. Prowadzone także w Polsce badania jednoznacznie wskazywały, że dzieci, których matki w okresie ciąży przebywały na terenach o dużym zanieczyszczeniu powietrza, miały mniejszą masę urodzeniową, były bardziej podatne na zapalenia dolnych i górnych dróg oddechowych i nawracające zapalenie płuc w okresie niemowlęcym i późniejszym, a nawet wykazywały gorszy rozwój umysłowy.

To problem każdego!

W sondażu przeprowadzonym na zlecenie Ministerstwa Środowiska w sierpniu 2015 r. czystość powietrza była wymieniana jako jedna z trzech – obok bezpieczeństwa na drogach i poziomu przestępczości – najważniejszych kwestii, od których zależy komfort życia w danej miejscowości. Problem z tym, że większość pytanych nie widzi tego problemu w miejscowości w której mieszka. Temat dla nich istnieje, ale jest abstrakcyjny, mają go inni. Prawda jest inna. Nawet w wypoczynkowych miejscowościach jak Zakopane czy Sopot jakość powietrza jest koszmarna. Tymczasem problem w dużej części można rozwiązać bez dodatkowych inwestycji czy zwiększania rachunki np. za ogrzewanie. Wystarczy zmienić własne nawyki. Kupno węgla o odpowiednich parametrach to pozornie wyższy wydatek. Lepszy węgiel ma jednak wyższą wartość opałową, czyli trzeba go zużyć mniej by wyprodukować podobna ilość ciepła. Nic nie kosztuje dbanie o sprawność domowego pieca przez regularne czyszczenie go. Nic nie kosztuje (można dzięki temu nawet zaoszczędzić), zamiana w mieście samochodu na komunikacje miejską albo rower.

A miejsce śmieci… jest w śmietniku. Inaczej pozostałości z ich spalania, będę kumulowały się w naszych płucach. Polacy w domowych piecach spalają rocznie do 2 mln ton odpadów. W konsekwencji do atmosfery i do naszych płuc trafiają m.in. toksyczne dioksyny, furany, cyjanowodór.

>>> Polub FB.com/NaukaToLubie to miejsce w którym komentuję i popularyzuję naukę.

 

Tekst został opublikowany w tygodniku Gość Niedzielny.
2 komentarze do TworzyMy atmosferę

Technologia demencji z pomocą

To, że nasz świat się starzeje wiedzą wszyscy. Ale niewiele osób zdaje sobie sprawę z konsekwencji z jakimi się to wiąże. Przed ogromnymi wyzwaniami stoją służba zdrowia i publiczne usługi.  Ale także system ubezpieczeń społecznych i… architektura.

>>> Polub FB.com/NaukaToLubie to miejsce w którym komentuję i popularyzuję naukę.

Każdy chyba intuicyjnie czuje, czym jest tzw. inteligentny dom (mieszkanie). To miejsce – w największym skrócie – które dostosowuje się do człowieka. I to na każdym z możliwych poziomów. Do człowieka i dla człowieka. Inteligentne domy wiążą się z tzw. internetem rzeczy i w przyszłości będą czymś oczywistym nie tylko dla osób starszych. Tyle tylko, że tak jak osoba w pełni sił obejdzie się bez udogodnień w swoim mieszkaniu, tak osoba starsza, z ograniczeniami fizycznymi a czasami także psychicznymi, może mieć z tym problem.

Kilka lat temu pracujący w brytyjskim Uniwersytecie Bath uczeni zabrali się za urządzanie wnętrz. Tym razem zamiast architektów czy dekoratorów pierwsze skrzypce grali jednak inżynierowie i informatycy. I tak powstało być może pierwsze mieszkanie nafaszerowane nowoczesnymi technologiami, które zostało zaprojektowane specjalnie dla osób, które z powodu demencji czy urazów cierpią na zaniki pamięci.

Osoba cierpiąca na zaburzenia pamięci czy ograniczoną zdolność do zapamiętywania informacji jest uzależniona od innych. Ktoś musi przypilnować czy podopieczny sam nie wychodzi z domu (często nie zdając sobie sprawy dokąd się wybiera), sprawdzić czy zamknął okna (szczególnie, gdy na zewnątrz jest zimno) lub czy zgasił światła, gdy idzie spać. Ktoś musi także skontrolować czy wyłączył kuchenkę po podgrzaniu obiadu albo zobaczyć czy nie odkręcił wody nad umywalką w łazience, a potem o tym zapomniał. Te, czy też inne czynności nie są zwykle uciążliwe, ale wymagają przez cały czas obecności innych. Nie zawsze jest to jednak możliwe. Często w takich przypadkach – dla własnego bezpieczeństwa – osoby z zaburzeniami pamięci wysyłane są do domów opieki lub domów spokojnej starości. Tam całodobową opiekę zapewnia im profesjonalna kadra. Ale czy jest ona rzeczywiście zawsze potrzebna ? Na miejsca w tego typu ośrodkach trzeba czasami długo czekać, a biorąc pod uwagę tempo starzenia się społeczeństw, w przyszłości czas oczekiwania może być jeszcze dłuższy. Jest jeszcze coś. Nie ulega wątpliwości, że zmiana miejsca zamieszkania, a przez to także środowiska, czy kręgu znajomych wpływa bardzo niekorzystnie na osoby starsze.

Dlatego powstało pierwsze na świecie mieszkanie przyjazne i bezpieczne dla osób z zaburzeniami pamięci. Zainstalowany w nim system składa się z sensorów, które połączone są w sieć z urządzeniami najczęściej używanymi w gospodarstwie domowym. Do sieci podłączone są także wszystkie włączniki światła oraz urządzenia „mówiące” i wyświetlające komunikaty. Poza tym czujniki umieszczone są w drzwiach wyjściowych i wszystkich oknach. Sercem systemu jest komputer, który analizuje wszystkie dostarczane mu dane. To on decyduje, czy zwrócić się do właściciela mieszkania, czy – szczególnie wtedy gdy kolejne komunikaty nie przynosiły skutku – zadzwonić po pomoc.

Konstruktorzy systemu podkreślają, że dla osób starszych czy z różnego typu urazami równie ważne jak rzeczywista opieka jest poczucie bezpieczeństwa. Pewność, że w razie wypadku odpowiednie służby zostaną automatycznie powiadomione i przyjdą z pomocą. Wielką zaletą zaprojektowanego systemu jest to, że w przyszłości będzie go można zamontować w całości lub w częściach w już istniejących mieszkaniach. Dotychczasowe próby stworzenia „inteligentnych”, naszpikowanych elektroniką domów wiązały się z koniecznością budowy ich od samych niemalże fundamentów. Teraz jest inaczej. Osoba mająca coraz większe problemy z koncentracją będzie mogła zainstalować sobie komponenty systemu w swoim własnym mieszkaniu. Nie będzie się także musiała obawiać generalnego remontu ścian czy okien. Wszystkie urządzenia działają w technologii bezprzewodowej i przekuwanie się przez mury w czasie ich instalacji nie jest konieczne.

Co w takim razie potrafi inteligentne mieszkanie dla osób starszych ? Jednym z największych zagrożeń dla kogoś kto ma kłopoty z koncentracją jest zostawienie włączonej kuchenki elektrycznej lub gazowej. Jeżeli czujniki wykryją taką sytuację zasygnalizują głosowo, że powinna ona zostać wyłączona. Jeżeli pierwsze ostrzeżenie nic nie pomoże, system je powtórzy. Jeżeli nawet to nie da odpowiedniego rezultatu, kuchenka zostanie automatycznie wyłączona. To samo stanie się, gdy włączą się czujniki dymu zainstalowane nad kuchenką. W tym przypadku komputer natychmiast zadzwoni do odpowiednich służb i powiadomi je o zdarzeniu. Cały czas – nawet po wyłączeniu kuchenki – system sprawdza jaka jest temperatura grzejników. Tak długo jak są one gorące, na zainstalowanym nad kuchenką ekranie wyświetlane będzie ostrzeżenie o ryzyku oparzenia. Komputer główny cały czas „wie”, w którym pokoju przebywa właściciel mieszkania. Jeżeli w środku nocy wyjdzie z łóżka i będzie zmierzał w kierunku łazienki, automatycznie zapali się w niej światło. Jeżeli po skorzystaniu z toalety osoba wróci do łóżka, a zapomni zgasić światło – to, po kilku minutach wyłączy się ono samo. Podobnie jak samoczynnie zakręci się kurek z wodą, gdy umywalka czy wanna zostanie w całości napełniona. Gdy w nocy właściciel postanowi pospacerować po swoim mieszkaniu, w pokojach, do których wejdzie, automatycznie będą się włączały światła, a w  tych, z których wyjdzie wyłączały. Oczywiście światła będą też mogły być włączane i wyłączane „ręcznie”. Jeżeli „nocne zwiedzanie” będzie trwało zbyt długo, system przez zamontowane w mieszkaniu głośniki zwróci właścicielowi uwagę, że czas iść już spać. Jeżeli ani ten, ani powtórzony po kilku chwilach komunikat nie odniesie skutku, komputer skontaktuje się telefonicznie z opiekunem. Tak samo zresztą zareaguje, gdy podopieczny o nietypowych (zadanych wcześniej) godzinach otworzy drzwi wejściowe do swojego mieszkania i będzie miał zamiar wyjść na zewnątrz. System poprosi o wejście z powrotem, a jeżeli to nie pomoże, skontaktuje się  z opiekunem.

System można rozbudowywać według potrzeb osoby z niego korzystającej. Komputer będzie przypominał o zażyciu lekarstw zalecanych przez lekarza. O inteligentnym domu możemy mówić wtedy, gdy wszystko co automatyczne, połączone jest w zintegrowany system zarządzania i nadzoru. Gdy właściciel słucha jakiejś muzyki szczególnie często, system wie, że to jego ulubiona. Oczywiście ulubioną (nawet w zależności od pory dnia) można zdefiniować samemu. System też wie, że właściciel lubi kawę rano, ale po południu herbatę. To można także zaprogramować, albo poczekać, aż odpowiedni program sam się tego nauczy. Wiele pomysłów zaprojektowanych z myślą o osobach starszych – nie mam co do tego żadnych wątpliwości – znajdzie powszechne zastosowanie. Jak chociażby system, który z chwilą wyjścia domownika, automatycznie zamknie główny zawód wody i gazu, wyłączy wszystkie zbędne obwody elektryczne i uzbroi alarm. To wszystko może stać się wtedy gdy system czujników sam wykryje, że w domu już nikogo nie ma, albo wtedy gdy domownik na progu zawoła „wychodzę !”. W inteligentnym domu, głosem będzie można załatwić wszystko. Choć to wydaje się być udogodnienie dla wszystkich, dla starszych będzie to szczególnie istotne. Seniorzy często mają kłopoty ze wzrokiem i mniej precyzyjne palce niż osoby młode. Włączanie opcji na panelu czy klawiaturze może być dla nich kłopotliwe.

Co ciekawe, inteligentne domy są nie tylko bardziej przyjazne i bezpieczniejsze, ale także dużo oszczędniejsze w utrzymaniu. Oszczędzają wodę, energię elektryczną, gaz, ale przede wszystkim czas właścicieli. A to znaczy, że są odpowiedzią nie tylko na wyzwanie związane z średnim wiekiem społeczeństw uprzemysłowionych, ale także na wyzwanie związane z ochroną środowiska i oszczędzaniem energii.  

>>> Polub FB.com/NaukaToLubie to miejsce w którym komentuję i popularyzuję naukę.
1 komentarz do Technologia demencji z pomocą

Myśląca maszyna

Na samą myśl o tym, że komputer mógłby myśleć, myślącemu człowiekowi włosy stają dęba. A może wystarczy nauczyć maszynę korzystania z naszych myśli?

Myślenie maszyn to temat, który wywołuje sporo emocji. Czy zbudujemy kiedykolwiek sztuczny mózg? Czy maszyny (komputery, programy) mają świadomość? A może w przyszłości nas zastąpią? Cóż, zastępują już dzisiaj. I dobrze, że zastępują, w końcu po to je budujemy. Czy myślą? Nie da się odpowiedzieć na to pytanie, zanim nie sprecyzujemy dokładnie co to znaczy „myśleć”. Jeżeli oznacza „podejmować decyzje”, to tak, komputery potrafią to robić. Potrafią też się uczyć i wyciągać wnioski z przeszłości. Nie potrafią robić rzeczy abstrakcyjnych. I przede wszystkim nie mają poczucia osobowości, nie mają poczucia swojej odrębności i swoich własnych celów. Owszem maszyny robią wiele rzeczy celowych, ale realizują nie swoje cele, tylko cele konstruktora czy programisty.

Deep brain stimulator.

(credit:  Asylum Entertainment)

Deep brain stimulator.

(credit: Asylum Entertainment)

Łowienie sygnałów

Samoświadomość czy kreatywność wydają się być barierą, która jeszcze długo nie zostanie złamana. To czy powinna być złamana, to zupełnie inny temat. Ale być może nie ma potrzeby na siłę nadawać maszynom cech ludzkich mózgów, może wystarczy w jakiś sposób je z naszymi mózgami zintegrować? Różnice pomiędzy tym, jak działa nasz mózg i „mózg” maszyny są spore. Może warto się zastanowić nad tym, czy maszyna nie mogłaby w pewnym sensie skorzystać z tego co MY mamy w głowie. Ten sam problem można postawić inaczej. Czy nasz mózg jest w stanie dogadać się bezpośrednio z maszyną? Czy jest bezpośrednio w stanie przekazywać jej informacje albo nią sterować?

Słowo „bezpośrednio” ma tutaj kluczowe znaczenie. Nasze mózgi dogadują się z komputerem, ale pomiędzy umysłem a procesorem w maszynie jest cała masa stopni pośrednich. Np. palce piszącego na klawiaturze, sama klawiatura. W końcu język, w którym piszemy komendy (albo tekst). Te stopnie pośrednie powodują, że czas pomiędzy myślą, która zakwita nam w mózgu a jej „materializacją” bywa długi. Każdy stopień pośredni jest potencjalnym miejscem pojawienia się błędu. W końcu ile razy wpisywana przez klawiaturę komenda czy tekst zawierał literówki? Jest jeszcze coś. Nie każdy fizycznie jest w stanie obsługiwać komputer czy jakiekolwiek inne urządzenie elektroniczne. Zwłaszcza dla takich ludzi stworzono interfejs mózg – komputer (IBC). Urządzenie, które pozwala „zsynchronizować” mózg z komputerem, pozwalające wydawać komendy urządzeniom elektronicznym za pomocą fal mózgowych. Dzisiaj z IBC korzystają nie tylko niepełnosprawni, ale także gracze komputerowi. W przyszłości być może będzie to standardowy sposób obsługi elektroniki.

Jak to działa? Komórki nerwowe w mózgu człowieka porozumiewają się pomiędzy sobą poprzez przesyłanie impulsów elektrycznych. Te można z zewnątrz, czyli z powierzchni czaszki, rejestrować. W ostatnich latach nauczyliśmy się je także interpretować. To istne szukanie igły w stogu siana. Mózg każdej sekundy przetwarza miliony różnych informacji, przesyła miliony impulsów do mięśni rozlokowanych w całym ciele. Każdy taki sygnał pozostawia „ślad”, który można podsłuchać.

Neural net firing reversed.

(credit:  Asylum Entertainment)

Neural net firing reversed.

(credit: Asylum Entertainment)

Czujnik w okularach

Nie powiem, że potrafimy podsłuchać wszystko. To byłaby nieprawda. Mówiąc szczerze, jesteśmy dopiero na samym początku drogi. W przypadku IBC bardzo pomocna jest  świadomość użytkownika (pacjenta?) korzystającego z interfejsu. Człowiek ma bowiem zdolności do takiego aktywizowania mózgu, by sygnały z tym związane, można było wyraźniej „usłyszeć” na powierzchni czaszki. Dzięki temu, osoby sparaliżowane, myślami są w stanie poruszać mechanicznymi nogami (czyli tzw. egzoszkieletem) albo wózkiem inwalidzkim. W ten sam sposób człowiek ze sprawnie działającym mózgiem jest w stanie komunikować się z otoczeniem chociażby poprzez pisanie na ekranie, nawet gdy jest całkowicie sparaliżowany. Myśli o literach, a te wyświetlają się na odpowiednim urządzeniu.  W podobny sposób, w przyszłości być może będzie wyglądało sterowanie telefonem komórkowym czy jakimkolwiek innym urządzeniem. Pewną trudnością jest to, że – przynajmniej dzisiaj – po to, by wspomniane impulsy można było zarejestrować, do skóry głowy muszą być przyłożone elektrody. Albo korzystający z interfejsu człowiek musi mieć ubrany specjalny czepek z czujnikami. Ale w przyszłości być może wystarczą czujniki w okularach? Okularach, w których zainstalowana będzie kamera, a na szkłach wyświetlane będą dodatkowe informacje. Takie okulary już są i nazywają się GoogleGlass.

Złożony i skomplikowany

Interfejs mózg – komputer odbiera sygnały z powierzchni skóry, rejestruje je i interpretuje. Czy możliwe jest przesyłanie informacji w odwrotną stronę, czyli z jakiegoś urządzenia do mózgu? Na razie tego nie potrafimy, ale nie mam wątpliwości, że będziemy próbowali się tego nauczyć (znów, czy powinniśmy to robić, to zupełnie inny temat). To znacznie bardziej skomplikowane niż sczytywanie potencjałów elektrycznych z powierzchni czaszki. W którymś momencie tę barierę może przekroczymy i wtedy będziemy mieli dostęp do nieograniczonej ilości informacji nie poprzez urządzenia dodatkowe takie jak komputery, tablety czy smartfony. Wtedy do tych informacji będzie miał dostęp bezpośrednio nasz mózg. Na to jednak zbyt szybko się nie zanosi. Nie z powodu samej elektroniki, raczej z powodu naszego mózgu. Panuje dość powszechna zgoda, że to najbardziej skomplikowany i złożony system jaki znamy. Nie tylko na Ziemi, ale w ogóle. Choć od lat na badania mózgu przeznacza się ogromne kwoty pieniędzy, choć w ostatnich latach poczyniliśmy ogromne postępy, wciąż niewiele wiemy o CZYMŚ co waży pomiędzy 1,2 a 1,4 kg

>>> Zapraszam na profil FB.com/NaukaToLubie (kliknij TUTAJ). To miejsce w którym staram się na bieżąco informować o nowościach i ciekawostkach ze świata nauki i technologii.

Brak komentarzy do Myśląca maszyna

Marsjanin okiem naukowca ;-)

Film Marsjanin jest niezły, choć książka 100 razy lepsza. Ale do rzeczy. Czy możliwa jest historia astronauty Marka Watneya, którego  gra Matt Damon? Postanowiłem popastwić się nad scenariuszem.

Wiem, że piszę to nico późno (w większości kin film już zszedł z ekranów), ale potraktujcie to jako pewien rodzaj próby. W polskim internecie naukowcy (dziennikarze naukowi) zwykle nie recenzują filmów. Ciekaw jestem jaka będzie reakcja na moją recenzję.

Film warto zobaczyć, a jeszcze bardziej warto przeczytać książkę. Piękne krajobrazy, dobre efekty specjalne i ciekawa historia nie zmieniają jednak tego, że opowiedziana w nim historia nie ma prawa się zdarzyć i to z wielu różnych powodów. Ja wspomnę o czterech. Jeżeli nie oglądałaś, jeżeli nie oglądałeś filmu, za chwilę zdradzę kilka szczegółów jego fabuły.

Burza piaskowa, ewakuacja załogi. Zdjęcie z filmu

1.Załogowa misja na Marsa musi w trybie natychmiastowym ewakuować się z planety z powodu silnej burzy piaskowej. Ta nadchodzi tak szybko, że astronauci mają dosłownie kilka minut na spakowanie się i wystrzelenie na orbitę. Tymczasem marsjańska burza byłaby dla sprzętu i ludzi  niegroźna. Marsjańska atmosfera jest z grubsza 200 razy rzadsza od ziemskiej. Nawet jak mocno wieje, niewiele ma to wspólnego z niszczycielskim żywiołem. Marsjańskie burze po prostu nie mają mocy którą mają burze na Ziemi. Marsjańska burza nie może przewracać metalowych konstrukcji. Poza tym da się ją przewidzieć z dużym wyprzedzeniem. Jeżeli w ogóle mówić o niebezpieczeństwach związanych z burzami piaskowymi na Czerwonej Planecie, to nie z powodu siły wiatru tylko znacznie mniejszych niż na Ziemi ziarenek pyłu. Te wcisną się wszędzie powodując uszkodzenia sprzętu. No ale tego w filmie nie było.

martian-gallery13-gallery-image

Uprawa ziemniaków w marsjańskim habitacie. Zdjęcie z filmu

2.Główny bohater ulega wypadkowi, a ewakuująca się załoga święcie przekonana o jego śmierci zostawia go samego na planecie. Mark Watney oczywiście się nie załamuje, tylko szybciutko liczy że na pomoc będzie musiał czekać kilka lat. Sprawdza racje żywnościowe i wychodzi mu, że tych ma za mało. Postanawia więc uprawiać w habitacie ziemniaki. Nawozi do wnętrza labu marsjański grunt i… no i tutaj zaczynają się kolejne kłopoty. Warstwa gruntu jaką przenosi do habitatu jest za mała żeby cokolwiek na niej wyrosło. Ale nie to jest najciekawsze. Z jakiś powodów astronauta postanawia nawozić ekskrementami ziemię po to by ziemniaki szybciej rosły. Po pierwsze nie wiem po co jakikolwiek nawóz. Marsjański grunt jest bardzo bogaty w mikroelementy i minerały. Nawet jeżeli chcieć go nawozić, to ludzkie odchody to nienajlepszy pomysł. Znacznie lepiej byłoby używać odpadków organicznych. Totalnym odlotem jest produkcja wody dla uprawy ziemniaków. Do tego Mark używa hydrazyny, czyli paliwa rakietowego. W teorii reakcja którą przeprowadza jest możliwa, w praktyce cały habitat wyleciałby w powietrze. Po to żeby z hydrazyny odzyskać wodór, po to by po połączeniu z tlenem powstała woda, musi zachodzić w ściśle kontrolowanych warunkach. A nie w namiocie zrobionym z worka.

Habitat, ściana na której główny bohater zaznacza liczbę spędzonych na Marcie dni. Zdjęcie z filmu

3.Największe moje wątpliwości budzi jednak nie burza, ani nie uprawa ziemniaków, tylko długi czas przebywania człowieka na Czerwonej Planecie. O ile dobrze liczę Mark Watney przebywał tam około 20 miesięcy. Nawet gdyby miał wodę i pożywienie wróciłby stamtąd chory. Do powierzchni Marsa z powodu bardzo cienkiej i rzadkiej atmosfery dochodzi dużo więcej promieniowania kosmicznego niż do powierzchni Ziemi. Z szacunków wynika, że po to by człowiek mógł czuć się na Marsie równie bezpieczny co na Ziemi, na Czerwonej Planecie musiałby przebywać pod osłoną około 2 metrów litej skały. Tymczasem w filmie nie widzimy bunkrów czy podziemnych schronów, tylko pomieszczenia wykonane z dość cienkich materiałów. Także kombinezon głównego bohatera jest cieniutki. Mark spaceruje, podziwia widoki a nawet wypuszcza się w dość dalekie trasy w pojeździe, który zresztą wygląda na zbyt ciężki jak na marsjańskie warunki. Jeden z łazików marsjańskich, nieporównywalnie mniejszy i lżejszy, kilka lat temu zakopał się w wydmie a wyciąganie go zajęło kilka tygodni.

Dalekie wycieczki piesze. Dość niebezpieczna rozrywka na Marsie. Zdjęcie z filmu

4.Natomiast najwiekszy odlot – dosłownie i w przenośni – to powrót z Marsa na Ziemię, a szczególnie jego początkowa faza, czyli opuszczenie Marsa. Nic tu się nie zgadza. Proca grawitacyjna pomiędzy Ziemia i Marsem zadziała tylko w dość specyficznych warunkach, na pewno nie takich jak te pokazane w filmie. Rozebranie rakiety, którą astronauta Mark Watney wydostaje się z powierzchni Marsa na jego orbitę spowodowałoby jej rozbicie. Pomijam już fakt, że okna zatkane materiałem z zużytego spadochronu to już nawet nie fikcja rodem z gwiezdnych wojen, tylko raczej z Hi-Mena… (dla młodszych Czytelników, He-Men to taka bajka rysunkowa, którą oglądali Wasi rodzice 😉 ). No i w końcu manewry na orbicie. Hamowanie przez wysadzenie w powietrze części stacji, przedziurawienie kombinezonu po to by używać go jak silniczka manewrowego. W końcu spotkanie… no i happy end. Nie o to chodzi że ostatnie sceny filmu sa mało prawdopodobne. One są nierealne i przeczą zasadom fizyki.

Podsumowując.

P1000471

Pustynia Atacama, Chile. Zdjęcie: Tomasz Rożek

Oczywiście takich filmów jak Marsjanin nie ogląda się po to by uczyć się fizyki. To jasne. Lubię się jednak czasami poznęcać nad filmami. Mnie najbardziej podobały się w tym filmie plenery. Spora część z nich była wykreowana komputerowo, ale część scen była grana na Chilijskiej pustyni Atacama. Byłem na niej jakiś czas temu i jeżeli Mars wygląda choć trochę jak ona… warto tam polecieć. Chociażby dla widoków. No i niebieskiego zachodu Słońca, którego akurat w filmie nie było. No bo wiecie, że na Ziemi, czyli niebieskiej planecie słońce zachodzi na czerwono, ale na czerwonej planecie na niebiesko.

P1000318_Fotor

Pustynia Atacama, Chile. Niedaleko tego miejsca testuje się marsjańskie łaziki. Zdjęcie: Tomasz Rożek

>>> Zapraszam na profil FB.com/NaukaToLubie (kliknij TUTAJ). To miejsce w którym staram się na bieżąco informować o nowościach i ciekawostkach ze świata nauki i technologii.

15 komentarzy do Marsjanin okiem naukowca ;-)

Jesteśmy w centrum?

Czy Ziemia leży w centrum wszechświata? To pytanie w XXI wieku może u niektórych wywołać  uśmiech politowania. Ale czy powinno?

Jesteśmy jedynym gatunkiem na Ziemi, który współtworzy środowisko w którym żyje. To ciekawe, bo to środowisko, które sami kreujemy, ma ogromny wpływ na kolejne pokolenia. Choć na Ziemi żyją tysiące, dziesiątki tysięcy gatunków zwierząt i roślin, tylko człowiek ma umiejętności, choć chyba powinienem napisać możliwości, by ziemię w tak ogromnym stopniu przekształcać. Jesteśmy niezwykłym gatunkiem, który żyje na niezwykłej planecie.

CopernicSystem

Rysunek Układu Słonecznego jaki pojawił się w dziele De revolutionibus orbium coelestium.

Przez setki lat, odpowiedź na tytułowe pytanie nie budziła żadnych wątpliwości. Ziemia była w centrum wszystkiego i centrum wszystkiego. Obiekty niebieskie (ze Słońcem i Księżycem włącznie) krążyły wokół naszej planety, a sama Ziemia była rusztowaniem o które opierała się cała reszta. Ten obraz runął około połowy XVI wieku. W 1543 roku w Norymberdze ukazało się dzieło kanonika Mikołaja Kopernika – astronoma, matematyka, ale także prawnika, lekarza i tłumacza. W De revolutionibus orbium coelestium – o obrotach sfer niebieskich – Kopernik obalił geocentryczną wizję świata i całkiem sprawnie (choć ze sporymi błędami) przedstawił system heliocentryczny. Ziemia przestała być w centrum. Jej miejsce zajęło Słońce. Oczywiście nikt wtedy nie myślał nawet o galaktykach, gwiazdach supernowych czy czarnych dziurach.

Dla Kopernika sytuacja była w zasadzie dosyć prosta. Słońce w centrum, a wszystko inne krążące wokoło. Mechanizm wszechświata wyglądał podobnie z tą tylko różnicą, że w samym jego centrum znajdowała się nie jak u starożytnych Ziemia, ale nasza dzienna gwiazda. Kilkadziesiąt lat po Koperniku, na początku XVII wieku obserwacje tego co znajduje się poza naszym układem planetarnym rozpoczął Galileusz. Pierwszą osobą, która przedstawiła koncepcję budowy galaktyki był urodzony w Królewcu filozof i matematyk, Immanuel Kant. Była połowa XVIII wieku i nikt poważny nie uznawał już Ziemi za geometryczne centrum wszechświata. Inaczej było jednak ze Słońcem. Wiedziano już o tym, że gwiazd w naszej galaktyce jest bardzo wiele. Wiedziano nawet że krążą one wokół jednego punktu. Bardzo długo uznawano jednak, że tym centralnym punktem jest właśnie Słońce i nasz układ planetarny.

BN-IB371_0424hu_J_20150423201321

Edwin Hubble z negatywem jednej z zaobserwowanych przez siebie galaktyk. źródło: www.wsj.com

Choć w XIX wieku Ziemia od wielu setek lat nie była już traktowana jako geometryczne centrum wszechświata, była jedyną znaną planetą co do której istniała pewność, że jest kolebką życia. Była też częścią jedynego znanego układu planetarnego. Poza Układem Słonecznym nie obserwowano żadnych planet. Ziemia nie leżała w centrum, ale była symbolicznym centrum. Na przełomie XVIII i XIX wieku najpierw Charles Messier, a później William Herschel skatalogowali setki i tysiące mgławic, które później, dzięki pracy amerykańskiego astronoma Edwina Hubble’a (lata 20te XX wieku) okazały się odległymi galaktykami. Odkrywano wiele, zaglądano coraz głębiej i dalej, ale jedno nie ulegało zmianie. W całym ogromnym wszechświecie, wszechświecie w którym istnieją miliardy galaktyk a każda jest domem dla setek miliardów gwiazd do 1990 roku istniało tylko dziewięć planet. Niesamowita historia !

Sytuacja uległa zmianie dokładnie 9 stycznia 1992 roku. To wtedy ukazała się w prestiżowym czasopiśmie Nature praca polskiego astronoma Aleksandra Wolszczana. Opisywała ona dokonane dwa lata wcześniej odkrycie trzech pierwszych planet poza Układem Słonecznym. Krążyły wokół pulsara PSR B1257+12, niecały 1000 lat świetlnych od Ziemi. Dzisiaj, 23 lat po tym odkryciu znanych jest prawie 2000 planet poza Układem Słonecznym, a planety pozasłoneczne, tzw. egzoplanety są odkrywane wręcz hurtowo.

The artist's illustration featured in the main part of this graphic depicts a star and its planet, WASP-18b, a giant exoplanet that orbits very close to it. A new study using Chandra data has shown that WASP-18b is making the star that it orbits act much older than it actually is.  The lower inset box reveals that no X-rays were detected during a long Chandra observation.  This is surprising given the age of the star, suggesting the planet is weakening the star's magnetic field through tidal forces.

To nie zdjęcie, tytlko artystyczna wizja ogromnej planety WASP-18b, która krąży bardzo blisko powierzchni swojej gwiazdy.

Planet jest sporo, ale czy one są takie jak Ziemia ? Nie! Po pierwsze przeważająca większość z nich jest dużo większa od Ziemi. To gazowe giganty takie jak „nasz” Jowisz i Saturn. Dużych planet odkrywamy tak dużo, bo znacznie łatwiej je wykryć. Ziemia różni się od innych jednak tym, że tutaj jest życie, a „tam” – niewiadomo. Co do tego, że proste bakteryjne życie istnieje w przestrzeni kosmicznej, praktycznie możemy mieć pewność, ale z życiem inteligentnym nie jest wcale tak prosto. Jest w tym pewien paradoks. Czym więcej wiem o życiu, tym chętniej przyznajemy, że to proste, jednokomórkowe jest wszechobecne i wszędobylskie. Proste formy mają niesamowitą zdolność do adaptowania się i do zasiedlania miejsc, które – jeszcze do niedawna byliśmy tego pewni – absolutnie nie nadają się do życia. Z życiem złożonym, nie mówiąc już o jego inteligentnej wersji, jest dokładnie na odwrót. Czym więcej wiemy, tym dłuższa staje się lista czynników, warunków, które muszą zostać spełnione, by życie jednokomórkowe wyewoluowało do wersji złożonej. Dzisiaj ta lista ma już kilkaset pozycji, wśród nich takie jak odpowiednia wielkość planety, odpowiednia odległość od gwiazdy i odpowiedni skład atmosfery. Te wspomniane warunki są w sumie logiczne. Ale dalej na tej liście jest pole magnetyczne i gorące jądro planety, siły pływowe, a więc tektonika płyt. Bardzo ważna jest aktywność wulkaniczna oraz wyładowania atmosferyczne.

Kiedyś powszechnie uważano, że Ziemia w skali kosmicznej jest ewenementem. Potem takie myślenie zarzucono. Gdybym napisał, że dzisiaj wraca się do tego, chyba bym przesadził. Ale faktycznie, coraz częściej zdajemy sobie sprawę z tego, że inteligentne istotny w kosmosie mogą być wielką rzadkością. I to pomimo tego, że planet we wszechświecie jest niepoliczalnie dużo. Czyżby więc Ziemia z ludźmi „na pokładzie” była egzemplarzem niepowtarzalnym? Na razie jest. Wiele, bardzo wiele wskazuje na to, że tak pozostanie jeszcze przez dość długi czas. A może nawet na zawsze.

2 komentarze do Jesteśmy w centrum?

Fagi – dobre wirusy

– Jak to się dzieje, że ci ludzie nie chorują – zastanawiał się widząc Hindusów kąpiących się i pijących wodę z Gangesu. Rzeki, która jest ściekiem. Więcej! wszystko wskazuje na to, że oni są przez to zdrowsi !

Bakterie stają się dla nas coraz groźniejsze. Coraz częściej zdarza się, że nie dają im rady nawet najbardziej zaawansowane terapie antybiotykowe. Sytuacja wymaga podjęcia niestandardowych metod. A może przeciwnie, wymaga powrotu do źródeł?

Ta historia rozpoczyna się w Indiach ostatnich lat XIX wieku. To wtedy przypłynął tam młody brytyjski biochemik i bakteriolog Ernest Hanbury Hankin. Ma jeden cel, walkę z cholerą, która miejscami przybiera rozmiary epidemii. Sukcesów nie ma praktycznie żadnych, a jego desperację potęguje fakt, że w Indiach zdają się nie działać reguły, których nauczył się w Anglii. Młody badacz zauważa bowiem, że na cholerę bardzo rzadko chorują ci, którzy kąpią się w rzece Ganges. Dla Hindusów sprawa jest oczywista, wody rzeki są święte, a każdy kto się w nich kąpie jest „chroniony”. Dla naukowca, sprawa jest trudna do zrozumienia. Przecież Ganges to ściek! To miejsce które powinno być źródłem problemu, a nie lekarstwem. Ku konsternacji większości Europejczyków, a już na pewno tych, którzy mieli wykształcenie medyczne czy biologiczne, Hindusi wodę z Gangesu pili. I? I nic im się nie działo. Jak to możliwe? Brytyjski naukowiec uważał, że w rzece musi być coś, co pijących jej wodę uodparnia. Fenomen dotyczył nie tylko wody w Gangesie, ale także w innych rzekach, równie zanieczyszczonych.

W 1896 roku Ernest Hanbury Hankin opublikował pracę naukową, w której stawiał tezę, że, w badanej przez niego wodzie istnieją czynniki antybakteryjne, które są na tyle małe, że nie sposób zatrzymać ich nawet na najdrobniejszych filtrach. Praca nie została jednak zauważona. Dopiero 20 lat później odkryto co tym czynnikiem jest. Dwa zespoły badaczy, brytyjski i francuski, odkryły bakteriofagi, czyli wirusy, które niszczą bakterie. Nazwa bakteriofag oznacza dosłownie „zjadacze bakterii”. W rzeczywistości wirusy nie pożerają bakterii. Ale o tym za chwilę. Dalsze badania pokazały, że w zasadzie każda bakteria ma swojego faga, czyli wirus, który bez większych problemów może sobie z nią poradzić. Pierwszy przypadek uleczenia wirusami zakażenia bakteryjnego (konkretnie chodziło o infekcję laseczką czerwonki, czyli siejącą śmierć dezynterią) miał miejsce w 1915 roku.

ganges

Zagadka: znajdź głowę chłopaka w śmieciach

Pierwszy nazwę bakteriofag zastosował pracujący w Paryżu Kanadyjczyk, Félix d’Herell. Nie jest ona do końca ścisła, bo sugeruje, że wirusy pożerają bakterie. W rzeczywistości wirusy niczego nie zjadają. Nie są organizmami żywymi, więc nie potrzebują źródła energii do zaspokajania swoich potrzeb. Jak w takim razie zabijają? Bakteriofagi, jak zresztą wszystkie wirusy, komórki żywych organizmów wykorzystują. Wirusy są kapsułkami zawierającymi materiał genetyczny. Nie potrafią same się poruszać. Posiadają jednak „klucze” do żywych komórek. Każda żywa komórka w swojej ścianie ma receptory. To coś w rodzaju zamka do drzwi. Ten, kto posiada klucz, może wejść do środka. Wirusy posiadają klucze, czyli białka pasujące do receptorów. Gdy cząsteczka wirusa znajdzie się w bezpośredniej bliskości komórki, jest bardzo prawdopodobne, że dojdzie do adsorpcji. Wirus otwiera zamek. Chwilę później następuje penetracja. Specjalną igiełką fag wkłuwa się do wnętrza bakterii i wstrzykuje tam swój materiał genetyczny. Komórka (w przypadku fagów komórka bakteryjna) nie ma pojęcia, że jest zainfekowana. Przecież wirus miał „legalne klucze”. Gdy materiał genetyczny znajdzie się w środku, dochodzi do tzw. replikacji genomu. Komórka replikuje wirusy z taką prędkością, że wkrótce zostaje – dosłownie – rozerwana z powodu ich natłoku w swoim wnętrzu. Od momentu „włożenia klucza do zamka” do unicestwienia bakterii mija nie więcej niż 30 minut! Każda zainfekowana komórka wyprodukuje kilkadziesiąt wirusów. A każdy z nich gotowy jest do ataku na nową bakterię.

W naturalnych warunkach pomiędzy bakteriami i wirusami ustala się pewna równowaga, ale gdyby tak wirusy antybakteryjne namnażać i traktować jako najlepszy z dostępnych antybiotyków? Wirusami leczono zanim, zanim ktokolwiek wiedział, czym są ci „niewidzialni” zabójcy bakterii. Félix d’Herelle leczył fagami śmiertelnie chorych na czerwonkę. „Ozdrowienie” następowało po kilkudziesięciu godzinach. Dzisiaj do koncepcji leczenia wirusami coraz częściej się wraca. Antybiotyki wydają się skuteczne, ale tylko na krótką metę. Bakterie potrafią się na nie uodparniać. W Polsce jedna trzecia szczepów dwoinki zapalenia płuc jest odporna na penicylinę. Na fagi nie da się uodpornić, bo te mutują tak samo szybko jak same bakterie. W Polsce znajduje się jeden z dwóch na świecie (i jedyny w Europie) ośrodek naukowy, który prowadzi terapię bakteriofagami. Kilka lat temu rozmawiałem z jego szefem, profesorem Andrzejem Górskim. Powiedział mi wtedy, że do Laboratorium Bakteriofagowego w Instytucie Immunologii i Terapii Doświadczalnej PAN we Wrocławiu zgłaszają się setki osób cierpiących na zakażenia, których żadne antybiotyki nie potrafią wyleczyć. Naukowcom z Wrocławia udaje to w ponad 80 procentach. W porównaniu z terapią antybiotykami, fagi są tańsze, a na pewno nie mniej skuteczne. Ponadto leczenie fagami nie powoduje skutków ubocznych, bo działanie wirusów jest ściśle ukierunkowane i wybiórcze. Określony bakteriofag atakuje tylko jeden gatunek bakterii. W ten sposób po terapii fagami oszczędzamy te „dobre bakterie”, np. z wnętrza układu pokarmowego. Tymczasem antybiotyki tak nie potrafią. – Czasami wystarczy kilkadziesiąt godzin, by osoba od lat cierpiąca na zakażenie uwolniła się od kłopotu. Leczymy nawet infekcje wywołane przez szczepy gronkowca złocistego – śmiercionośne bakterie, będące największym postrachem oddziałów intensywnej terapii – mówił mi prof. Górski.

Skoro mają tyle zalet, dlaczego bakteriofagami nie leczy się powszechnie? Przeszkodą jest prawo. Formalnie (w Unii Europejskiej i USA) przed skomercjalizowaniem, terapia musi być zarejestrowana, a jeszcze wcześniej poprzedzona badaniami klinicznymi. I tutaj pojawiają się problemy formalne. Terapia fagami nie jest zunifikowana, tylko po to by była skuteczna musi być tworzona dla każdego pacjenta osobno. Tego typu postępowanie wymyka się jednak normom, jakie ustalają prawnicy i urzędnicy. Nie bez znaczenia jest pewnie fakt, że przemysł farmaceutyczny czerpie ogromne korzyści z produkcji antybiotyków. Tańsza i w wielu przypadkach skuteczniejsza metoda leczenia fagami może być traktowana jako niechciana konkurencja. – Terapia fagowa to z formalnego punktu widzenia wciąż eksperyment, a do zaakceptowania nowości potrzeba czasu – powiedział mi kilka lat temu prof. Górski. Od tego czasu nic się nie zmieniło.

Drugi – poza Polską – ośrodek leczący fagami znajduje się w stolicy Gruzji, Tbilisi. Założył go zresztą Félix d’Herelle, ten sam, który nadał nazwę bakteriofagom. Ten zagorzały komunista pracował w Związku Radzieckim do śmierci. Gruziński instytut nie podlega pod prawo europejskie i amerykańskie, więc ma większą swobodę w działaniu, niż ośrodek we Wrocławiu. Kilka lat temu, Instytut z Gruzji założył filię w Meksyku, gdzie nie obowiązuje amerykańskie prawo, a bogatym (i chorym) Amerykanom znacznie łatwiej dojechać tam niż do Gruzji.

 

2 komentarze do Fagi – dobre wirusy

Kolorowa jesień naukowo

Jest taki moment w roku, kiedy las – zwykle zielony – mieni się niemalże wszystkimi możliwymi kolorami. Dlaczego liście zmieniają kolor jesienią?

Liście są zielone, bo zawierają chlorofil. To związek chemiczny, barwnik, który potrafi „produkować” elektrony pod wpływem światła słonecznego. Po co roślinom elektrony? Potrzebują ich po to, by zaszła fotosynteza, czyli proces, w trakcie którego – w skrócie – z wody, dwutlenku węgla i światła powstają cukry i tlen. Ten ostatni jest usuwany do atmosfery, a cukry stanowią pożywienie dla roślin. W ciągu roku ilość wody i dwutlenku węgla jest mniej więcej stała. Co innego jednak ze światłem. Jego ilość w ciągu 12 miesięcy zmienia się diametralnie.

Sekret tkwi w świetle
Chlorofil to niejedyny barwnik – choć najważniejszy – z wielu występujących w roślinach zielonych. Gdy jesienią temperatura obniża się i powoli spada ilość dochodzącego do powierzchni ziemi światła słonecznego, dla roślin to znak, że zbliża się zima. Czas odpoczynku, a właściwie snu. To także sygnał, by przestać produkować chlorofil. To dosyć racjonalna decyzja. Skoro światła i tak jest coraz mniej, a za chwilę przyjdzie w ogóle „przystopować”, po co tracić energię na produkcję chlorofilu?

A więc chlorofilu jest coraz mniej, ale tutaj niespodzianka. Można by się spodziewać, że wraz z zanikiem barwnika liści, powinny one stawać się coraz bardziej przezroczyste. Otóż nie! Chlorofil znika a wraz ze zbliżaniem się zimy „do głosu” dochodzą inne barwniki. Są w liściach przez cały czas, ale „hegemonia” chlorofilu powoduje, że tych innych po prostu nie widać. Pojawiają się dopiero wtedy, gdy zmniejsza się ilość zielonego barwnika. Liście stają się coraz bardziej żółte i pomarańczowe, ale nie dlatego, że przysychają, ale dlatego, że znajduje się w nich całkiem sporo barwników z grupy karotenoidów. To te, które nadają kolor marchewce czy pomarańczom. Dzięki karotenoidom liście stają się żółte, pomarańczowe czy brązowe. Ale nie wszystkie liście są tak samo żółte. Sekret tkwi w ilości dochodzącego do powierzchni ziemi światła, a także temperaturze, gatunku drzewa, a nawet odczynie pH gruntu, na którym roślina się rozwija. Na jesień bardzo żółte są liście osiki, ale już liście klonu czy jesionu w ogóle nie żółkną. Te stają się intensywnie czerwone.

O co chodzi z czerwienią?
Barwniki, które odpowiadają za wiele odcieni czerwieni jesiennych liści, pochodzą z grupy antocyjanidyn. Te same związki występują zresztą w kwiatach. I tutaj ciekawostka. Dokładnie ten sam barwnik (cyjanidyna) nadaje róży kolor krwistej czerwieni i chabrom ciemnego błękitu. Wracając jednak do liści. Tak jak barwnik żółty czy pomarańczowy jest w liściach przez okrągły rok, tak barwniki czerwone produkowane są dopiero jesienią. Bez sensu? Po co tuż przed opadnięciem liść traci energię na produkcję czegokolwiek? To rzeczywiście swego rodzaju tajemnica. Dzisiaj naukowcy sądzą, że barwniki z grupy czerwonych chronią komórki liści przed zamarznięciem.

Jesienią nocne przymrozki są czymś zupełnie normalnym. Rośliny, w których liściach jest dużo czerwonych barwników, są odporniejsze na nie. To, co zastanawia badaczy, to fakt, że związki z grupy antocyjanidyn są produkowane także w innych okolicznościach. Na przykład wtedy, gdy roślinę zaatakują jednokomórkowe grzyby, gdy natężenie światła UV jest zbyt wielkie albo gdy zanieczyszczenie środowiska staje się dla nich uciążliwe. Czerwone liście mogą świadczyć o chorobie roślin. I znowu pojawia się pytanie. Dlaczego wyczerpana, chora roślina marnuje swoją energię na produkcję czerwonych barwników ? Czy nie lepiej, by w tej sytuacji ją oszczędzała? Eksperci przypuszczają, że jeżeli antocyjanidyny są produkowane po to, by liść wisiał na drzewie tylko troszkę dłużej, może oznaczać, że tuż przed zimą drzewo chce pobrać ze środowiska coś, co pomoże mu we wzroście w kolejnym sezonie. Być może tak jest rzeczywiście. W końcu liść zawiera wiele soli mineralnych czy pierwiastków, które roślinie mogą się jeszcze przydać. Część z nich drzewo odzyska, gdy liść zgnije na powierzchni gruntu, ale być może substancje najbardziej potrzebne roślina chce odzyskać bezpośrednio z liścia? Jeżeli tak, czerwone barwniki przypominałyby nieco komandosów czy BORowców, którzy w sytuacji zagrożenia pilnują ewakuacji ważnych osób. Dbają by liść wisiał jak najdłużej, po to by zanim spadnie, udało się z niego nak najwięcej wyciągnąć.

Przepis na kolorową jesień
Niektóre barwniki są charakterystyczne dla konkretnego gatunku roślin. Inne występują we wszystkich, ale pojawiają się w zależności od warunków zewnętrznych. To dlatego liście nawet dwóch stojących obok siebie drzew mogą mieć nieco inny odcień. Czy można sformułować przepis na kolorową jesień? Listę warunków, jakie muszą zostać spełnione, by spacer po jesiennym lesie był przeżyciem wręcz metafizycznym? Można się o to pokusić. Temperatura powietrza powinna spadać powoli, nie gwałtownie. To samo dotyczy ilości dochodzącego do liści światła. Pogoda powinna być słoneczna, a niebo niezasnute chmurami. Tylko wtedy chlorofil będzie ustępował innym barwnikom w sposób ciągły. Jakiekolwiek nagłe zmiany mogą spowodować, że liście znajdą się na ziemi, zanim zdążą zapłonąć feerią kolorów. Jeżeli jest zbyt mokro, liście wcześniej spadną, a jeżeli zbyt często chmury będą przysłaniały słońce, liście nie wyprodukują czerwonego barwnika. W skrócie: jesień musi być ciepła, sucha i słoneczna. Wtedy będzie złota, czerwona, brązowa, żółta, pomarańczowa…

 

Polecam wideo  „Tajemnica czerwonego drzewa – Nauka. To lubię.”

 

Polecam wideo „Liście jesienią (okiem fizyka) – Nauka. To lubię.”

Brak komentarzy do Kolorowa jesień naukowo

Fizyka tłumu

Zatłoczone miejsca mogą być bardzo niebezpieczne. Nie, nie z powodu kieszonkowców, tylko z powodu trudnych do opanowania reakcji tłumu. Duża grupa ludzi w określonych sytuacjach zachowuje się jak „jeden organizm” a nie jak grupa organizmów niezależnych.

Dwa dni temu, w Bydgoszczy, w czasie studenckiej imprezy wybuchła panika. Jedna osoba zginęła, a kilka kolejnych zostało rannych. Do dramatu doszło nie na dużej sali, tylko w wąskim przejściu. Kilkanaście dni wcześniej, w czasie hadżu – pielgrzymki wyznawców Allaha do Mekki, w tłumie zginęło około 500 osób. W styczniu 1990 roku, w tym samym miejscu zadeptano ponad 1500 ludzi. W czym jest problem? Ludzie w swoim zachowaniu podobni są do zwierząt, np. mrówek, ryb w ławicy czy ptaków w kluczu. Poruszają się w sposób uporządkowany i określony. Do czasu. Gdy wybucha panika, uporządkowanie ustępuje chaosowi. Wbrew pozorom ten chaos można ujarzmić… za pomocą równań matematycznych.

Szybko ale bezpiecznie

Z pozoru sytuacje takie jak w saudyjskiej Mekce zdarzają się rzadko. I całe szczęście. Ale nie chodzi tylko o tragedie w których giną ludzie. Gdy trzeba ewakuować centrum handlowe, liczy się każda chwila. Jak zaprojektować wyjścia ewakuacyjne? Zrobić jedno duże, czy kilka mniejszych? A kibice piłkarscy na dużym stadionie? Po skończonym meczu tysiące ludzi chce jak najszybciej dostać się do swoich samochodów czy do środków komunikacji publicznej. Jak oznaczyć ciągi komunikacyjne? Wypuszczać ludzi partiami czy po prostu otworzyć drzwi i „niech sami sobie radzą”. Problem jest ważny nawet dla linii lotniczych. I nie tylko w sytuacjach zagrożenia życia. Każda minuta postoju na płycie lotniska kosztuje. Jak pasażerów szybko „usadzić” na miejscu i co zrobić by po wylądowaniu jak najszybciej – bezpiecznie – opuścili oni samolot? Pytań jest naprawdę wiele. Tylko dlaczego mają na nie odpowiadać fizycy? Ano dlatego, że duża grupa ludzi podobna jest do płynu. Ten w niektórych sytuacjach porusza się przewidywalnie i wtedy mówimy o przepływie laminarnym, ale czasami ten porządek zamienia się w chaos i wtedy mówimy o przepływie turbulentnym. Fizycy tymi przepływami zajmują się od dawna, bo to od nich zależy np. opór z jakim musi poradzić sobie jadący autostradą samochód, bo to od nich zależy sprawność silnika odrzutowego samolotu. Od niedawna wiadomo jednak, że te same równania, które opisują mechanikę płynów, można stosować do dużych grup ludzi.

Mrówki też ludzie

Mrówki zwykle wybierają drogę… którą chodzi większość. „Domyślają się” – i słusznie – że kierunek który wybrało więcej mrówek jest z jakiś powodów bardziej atrakcyjny. I tak tworzą się tzw. mikrostużki, czyli drogi, które z jakichś powodów są przez mrówki preferowane. Podobnie zachowują się ryby w ławicy. I ludzie na chodniku. Nawet w dużym tłumie, nie poruszamy się całkowicie losowo i chaotycznie. Często, nawet nieświadomie, wybieramy drogę, którą idzie przed nami osoba poruszająca się w podobnym tempie co my. Gdy ktoś idzie wolniej, albo szybciej nie zwracamy na niego uwagi. Nasz mózg podświadomie śledzi tylko tych, którzy idą w naszym tempie. My sami też możemy być dla kogoś „przewodnikiem”, a ten ktoś dla kolejnej osoby. I już się tworzą mikrostrużki. To dlatego na szerokim trakcie ludzie idący w jednym kierunku jakoś automatycznie trzymają się jednej strony. Tylko co jakiś czas ktoś próbuje przebić się ”pod prąd”. Podstawowa i święta zasada jest taka, żeby tak projektować trakty, by ruch na nich mógł być płynny. I tak, lepiej, gdyby korytarz skręcał łukiem niż pod kątem prostym. Lepiej też by na skrzyżowaniu traktów było coś co trzeba okrążyć (fontanna, rzeźba,…), bo to zwiększa płynność ruchu. Niestety, te z pozoru proste zasady, gdy wybucha panika przestają obowiązywać i pojawia się chaos. Podobnie zresztą jak u mrówek, ryb w ławicy, a nawet u ptaków w stadzie. Za wszelką cenę nie można do tego dopuścić. Nie ma co liczyć na rozwagę czy trzymanie nerwów na wodzy. Ludzie w panice przestają zdawać sobie sprawę z tego co robią. Choć nie sposób przewidzieć, co zrobi konkretna osoba, naukowcy potrafią przewidzieć co będzie robiła duża grupa ludzi. Do tego zatrudniają największe komputery świata i… setki wolontariuszy. Ci, czasami sa narażeni na niebezpieczeństwo. W czasie próbnych ewakuacji jakie prowadzono w czasie budowy samolotu Airbus 380, z 900 ochotników, 30 zostało rannych w tym jedna osoba ciężko. Z międzynarodowych norm wynika, że samolot powinny być zaprojektowany w ten sposób, by ewakuacja wszystkich pasażerów nie trwała dłużej niż 90 sekund.

Dym i kamery

Gdy z końcówki palącego się knota świecy ulatnia się dym, początkowo jego strużka unosi się pionowo do góry. Można wręcz dostrzec równoległe do siebie pasma. To tzw. przepływ laminarny. Po kilkunastu centymetrach dym zaczyna jednak tworzyć zawirowania. Uporządkowana jeszcze przed chwilą stróżka staje się chaotyczna i nieprzewidywalna. Tak wygląda przepływ turbulentny. Naukowcy z Uniwersytetu w Dreźnie analizujący przypadki w których tłum zaczyna tratować ludzi, zauważyli, że zagrożenie pojawia się wtedy, gdy ludzie zaczynają poruszać się jak ciecz albo gaz w czasie przepływu turbulentnego. Tak długo, jak „przepływ” ludzi jest laminarny – nie ma problemu. Turbulentny, czyli chaotyczny przepływ pojawia się gdy wybucha panika, ale sam może być źródłem paniki. W Mekce droga pielgrzymów wiodła przez most Jamarat, który jest węższy niż droga do niego prowadząca. To zwężenie w przeszłości powodowało, że ludzie zaczynali poruszać się turbulentnie. Chaos powodował wybuch paniki, a panika – jeszcze większy chaos. Po sugestiach jakie niemieccy fizycy wysłali władzom Arabii Saudyjskiej, drogę pielgrzymów nieco przebudowano.

Co jeszcze może mieć znaczenie? Na przykład wyrwa w drodze, w zasadzie jakakolwiek przeszkoda. Ale także kłótnia czy bijatyka dwóch idących obok siebie osób. Schody, krawężnik, nawet moment w którym pieszy schyla się, by podnieść coś, co wypadło mu z ręki. Niemieccy badacze sugerują więc, by nad miejscami gdzie poruszają się duże grupy ludzi umieszczać kamery, które automatycznie będą wykrywały w których miejscach ruch zaczyna być turbulentny. Zanim dojdzie do tragedii (przecież z tyłu napierają kolejne masy ludzi), odpowiednie służby mogą zareagować. Mają na to od kilku, do kilkunastu minut.

Wąsko źle, szeroko też niedobrze

Ślepe stosowanie zasad jakie rządzą mechaniką płynów (analogia do dymu papierosowego) jest jednak skuteczne tylko do pewnego stopnia. Ludzie ze sobą współdziałają, oddziałują na siebie znacznie bardziej niż cząsteczki gazu czy płynu. W końcu widzą, co robią inni. Gdy wziąć pod uwagę to wszystko okazuje się, że pomieszczenie (pokój, stadion czy pokład samolotu) najszybciej pustoszeje, gdy … nikt się nie śpieszy. Tylko wtedy wyjście nie staje się wąskim gardłem. Gdy wzrasta prędkość ludzi idących ku wyjściu, drzwi „korkują się”, a ludzie opuszczają pomieszczenie grupkami. To spowalnia opuszczanie zagrożonego terenu. Dlatego lepiej jest projektować więcej węższych wyjść niż mniej szerszych. Ale tutaj – uwaga – sprawa jest bardziej złożona. Pomijając szczegóły (które choć bardzo ciekawe, zajęłyby tutaj zbyt dużo miejsca), okazuje się, że gdy ludzie współpracują z sobą (np. znajomi z pracy) szybciej wyjdą wąskim wyjściem. Gdy raczej konkurują o to kto szybciej się wydostanie, lepsze są wyjścia szerokie (chociażby miałoby ich być mniej). Gdy wyjścia są szerokie, dobrze przed nimi stawiać kolumny. Z symulacji komputerowych wynika, że w sytuacji krytycznej przed wyjściem rzadziej tworzą się wtedy kolejki, a w efekcie „przepływ” staje się bardziej laminarny. Z kolei przed wąskimi wyjściami dobrze jest zamontować równoległe  barierki (takie jak przy wejściu do metra), które spowodują, że już przed wejściem, ludzie będą szli w uporządkowanym szyku.

Kilka lat temu niemiecki rząd uruchomił projekt Hermes, w ramach którego powstał system kierujący tłumem. Kamery obserwują prędkość ludzi, a komputery za pomocą znaków świetlnych i dźwiękowych decydują którędy tłum prowadzić. Na stadionie czy w czasie dużej wystawy gdy trzeba zarządzić ewakuację, któreś z wyjść może być zablokowane (albo za bardzo oblegane). Wtedy kierowanie się w jego kierunku jest bardziej niebezpieczne niż nawet dołożenie drogi i udanie się do innego wyjścia. Dawanie ludziom jasnych sygnałów co mają robić w czasie zagrożenia jest niezwykle istotne. Zauważono (zresztą u zwierząt występuje ten sam mechanizm), że w sytuacjach kryzysowych podążamy raczej za tłumem, w grupie czujemy się bezpieczniej. Bez wyraźnej informacji duża grupa może przemieszczać się w kierunku jednego wyjścia („tam idą wszyscy, widocznie ktoś zna najlepszą drogę”), podczas gdy inne będą puste.

Dzisiaj jeszcze zbyt wcześnie by dogłębnie przeanalizować to co dwa dni temu stało się w Bydgoszczy. Przejście było wąskie, ludzi było dużo, okna były pozamykane. Brak tlenu przyspiesza podejmowanie irracjonalnych decyzji. Niektórzy świadkowie twierdzą, że ktoś w przejściu rozpylił gaz. Być może po to by uspokoić ludzi. Jeżeli tak było rzeczywiście, tylko pogorszył sytuację. Wyjaśnienie przyniesie śledztwo.

>>> Zapraszam na profil FB.com/NaukaToLubie (kliknij TUTAJ). To miejsce w którym staram się na bieżąco informować o nowościach i ciekawostkach ze świata nauki i technologii.

4 komentarze do Fizyka tłumu

Co tam się dzieje? Komety czy Obcy?

Wokół jednej z setek tysięcy gwiazd, które obserwuje teleskop Kepler krążą duże obiekty. Naukowcy nie widzą czym one są, ani jak powstały. Internety już mówią o tworach obcych cywilizacji.

Wiecie co to jest Brzytwa Ockhama? To zasada zgodnie z którą przy „wyjaśnianiu zjawisk należy dążyć do prostoty, wybierając takie wyjaśnienia, które opierają się na jak najmniejszej liczbie założeń i pojęć”. Trudno obcą cywilizację uznać za najbardziej oczywisty powód niezrozumiałych obserwacji astronomicznych. Oczywiście nie można jej też całkowicie wykluczyć.

Co konkretnie tak zadziwiło astronomów? W 2009 roku Teleskop Kosmiczny Keplera wśród setek tysięcy gwiazd wypatrzył KIC 8462852. Ta nie świeciła jednak tak jak inne słońca. Coś w sposób nieregularny zakłócało jej obserwację. Tym „czymś” jest duża ilość niewielkich, ale bardzo gęstych obiektów. – Prawdę mówiąc, światło emitowane przez KIC 8462852 było najdziwniejszą rzeczą, jaką zaobserwował Kepler od początku swojego istnienia – powiedziała badaczka z Yale Tabetha Boyajian. Kepler pracuje na orbicie od kilku lat. Inny badacz, Jason Wright, astronom z Penn State University powiedział, że był pod wrażeniem tego, jak niesamowicie to wyglądało. – Obca cywilizacja to ostatnia hipoteza, jaką powinniśmy w takim przypadku rozpatrywać, ale to coś wyglądało tak, jak gdyby stworzyli to właśnie kosmici. (oryginał wypowiedzi : „I was fascinated by how crazy it looked”. “Aliens should always be the very last hypothesis you consider, but this looked like something you would expect an alien civilization to build.”).

Jako że zdjęcia pochodzą sprzed kilku lat, badacze twierdzą, że bardzo dokładnie sprawdzili sprzęt i nie ma mowy o usterce czy pomyłce. – Tam na prawdę krąży ogromna ilość obiektów, ściśniętej materii – powiedziała Boyajian. Czym te obiekty mogą być? No właśnie tutaj zaczyna się kłopot. Bo lista naturalnych wytłumaczeń tego fenomenu jest bardzo krótka. W zasadzie, choć i to jest bardzo mało prawdopodobne, podobny efekt dałyby tylko komety. Być może inna gwiazda przyciągnęła w stronę KIC 8462852 sznur komet. Trudno nawet oszacować prawdopodobieństwo takiego zdarzenia, bo… nigdy wcześniej niczego podobnego nie zaobserwowano.

I co teraz? Dane są analizowane, a gwieździe wokół którejś coś krąży od stycznia będą się przyglądały ziemskie radioteleskopy. Gwiazda KIC 8462852 na nocnym niebie znajduje się pomiędzy gwiazdozbiorami łabędzia i lutni. Patrząc tam można sobie przez chwile pomyśleć…. że ktoś patrzy stamtąd w naszym kierunku. Nie, no błagam, musi być jakieś bardziej przyziemne wytłumaczenie 😉

Zapraszam na profil FB.com/NaukaToLubie (kliknij TUTAJ). To miejsce w którym staram się na bieżąco informować o nowościach i ciekawostkach ze świata nauki i technologii.

2 komentarze do Co tam się dzieje? Komety czy Obcy?

Skąd jesteśmy, kim jesteśmy i dokąd zmierzamy?

O człowieku można mówić na wiele różnych sposobów. Inaczej opisują go atlasy anatomiczne, inaczej podręczniki do biochemii czy antropologii. Książka „Człowiek” nie jest atlasem opisującym każdą cząstkę ludzkiego ciała. Nie jest też podręcznikiem, który opowiada o reakcjach biochemicznych, które zachodzą w ludzkich komórkach. Jest próbą odpowiedzi na trzy krótkie pytania. Skąd jesteśmy, kim jesteśmy i dokąd zmierzamy? Łatwo takie pytania zadać, znacznie trudniej znaleźć na nie odpowiedzi.

Po „Kosmosie” przyszedł czas na „Człowieka” , czyli drugą część mojej trylogii. Opowieść o tym skąd jesteśmy, kim jesteśmy i dokąd zmierzamy?

rozkładówka - wstęp

O człowieku można mówić na wiele różnych sposobów. Inaczej opisują go atlasy anatomiczne, inaczej podręczniki do biochemii czy antropologii. Organizm człowieka jest „kosmicznie” skomplikowany i właśnie dlatego jest tak niezwykły. Książka „Człowiek” nie jest atlasem opisującym każdą cząstkę ludzkiego ciała. Nie jest też podręcznikiem, który opowiada o reakcjach biochemicznych, które zachodzą w ludzkich komórkach. Jest próbą odpowiedzi na trzy krótkie pytania. Skąd jesteśmy, kim jesteśmy i dokąd zmierzamy? Łatwo takie pytania zadać, znacznie trudniej znaleźć na nie odpowiedzi.

rozkładówka_Konarzewski

Kiedyś przeprowadzałem wywiad z neuropsychologiem. Zapytałem go, ile tak właściwie wiemy o ludzkim mózgu. Intuicja podpowiadała mi, że niewiele. Zakładałem, że profesor odpowie, że poznaliśmy nie więcej niż kilka procent wszystkich zagadnień związanych z mózgiem. A tymczasem odpowiedział: „gdyby zapytał mnie pan o to kilka lat temu, powiedziałbym, że nie więcej niż 10 procent, ale dzisiaj, po uruchomieniu kilku dużych międzynarodowych programów dotyczących badania mózgu, po ogromnej liczbie publikacji, jakie pojawiły się w ostatnich latach, twierdzę, że wiemy nie więcej niż 3-4 procent”. Ta odpowiedź jest zaskakująca tylko pozornie. W nauce bardzo często wraz ze wzrostem wiedzy, wzrasta także świadomość naszej niewiedzy. Naukowców i pasjonatów na całym świecie napędza nie to co jest znane, tylko właśnie to, co jest tajemnicą. Jako dziennikarz naukowy przyglądam się tym tajemnicom i czuję podekscytowanie. Ta książka jest pełna moich ekscytacji i fascynacji oraz prób znalezienia odpowiedzi na nurtujące mnie pytania.

rozkładówka_kaczmarzyk

Książka podzielona została podzielona na trzy części. W każdej z nich, oprócz mojego tekstu, znajduje się fascynujący wywiad z naukowcem. Rozmawiam o przeszłości, teraźniejszości i przyszłości człowieka. W wywiadach staram się uzyskać odpowiedzi na tytułowe pytania: skąd jesteśmy, kim jesteśmy i dokąd zmierzamy? Czy je uzyskuję? O tym każdy Czytelnik przekona się sam.

rozkładówka - tadeusiewicz

Człowiek to drugi tom trylogii, którą wymyśliłem w ubiegłym roku. Pierwszy tom, który ukazał się w 2014 roku był zatytułowany Kosmos. Opisuję w nim wszystko to, co jest większe od człowieka. Od Wszechświata począwszy, poprzez galaktyki i układy planetarne, a na planetach, w tym planecie Ziemi, skończywszy. Trzeci tom trylogii – Mikrokosmos – ukaże się w przyszłym roku.

Książka Człowiek została wydana nakładem Grupy Wydawniczej Foksal sp. z o.o.

Zapraszam do lektury

2 komentarze do Skąd jesteśmy, kim jesteśmy i dokąd zmierzamy?

Nobel za pasożyty…

… a właściwie za walkę z nimi. Laureatami Nagrody Nobla w 2015 w dziedzinie fizjologii i medycyny zostali: William C. Campbell, Satoshi Ōmura i Youyou Tu.

… a właściwie za walkę z nimi. Laureatami Nagrody Nobla w 2015 w dziedzinie fizjologii i medycyny zostali: William C. Campbell, Satoshi Ōmura i Youyou Tu

Dwóch pierwszych panów, Irlandczyk William C. Campbell i Japończyk Satoshi Ōmura zostało wyróżnionych za odkrycie leku na choroby wywołane przez nicienie. Im Komitet Noblowski zdecydował się przyznać połowę nagrody. Drugą połowę dostała Chinka Youyou Tu, która została doceniona za prace nad terapią przeciwko malarii. Youyou Tu ma dzisiaj 83 lata i prawie nie mówi po angielsku. Jej osiągnięcia w walce z malarią choć znane, zostały zapomniane. Nie ma się co dziwić. Komitet Noblowski docenił ją za stworzenie leku antymalarycznego funkcjonującego pod nazwą Artemeter. Youyou Tu wyekstrahowała go z 200 ziół, we wczesnych latach 70tych XX wieku, a więc 45 lat temu. Rzadko zdarza się, że Nagrodę Nobla otrzymuje się za tak odległe odkrycie. Artemeter znacząco obniża śmiertelność pacjentów cierpiących na malarię.

1094px-Soybean_cyst_nematode_and_egg_SEM

Osobnik młodociany i cytrynkowata cysta mątwika Heterodera glycines wypełniona larwami. Źródło: wiki

Z kolei panowie Campbell i Omura zostali nagrodzeni za odkrycia dotyczące nowych terapii chorób, wywołanych przez pasożyty ludzkie – nicienie. Chodzi m.in. o takie choroby jak słoniowacizna czy ślepota rzeczna. Chorób wywołanych przez nicienie jest bardzo dużo i występują najczęściej w tropikalnych rejonach świata w których poziom życia jest zdecydowanie niższy niż w Europie czy USA. Nie znaczy to oczywiście, że w bogatych krajach Zachodu nie występują choroby pasożytnicze, ale jest ich nieporównywalnie mniej.

– Tegoroczni laureaci Nobla opracowali terapie, które zrewolucjonizowały leczenie niektórych z najbardziej wyniszczających chorób pasożytniczych – takie zdanie znalazło się w uzasadnieniu Komitetu Noblowskiego. Odkrycia tegorocznych laureatów „dały ludzkości nowe mocne narzędzia do walki z tymi ciężkimi schorzeniami, na które zapadają setki milionów ludzi rocznie”.

Tomasz Rożek

Brak komentarzy do Nobel za pasożyty…

A co gdyby Mars zzieleniał?

Wiadomo, Ziemia jest niebieska a Mars czerwony. Tak przynajmniej te planety wyglądają z kosmosu. Ale czy tak było zawsze? Mars mógł być kiedyś zielony. W końcu wiemy ponad wszelką wątpliwość, że była tam i wciąż jest płynna woda. Jak wyglądałbym Mars, gdyby były na nim rzeki, jeziora, morza i oceany?

Kilkanaście dni temu świat obiegła wiadomość, że na Marsie znaleziono ciekłą wodę. O tym, że na Czerwonej Planecie jest woda – wiedzieliśmy od dawna. Widzieliśmy ją zamarzniętą na biegunach planety. Podejrzewaliśmy, że jest także pod powierzchnią w formie wiecznej zmarzliny. Co więcej, podejrzewaliśmy, że czasami ta woda wypływa małymi strumyczkami z oświetlonych promieniami Słońca zboczy gór i kraterów. Podejrzenia jednak to nie to samo co fakty i niezbite dowody. Dzisiaj wiemy jednak, że – przynajmniej tym razem – podejrzenia były słuszne. Tam rzeczywiście nie tylko była, ale wciąż jest całkiem sporo wody.

Mars jest czerwony, bo pokrywający planetę pył jest bogaty w rdzawego koloru tlenki żelaza. Jeżeli planeta boga wojny kiedykolwiek była zielona to nie z powodu odbijających zielone światło minerałów, tylko z powodu życia. O ile było ono takie samo jak to ziemskie. Życie potrzebuje płynnej wody. Z tym akurat – jak się okazuje – w przypadku Marsa nie ma problemu i najpewniej nigdy nie było. Skąd przypuszczenie, że wody na Marsie kiedyś było znacznie, znacznie więcej niż tej, która znajduje się tam dzisiaj? Wystarczy sprawnym (naukowym) okiem rzucić na powierzchnię Czerwonej Planety. Pełno tam struktur do złudzenia przypominających wyschnięte koryta rzek, wąwozy, strumyki a nawet wodospady. Sam amerykański łazik Curiosity, wylądował w dawnym korycie rzeki, w którym głębokość wody sięgała dwóch metrów. Są też ogromne przestrzenie położone znacznie poniżej średniego poziomu gruntu planety. Te do złudzenia przypominają wyschnięte morza i oceany. Te mniejsze zagłębienia to wypisz wymaluj puste jeziora. A teraz zamknijmy oczy i pofantazjujmy. Jak wyglądałby Mars, gdyby, tak jak na Ziemi, płynnej wody było na nim pod dostatkiem?

mars-kevin-gill-01Wygląda jak Ziemia

Na pewno nie byłby czerwony. Może byłby niebieski, może zielony. Spróbujmy wyobrazić sobie Marsa sprzed miliardów lat. Kevin Gill, amerykański informatyk i entuzjasta astronomii wykorzystując zaawansowaną technologię cyfrową, trójwymiarowe zdjęcia Marsa oraz dokładne pomiary jego topografii stworzył obrazy planety z czasów, gdy – tak jak Ziemia – był ona planetą pełną płynnej wody. Gill poszedł w swoim fantazjowaniu o krok dalej. W swoim komputerowym modelu założył, że na Marsie – gdy była na nim woda – rosła bujna roślinność. I znowu z pomocą przyszła mu technologia cyfrowa. Posiłkując się danymi z Ziemi, marsjańskie drzewa i rośliny „posadził” tam, gdzie dostęp do wody i światła był najłatwiejszy. Autor symulacji wziął nawet pod uwagę wysokość nad poziomem marsjańskiego morza (w wysokich partiach gór roślin nie ma) oraz fakt, że najwyższa średnioroczna temperatura panuje na równiku, a najniższa na biegunach. Także od tego zależy wegetacja. Jeżeli jest woda, jeżeli jest atmosfera, muszą być także chmury. I one zostały naniesione na obraz Marsa z przeszłości. Jak więc wyglądał Mars kiedyś? Jak mógł wyglądać? Prawdę mówiąc prawie tak samo jak Ziemia. Trzeba się mocno przyglądać wirtualnemu obrazowi Marsa by zorientować się, że nie patrzy się na zrobione z orbity zdjęcie Ziemi. Wyżyny i niziny na Marsie występują w podobnych proporcjach co na Ziemi. Na stworzonych w komputerze obrazach widać wyraźnie najdłuższą dolinę w układzie słonecznym – Vallis Marineris – oraz szczyty ogromnych wulkanów Olympus Mons, Pavonis Mons, Ascraeusa Mons i Arsia Mons.

mars-water-2A może go dostosować?

Praca Gill’a nie może być uznana za w pełni naukową. Ale nie ma wątpliwości, że bardzo porusza wyobraźnię. Mars rzeczywiście mógł kiedyś wyglądać tak, jak „zaprojektował” go Kevin Gill. Jego praca w pewnym sensie pokazuje jednak nie tylko przeszłość (przy spełnieniu kilku warunków), ale może pokazywać także przyszłość. Być może w przyszłości ludzie skolonizują Czerwoną Planetę. Jej zaludnienie będzie niemożliwe jeżeli wcześniej planetę odpowiednio dostosujemy. Oczywiście można sobie wyobrazić budowę systemu szklarni w których ludzie, zwierzęta i rośliny będą żyły w równowadze podobnej do tej jaka panuje na Ziemi, ale jednak łatwiej chyba będzie taką równowagę stworzyć nie pod szklanym sufitem, tylko na powierzchni całej planety. Sprawa nie jest prosta i jest całkowicie poza zasięgiem naszych dzisiejszych możliwości, ale może warto zastanowić się nad czymś co niektórzy nazywają terraformowaniem obcych globów. Chodzi o takie ich „przerobienie” czy dostosowanie, by człowiek mógł na nich funkcjonować bez urządzeń technicznych takich jak sztuczna atmosfera w zamkniętej przestrzeni, kombinezony i maski. Jak Marsa przekształcić w Ziemię? Przede wszystkim trzeba na nim stworzyć atmosferę. To – przynajmniej teoretycznie – mogłyby zrobić żyjące na powierzchni gruntu bakterie. Trzeba je więc tam wysłać. Gdyby po setkach tysięcy lat atmosfera rzeczywiście na Marsie powstała, trzeba byłoby ją ogrzać. Wprowadzić do niej gazy cieplarniane tak, by energia słoneczna była na Czerwonej Planecie zatrzymywana. To spowodowałoby wzrost temperatury i „wypłynięcie” spod gruntu lub spłynięcie z biegunów ciekłej wody. Teraz pozostaje obsadzenie planety roślinami i gotowe. Proste prawda? 😉

PS. Woda, która dzisiaj płynie na Marsie jest słona. Prawdę mówiąc, znaleziono ją właśnie po śladach soli. Czy byłaby ona zdatna do picia? Gdyby ją oczyścić, jak najbardziej. Gdyby tego nie zrobić, gdyby spróbować wypić ją taką jaka wypływa ze zboczy, skończyłoby się… jeszcze większym pragnieniem. Spróbuj wypić szklankę mocno posolonej wody.

Zapraszam na profil FB.com/NaukaToLubie (kliknij TUTAJ). To miejsce w którym staram się na bieżąco informować o nowościach i ciekawostkach ze świata nauki i technologii.

 

 

1 komentarz do A co gdyby Mars zzieleniał?

Czujnik w nas

W Szwajcarii stworzono czujnik, który wszczepiony pod skórę jest w stanie kontrolować kilka parametrów życiowych równocześnie. Kilka lat temu pisałem o takich czujnikach jak o dalekiej przyszłości.

W Szwajcarii stworzono czujnik, który wszczepiony pod skórę jest w stanie kontrolować kilka parametrów życiowych równocześnie. Kilka lat temu pisałem o takich czujnikach jak o dalekiej przyszłości.

Czujnik, a właściwie elektroniczny chip, powstał w laboratoriach politechniki w Lozannie EPFL (École polytechnique fédérale de Lausanne). Ma wielkość paznokcia w małym palcu i nie trzeba wymieniać mu baterii. Ładuje się go przez indukcję, przez skórę. Wszystko, co zbada i zmierzy, przesyła bezprzewodowo do smartfona. Jest to bodaj pierwsze urządzenie tego typu, które może być wykorzystywane komercyjnie u pacjentów. Poprzednie konstrukcje nie były co prawda większe, ale miały ogromną wadę – badały tylko jeden parametr, tylko jedną zmienną. Ten równocześnie rejestruje ich kilka.

Od czego się zaczęło?

Czujnik, o którym mowa, wpisuje się w rozwój dziedziny zwanej nanotechnologią. Co prawda urządzenia nano są znacznie, znacznie mniejsze, ale bardzo szybki wyścig do miniaturyzacji zawdzięczamy właśnie nanotechnologii. Za ojca tej dziedziny uważany jest genialny fizyk Richard Feynman. Uczestniczył w pracach nad budową pierwszej bomby atomowej (projekt Manhattan), a po wojnie pracował na najlepszych uniwersytetach amerykańskich. Zajmował się kwantową teorią pola i grawitacji, fizyką cząstek i nadprzewodnictwem. To on jako pierwszy podał koncepcję komputera kwantowego i – w 1960 roku – zapowiedział powstanie nowej dziedziny nauki – nanotechnologii. W 1965 r. otrzymał Nagrodę Nobla z fizyki. Feynman wielokrotnie zwracał uwagę na to, że przyszłość będzie nano, że zrozumienie tego, co dzieje się w nanoświecie, świecie na poziomie pojedynczych cząstek i atomów, będzie kluczowe dla naszego przyszłego rozwoju.

Trudno oczywiście dokładnie określić, kiedy nanotechnologia rzeczywiście powstała, ale nie ma wątpliwości, że wiele dziedzin przemysłu coraz chętniej zwraca głowę w kierunku ekstremalnej miniaturyzacji. Jedną z dziedzin, które robią to szczególnie często, jest medycyna. Nanomedycyna dzisiaj rozwija się w dwóch kierunkach. Jeden to próby (coraz częściej udane) stworzenia nanocząsteczek, które będą nośnikami leków, a nawet genów. Wnikając do organizmu, będą uwalniać przenoszony czynnik dokładnie w tym miejscu i dokładnie o tym czasie, jaki jest optymalny. Drugi kierunek to nanosensory. Te mogą być wykorzystywane nie tylko w medycynie, ale także na przykład w ochronie środowiska. Dobrym przykładem jest nanosensor służący do analizy krwi. Z zewnątrz wygląda jak siateczka z ogromną ilością otworów. W rzeczywistości to mikroskopijne kanaliki krzemowe, w których znajdują się przeciwciała wyłapujące komórki nowotworowe. Analiza przeciwciał pozwala stwierdzić, czy w krwi znajdują się komórki rakowe, a jeżeli tak, to ile i jakie. Taka informacja nie może być pozyskana w trakcie standardowej analizy, bo komórek nowotworowych w krwi jest bardzo mało. Co ciekawe, testowana metoda jest dużo tańsza niż dzisiaj stosowane, a do analizy wystarczy jedna, dosłownie, kropla krwi.

Myszy już mają

Nanomedycyna jednoznacznie kojarzy się jednak z budową nanorobotów, które wpuszczone do ludzkiego krwiobiegu będą nie tylko monitorowały funkcje życiowe, ale także reagowały na stany kryzysowe organizmu. Te skojarzenia – przynajmniej na razie – są całkowicie chybione. Co nie znaczy oczywiście, że prace nad miniaturyzacją robotów nie są prowadzone. Już dzisiaj tworzone są roboty, których rozmiary umożliwiają użycie ich w rzeczywistych warunkach szpitalnych. Na przykład kapsułka monitorująca wnętrze układu trawiennego skonstruowana przez japońską firmę Denso Research jest wielkości standardowej tabletki. Jest wyposażona we własne zasilanie i kamerę CCD wysokiej rozdzielczości oraz urządzenie do przesyłania informacji drogą radiową do urządzenia bazowego. Po połknięciu „kapsułka endoskopowa” przekazuje wysokiej jakości obraz w czasie rzeczywistym. Nie ma własnego napędu, porusza się pod wpływem… siły grawitacji i perystaltyki jelit. Ale na rynku są już urządzenia niewiele większe, które mogą poruszać się samodzielnie, choć na razie jeszcze nie w układzie krwionośnym. Kilka lat temu na jednej z konferencji nanotechnologicznych pokazano nanosilnik, który jest mniejszy od główki od szpilki. Jego koła napędowe były 100 razy cieńsze niż kartka papieru, a ich średnica mniejsza niż średnica ludzkiego włosa. Silnik obracał się z częstotliwością jednego obrotu na sekundę i teoretycznie mógłby być elementem systemu napędowego jakiegoś małego urządzenia pływającego. Zanim te powstaną, miną jeszcze lata. Wcześniej do medycyny wejdą inteligentne czujniki, które być może będą wszczepiane pod skórę na dłuższy czas osobom o podwyższonym ryzyku zdrowotnym. Takim czujnikiem jest wspomniany sensor stworzony w Lozannie. Ma wielkość poniżej centymetra i w czasie rzeczywistym monitoruje obecność oraz stężenie kilku molekuł. Może badać odczyn (pH), temperaturę, ale przede wszystkim cholesterol, glukozę, poziom tlenu oraz stężenie przynajmniej kilku leków. To ostatnie będzie szczególnie ważne dla osób, które z powodu swojej choroby muszą regularnie zażywać jakieś medykamenty. Ich przedawkowanie jest wtedy bardzo łatwe. Pełna kontrola nad poziomem substancji czynnej we krwi jest bardzo istotna. Sensor został przetestowany na myszach, a testy kliniczne na ludziach rozpoczną się za kilka lat.

Brak komentarzy do Czujnik w nas

Pluton jak Biedronka

Wczorajszy przelot sondy New Horizons w pobliżu Plutona natchnął mnie do pewnych przemyśleń. Po co badać coś tak odległego jak Pluton? Po co badać delfiny, motyle czy orangutany? Po co zajmować się gwiazdami, płytami tektonicznymi i DNA?

Wczorajszy przelot w pobliżu Plutona i związanych z nim sporo pytań natchnął mnie do pewnych przemyśleń. Niemal za każdym razem, gdy w nauce dochodzi do jakiegoś odkrycia, do wysłania sondy, do zbudowania nowego rodzaju mikroskopu czy znalezienia nowej cząstki elementarnej, pada pytanie, po co to wszystko? Po co wydawać miliony dolarów by dowiedzieć się co słychać np. na globie, który oddalony jest od nas o miliardy kilometrów. Dajmy na to na takim Plutonie. Wczoraj udało się sfotografować jego powierzchnię z odległości nieco ponad 12 tysięcy kilometrów. To 30 razy mniej niż odległość pomiędzy Ziemią i naszym Księżycem. Sonda która tego dokonała to New Horizons. Leciała w kierunku Plutona prawie 10 lat przebywając w tym czasie 5 miliardów kilometrów. No i po co to wszystko? Po co lecieć tak daleko, po co wydawać niemałe przecież pieniądze, po co zaangażowanie ogromnej grupy ludzi przez długi okres czasu?

Zacznijmy od pieniędzy. Całkowity koszt misji New Horizons, wszystkich urządzeń sondy, jej wystrzelenia, ale także analizy danych a nawet obsługi medialnej wydarzenia to około 700 milionów dolarów, czyli nieco ponad 2 miliardy i 600 milionów złotych. To dziesięć razy mniej (!!!) niż wynosi roczny przychód supermarketów Biedronka w Polsce. To mniej niż budowa 20 kilometrowego odcinka autostrady A1. W końcu to mniej niż zakup i 13 letnia obsługa 4 samolotów F16, które służą w polskiej armii (w sumie kupiliśmy ich 48). Tyle jeżeli chodzi o koszty. Tak, te są duże… dla przeciętnego obywatela. Niewielu byłoby stać na wybudowanie i wysłanie w kosmos sondy New Horizons (choć np. Jan Kulczyk, najbogatszy Polak, mógłby takich sond wysłać 7), ale w skali państwa, dla budżetu państwa rozwój nauki to grosze. Grosze zainwestowane najlepiej jak można sobie wyobrazić. Grosze, które w przyszłości przyniosą miliony poprzez rozwój technologii a w dalszej perspektywie rozwój przemysłu. Każda ekspansja to wyzwanie i konieczność znajdowania rozwiązań na problemy z których nie zdawaliśmy sobie sprawy. Przecież loty w kosmos mają bezpośrednie przełożenie na komunikację, elektronikę i materiałoznawstwo. Rozwój technik obrazowania (nieważne czy w astronomii czy w biologii) od razu jest wykorzystywany w medycynie. Nasze miasta byłyby skażonymi pustyniami gdyby nie powstawały zaawansowane technologicznie silniki i komputery, które tymi silnikami sterują.

A wracając do Plutona, delfinów, motyli i orangutanów. Po co je badać? Bo one są częścią nas, a my częścią świata którego różnorodność – przynajmniej mnie – powala na kolana. Wszystkie lekkie atomy, które nas budują powstały w czasie Wielkiego Wybuchu. Wszystkie ciężkie w czasie wybuchu gwiazdy. Warto rozwijać zarówno kosmologię, astrofizykę jak i fizykę cząstek. Nasze DNA to uniwersalny język całej przyrody, a gatunki (zarówno zwierzęce jak i roślinne), które zamieszkują Ziemię (a pewnie także inne globy) powstawały jedne z drugich. To dlatego nie można zaniedbywać biologii (w tym egzobiologii) i medycyny. Oddychamy powietrzem w którego skład wchodzą różne gazy. To dlatego warto rozwijać chemię i interesować się tym jak zmieniały się atmosfery na innych planetach. Ta wiedza może być bezcenna gdy zacznie zmieniać się nasza atmosfera. Bo to że wszystko jest wokoło nas zmienne – to oczywiste. Kontynenty są w ruchu (nie tylko zresztą na Ziemi) i dzięki temu mogło powstać życie. Ale to nie powstałoby, gdyby Ziemia nie miała swojego pola magnetycznego. A tego by nie było gdyby jądro planety nie było gorące i półpłynne. Ale nawet gdyby było, Ziemia byłaby martwa, gdyby nie było Księżyca, który stabilizuje ruch Niebieskiej Planety wokół Słońca. A Księżyc powstał w kosmicznej katastrofie w której w Ziemię uderzyła planetoida wielkości Marsa. Geologia, geografia, fizyka, astronomia, biofizyka i biochemia… Mam dalej wymieniać? Czy jest sens wymieniać? Czy jest sens pytać, po co badamy coś tak odległego jak Pluton? Po co badamy delfiny, motyle czy orangutany, a nawet biedronki (chodzi o owada, nie o sieć sklepów)? Moim zdaniem szkoda na to czasu. Lepiej go wykorzystać na zaspokajanie swojej ciekawości. Bo to ciekawość idzie przed odkryciami. Tak było zawsze i tak będzie zawsze.

3 komentarze do Pluton jak Biedronka

Bajkał – zimne morze

Nad Bajkałem byłem w zimie. Śnieg mienił się jak diamenty, termometr wskazywał prawie minus 30 st C, a woda parowała tak, jak gdyby była gorąca.

Nad Bajkałem byłem w zimie. Śnieg mienił się jak diamenty, termometr wskazywał prawie minus 30 st C, a woda parowała tak, jak gdyby była gorąca.

W zasadzie była gorąca. Była o około 40 st. C cieplejsza niż otoczenie. Gorące lata na Syberii nagrzewają ogrom wody w Bajkale. Gdy przyjdzie zima, trzeba miesięcy, by jezioro tę energię oddało. Mimo kilkudziesięciostopniowego mrozu Bajkał zwykle zamarza dopiero na przełomie stycznia i lutego. Ale nawet gdy taflę pokryje czasami wielometrowa warstwa lodu, Bajkał nie przestaje czarować. Powolne zamarzanie wody powoduje, że zdążą z niej „uciec” wszystkie bąbelki powietrza. W efekcie lód staje się idealnie przezroczysty. W przeciwieństwie do lodu, który powstaje, gdy woda zamarza szybko. Ten ostatni jest matowy, jak gdyby mleczny. Wystarczy zobaczyć kostki lodu w zamrażalniku.

P1020173

 

 

 

 

 

 

Z pary odrywającej się od powierzchni wody, tworzą się nisko zawieszone chmury. Wznoszą się coraz wyżej, aż w końcu znikają gdzieś za horyzontem. Parująca woda osiada także na wszystkim co znajduje się w pobliżu brzegu jeziora.

Dziedzictwo przyrody

Nie ma przesady w stwierdzeniu, że Bajkał odkryli Polacy. Odkryli dla nauki. Mowa tutaj o polskich zesłańcach, głównie po powstaniu styczniowym. Oni jako pierwsi przeprowadzili profesjonalne i obiektywne badania samego jeziora i jego otoczenia, flory i fauny, a także pierwsze badania klimatyczne rejonu Bajkału. I tak, dzięki pracom Benedykta Dybowskiego, lekarza i przyrodnika, wiemy dzisiaj, że w jeziorze i jego najbliższym sąsiedztwie żyje 1500 gatunków zwierząt i około 1000 gatunków roślin. Prawie 80 procent z nich to endemity, czyli gatunki niewystępujące nigdzie indziej na świecie.

Tylko tutaj żyje nerpa, czyli słodkowodna foka, i omul – jedyna na świecie słodkowodna ryba z rodziny łososiowatych. Przykłady można długo mnożyć. Inny Polak, Aleksander Czekanowski, geolog i meteorolog, odkrył ogromne pokłady węgla i sporządził pierwsze profesjonalne archiwum danych pogodowych, z kolei Jan Czerski, geolog i paleontolog, jako pierwszy dokładnie opisał pasma górskie, znajdujące się wokół Bajkału. Ostatni z wielkich polskich badaczy, Wiktor Godlewski, jako pierwszy sporządził mapę dna jeziora. Do dzisiaj okazuje się, że zrobione 150 lat temu badania są potwierdzane pomiarami nowoczesnymi.

Bajkał zajmuje powierzchnię 31 500 kilometrów kwadratowych i wywiera ogromny wpływ na klimat dużego obszaru Syberii. Zimą podnosi temperaturę, latem ją obniża. Podnosi wilgotność atmosfery, a to ma ogromny wpływ na ilość opadów. To dzięki temu wokół jeziora występuje bardzo bogate i różnorodne życie. Samych roślin wodnych na brzegach jeziora żyje kilkaset gatunków. O bogactwie przyrody można pisać bez końca. Może wystarczy wspomnieć, że w 1996 roku Bajkał wraz z przyległymi obszarami został wpisany na listę światowego dziedzictwa przyrodniczego UNESCO.

Nieodrobiona lekcja

Ogromne bogactwo przyrody i krystalicznie czysta woda nie są oczywiście dane na zawsze. W 2013 roku zamknięto ogromny kombinat papierniczy, który regularnie wylewał do Bajkału ścieki. Nadal pracuje jednak wiele innych zakładów, także produkujących nawozy sztuczne. Do jeziora, pośrednio przez wpływające do niego rzeki, albo bezpośrednio, swoje ścieki wylewają miasta z dużego obszaru. Kilka lat temu istniało ogromne ryzyko wycieku do wód Bajkału ropy z rurociągu Syberia–Pacyfik. Ostatecznie jego trasę zmieniono, tak by rura przechodziła w pewnym oddaleniu od akwenu.

Zagrożeniem – bardziej dla terenów przybrzeżnych niż samego jeziora – jest turystyka. Bajkał każdego roku odwiedza kilkaset tysięcy ludzi. Widok ludzi myjących samochody w płytkich wodach jeziora, wycinających drzewa, po to, by założyć dziki kamping, czy urządzających sobie rajdy samochodowe po obszarach porośniętych zagrożonymi gatunkami roślin, nie jest niczym szczególnym. W oczy rzucają się także góry pozostawionych przez turystów śmieci. Ostatnio do tych zagrożeń doszło jeszcze jedno. Od wielu lat w Bajkale jest coraz mniej wody. Tegorocznej zimy jej poziom jest tak niski, że władze na Syberii ogłosiły stan wyjątkowy. W ciągu roku poziom wody spadł o 40 centymetrów. Ostatni raz taka okoliczność miała miejsce ponad 60 lat temu. Sytuacja jest dość trudna, ale wszyscy czekają do kwietnia. To wtedy powoli zaczynają topnieć śniegi w otaczających jezioro górach, a we wpływających do Bajkału rzekach przybywa wody. W kwietniu okaże się więc, czy niski poziom był tylko anomalią, czy jest trwałym trendem. Gdyby chodziło o ten drugi przypadek, trudno sobie wyobrazić zmiany – te krótkoterminowe i długoterminowe – jakie mogą czekać Syberię.

Nie do końca wiadomo, co jest powodem ubytku wody. Jak zawsze w takich sytuacjach czynników jest zapewne kilka. Ostatnie lato na Syberii było suche, ale tym nie da się wytłumaczyć aż tak dużego ubytku. Wiadomo też, że brzegi jeziora oddalają się od siebie, co w dłuższej perspektywie czasu musi mieć wpływ na poziom wody. Eksperci wskazują także na rabunkową gospodarkę wodną dużych zakładów przemysłowych i miast. Na rzekach, które doprowadzają wodę do jeziora, funkcjonują elektrownie wodne, a po to, by nieprzerwanie działały, trzeba budować zbiorniki retencyjne. Te mają wpływ na ilość wody w jeziorze. Niski poziom wody w Bajkale przyczynia się nie tylko do rozchwiania równowagi ekologicznej dużego obszaru, ale także może mieć wpływ na dostawy ciepła i prądu do miast, które wybudowane są wzdłuż brzegów rzeki Angara, w tym do sześciusettysięcznego Irkucka. Choć porównanie Bajkału do występującego dzisiaj w szczątkowej formie Jeziora Aralskiego jest mocno przesadzone, może warto by wyciągnąć wnioski z tego, co zdarzyło się na terenach dzisiejszego Kazachstanu i Uzbekistanu. Działalność człowieka w zaledwie kilkadziesiąt lat spowodowała praktycznie zniknięcie olbrzymiego jeziora, a także dewastację, a właściwie zamianę w pustynię ogromnych obszarów lądu.

P1020180
O Bajkale słów kilka

Bajkał może być jednym z najstarszych zbiorników wodnych na naszej planecie. Powstał kilkadziesiąt milionów lat temu w wyniku trzęsienia ziemi. To wtedy pomiędzy płytą amurską i płytą euroazjatycką powstało ogromne zagłębienie (ryft bajkalski), które zaczęło wypełniać się wodą. I nadal się wypełnia. Ten proces nie jest zauważalny gołym okiem, no chyba że… Pod koniec XIX wieku w rejonie Bajkału wystąpiło silne trzęsienie ziemi. W jego wyniku jezioro w jednej chwili powiększyło się. Powstała głęboka na 11 metrów zatoka Prował. Takie sytuacje to jednak rzadkość. Brzegi jeziora oddalają się od siebie, tak jak gdyby ciężar wody je rozsuwał. Płyty amurska i euroazjatycka odsuwają się. Każdego roku jezioro jest szersze o kilka centymetrów. Dzisiaj Bajkał ma objętość 23 400 kilometrów sześciennych (23,4 biliona metrów sześciennych wody). Powierzchnia jeziora stanowi 10 proc. powierzchni całej Polski, a jego długość (636 km) jest zbliżona do odległości pomiędzy Trójmiastem a Bieszczadami w linii prostej. Bajkał jest najgłębszym jeziorem świata, miejscami dno znajduje się około 1700 metrów poniżej tafli wody. Dla porównania, Bałtyk w najgłębszym miejscu ma 459 metrów. W Bajkale znajduje się około 20 proc. słodkiej wody całej planety.

Brak komentarzy do Bajkał – zimne morze

Po co zmieniamy czas?

Zmiana czasu na którą godzimy się dwa razy w roku nie ma żadnego sensu. Miała sens może dwieście lat temu. Dzisiaj powoduje straty, zamieszanie i uszczerbek na zdrowiu.

Podobno na zmianę czasu z zimowego na letni wpadł autor konstytucji USA Benjamin Franklin. Gdy była ambasadorem w Paryżu zauważył, że z powodu niedostosowanej do pory dnia godziny, ludzie śpią choć słońce było wysoko, wieczorem zaś pracują oświetlając pomieszczenia świecami. Franklin był nie tylko politykiem i dyplomatą, ale także naukowcem i wynalazcą. Choć nie do końca wiadomo jak, obliczył, że gdyby przesuwać czas na wiosnę „do przodu” a jesienią „do tyłu” można by w samym tylko Paryżu zaoszczędzić 30 mln kilogramów wosku rocznie. Wosku z którego robiono świecie. Pomysł Franklina był jak najbardziej – na tamte czasy – logiczny. Ludzie używali świec, bo funkcjonowali, pracowali, bawili się czy uczyli po zachodzie słońca. Gdyby więc przesunąć godziny wstawania, a co się z tym wiąże także zasypiania, świece nie byłyby w takich ilościach potrzebne.

Raz jest, a raz go nie ma

Pomysł Franklina nie od razu został podchwycony. Pierwsi którzy go zrealizowali byli Niemcy. To były trudne czasy, I Wojna Światowa, kryzys i braki w energii, która była potrzebna do produkcji broni i amunicji. W 1916 roku po raz pierwszy w Niemczech przesunięto czas. Obywatele ogarniętego wojną kraju mieli wcześniej chodzić spać, po to by nie oświetlać swoich mieszkań po zmroku. Chwile później zmianę czasu wprowadziły inne kraje europejskie. Argumenty o oszczędnościach nie przekonały wszystkich. Mówiono o zamieszaniu w rozkładach jazdy i o tym, że jest całkiem spora grupa zawodów które wykonywać trzeba niezależnie od umownie ustalonej godziny. Tarcia pomiędzy przeciwnikami i zwolennikami zmiany czasu były tak duże, ze w wielu krajach czasowo rezygnowano z regulacji zegarków, po to by po kilku latach do pomysłu wrócić. Tak było także w Polsce. U nas po raz pierwszy przestawiono czas w okresie międzywojennym. Później ze sprawy zrezygnowano. Czas zimowy i czas letni przywrócono pod koniec lat 40tych, a później znowu z niego zrezygnowano (na prawie 10 lat). W 1957 roku zmianę czasu wprowadzono, ale w 1965 roku znowu zarzucono. Na stałe Polska jest krajem „dwuczasowym” od 1976 roku.

Danych o oszczędnościach jakie mają wynikać ze zmiany czasu, praktycznie nie ma. Są niepewne oszacowania, które na dodatek nie są wcale jednoznaczne. Oszczędność energii da się policzyć (choć nie jest to takie proste, bo w zimie i w lecie są przecież inne warunki i nie da się tych dwóch okresów bezkrytycznie przyrównać), ale jak oszacować zamieszanie związane z przestawianiem wskazówek? Pomińmy na razie to ostatnie. A pozostańmy na samych oszczędnościach energii. Jeden z nielicznych raportów na ten temat wydał ponad 30 lat temu Amerykański Departament Energii (ADE). Z jego obliczeń wynika, że zmiana czasu rzeczywiście oznacza mniejszą konsumpcję prądu. O cały 1 proc i to na dodatek tylko przez dwa miesiące, marzec i kwiecień. Później dzień jest tak długi, że dodatkowa godzina nie wpływa na mniejsze zużycie prądu. Wyniki raportu ADE podważały poważne instytucje naukowe. Uważały, ze rachunki były błędne, a o żadnych oszczędnościach nie ma mowy. Argumentowano, że każdego roku rośnie zapotrzebowanie na energię elektryczną, a tego ADE nie wziął pod uwagę w obliczeniach. To był rok 1976. Jeżeli już wtedy wyniki analiz nie były jednoznaczne, co dopiero teraz.

Oszczędności brak

Od czasów Franklina, od czasów I Wojny Światowej, ba nawet od czasów kiedy opublikowano raport Amerykańskiego Departamentu Energii, bardzo dużo się zmieniło. I tutaj dochodzimy do sedna problemu. Zmiany godziny mogą wpłynąć na oszczędność energii, ale tylko tej którą zużywa się na oświetlenie pomieszczeń. I to pomieszczeń prywatnych. Toster, czajnik bezprzewodowy czy bojler, niezależnie od godziny zużywają przecież tyle samo energii. A żelazka, pralki, komputery? Można kręcić wskazówkami do oporu, a ilość zużywanej przez te sprzęty energii i tak nie ulegnie zmianie. To samo dotyczy zresztą oświetlenia ulic (a to pobiera znacznie więcej prądu niż oświetlenie mieszkań prywatnych), które działa od zmierzchu do świtu, niezależnie od tego o której godzinie zaczyna się świt. Dzisiaj oświetlenie pomieszczeń „pożera” mniej niż 1 proc prądu który produkują elektrownie. Co więcej, choć prądu w ogóle zużywamy coraz więcej, na oświetlenie mieszkań i domów potrzebujemy go coraz mniej. Głównie dlatego, że coraz częściej korzystamy z energooszczędnych źródeł światła. A wiec co konsumuje coraz więcej? Podnosimy swój standard życia. Coraz częściej kupujemy klimatyzatory, większe lodówki, elektryczne systemu grzewcze czy sprzęty kuchenne. Nowoczesne telewizory (wielkości okna) konsumują więcej energii niż starsze ich typy. To wszystko zużywa znacznie więcej energii niż oświetlenie, a równocześnie korzystamy z tego niezależnie od wskazywanej przez zegarki godziny. Najwięcej prądu potrzebują fabryki (przemysł), transport czy kopalnie. Przestawianie wskazówek nic tutaj nie zmieni.

Rolnicy liczą straty

Jedną z najdłużej opierających się zmianie czasu grup zawodowych byli rolnicy. Dla nich ważny jest jasny poranek a nie długi wieczór. Zwierzęta nie przestawiają przecież zegarków. W USA, gdzie rząd w Waszyngtonie nie ingeruje zbyt mocno w życie obywateli, w stanach rolniczych (m.in. Arizona i Indiana) wciąż są hrabstwa, które czasu nie przestawiają. Choć powoduje to gigantyczne zamieszanie, wola obywateli jest tam świętością. W 2006 roku kilka hrabstw w Indianie zdecydowało się jednak dostosować. Dla naukowców to była idealna okazja by sprawdzić jak to z tymi oszczędnościami energii elektrycznej jest. Obszar na którym zdecydowano się po raz pierwszy zmienić czas na letni nie był duży, więc badacze z Uniwersytetu Kalifornijskiego mogli sobie pozwolić na prześledzenie rachunków za energię elektryczną każdego domostwa. I co się okazało? Nie było żadnego zysku, tylko gigantyczna strata. W sumie na stosunkowo niewielkim terenie rachunki za prąd wzrosły o prawie 9 mln dolarów. Skonsumowano do 4 proc więcej energii niż przed zmianą czasu. To nielogiczne ! Skąd się wzięły te procenty? Naukowcy zauważyli, że istotnie nieco spadła ilość energii używanej do oświetlenia domów. Równocześnie znacznie zwiększyła się ilość energii zużywanej przez klimatyzatory i ogrzewanie. To ostanie włączano, bo wcześniejszym rankiem niektórym w mieszkaniach było za zimno. Gdy wieczorem trzeba było się wcześniej kłaść spać, okazywało się, że niektóre mieszkania są zbyt nagrzane po ciepłym dniu i do komfortowego snu, trzeba je nieco schłodzić.

Dzisiaj jedynym bezdyskusyjnym zyskiem z przesuwania czasu jest bezpieczeństwo na drogach. Dzięki temu, że po południu, w czasie powrotów z pracy jest wciąż jasno, zdarza się mniej wypadków. Szczególnie tych z udziałem pieszych. Zresztą ten argument (a nie oszczędność prądu) przekonał brytyjskich parlamentarzystów na początku XX wieku do zgody na zmianę czasu. Bezpieczniej na drogach jest jednak nie przez cały okres obowiązywania czasu letniego, ale tylko w pierwszych jego miesiącach.

Policzyć da się wszystko. Ciekawe, że na razie nikt nie zrobił jednak rachunku zysków i strat związanych ze zmianą czasu. I nie chodzi tylko o pobór energii elektrycznej, ale także bezpieczeństwo na drogach, zamieszanie w transporcie lotniczym czy kolejowym oraz niedogodności zdrowotne. Z czasem coraz więcej prądu zużywać będą urządzenia ułatwiające (umilające) nam życie. Z czasem oszczędności na oświetleniu (o ile jakiekolwiek są), będą więc wraz ze zmianą czasu coraz mniejsze. A o tym, ze bez zmiany czasu da się żyć mogą zaświadczyć najliczniejsze narody Azji. W Chinach, Japonii i Indiach nikt przestawianiem zegarka nie zaprząta sobie głowy.

W Unii Europejskiej (dyrektywa UE 2000/84/EC) czas zmienia się z zimowego na letni w ostatnią niedzielę marca, a letniego na zimowy w ostatnią niedzielę października. W marcu tracimy godzinę, a w październiku zyskujemy.

 

Tekst ukazał się w tygodniku Gość Niedzielny

Brak komentarzy do Po co zmieniamy czas?

Papier czy plastik ?

Używanie której torby na zakupy ma mniejszy wpływ na środowisko – co byś odpowiedział? Pewnie, że papierowej. Ja bym taki całkiem pewny tego nie był.

Jedno jest pewne. Reklamówki czy ogólnie tworzywa sztuczne mogą być dla środowiska sporym wyzwaniem. Nie rozkładają się, w niektórych warunkach mogą być trujące. Np. wtedy gdy zostają spalone. Polska, na tle krajów europejskich, jest rekordzistą pod względem ilości zużywanych torebek foliowych. Tak jak średnia unijna wynosi niecałe 200 reklamówek na mieszkańca na rok, tak w Polsce zużywamy ich 466. Na drugim – niechlubnym miejscu – są Węgrzy z 425 torebkami na mieszkańca w ciągu roku. Ale np. nasi zachodni sąsiedzi, Niemcy, statystycznie zużywają tylko 71 foliówek. W takich krajach jak Dania czy Finlandia, jednorazówki praktycznie w ogóle nie są znane. Gdyby na sprawę spojrzeć w kontekście całej Unii, okazuje się, że Europejczycy rocznie wyrzucają około 8 miliardów torebek plastikowych. Samo wyrzucanie nie jest jednak problemem, o ile miejscem do którego reklamówki trafiają jest kosz na odpady z tworzyw sztucznych. Kłopot zaczyna się wtedy, gdy torby foliowe trafiają do lasu, pieca albo na wysypisko śmieci.

Polska na czele

Unia Europejska chce by do 2019 roku o 80 proc spadło zużycie torebek foliowych. Do 2017 r. zużycie reklamówek ma spaść o 50 proc. Chodzi o torebki jednorazowe, te z najcieńszego materiału. Łatwo powiedzieć, ale jak zrobić? No po brukselsku – chciałoby się rzec. Po prostu zakazać. Tyle tylko, że to nic nie da, a może nawet sytuację pogorszyć. Mowa bowiem cały czas o torebkach bardzo cienkich. Tych z grubszego tworzywa Unia nie chce zakazywać. Jeżeli w sklepie nie będzie jednorazówek, większość klientów zechce kupić torbę plastikową (teoretycznie) wielokrotnego użytku. Przy kolejnych zakupach torba zapewne zostanie jednak w domu, a przy kasie zostanie kupiona kolejna. Negatywny wpływ reklamówek z grubszego tworzywa na środowisko jest większy. I nawet gdyby za reklamówki wielokrotnego użytku trzeba było płacić… Czy kwota kilku czy kilkunastu groszy jest na tyle wysoka, by nauczyć klientów chodzenia na zakupy z własną torbą? To raczej mało prawdopodobne.

Alternatywą dla plastiku są torby materiałowe albo papierowe. Te pierwsze są bardzo trwałe. Nasze babcie i mamy często same robiły takie torby np. na szydełku, czy szyły je z niepotrzebnych już skrawków materiału. To było racjonalne zarówno ekologicznie jak i ekonomicznie. Tyle tylko, że dzisiaj tego nikt nie robi. Co z papierem? To mit, że torba papierowa jest dla środowiska neutralna. Prawdę mówiąc pod wieloma względami może być bardziej obciążająca niż plastikowa. Produkcja torby papierowej powoduje o 70 proc. większe zanieczyszczenie powietrza (1) oraz o 80 proc. większą emisję gazów cieplarnianych (2) niż produkcja torby plastikowej. Papier w trakcie produkcji o 50 proc. bardziej (3) zanieczyszcza wodę niż plastik. Produkcja torby papierowej pochłania cztery razy więcej energii (4) i trzy razy więcej wody (5) niż produkcja torby plastikowej. Proces recyklingu papieru zwykle kosztuje więcej energii niż produkcja nowej torby (6). Potrzeba ponad 90 proc. więcej energii (7) by przetworzyć kilogram papieru niż kilogram plastiku.

Babcie miały rację

Coś, co jest często wymieniane jako zaleta papierowych toreb czy opakowań, może być równocześnie ich wadą. Papier jest nietrwały. Innymi słowy, wytworzenie papierowej torby kosztuje energię i wodę, oznacza także korzystanie z wielu środków chemicznych. I to wszystko po to, by torba była wykorzystana tylko jeden raz! To prawda, że torby papierowe szybko się rozkładają. Ale ten rozkład w pewnym sensie oznacza marnotrawstwo. Pod tym względem dużo lepiej korzystać z toreb plastikowych. Jest tylko jeden warunek. Gdy taka torba ulegnie  zniszczeniu, powinna zostać przetworzona. W środowisku naturalnym będzie bowiem zalegać przez dziesiątki a nawet setki lat. To nie produkt jest problemem, tylko sposób w jaki z niego korzystamy.

Plastikowe śmieci stanowią około 20 proc. odpadów na wysypiskach śmieci. Torby foliowe około 1 proc. Są lekkie i dlatego są rozwiewane przez wiatr. Drażnią oko w lesie czy na drzewach. Drażnią nos, gdy są spalane. Ale ich użycie i wykorzystanie to nie ślepa uliczka konsumpcjonizmu. Opakowania plastikowe nie mają sobie równych! To dzięki nim produkty żywnościowe zachowują dłużej świeżość. Samochody zrobione z blachy i drewna byłyby drogie i niebezpieczne. W szpitalach bez tworzyw sztucznych nie dałoby się zachować sterylności. Są trwałe i to w pewnym sensie przysparza im wrogów. Bo w świecie w którym żyjemy to nie trwałość się liczy, tylko częsta zamiana. I tu pojawia się problem. Bo za chęcią zmiany nie idzie w parze świadomość segregowania śmieci. I świadomość tego, że tworzywa sztuczne są cennym surowcem wtórnym. Można je wykorzystać jako paliwo lub przerobić na granulat i używać do produkcji worków na śmieci, ubrań a nawet płyt chodnikowych. Wyrzucanie plastików na wysypiska czy do lasu jest nie tylko karygodne z ekologicznego punktu widzenia, ale przede wszystkim ekonomicznego. Tworzywa sztuczne, także te z których wykonane są woreczki foliowe, są magazynem energii i surowców. W końcu tworzy się je z węgla i ropy naftowej.

Podsumowując (8): Zakazywanie produkcji czy wydawania w sklepach plastikowych torebek nie ulży środowisku, a może pogorszyć jego stan. Bo choć cieniutkich torebek będzie mniej, ich miejsce zajmą torby papierowe albo plastikowe zrobione z grubej folii. A negatywny wpływ na środowisko naturalne tych ostatnich jest dużo większy niż foliówek (9). Jakie jest zatem wyjście? Edukacja i segregacja. No i powrót do czasów naszych babć, które na zakupy zawsze chodziły ze swoją siatką.

14 komentarzy do Papier czy plastik ?

Żyć albo nie żyć

Na Marsie znajdowane są kolejne dowody na to, że nie tylko było tam sporo wody, ale występowało także życie. Niewykluczone, że wciąż tam się znajduje.

Na Marsie znajdowane są kolejne dowody na to, że nie tylko było tam sporo wody, ale występowało także życie. Niewykluczone, że wciąż tam się znajduje.

Badania kosmosu bardzo rzadko dają jednoznaczną odpowiedź na postawione pytanie. To raczej sztuka zbierania skrawków informacji, z których żadna nie jest rozstrzygająca, ale wszystkie razem dają obraz sytuacji.

Woda była czy nie?

Tak jest niemal ze wszystkim. Ale zatrzymajmy się na Marsie. Czy jest woda na Marsie? Tak, jest. Wiemy to dzisiaj, ale musiały minąć długie lata, by móc tak jednoznacznie na to pytanie odpowiedzieć. Bo czy dowodem jest to, że z orbity widać struktury, które wyglądają jak wyschnięte koryta rzek? Czy dowodem jest to, że gdzieniegdzie – na zdjęciach z orbity – widać pojawiające się jak gdyby strużki wody? Szczególnie na nasłonecznionych zboczach gór. Czy dowodem na istnienie zamarzniętej wody są czapy czegoś białego na marsjańskich biegunach albo po prostu teoria, która mówi, że woda na Marsie być powinna? Żaden z wyżej wymienionych faktów sam w sobie o niczym nie świadczy. Ale wszystkie one razem powodują, że dzisiaj fakt istnienia wody na Czerwonej Planecie nie jest podawany w wątpliwość. Do tego dochodzi jeszcze jeden eksperyment, a mianowicie wykrycie pary wodnej w bardzo rzadkiej marsjańskiej atmosferze. A co z życiem?

Tym dawnym i tym obecnym? Sytuacja wygląda bardzo podobnie. To, że w znalezionym na Ziemi meteorycie pochodzącym z Marsa są ślady funkcjonowania żywych organizmów, o niczym nie musi świadczyć. Bakterie mogły do niego wejść, gdy skała była już na Ziemi. Istnienie wody i warunków (temperatura, promieniowanie, ciśnienie), które umożliwiały istnienie życia, także nie jest żadnym dowodem. Podobnie jak to, że na Marsie znajdowane są skały niemal identyczne jak skały osadowe pochodzenia biologicznego na Ziemi. Na to nakłada się teoria, która mówi, że w części, a być może nawet w całości życie czy elementy składowe życia na Ziemię przyniosły komety. Ale czy z tego faktu wynika, że na Marsie było życie? Może rzeczywiście komety tam uderzały, ale nie da się sprawdzić, czy najprostsze komórki tam się rozwinęły. I podobnie jak z wodą: żaden z tych argumentów sam z siebie o niczym nie świadczy, ale wszystkie równocześnie… Badania kosmiczne są jak puzzle – żaden nie zdradzi, co kryje cały obraz, ale im więcej mamy ich w ręku, tym więcej wiemy o świecie, który opisują. Właśnie znaleziono kolejny klocek. Niezwykle ważny i pasujący do poprzednich. Tym klockiem jest metan.

Co z tym życiem?

Ściślej rzecz biorąc, nie tyle metan, ile szybkie zmiany jego stężenia. O tym, że w niezwykle rzadkiej marsjańskiej atmosferze znajdują się niewielkie ilości metanu, wiedziano od dawna. Problemem było jego pochodzenie. Metan może powstawać na wiele różnych sposobów, ale na Ziemi niemal wszystkie związane są z działalnością organizmów żywych. Metan – zwany czasami gazem błotnym – składa się z atomu węgla i czterech połączonych z nim atomów wodoru (jego wzór to CH4). Jest bezwonny i bezbarwny. Skąd się wziął na Marsie? To jest właśnie pytanie za milion dolarów. A może nawet za 100 milionów. Amerykański łazik marsjański Curiosity nad wywierconym przez siebie otworem wykrył dziesięciokrotny wzrost stężenia metanu. Otwór nie był zbyt głęboki, metan zaczął się ulatniać z gruntu, który znajduje się zaraz pod powierzchnią. Do odkrycia doszło podczas badań wewnątrz 154-kilometrowego krateru Gale. W warunkach ziemskich metan jest w 95 proc. pochodzenia organicznego i związany ściśle z cyklem życiowym roślin i zwierząt. Ten fakt o niczym jeszcze nie przesądza. Po pierwsze dlatego, że pozostałe 5 proc. to produkcja metanu w procesach geologicznych. A po drugie kto powiedział, że znamy wszystkie procesy produkcji metanu? Być może na Marsie mają miejsca takie, których na Ziemi nie ma. – Te okresowe znaczne wzrosty zawartości metanu w atmosferze, tj. szybki wzrost, a później spadek, wskazują, że ich źródło musi być stosunkowo niewielkie – przypuszcza Sushil Atreya z Uniwersytetu Stanu Michigan, który bierze udział w projekcie Curiosity. – Może być wiele źródeł, biologicznych i niebiologicznych, takich jak np. reakcje zachodzące między wodą i skałami – dodał.

Podsumowując. Co wiemy nowego? Jeden z marsjańskich łazików wykrył szybko zmieniające się stężenie metanu. Czy to znaczy, że znaleziono tam życie? Nie! Czy to znaczy, że było tam kiedyś życie? Nie! W takim razie co to znaczy? Tylko tyle, albo aż tyle, że mamy kolejny kawałek układanki. Nie znamy jeszcze pełnego obrazu, ale wydaje się, że jest na nim planeta, która kiedyś obfitowała zarówno w płynną wodę, jak i w życie. Planeta, na której to życie przetrwało do dzisiaj.

Brak komentarzy do Żyć albo nie żyć

Teleportuj się !!!

Powiem szczerze: bałbym się teleportacji, skoro mamy kłopot z tradycyjnymi środkami transportu. A tymczasem naukowcom udała się teleportacja na odległość 25 km!

Może więc i dobrze, że teleportacja ludzi jest (na razie) niemożliwa. O co w ogóle chodzi? Teleportacja to przenoszenie obiektów z miejsca na miejsce, ale – jak mówią fizycy – bez zachowania ciągłości istnienia. Brzmi nie najlepiej, ale w największym skrócie polega na tym, że obiekt w jednym miejscu znika, a w drugim się pojawia.

Mielonka

Teleportacja jest dość popularna np. w filmach science fiction. Szczególnie w tych, których akcja dzieje się w przestrzeni kosmicznej. To jeden z dwóch sposobów radzenia sobie z ogromnymi odległościami, jakie w kosmosie są faktem. Nie chcąc narażać się na śmieszność, trzeba znaleźć w miarę prawdopodobny sposób szybkiego przemieszczania się. Jednym ze sposobów radzenia sobie z tym kłopotem jest zamontowanie w statkach kosmicznych napędów nadświetlnych, czyli takich, które rozpędzają obiekt do prędkości wyższej niż prędkość światła. Drugim ze sposobów jest teleportowanie. Napędów nadświetlnych nie ma i nie wiem, czy kiedykolwiek będą. Jeżeli zaś chodzi o teleportację, to problemu nie ma. Naukowcy potrafią teleportować… choć na razie nie ludzi. Na razie nie mamy ani urządzenia, ani nawet pomysłu, jak powinno wyglądać urządzenie do teleportowania większych i bardziej złożonych obiektów. Pisząc „większych i bardziej złożonych”, nie mam na myśli słonia afrykańskiego czy fortepianu. Mam na myśli większe atomy, nie mówiąc już nawet o najprostszej cząsteczce chemicznej.

Problemy z teleportowaniem przewidzieli także futurolodzy. Od czasu do czasu także w produkcjach science fiction nielubiany bohater korzystał z uszkodzonego „portalu” i w efekcie pojawiał się „po drugiej stronie” w kawałkach albo w formie przypominającej – brutalnie mówiąc – mielonkę. I także tutaj scenarzyści mieli nosa i nie bardzo minęli się z prawdą. Z definicji przy przesyłaniu cech zwanych stanami kwantowymi cząstki A do oddalonej cząstki B, niszczony jest stan kwantowy A. Trochę to skomplikowane, ale w zasadzie da się prosto wytłumaczyć. Nie może być tak, że teleportacja polega na skopiowaniu obiektu. Wtedy istniałyby dwa takie same obiekty. Teleportacja polega na „sczytaniu” obiektu A i przesłaniu w oddalone miejsce. Ale w czasie tego przesyłania obiekt A przestaje istnieć („znika”). Gdy przychodzi do jego odtworzenia, a coś pójdzie nie tak jak trzeba, wychodzi… w największym skrócie mielonka.

W czym jest problem?

Dzisiaj nikt ludzi oczywiście nie próbuje teleportować. Poza zasięgiem naukowców jest nawet teleportacja najprostszych cząsteczek. Nawet tak prostych jak chociażby trzyatomowa cząsteczka wody. Więcej, dzisiejsza technika nie pozwala teleportować nawet pojedynczego atomu, o ile mówimy o większym atomie, np. uranu, który składa się z kilkuset protonów, neutronów i elektronów. Jak to wygląda w praktyce? Każda cząstka ma tzw. stany kwantowe, czyli swoją specyfikę. Cząstki różnią się od siebie właśnie stanami kwantowymi, tak jak obiekty makroskopowe różnią się od siebie np. kolorem, zapachem, smakiem czy fakturą. Teleportacja polega na odczytaniu tych „cech”, przesłaniu ich w nowe miejsce i tam nadaniu ich innej cząstce. Przy okazji niszczy się stany kwantowe cząstki pierwotnej, stąd nie ma mowy o kopiowaniu czegokolwiek, tylko rzeczywiście o przesyłaniu.

Skoro to takie proste, w czym problem, żeby teleportować duże obiekty? Nie da się przesłać takich cech jak kolor, kształt, smak czy zapach po to, by w drugim teleporcie je odtworzyć… Te wspomniane cechy makroskopowe są wypadkową stanów kwantowych miliardów, bilionów cząstek, z których duże obiekty się składają. Problem teleportowania dużych czy większych od pojedynczych cząstek obiektów jest więc problemem skali. Na razie ledwo radzimy sobie ze stanami kwantowymi maleńkich obiektów, ale przyjdzie czas na te większe. I może wtedy pojawi się problem, czy da się teleportować wiedzę, czy da się teleportować duszę…

Wróćmy jednak na Ziemię (albo ziemię). Pierwszą teleportację kwantową przeprowadzono w 1997 r., ale już 7 lat później zespół badaczy z USA i Austrii opublikował dane, z których wynikało, że teleportowano najmniejszy atom, czyli wodór. Tym razem w piśmie „Nature Photonics” ukazała się publikacja, z której wynika, że dzięki badaczom z Uniwersytetu w Genewie, należącego do NASA Jet Propulsion Laboratory, oraz z National Institute of Standards and Technology w USA, udało się teleportować cząstkę na rekordową odległość 25 kilometrów. Informacja o stanach kwantowych została przesłana światłowodem, ale w przyszłości być może uda się ją przesłać falami radiowymi albo promieniem lasera. Tylko 25 kilometrów? Tak, wiem, wiem. W ten sposób na Księżyc czy Marsa się nie dostaniemy, ale od czegoś trzeba zacząć

Tekst ukazał się w tygodniku Gość Niedzielny

32 komentarze do Teleportuj się !!!

Telepatia działa…

…przez internet. Przeprowadzono eksperyment, w ramach którego udało się skomunikować ze sobą dwa oddalone od siebie mózgi. W efekcie jeden człowiek zrobił coś, co pomyślał drugi.

…przez internet. Przeprowadzono eksperyment, w ramach którego udało się skomunikować ze sobą dwa oddalone od siebie mózgi. W efekcie jeden człowiek zrobił coś, co pomyślał drugi.

Nieinwazyjny interfejs mózg–mózg jest czymś, co budzi równie dużo obaw, co nadziei i fascynacji. Odkrycie czy raczej eksperyment był dość naturalną konsekwencją prac, które prowadzi się od lat i które polegają na „sprzęgnięciu” ze sobą mózgu i komputera. Interfejsy mózg–komputer działają dzięki odczytowi, a następnie skomplikowanej interpretacji sygnałów elektrycznych, które generuje ludzki mózg. Te sygnały mogą być odczytywane wprost z mózgu, ale także (co czyni całą sprawę jeszcze bardziej skomplikowaną) na powierzchni skóry głowy. Zresztą te same sygnały są analizowane w znanej lekarzom od lat metodzie EEG. Interfejs mózg–komputer jest kolejnym krokiem. Sygnały są nie tylko rejestrowane, ale przypisywane jest im pewne znaczenie. I tak np. osoba niepełnosprawna myśląc, jest w stanie kierować wózkiem inwalidzkim. Albo ktoś całkowicie sparaliżowany jest w stanie komunikować się z otoczeniem poprzez koncentrację, wyobrażanie sobie np. liter, które następnie pojawiają się na ekranie komputera (opisuję to w skrócie, bo w rzeczywistości proces jest bardziej złożony).

Jak mózg z komputerem

Wspomniane techniki nie są przeznaczone oczywiście tylko dla ludzi chorych. Już dziś można kupić urządzenie przypominające kask, które zakłada się na głowę, co pozwala za pomocą myśli sterować postaciami w grze komputerowej. Być może w przyszłości komunikacja ludzi z urządzeniami elektronicznymi w całości będzie się opierała na falach mózgowych. Dzisiaj w komputerze czy telefonie niezbędna jest klawiatura, myszka czy dotykowy ekran. Inaczej nie wprowadzimy do urządzenia informacji, bez tego nie wyegzekwujemy żadnego działania. Przyszłości nie da się przewidzieć, ale nie znaczy to, że nie można zostać futurologiem. Sytuacja, w której myślami będę „współpracował” z komputerem, wydaje mi się fascynująca. Ale to oczywiście nie koniec drogi, tylko być może dopiero jej początek. No bo skoro da się skomunikować pracę mózgu i komputera, dlaczego nie spróbować komunikacji pomiędzy dwoma mózgami? Naukowcy z amerykańskiego Uniwersytetu Waszyngtona stworzyli taki interfejs. Informacja pomiędzy dwoma mózgami została przesłana siecią internetową.

Pisząc „informacja”, nie mam jednak na myśli konkretnej wiedzy przekazywanej pomiędzy mózgami, tylko raczej impuls do zrobienia czegoś. Eksperyment wykonało dwóch uczonych, którzy tematem zajmowali się od wielu lat. Jeden to Andrea Stocco, drugi Rajesh Rao. W sierpniu tego roku ci dwaj panowie usiedli wygodnie w fotelach w dwóch różnych punktach kampusu uniwersyteckiego i zrobili coś, co będzie opisywane kiedyś w podręcznikach. Rao założył na głowę czepek z elektrodami rejestrującymi fale mózgowe. Z kolei Stocco założył czepek z elektrodami do tzw. przezczaszkowej stymulacji magnetycznej. W pewnym sensie te urządzenia są swoją przeciwnością. Jedno fale mózgowe rejestruje, a drugie raczej je w mózgu generuje. Rao nie myślał o niczym specjalnym, po prostu grał w grę komputerową, z tym, że nie przez klawiaturę czy inne urządzenie peryferyjne, tylko używał do tego własnych myśli. Gdy jego zadaniem było trafienie w cel znajdujący się z prawej strony ekranu komputera, wyobrażał sobie, że porusza prawą ręką i trafia w ten punkt. Tymczasem niemal dokładnie w tej samej chwili jego kolega Stocco, kilkaset metrów dalej, rzeczywiście poruszył prawą ręką.

Mimowolny tik

Stocco miał na uszach słuchawki (po to, by nie było podejrzeń, że ktoś mu podpowiada) i słuchał muzyki. Nie patrzył też na ekran komputera. Był zrelaksowany, odpoczywał, a w pewnym momencie poruszył palcem ręki. Nie do końca potrafił powiedzieć, dlaczego to zrobił. Tłumaczył, że jego ruch „przypominał mimowolny tik”. Ten eksperyment oznacza, że po raz pierwszy udało się przekazać informację pomiędzy dwoma mózgami. Na razie ten przepływ jest jednokierunkowy, ale wiadomo, że kolejnym krokiem będzie dwukierunkowość. Co ciekawe, w tym eksperymencie w zasadzie nie używa się niczego, co dotychczas nie było znane. Zarówno EEG, jak i stymulację magnetyczną lekarze stosują od wielu lat. Przełom polega na tym, że badaczom udało się, wykorzystując znane narzędzia, uzyskać zupełnie nową jakość. Badacze jak zwykle studzą emocje.

Eksperyment powiódł się dlatego, że ośrodek odpowiedzialny za motorykę nie jest usytuowany we wnętrzu mózgu, tylko na jego powierzchni. W innym wypadku nie udałoby się go pobudzić bezinwazyjnie z zewnątrz. Nie ma żadnych szans – jak twierdzą – na to, by obecna metoda była wykorzystywana do wpływania na myśli drugiego człowieka. Badacze kategorycznie stwierdzili również, że nie ma także możliwości sterowania drugim człowiekiem bez jego woli. Na co w takim razie są szanse? Dość trudno na tym etapie powiedzieć, ale niemal od razu narzuca się pomoc osobom niepełnosprawnym w komunikacji ze światem zewnętrznym. Być może uda się stworzyć urządzenia pomagające ludziom w kontrolowaniu bardzo skomplikowanych urządzeń, takich, jakimi są np. samoloty.

Dwóch pilotów mogłoby być w jakiś sposób połączonych ze sobą, tak, że działaliby jako jeden organizm, a nie dwa oddzielne. Z drugiej strony piloci przez wielogodzinne szkolenia, nawet bez nowej technologii, potrafią doskonale ze sobą współpracować. Jest jeszcze coś. A może ta technologia przyda się w porozumiewaniu pomiędzy osobami, które mówią w różnych językach? Fale mózgowe są przecież uniwersalne i nie zależą od wieku, kultury i pochodzenia. Tym bardziej że nikt nie powiedział, że w takiej komunikacji mogą uczestniczyć tylko dwie osoby.

Tekst ukazał się w tygodniku Gość Niedzielny

2 komentarze do Telepatia działa…

Ten robot ma żywy mózg

Komórki szczurzego mózgu nauczyły się kontrolować pracę robota. – Dzięki temu może zrozumiemy jak wyleczyć chorobę Alzheimera – mówią naukowcy. Może i tak, ale mnie przechodzą ciarki po plecach jak myślę o tym eksperymencie.

Ludzki mózg, stanowi dla badaczy większą tajemnicę niż wszechświat. Nie wiemy jak w detalach przebiega proces uczenia się czy zapamiętywania. Nie wiemy dlaczego tkanka nerwowa się nie regeneruje. I co szczególnie ważne nie wiemy jak leczyć wiele chorób związanych z naszą pamięcią.

Mózg w mechanicznym ciele

Badacze z brytyjskiego University of Reading wybudowali robota, którego głównym zajęciem jest… jeżdżenie od ściany do ściany. Jest mały, wolny i prawie nic nie potrafi. Zamiast kamery ma zwykły sonar, a duże koła poruszają się mało precyzyjnie. Jest jednak szczególny. Jego mózgiem nie jest elektroniczny procesor, tylko żywe komórki nerwowe szczura. Ten robot ma żywy mózg ! To on najpierw się uczy, a po chwili sam decyduje gdzie robot ma jechać.

Kevin-foto Mózgiem robota jest 300 tyś komórek pobranych z kory mózgowej szczura. Naukowcy chemicznie pozbawili neurony połączeń międzykomórkowych (zabili ich pamięć ?) a następnie umieścili w specjalnym, wypełnionym pożywką i antybiotykami pojemniku. Stworzyli im warunki w których mogły samodzielnie żyć. W dno tego pojemnika zatopionych było 60 przewodów elektrycznych a ich zakończenia, elektrody, były wyprowadzone do środka pojemnika. To właśnie tymi elektrodami wędrowały impulsy elektryczne, np. wtedy gry robot zderzył się ze ścianą. Tymi samymi kanałami wędrowała informacja z sonarów. Gdy urządzenie zbliżało się do ściany, na elektrodach pojawiało się odpowiednie napięcie elektryczne. Gdy robot zderzał się ze ścianą, do komórek wędrował inny sygnał elektryczny a odpowiedni system nakazywał kręcić się kołom robota w innym kierunku.

Komórki uczą się

Po kilku próbach okazało się, że żywe komórki coraz rzadziej pozwalałby zderzać się ze ścianą. Nauczyły się, że sygnał „przed nami ściana” oznacza, że za chwilę dojdzie do kolizji. Żeby do tego nie dopuścić, tymi samymi elektrodami sygnał elektryczny wędrował w drugim kierunku. Szczurzy mózg w ciele robota nakazywał kołom skręt i do zderzenia ze ścianą nie dochodziło. Żywe komórki zaczęły kontrolować maszynę.

Gordons-neuronsPo jakimś czasie robot unikał nawet 90 proc. wszystkich kolizji. Ale nie o kontrolę, albo nie tylko o kontrolę chodzi. Naukowcom szczególnie zależy na tym, żeby na gorącym uczynku złapać proces uczenia się. Komórki nerwowe w specjalnym odżywczym odczynniku zaczęły rekonstruować połączenia pomiędzy sobą. Zaczęły do siebie wysyłać sygnały elektryczne. Naukowcy przeprowadzający to doświadczenie mówili, że wyglądało to trochę tak jak gdyby pojedyncze neurony szukały siebie nawzajem, a równocześnie komunikowały gdzie same się znajdują. Tak jak gdyby same były żywym organizmem. – Wydaje się, że komórki mózgu mogą ponownie się organizować w każdych warunkach, które nie są dla nich zabójcze – powiedział Steve Potter z Georgia Institute of Technology w Atlancie, USA. Każdy sygnał elektryczny jaki pochodził od komórek nerwowych, przez elektrody dostawał się do komputera i tam był rejestrowany. Szczurzy mózg, choć kierował robotem, nie przestawał być żywą tkanką. Potrzebował energii (stąd żel odżywczy w pojemniku z komórkami) oraz antybakteryjnej tarczy (stąd w żelu antybiotyki). To jednak nie wystarcza. Żywe komórki muszą mieć zapewnioną odpowiednią temperaturę. Dlatego też w czasie dłuższych prób szczurze komórki mózgowe wcale nie były fizycznie w robocie. Krążek z elektrodami i komórkami był podłączony do urządzenia, które sygnały elektryczne „tłumaczyło” na fale radiowe. Innymi słowy mózg robota był w inkubatorze w którym utrzymywana była optymalna temperatura, a robot sygnały o tym jak ma się poruszać dostawał za pośrednictwem fal radiowych (wykorzystano technologię Bluetooth). Odpowiednie urządzenie pozwalało na dwustronny kontakt pomiędzy jeżdżącym robotem i „jego” mózgiem w inkubatorze.

Czy to komuś pomoże ?

Mózg poza urządzeniem…brzmi abstrakcyjnie. Choć z drugiej strony dzisiejsze komputery także często korzystają z mocy obliczeniowej, która znajduje się poza ich „ciałem”. Coraz częściej to w chmurze trzymamy dane a nawet całe programy.

– To co w tych badaniach najciekawsze, to znalezienie odpowiedzi na pytanie jak aktywność pojedynczych neuronów przekłada się na złożone zachowania całych organizmów – powiedział dr Ben Whalley, jeden z naukowców biorących udział w badaniach. – Ten eksperyment pozwala na wgląd w ten proces na poziomie pojedynczych komórek. To pozwoli nam na sformułowanie odpowiedzi na pytania fundamentalne – dodaje. Naukowcom udało się nauczyć żywe komórki kontroli nad prostym robotem. Ale to nie oznacza końca eksperymentu. Kolejnym krokiem będzie uszkodzenie połączeń pomiędzy wyuczonymi już komórkami mózgu w taki sposób w jaki upośledzone są połączenia u osób cierpiących na chorobę Alzheimera czy Parkinsona. Jak teraz będzie wyglądał proces uczenia się ? Czy robot z mózgiem który „cierpi” na chorobę Alzheimera będzie także się uczył ? Czy powstaną nowe połączenia ? Jeżeli nie, co zrobić żeby powstawały ?

Choć badacze zaangażowani w projekt uważają, że ich praca będzie krokiem milowym w rozumieniu wielu procesów które dzieją się w mózgu, nie brakuje i takich, którzy studzą emocje. – To zaledwie model. To nie badania mózgu, tylko jego małego wycinka w sztucznym otoczeniu. Oczywiście wyniki badań mogą nas wiele nauczyć, ale mogą też zmylić nas na przyszłość. Przecież nie wiemy czy to co zaobserwujemy w laboratorium wystąpiłoby w rzeczywistości – powiedział Steve Potter z Georgia Institute of Technology. – Trzeba być bardzo ostrożnym w wyciąganiu daleko idących wniosków – dodaje. Autorzy badań zgadzają się z tym podejściem, ale podkreślają, że… – nawet jeżeli przeprowadzane przez nas eksperymenty tylko w 1 proc. pogłębią naszą wiedzę o chorobach takich jak Alzheimer, będzie to świadczyło o tym, że warto je było przeprowadzić – powiedział profesor Kevin Warwick z School of Systems Engineering. Co do tego nie ma jednak chyba żadnej wątpliwości.

 

Tekst ukazał się w Tygodniku Gość Niedzielny.

1 komentarz do Ten robot ma żywy mózg

Bombardowanie z kosmosu

Małe asteroidy o średnicy około 1 metra wpadają w naszą atmosferę zadziwiająco często. NASA właśnie opublikowała raport dotyczący „bombardowania Ziemi” w latach 1994 – 2013.

Jednometrowe obiekty wpadają w atmosferę średnio co dwa tygodnie! Mniejszych obiektów nawet nie sposób policzyć. Miejsca w których dochodzi do kolizji są rozrzucone mniej więcej równomiernie po całej planecie. Z trwających 20 lat badań wynika, że w tym czasie zarejestrowano przynajmniej 556 przypadków bolidów, czyli dużych obiektów kosmicznych w atmosferze. Ich energia wynosi czasami setki miliardów dżuli. Jednym z nielicznych – w ostatnich latach – takich przypadków o którym mamy świadomość był meteor czelabiński, który w połowie lutego 2013 roku wywołał panikę nie tylko w Czelabińsku na Syberii. Jego energia wynosiła mniej więcej tyle ile energia pół miliona ton trotylu.

Meteor czelabiński zanim wszedł w ziemską atmosferę miał wielkość około 20 metrów. Rosnąca gęstość gazowej powłoczki Ziemi spowodowała jednak, że obiekt rozpadł się na mniejsze. To samo dzieje się z większością obiektów o średnicy około metra. Choć ich resztki nie „spalają” się w atmosferze całkowicie, zwykle nie są groźne dla ludzi. A wracając do wydarzenia z Czelabińska. Nawet eksperci uważali wtedy, że częstotliwość takich zdarzeń jest niewielka. Tymczasem okazuje się, że jest inaczej. Z danych NASA wynika, że obiekt podobny do czelabińskiego wchodzi w naszą atmosferę co kilka (a nie kilka tysięcy) lat. Obiekt wielkości boiska sportowego wchodzi w atmosferę średnio raz na 5000 lat. Obiekty wielkości samochodu osobowego „nawiedzają nas” średnio raz w roku. Obiekty mniejsze, o średnicy rzędu jednego metra wpadają średnio co dwa tygodnie. Te mniejsze, jeszcze częściej. Na powierzchnię Ziemi każdej doby spada ponad 100 ton kosmicznej materii. To, że mniejsze obiekty nie docierają do powierzchni planety to jasne. Ziemska atmosfera działa jak mechanizm hamujący. Ogromna energia kosmicznego obiektu jest „wytracana” ale nie znika, tylko zamieniana jest na ciepło, na ogrzewanie obiektu, a ten albo rozpada się na drobny maczek, albo po prostu topi się i wyparowuje. To dotyczy także obiektów dużych, tych metrowych. Przeważająca większość z nich rozpada się w górnych warstwach atmosfery pod wpływem dużej zmiany ciśnienia przy wchodzeniu atmosfery. Mniejsze obiekty albo topią się, albo spadają jako niegroźnie małe. Poza tym, 2/3 powierzchni planety pokryta jest oceanami, a całkiem spora pustyniami i lasami, w skrócie tereny niezamieszkałe stanowią dużą większość  obszarów Ziemi. Jakiekolwiek uderzenie pozostaje tam niezauważone.

Obiekty wielkości ziarenka piasku, o ile wejdą w ziemską atmosferę w nocy, są łatwo zauważalne nawet gołym okiem. Większe to tzw. bolidy, świecą jaśniej niż Wenus. Co ciekawe, to świecenie nie wynika z tarcia obiektu kosmicznego o cząsteczki gazów w atmosferze, tylko z silnego sprężenia powietrza przed czołem bolidu. Ogromny wzrost ciśnienia powoduje podniesienie temperatury nie tylko obiektu, ale także gazu. I to świecący gaz, a nie meteor jest tym co widać w nocy. Bolid czy meteor nagrzewa się do temperatury kilku tysięcy stopni Celsjusza. Szybkiej zmianie ciśnienia często towarzyszy także grom dźwiękowy.

NASA od wielu już lat obserwuje obiekty, które potencjalnie mogą zagrozić Ziemi (to tzw. NEO – Near Earth Object). Jako takie definiuje się te, które znajdują się w odległości mniejszej niż 50 milionów kilometrów od orbity Ziemi.Dla porównania średnia odległość Ziemia – Słońce wynosi około 150 mln kilometrów, a średnia odległość Ziemia Księżyc około 350 tys. kilometrów.

W obszarze szczególnego zainteresowania obserwatorów z NASA, tylko obiektów o średnicy 1km lub większej znajduje się około tysiąca. Ponad 950 z nich jest przez agencję (w ramach programu NEO) obserwowana. W najbliższym sąsiedztwie Ziemi ilość obiektów, których średnica wynosi 150 metrów i więcej, szacuje się na około 25 tysięcy, z czego ponad 22 tys. jest pod obserwacją.

 

Lista potencjalnie groźnych obiektów:

http://neo.jpl.nasa.gov/risks/

Więcej informacji:

http://science.nasa.gov/planetary-science/near-earth-objects/

 

 

Brak komentarzy do Bombardowanie z kosmosu

Tajemnica zamarzniętego człowieka

Żył ponad 5300 lat temu, a wiemy o nim więcej… niż o niejednym sąsiedzie. Kim był, gdzie się urodził, co jadał i czym się zajmował Oetzi, człowiek, którego zwłoki znaleziono ponad 20 lat temu?

Może był szpiegiem, który chciał niepostrzeżenie przedostać się z terytorium dzisiejszych Włoch do Austrii. Może turystą, albo pasterzem czy myśliwym, który zagubił drogę. W końcu mógł przechodzić przez góry w interesach. Poza tym o człowieku z Alp wiadomo całkiem sporo. Gdzie i co jadł w czasie swojego ostatniego posiłku, jak wyglądał przed śmiercią i jakie miał przy sobie przedmioty. Wiadomo ile miał lat, skąd pochodził i co miał na sobie w chwili śmierci. Co prawda mordercy nie znaleziono do dzisiaj, ale wiele wskazuje na to, że był nim ktoś, kogo denat znał. Acha, zapomniałem dodać. Zwłoki z Alp mają ponad 5 300 lat!

W 1991 roku grupa niemieckich alpinistów zauważyła ciało leżące w kałuży topniejącego lodowca. W pierwszym odruchu turyści pomyśleli, że znaleźli współczesnego alpinistę, który uległ wypadkowi w czasie wspinaczki. Szybko okazało się jednak, że to nieprawda, bo przy trupie znaleziono łuk, strzały i miedziany toporek. Nieboszczyka znaleziono w alpejskiej Dolinie Oetz, na granicy Austrii i Włoch, stąd postanowiono go nazwać Oetzi. Miał na sobie bardzo dobrze zachowane skórzane spodnie i zrobione z traw nakrycie głowy. Z badań wynika, że gdy umierał miał 46 lat i mierzył około 160 cm wzrostu. Już w czasie pierwszych oględzin zwłok naukowcy zauważyli, że Oetzi miał reumatyzm i cierpiał na infekcję jelit pasożytem – włosogłówką. A to dopiero był sam początek odkryć.

Wiemy gdzie mieszkał

Oetzi urodził się i mieszkał na terenie dzisiejszych Włoch, całkiem niedaleko miejsca w którym znaleziono jego zwłoki. Skąd o tym wiadomo ? Z badań izotopowych, które przeprowadzili naukowcy z Włoch, USA i Szwajcarii. Niektóre atomy z których zbudowane są kości czy zęby, występują w przyrodzie w różnych odmianach. To tzw. izotopy. Te odmiany, w zależności od części świata pojawiają się w różnych proporcjach. W ten sposób, można określić skąd pochodziło jedzenie czy woda, którą spożywał Oetzi. I tak z analizy szkliwa zębów wynika, że pomiędzy 3 i 5 rokiem życia (wtedy formuje się szkliwo) Alpejczyk mieszkał od kilkunastu do kilkudziesięciu kilometrów na południe od miejsca w którym znaleziono jego zamarznięte ciało. Tylko tam występuje charakterystyczna proporcja pomiędzy izotopami tlenu i argonu. Z kolei analiza kości pozwala zrekonstruować jego dorosłe życie. Naukowcy są pewni, że Oetzi często zmieniał miejsce zamieszkania. Być może jego plemię było wędrowne, albo on sam był obieżyświatem. Mógł też być handlowcem albo szpiegiem. Nie ulega jednak wątpliwości, że śniadanie w dniu swojej śmierci jadł w pobliżu miejsca w którym przebywał jako dziecko. To wynika z analizy treści jelitowej. Może przed długą wędrówką, albo niebezpieczną misją odwiedził rodzinne strony ? Na pewno nie spotkał tam rodziców, bo Oetzi był bardzo wiekowy jak na swoje czasy. Jego rodzice na pewno już dawno nie żyli. Wydaje się, że Alpejczyk zajmował się – przynajmniej przez część swojego życia – wytapianiem miedzi. O tym świadczyć ma bardzo wysoki poziom izotopów miedzi i arszeniku w jego włosach.

Wiemy co jadł

Tak więc dzień w którym zginął, Oetzi rozpoczął od wystawnego, jak na swoje czasy, śniadania. Z analiz przeprowadzonych przez naukowców z Włoch i Australii wynika, że zjadł ziarna zboża (neolityczne płatki śniadaniowe ?), trochę warzyw i mięso koziorożca alpejskiego (gatunek ten już wyginął). Następnie przechodząc przez iglasty las najpewniej upolował jelenia. Co do drogi przez iglasty las naukowcy mają pewność, bo wskazują na to badania genetyczne resztek roślin jakie zjadł na drugie śniadanie. Najpewniej będąc już w drodze, podjadał to co znalazł w lesie. Skąd badacze wiedzą, że Oetzi upolował jelenia ? To spekulacje, ale faktem jest że mocno prawdopodobne. Mięso jelenia był bowiem głównym daniem na obiad Alpejczyka. Poza tym zjadł jeszcze trochę ziaren zbóż. Wędrówka i śmierć miała miejsce najpewniej w maju, bo na to wskazuje obecność w drogach oddechowych i systemie trawiennym pyłków chmielograbu wirginijskiego. To drzewo z rodziny brzozowatych kwitnie w Alpach pomiędzy kwietniem a czerwcem.

Wiemy jak zginął

Nie wiadomo czy jeszcze w lesie, czy po tym gdy już z niego wyszedł, Alpejczyka ktoś zaatakował. Nie wiadomo czy napastnik był jeden czy było ich kilku. Najpewniej wywiązała się walka w ręcz, bo na ciele Oetzi badacze znaleźli rany szarpane. Zaledwie kilka godzin przed śmiercią, ktoś zadał mu głęboką ranę prawego nadgarstka. Nic nie wskazuje na to, że była śmiertelna, ale na pewno była bardzo bolesna. Co do dalszego biegu wypadków nie ma całkowitej pewności, ale najpewniej Oetzi przegonił przeciwnika lub przeciwników. Z poważnie zranioną ręką Alpejczyk ruszył w dalszą drogę, ale przegrani mu nie odpuścili. Być może uciekli w kierunku doliny i zaczaili się poniżej. Zaatakowali po jakimś czasie ponownie. Tym razem postanowili jednak nie wdawać się w bójkę, tylko strzelili do Alpejczyka z łuku. Badacze mają pewność, że ten nie mógł wiedzieć o ataku, bo napastnicy strzelili mu w plecy.  Świadczą o tym dokładne analizy naukowców ze Szwajcarii i Włoch. Użyli oni specjalnie skonstruowanego tomografu komputerowego, który pozwolił skanować ciało Oetzi, bez rozmrażania go. Dodatkowo obrazy w ten sposób uzyskane nałożyli na zrobione inną techniką zdjęcia w promieniach X. Nie ma wątpliwości, że strzała wbiła się poniżej obojczyka i rozerwała tętnicę szyjną. Krwotok musiał być bardzo gwałtowny. Uczeni podkreślają, że Alpejczyk mimo trudnego do opisania bólu próbował usunąć wbitą w plecy strzałę. Prawdopodobnie tym tylko przyspieszył swoją śmierć. Rana którą zadali mu przeciwnicy była śmiertelna i nawet gdyby znalazł się w pobliżu ktoś gotowy do pomocy, nic nie mógłby zrobić. Zaangażowani w badania lekarze ocenili, że nawet dzisiaj jego szanse przeżycia, do czasu dowiezienia do szpitala i przejścia operacji, nie przekraczałaby 40%.

Wiemy kto zaatakował

Oetzi w wyniku wstrząsu najpewniej doznał rozległego zawału serca. Zmarł krótko potem z powodu wykrwawienia. Słabnąc spadł w dół w miejsce w którym go znaleziono. To zgadza się z innymi analizami, które mówią, że śmiertelna strzała została wystrzelona od dołu. Łucznik albo klęczał, albo – co bardziej prawdopodobne – znajdował się na zboczu wzniesienia niżej niż jego ofiara. Nie mógł być jednak daleko, bo strzała poruszała się z dużą prędkością gdy weszła w ciało Alpejczyka. Badacze zauważyli ogromny zakrzep jaki powstał w wyniku wewnętrznego krwotoku. Kim był lub byli przeciwnicy ? Naukowcy są przekonani, że Oetzi znał swoich oprawców, bo na to wskazuje znajdujący się pod jego obojczykiem 2 cm kamienny grot strzały, która go zabiła. Wg profesora Annaluisa Pedrotti z Uniwersytetu w Trento we Włoszech kształt grota wskazuje na dokładne miejsce jego produkcji. A więc najpewniej i miejsca w którym żył łucznik. – Tego typu groty był robione tylko w południowej części Alp, właśnie tam gdzie mieszkał Oetzi. Groty pochodzące z północnej części masywu, mają bardziej płaskie ostrza – powiedział prof. Pedrotti.

Dzięki badaniom udało się dowiedzieć całkiem sporo na temat człowieka, który żył i który umarł ponad 3300 lat przed naszą erą. Każde nowe odkrycie oznacza poznanie kolejnego fragmentu życia Oetziego, a przez to czasów w których żył. Wg. panującego jeszcze niedawno przekonania, Oetzi nie miał prawa mieć metalowego toporka. Badacze myśleli, że metalowe narzędzie pojawiły się dopiero tysiąc lat później. Takich niespodzianek Oetzi dostarczył badaczom więcej. I jeszcze pewnie niejednej dostarczy, bo nikt nawet nie myśli by przestać badać najstarszego znanego alpinistę. W końcu ktoś może pozna odpowiedź na pytanie, co on robił tak wysoko w górach. Dolina Oetz leży na wysokości 3 tyś m n.p.m.

 

Tekst ukazał się w tygodniku Gość Niedzielny

 

 

4 komentarze do Tajemnica zamarzniętego człowieka

Uderzy czy nie?

19 października, o godzinie 20:28 czasu polskiego w pobliżu Marsa przeleci kometa C/2013 A1. Będzie tak blisko, że niewykluczona jest kolizja. Te w przeszłości się zdarzały. W lipcu 1994 roku z Jowiszem zderzyły się reszki komety Shoemaker-Levy 9. Nigdy wcześniej nie oglądaliśmy jednak zderzenia komety z Marsem.

Kometa C/2013 A1 została odkryta 3 stycznia 2013 roku przez Roberta McNaughta z Siding Spring Observatory w Australii. Jak wszystkie komety i ta narodziła się na samym skrawku Układu Słonecznego, w Obłoku Oorta. Nigdy wcześniej się stamtąd nie ruszała. W naszych okolicach pojawia się po raz pierwszy. Pierwszy i być może ostatni. Obliczenia trajektorii komety, które są prowadzone od momentu jej odkrycia, wskazują, że obiekt zbliży się do powierzchni Marsa na bardzo BARDZO małą odległość zaledwie 140 tysięcy kilometrów. Nigdy wcześniej żadna kometa nie zbliżyła się tak bardzo do którejś z planet wewnętrznych Układu Słonecznego. To tak, jak gdyby w pobliżu Ziemi przeleciał obiekt w odległości 1/3 odległości Ziemia – Księżyc!

PIA17833-CometSidingSpring-C2013A1-MarsEncounter-20140128

Okazji tak bliskiego przejścia nie można zmarnować, stąd niektóre sondy i łaziki pracujące na powierzchni albo na orbicie Marsa już są przygotowywane do wstrzymania swoich zwykłych zajęć i „zajęcia” się przelatującą kometą. I tak łazik Curiosity ma robić zdjęcia komecie z powierzchni Marsa, orbitalna sonda MAVEN zbada gazy pochodzące z jądra komety i jej warkocza oraz ich wpływ na górne warstwy marsjańskiej atmosfery. Mars Odyssey Orbiter zmierzy właściwości termiczne jądra, komy i warkocza.

Badanie komety może być (dla sond i łazików) niebezpieczne. W warkoczu komety lecą bowiem mniejsze odłamki, które mogą uszkodzić znajdujące się w ich polu rażenia urządzenia. Dlatego właśnie – o ile było to możliwe – orbity tych sond, które nie biorą udziału w badaniu komety, przeprogramowano tak, by w chwili największego zbliżenia komety z Marsem, były po drugiej stronie planety. Tak zmieniono orbitę np. sondy Mars Reconnaissance Orbiter.

Kometa, której wielkość ocenia się na od kilku do kilkudziesięciu kilometrów, w pobliżu Marsa przeleci z prędkością ponad 200 tys km/h. Czy grawitacja Marsa wystarczy by tak szybko poruszający się obiekt ściągnąć na swoją powierzchnię? To okaże się dopiero w niedzielę wieczorem. Gdyby jednak kometa uderzyła w powierzchnię Czerwonej Planety, biorąc pod uwagę jej masę, wielkość i energię, wybiłaby krater o średnicy ok. 800 km (odległość większa niż z Gdańska do Zakopanego) i głębokości 10 kilometrów (prawie tak głęboko jak największa głębia na Ziemi czyli Rów Mariański na Pacyfiku). W skrócie mówiąc, już w niedzielę, może powstać jeden z największych znanych nam kraterów w Układzie Słonecznym! O tym jakie byłyby skutki uderzenia takiej komety w Ziemię, nawet trudno mówić.

W momencie w którym kometa ewentualnie zderzy się z Marsem, planeta będzie z terenu Polski już niewidoczna. Zdąży zajść za horyzont. Krótko po zachodzie Słońca – o ile pogoda pozwoli – Marsa będzie można oglądać spoglądając w kierunku południowo – zachodnim. Może lepiej zerknąć, kolejnej nocy Mars, może już być inną planetą 🙂

Jedna z całkiem prawdopodobnych teorii mówi, że to komety z granic Układu Słonecznego przyniosły m.in. na Ziemię wodę. Być może wraz z wodą, przyniosły także zalążki życia.

Zobacz mój filmik na temat wody, komet i życia:

Brak komentarzy do Uderzy czy nie?

Dlaczego nam gorąco?

Lato powoli się kończy i zaczynamy tęsknić za upałami. Tymi samymi upałami, które były jeszcze kilkanaście dni temu takie uciążliwe. Dlaczego letnie temperatury są dla nas tak kłopotliwe, skoro jako gatunek wyewoluowaliśmy w Afryce, w klimacie nieporównywalnie gorętszym niż nawet najcieplejsze nasze polskie lato?

Nasze ciało ma temperaturę niecałych 37 st. C. Jesteśmy stałocieplni, a więc ta temperatura jest w miarę możliwości przez organizm utrzymywana. Gdy staje się to niemożliwe, zaczynamy wpadać w kłopoty. Zarówno wtedy, gdy temperatura ciała zaczyna spadać, jak i wtedy, gdy zaczyna rosnąć. Ale o tym za chwilę. To co może dziwić to fakt, że skoro nasze ciało ma ponad 36 st. C. dlaczego przy temperaturze np. 32 st. już czujemy dyskomfortowy gorąc. Na logikę, powinno nam być zimno, przecież „na zewnątrz” jest wciąż o 4 st C zimniej niż „w środku”.

Zaczęło się w Afryce

Nasze ciała, to jak wyglądają i jak funkcjonują, ukształtowały warunki jakie panują w Afryce. Domem naszych przodków była afrykańska sawanna. Żar lał się z nieba, było sucho, a cień był luksusem. Tak żyliśmy przez kilka milionów lat. I do takich warunków jesteśmy fizjologicznie  przystosowani. Człowiek z Afryki wyszedł zupełnie niedawno, nie więcej niż 150 tys. lat temu. W tak krótkim czasie ewolucja nie była w stanie przystosować np. Eskimosów do innych warunków środowiskowych. Gdyby rozebrać Eskimosa, w swoim środowisku, przeżyłby zaledwie kilka minut. Komfort cieplny, bez ubrań, odczuwamy w temperaturze około 25 st. C. W Polsce średnia roczna temperatura wynosi tymczasem około 8 st. C. W lecie nie więcej niż 18 st C. A to znaczy, że żyjemy w miejscu, do którego nie jesteśmy fizjologicznie przystosowani. Choć niektórych może pocieszać to, że niektórzy mają znacznie gorzej.

Do jakich temperatur nasz organizm jest zatem stworzony? Przyjmuje się, że zakres temperatur w jakim możemy funkcjonować to kilkanaście stopni „od dołu” do około 50 st. C „od góry”. Tak wysokie temperatury nie są dla organizmu człowieka problemem, o ile ma pod dostatkiem wody i o ile powietrze wokoło jest suche. Woda i suche otoczenie (powietrze) gwarantuje, że prawidłowo działa system chłodzenia, czyli pocenie. Odwodniony organizm nie ma czym się pocić. Gdy powietrze jest wilgotne, woda z powierzchni skóry nie chce parować. I tutaj właśnie tkwi odpowiedź, na zadane wyżej pytanie. W 30 st. C czujemy się źle, bo w naszej części świata jest zbyt wilgotno. Ta sama temperatura w klimacie suchym nie stanowiłaby problemu. Owszem, pot ściekałby nam po plecach, ale wraz z jego parowaniem, temperatura skóry obniżałaby się. System chłodzenia, zapewniałby komfort.

Chłodząca woda

Woda obniża temperaturę powierzchni z której paruje, bo do wyparowania potrzebuje energii. Gdy wyjdziemy mokrzy spod prysznica, albo z kąpieli w jeziorze, mimo wysokiej temperatury powietrza, może nam być chłodno. Takie uczucie będzie nam towarzyszyło dopóki nie wyschniemy. Człowiek potrafi wypacać aż litr wody na godzinę! Integralną częścią tego sprawnego systemu jest kilka milionów gruczołów potowych na ciele każdego z nas. Te nie działałyby tak skutecznie, gdyby były przykryte włosami. Dlatego, z drobnymi wyjątkami, nasze ciało jest nagie. To, że najwięcej włosów mamy na głowie, nie jest przypadkiem. W wyprostowanej pozycji, to na głowę właśnie świeci Słońce. Natura zadbała o to, by ją jak najlepiej izolować. Gdyby ludzie chodzili na czworakach, promienie słoneczne padałyby na ponad 20 proc. powierzchni ciała. W pozycji pionowej ogrzewają najwyżej kilka procent. Innymi słowy, wyprostowana, dwunożna postawa to kolejny dowód na przystosowanie do upałów a nie chłodów.

Ale wracając do gorącego lata. Gdy w wysokich temperaturach system chłodzenia nie nadąża, pozostaje schładzanie się z zewnątrz (zimna kąpiel), albo izolacja (cień, nakrycie ciała). Co jeżeli i to nie pomoże? Najkrócej mówiąc, czeka nas śmierć. Temperaturą krytyczną dla mózgu jest 40,5 st. C. Przy 41,5 st. C umieramy, bo w naszych komórkach ścina się białko. Ścina (fachowo mówiąc dochodzi do procesu denaturacji), znaczy, że zmienia swoją strukturę. Biorąc pod uwagę fakt, że białka to podstawowy budulec naszego ciała, w praktyce oznacza to, że organizm przestaje funkcjonować. I to równocześnie na wielu poziomach, od poziomu pojedynczych komórek rozpoczynając.

A co z organizmem człowieka dzieje się, gdy jest za zimno? Próbuje sam się ogrzać, przez szybkie drgania niektórych mięśni. To dreszcze. Mięśnie pracując, podnoszą swoją temperaturę. Gdy jest jednak za zimno, nawet, gdybyśmy się trzęśli jak osiki, nasze mięśnie nie są w stanie naprodukować wystarczającej ilości ciepła. I wtedy pozostaje odizolowanie się od niskiej temperatury (ubranie), albo znalezienie źródła ciepła. Jeżeli nie uda się tego zrobić, podobnie jak w przypadku przegrzania, czeka nas śmierć. Choć nie tak szybka jak w przypadku zbyt wysokiej temperatury.

Za ciepło, za zimno

I ostatnia sprawa. Dlaczego czujemy że nam gorąco nawet wtedy, gdy temperatura powietrza jest niższa, niż temperatura ciała? W pewnym sensie organizm człowieka jest maszyną, która przez to że działa, sama siebie ogrzewa. To nie tak, że są w nas specjalne „urządzenia”, których celem jest tylko i wyłącznie produkcja ciepła, które ma podtrzymywać stałą temperaturę. To raczej dzieje się przy okazji i na wielu poziomach. Wnętrze komórki, to jedna wielka fabryka. Każdy narząd ludzkiego (i nie tylko) ciała, ma konkretne zadanie do spełnienia. Serce pompuje krew, nerki ją oczyszczają, płuca są odpowiedzialne za dostarczenie tlenu krwi, a wątroba jest połączeniem magazynu, zakładu przetwórczego i fabryki odpowiedzialnej za wytwarzanie wielu niezbędnych do funkcjonowania ciała substancji. W każdym skrawku naszego ciała mają miejsce nieustanne reakcje chemiczne, których skutkiem najczęściej są reakcje fizyczne. Jesteśmy w ciągłym ruchu. Wszystko jest w ciągłym ruchu. Ten ruch – z kolei – powoduje wzrost temperatury. W największym skrócie można więc powiedzieć, że nasze ciało ogrzewa się samo poprzez reakcje, które do tego funkcjonowania są niezbędne. Ilość energii cieplnej jaką produkujemy jest całkowicie wystarczająca, by zapewnić coś w rodzaju równowagi, gdy temperatura powietrza wynosi około 25 st. C. Gdy temperatura jest wyższa, organizm musi włączyć chłodzenie. To wtedy powstaje wrażenie upału. Najpierw lekki, ale rosnący wraz ze wzrostem temperatury dyskomfort powoduje, że szukamy cienia, chłodnego otoczenia czy miejsca w którym jest ruch powietrza. W ten sposób wspomagamy naturalny system regulowania temperatury.

Poniżej 20 st C, potrzebne jest dodatkowe ogrzewanie. I znowu, moment w którym „system grzewczy” jest włączany, mózg sygnalizuje nam poprzez odczuwanie chłodu. Przy 20 st C nie jest to odczucie dokuczliwe, ale już w temperaturze 15 st C zaczyna nam być zimno. Chodzi o to samo, o co chodziło w przypadku zbyt wysokich temperatur, czyli o znalezienia cieplejszego miejsca, zakrycie odsłoniętych części ciała czy przejście do miejsca, w którym nie ma ruchu powietrza.

Człowiek rodził się w suchym i słonecznym klimacie. Po to by migrować w rejony w których temperatura jest zbyt niska, musiał się nauczyć korzystać z energii słonecznej zmagazynowanej w roślinach, a pośrednio także w zwierzętach (np. spalać drewno, a później paliwa kopalne). Musiał się także nauczyć wytwarzać ubrania. Bez nich, pomarlibyśmy z zimna. Nie udałoby się to, gdyby nie inteligencja „żyjąca” w mózgu. Ciekawe, bo to właśnie mózg trzeba szczególnie chronić przed przegrzaniem.

8 komentarzy do Dlaczego nam gorąco?

Co mnie gryzie

Latem przekonywanie kogokolwiek że takie owady jak komary, meszki, gzy czy końskie muchy, są piękne i pożyteczne jest z góry skazane na porażkę. Może zimą jest niewielka szansa na polubienie tych znienawidzonych zwierząt.
Co nas gryzie? Wszystko co widzi w tym swoją szansę. My wykorzystujemy niektóre zwierzęta i rośliny, niektóre z nich wykorzystują nas.

Gzy, meszki i komary. Każdy z tych owadów jest uciążliwy, a często nieznośny na swój sadystyczny sposób. Dokuczliwość komarów to kwestia cichutkiego choć trudnego do zniesienia brzęczenia i swędzenia. Przy czym od razu warto powiedzieć, że te wszystkie cechy, których latem serdecznie nienawidzimy są reprezentowane przez samice. I kto tu jest słabą płcią? Samce komarów żywią się nektarem kwiatów, są duże i nie brzęczą podczas lotu. Samice z kolei żywią się krwią zwierząt stałocieplnych, w tym ludzi. Wyposażone w kłująco – ssący aparat gębowy przebijają skórę i wkłuwają się w niewielkie naczynia krwionośne, które znajdują się zaraz pod jej powierzchnią. Nie wysysają krwi, tylko czekają aż płynąca pod ciśnieniem krew sama wypełni ich żołądek. Zanim krew zacznie jednak płynąć, do wnętrza rany komarzyca wpuszcza swoją ślinę a wraz z nią substancje chemiczne, które przeciwdziałają krzepnięciu krwi. W ślinie komarów tropikalnych (takich, które w Polsce nie występują) znajdują się także mikroorganizmy, które mogą powodować choroby.

Aedes_aegypti_biting_human  Komar… w czasie posiłku 🙁

Substancje chemiczne zawarte w ślinie komara (np. enzymy) – oprócz tego że nie pozwalają krwi gęstnieć – podrażniają skórę. Właśnie dlatego miejsce ukłucia może bardzo długo swędzieć. Zresztą nie tylko ukąszenia komarów swędzą. Znacznie gorsze, choć znacznie mniejsze są meszki. Meszkowatych w Polsce jest około 50 gatunków. W porównaniu z komarami są malutkie. Ich wielkość nie przekracza zwykle 3-4 mm. Kłopot w tym, że atakują w dużych grupach. Tak jak u komarów, w cyklu rozwojowym meszek kluczowe znaczenia ma zbiornik wodny, ale w przeciwieństwie do komarów meszki wolą wodę płynącą a nie stojącą. Samce żywią się nektarem kwiatów, a samice krwią. Meszki nie wkłuwają się w ciała swoich ofiar, ale rozcinają je tak jak chirurg skalpelem. Zanim z tak powstałej rany zacznie wypływać krew, samice meszek wpuszczają do niej ślinę. Meszki gryzą, bo krew ssaków jest dla nich źródłem białka, które jest niezbędne do złożenia jaj i… wyhodowania kolejnych pokoleń meszek. Meszki są aktywne w ciągu dnia, nawet wtedy gdy Słońce jest wysoko na niebie (komary dają nam wtedy wytchnienie). Pojedynczego ugryzienia meszki możemy nie zauważyć, chyba, że ktoś jest uczulony na substancje zawarte w ślinie tych owadów. W skrajnych przypadkach może wtedy dojść nawet do śmierci.

Culex_sp_larvae  Larwy komarów

Małe ale groźne

Meszki rzadko jednak atakują w pojedynkę. Gdy w upalny dzień znajdziemy się w lesie (cień), albo nad wodą (ochłodzenie), czyli tam, gdzie nas ciągnie gdy żar leje się z nieba, możemy być pogryzieni przez cały ich rój. Obrzęk w okolicach ugryzienia może być spory. Mogą pojawić się nawet sporych rozmiarów swędzące bąble. Poza tym, meszki, w przeciwieństwie do komarów zostawiają w miejscu ukąszenia otwartą ranę. Więcej, samice meszkowatych wstrzykują w nią substancje, które spowalniają gojenie się ran. W czasie upału, w czasie kąpieli do organizmu ze środowiska z łatwością mogą się więc dostać drobnoustroje. Mogą one spowodować powstanie dużego stanu zapalnego, którego nie da się pozbyć bez antybiotyków. Do zakażenia może dojść szczególnie wtedy, gdy swędzące ugryzienie zaczniemy drapać. Pogryzione miejsca warto więc przemywać woda utlenioną. W przypadku alergików zwykle wystarcza pić wapno, ale gdy obrzęk po ukąszeniu meszek jest duży, lepiej niezwłocznie wybrać się do lekarza. Każde kolejne ugryzienie może być bowiem groźniejsze. Niezależnie od tego czy obrzęk jest duży czy nie, dokuczliwe swędzenie łagodzi zimny okład. Podobnie powinno się postępować w przypadku ukąszeń tzw. końskiej muchy (jusznicy deszczowej). To duży owad z rodziny bąkowatych, który w Polsce występuje powszechnie. Jej ukąszenia są bolesne, a ich skutki mogą być niebezpieczne. Jeżeli po dobie od ukąszenia wciąż utrzymuje się opuchlizna i zaczerwienienie (szczególnie gdy jest ono bolesne i rozpalone) koniecznie trzeba wybrać się do lekarza. Końska mucha to nie to samo co gza. Gzy są pasożytami wewnętrznymi zwierząt (żyją np. w ich drogach oddechowych), a w postaci dorosłej nie pobierają pokarmu w ogóle.

800px-Black_fly   Meszka

Tak jak w przypadku opisywanych owadów, samce jusznicy są roślinożerne i przyczyniają się do zapylania kwiatów. Samice są jednak krwiopijcami. Bolesnymi i podstępnymi krwiopijcami. W przeciwieństwie do komarów latają bezszelestnie i co gorsza, w przeciwieństwie do wielu owadów nie używają substancji znieczulających w czasie kąsania. Dlaczego jedne owady stosują znieczulenie a inne nie? Większość owadów gryzie swoje ofiary tylko raz, dlatego zależy im na tym, by w chwili ukąszenia być niezauważonym. Jusznica gryzie swoją ofiarę i odfruwa. Gdy zwierze (zwykle końskie muchy gryzą zwierzęta) liże miejsce gdzie nastąpiło bolesne ukąszenie, agresor gryzie je w inne, często bardziej dogodne dla niego miejsce. Jusznice są trudnym przeciwnikiem z jeszcze jednego punktu widzenia. Są bardzo… uparte. Komara czy meszki można przegonić. Końską muchę – by dała spokój – trzeba zabić. Odlatuje po to by za chwilę zaatakować z innej strony. Taką ma strategię. A jeżeli już o zabijaniu mowa. Komara unieszkodliwia nawet lekkie uderzenie. Końska mucha jest bardzo odporna. Trzeba nieźle przyłożyć, by zabić… na śmierć.

Jak sobie radzić?

A jeżeli mowa o śmierci. A przynajmniej o odstraszaniu. Na końskie muchy nie działają preparaty odstraszające owady. Jedyne wyjście to odpowiednio się ubrać, czyli zakryć jak największą powierzchnię ciała. Ubranie się od stóp do głów oraz unikanie miejsc lęgowych owadów gryzących jest najbardziej skutecznym sposobem uniknięcia pogryzień. Gdy temperatura rośnie, osłanianie ciała staje się jednak bardziej dokuczliwe niż samo kąsanie. Wtedy wyjściem mogą być maści i środki antyowadowe w spreju. Na rynku jest ich bardzo wiele. Można też zażywać odpowiednie tabletki. Gdy robi się to przez kilka, kilkanaście dni, zmianie ulega skład chemiczny naszego potu.

800px-Haematopota-pluvialis-06-VII-2007-01   Jusznica deszczowa (tzw. końska mucha)

W domu najlepiej zakładać w oknach moskitiery i elektryczne fumigatory, które odstraszają komary zapachem. Przed ich włączeniem koniecznie trzeba przeczytać instrukcję. Niektóre z tych środków nie mogą być stosowane w czasie gdy w pomieszczeniu przebywają ludzie. Specjaliści twierdzą, że „odstaraszacze” dźwiękowe są nieskuteczne. Na tarasie albo na ogrodzie najlepiej sprawdzają się przeciwkomarowe świece, dymiące spirale i kadzidełka. Tych nie wolno jednak stosować w pomieszczeniach.

Właściciele przydomowych ogródków, balkonów czy nawet skrzynek kwiatowych na parapetach okiennych powinni sadzić rośliny których zapach odstrasza komary, czyli pelargonie, kocimiętkę, bazylię, miętę czy lawendę. Gdy sytuacja jest dramatyczna, gdy plagą komarów dotknięte są duże siedziby ludzkie, walka z owadami odbywa się za pomocą niedostępnych na rynku indywidualnym środków chemicznych. Żeby takie działania były jednak skuteczne, trzeba je bardzo często powtarzać a to jest kosztowne. Czy jednak zawsze warto z komarami, meszkami czy innymi owadami walczyć?

Z punktu widzenia biologii jesteśmy jednym z wielu elementów przyrody ożywionej. My wykorzystujemy niektóre zwierzęta i rośliny, niektóre z nich wykorzystują nas. Takie owady jak komary czy meszki bez zwierząt stałocieplnych nie mogłyby się rozmnażać. I nikogo by to nie martwiło gdyby nie fakt, że owady są bardzo ważnym elementem diety ptaków a ich larwy są zjadane przez ryby. System naczyń połączonych jakim jest przyroda bez owadów, nawet tych dla ludzi kłopotliwych, byłby dziurawy. Mniej pożywienia dla ptaków i ryb, oznaczałby mniejszą liczebność tych zwierząt, a to rodziłoby kolejne konsekwencje. Jadąc niemieckimi autostradami bez trudu można zauważyć, że na szybie przedniej samochodu jest znacznie mniej śladów bo zabitych owadach niż w Polsce. Tyle tylko, że w Niemczech od lat dramatycznie kurczy się także populacja ptaków, a to oznacza, że inne szkodniki nie mają swoich naturalnych wrogów.

 

Tekst ukazał się w tygodniku Gość Niedzielny

8 komentarzy do Co mnie gryzie

Trzy nieznane fakty o paleniu

Palenie zabija. To wie prawie każdy, poniżej trzy informacje, które jednak nie są powszechnie znane.

Palenie zabija. To wie prawie każdy, poniżej trzy informacje, które jednak nie są powszechnie znane.

 

Nie pal przy dzieciach !

Światowa Organizacji Zdrowia (WHO) opublikowała kilka lat temu pierwsze przeprowadzone na tak ogromną skalę badania dotyczące tzw. biernego palenia. Co roku z powodu wdychania dymu papierosowego umiera 600 tys. osób, które papierosów nie palą. Około 1/3 ofiar to dzieci.

Z badań wynika, że szczególnie narażone są małe dzieci, u których drastycznie rośnie ryzyko tzw. nagłej śmierci łóżeczkowej, astmy i zapalenia płuc. Ponadto dzieci, które są w sposób ciągły narażone na bierne palenie w swoich domach, rozwijają się znacznie wolniej niż ich rówieśnicy. Zarówno fizycznie jak i intelektualnie. Z badań wynika, że drugą najbardziej poszkodowaną grupą są kobiety. U nich ryzyko zachorowania będącego skutkiem palenia biernego jest o 50 proc. wyższe niż u mężczyzn. Eksperci WHO szacują, że na całym świecie 40 proc. dzieci, 33 proc. niepalących mężczyzn i 35 proc. niepalących kobiet jest narażonych na palenie bierne. Największy problem stanowi to dla Europejczyków i Azjatów. Najmniejszy dla Amerykanów. Badania na podstawie których sporządzono raport, przeprowadzono w 192 krajach świata.

 

Szybciej niż myślisz

Z badań opublikowanych w czasopiśmie „Chemical Research in Toxicology” wynika, że dym papierosowy po zaledwie kilku minutach może powodować uszkodzenia DNA, grożące rozwojem raka. Dotychczas myślano, że ten proces trwa latami. Amerykańscy naukowcy z Uniwersytetu Minnesoty w Minneapolis badali mutacje komórek krwi prowadzące do zmian nowotworowych spowodowanych paleniem papierosów. Badając kilkanaście osób odkryli, że maksymalne stężenie tzw. diol-epoksydy, związku powodującego mutacje DNA pojawia się w organizmie osoby palącej już po 15-30 minutach od wypalenia papierosa. – Te badania są wyjątkowe, gdyż jako pierwsze śledzą w ludzkim organizmie metaboliczne przemiany PAH pochodzącego wyłącznie z dymu papierosowego, bez zakłóceń z innych źródeł, jak powietrze czy dieta. Uzyskane przez nas wyniki powinny stanowić ostrzeżenie dla osób, które zastanawiają się nad rozpoczęciem palenia – powiedział dr Stephen Hech, szef grupy badawczej. Na całym świecie codziennie umiera ok. 3 tys. osób z powodu raka płuca. 90 proc. tych zgonów jest spowodowanych paleniem tytoniu. Palenie ma, oprócz raka płuc, związek z co najmniej 18 innymi nowotworami złośliwymi.

 

Papierosy a gender

Z badań wynika, że kobiety inaczej uzależniają się od papierosów niż mężczyźni. Ci ostatni palą dla zabicia czasu, można powiedzieć, że z nudy, kobiety znacznie częściej po to, by się uspokoić. A to nie jedyna różnica. Palący mężczyźni znacznie częściej niż palące kobiety, odczuwają z faktu palenia przyjemność. Kobiety zwykle za paleniem nie przepadają, ale robią to w pewnym sensie ze strachu. Np. przed tym, że jak rzucą papierosy, przytyją. Co zresztą często następuje zresztą znacznie częściej u kobiet niż u mężczyzn. Dlaczego i tutaj płeć ma znaczenie? Trzeba wrócić do motywacji. Kobiety palą gdy chcą się uspokoić. Drugim najbardziej popularnym „uspokajaczem” jest u płci pięknej jedzenie. Tymczasem odruch wzięcia papierosa do ust, zabija głód jedzenia. Innymi słowy, albo palisz, albo jesz. A jak jesz, często tyjesz.

Podsumowując, uzależnienie od nikotyny u kobiet jest uzależnieniem psychicznym, podczas gdy u mężczyzn znacznie częściej uzależnieniem całego organizmu. To powoduje, że terapie antynikotynowe dla kobiet i mężczyzn powinny być inne. Z badań wynika, że plastry nikotynowe nie działają na kobiety, mają jednak spory wpływ na zwyczaje panów. U kobiet w rzuceniu palenia mogą jednak pomóc elektroniczne papierosy, podczas gdy u mężczyzn, ich wpływ nie jest duży.

 

Tomasz Rożek

 

Brak komentarzy do Trzy nieznane fakty o paleniu

Type on the field below and hit Enter/Return to search

WP2Social Auto Publish Powered By : XYZScripts.com
Skip to content