Nauka To Lubię

Oficjalna strona Tomasza Rożka

Tag: fizyka

Czy zgasną światła na Ziemi ?

Światowa konsumpcja energii do 2050 roku podwoi się. Jeżeli nie znajdziemy nowych źródeł – może nam zabraknąć prądu.

W Paryżu trwa międzynarodowy panel klimatyczny. Wiele wątków, wiele interesów, wiele sprzecznych celów. Energia jest tematem, który z klimatem wiąże się bezpośrednio. I pomijając kwestie emisji i CO2, warto zdać sobie sprawę z tego, że światowa konsumpcja energii do 2050 roku podwoi się. Jeżeli nie znajdziemy nowych źródeł – będzie kłopot.

Słońce jest dostawcą większości energii dostępnej dzisiaj na Ziemi. Dostarcza ją teraz i dostarczało w przeszłości nie tylko dlatego, że świeci, ale także dlatego że pośrednio powoduje ruchu powietrza (czyli wiatry) i wody (czyli fale). Dzisiaj dostępne źródła energii można więc podzielić na te zdeponowane przez Słońce w przeszłości – nazwane nieodnawialnymi –  i te udostępniane nam na bieżąco – czyli odnawialne. Z tego podziału wyłamuję się energetyka jądrowa, geotermalna i grawitacyjna oraz fuzja jądrowa.

Najefektywniejszym odbiornikiem energii słonecznej na Ziemi jest roślinność. Dzięki zjawisku fotosyntezy, gdy Słońce świeci – rośliny rosną. Rosną i rozprzestrzeniają się także dlatego, że wieje wiatr. Bardzo długo człowiek korzystał tylko z tego przetwornika energii słonecznej. Drzewo jednak wolniej rośnie niż się spala. Z biegiem lat było nas coraz więcej i coraz więcej energii potrzebował nasz przemysł. Wtedy zaczęło brakować lasów pod topór. Całe szczęście umieliśmy już wydobywać i spalać węgiel, ropę naftową i gaz. Ale w gruncie rzeczy to to samo, co spalanie drewna. Tyle tylko, że w przypadku drzewa energia słoneczna była „deponowana” na Ziemi przez kilka dziesięcioleci, a w przypadku węgla czy ropy – przez miliony lat.

Kłopot w tym, że spalanie kopalin jest toksyczne. Badania przeprowadzane w różnych krajach potwierdzają, że typowa elektrownia węglowa o mocy 1 GWe  powoduje przedwczesną śmierć od 100 do 500 osób. Nie są to ofiary związane z wydobywaniem węgla, czy jego transportem, a jedynie ci, którzy mieli wątpliwe szczęście mieszkać w sąsiedztwie dymiącego komina. Oczyszczanie spalin jest bardzo drogie, a usuwanie szkód środowiskowych związanych z wydobyciem kopalin, w zasadzie niewykonalne. Skoro więc nie paliwa tradycyjne, to może odnawialne?  Siłownie wykorzystujące energię wody, wiatru czy Słońca powinny być budowane jak najszybciej tam, gdzie jest to opłacalne. Nie ulega jednak wątpliwości, że nie wszędzie jest. W Islandii, bogatej w gorące źródła, aż 73 proc. całej produkcji energii stanowi energia odnawialna. W Norwegii (długa i wietrzna linia brzegowa) 45 proc energii produkują wiatraki, a w niektórych krajach Afryki ponad połowa całej wyprodukowanej energii jest pochodzenia słonecznego. Ale równocześnie w proekologicznie nastawionych – ale nie usytuowanych – Niemczech mimo miliardowych inwestycji i olbrzymiej ilości elektrowni wiatrowych zielona energia stanowi około 20 proc. całej zużywanej energii. W tych statystykach nie liczę biomasy, bo ta nie jest żadną energią odnawialną.

Energia zdeponowana przez Słońce w przeszłych epokach wyczerpuje się, a korzystanie z niej w dotychczasowy sposób jest zbrodnią na środowisku naturalnym, z kolei energii dawanej nam przez Słońce „on-line” jest za mało. No więc jaki jest wybór? Wydaje się, że dzisiaj istnieją dwa scenariusze. Obydwa opierają się na skorzystaniu z nieograniczonej energii zdeponowanej jeszcze w czasie Wielkiego Wybuchu. Ta energia nas otacza w postaci materii, ale nie na poziomie związków chemicznych, ale na poziomie pojedynczych jąder atomowych. Jak to rozumieć ? Zanim powstał węgiel kamienny czy ropa naftowa, strumień energii ze Słońca umożliwiał zachodzenie tutaj, na Ziemi, przemian chemicznych, dzięki którym np. rozwijała się bujna roślinność. Dzięki światłu, wodzie i dwutlenkowi węgla tworzą się węglowodany (cukry), białka i tłuszcze. W tych reakcjach nie tworzą się jednak nowe atomy. Dzięki energii z zewnątrz już istniejące łączą się w większe kompleksy. Energia jest zmagazynowana w połączeniach pomiędzy atomami, w wiązaniach.  Ale same pierwiastki też są magazynami energii – energii, która umożliwiła ich stworzenie – pośrednio czy bezpośrednio – w czasie Wielkiego Wybuchu.

Tę energię da się pozyskać na dwa sposoby. Pierwszy to fuzja jądrowa, a drugi to rozszczepienie jądra atomowego. W pierwszym przypadku energia jest uwalniana przez łączenie dwóch lżejszych elementów w pierwiastek cięższy. Część masy tych pierwszych jest zamieniana na energię, którą można zamienić na prąd elektryczny. Paliwem w takim procesie mogą być powszechnie dostępne w przyrodzie lekkie pierwiastki. Produktem końcowym reakcji – oprócz dużej ilości energii – jest nieszkodliwy gaz – hel. Niestety fuzja jądrowa to śpiew przyszłości. Choć naukowcy usilnie nad tym pracują, najwcześniej będziemy mieli do niej dostęp dopiero za kilkanaście, kilkadziesiąt lat. Drugi scenariusz jest w pewnym sensie odwrotnością fuzji jądrowej. W rozszczepieniu jądra atomowego pierwiastek ciężki zostaje rozerwany na elementy lżejsze. I to ten rozpad jest źródłem energii. Pierwsza elektrownia jądrowa została wybudowana w 1942 roku, a dzisiaj dzięki energetyce jądrowej niektóre kraje pokrywają ponad 75 % całego swojego zapotrzebowania na energię elektryczną.

Przewidywanie przyszłości zawsze obarczone jest spora niepewnością. W każdej chwili, może się okazać, że ktoś wymyślił zupełnie nową technologię pozyskiwania energii. Wtedy powyższe rozważania w jednej chwili mogą się stać nieaktualne. Jeżeli jednak nic takiego się nie stanie, nie ma wątpliwości, że z wyczerpaniem paliw kopalnych będziemy musieli się zmierzyć nie za kilkaset, ale za kilkadziesiąt lat. Oszczędzanie energii, zwiększanie efektywności jej wykorzystania nie zahamuje tego procesu tylko go nieznacznie opóźni. Od nas zależy czy na czas przygotujemy się do tej chwili, czy obudzimy się w świecie ciemnym, zimnym i brudnym. I wcale nie trzeba czekać na moment, w którym wyczerpią się pokłady węgla. W końcu „epoka kamieni łupanego nie skończyła się z powodu braku kamieni”.

 

 

 

Brak komentarzy do Czy zgasną światła na Ziemi ?

TworzyMy atmosferę

To my tworzymy atmosferę, którą później oddychamy. Albo – trzeba niestety to przyznać – atmosferę, którą się podtruwamy. Na przełomie jesieni i zimy jakość powietrza w Polsce jest dramatyczna!  

>>> Polub FB.com/NaukaToLubie to miejsce w którym komentuję i popularyzuję naukę.

Jakość powietrza na przełomie jesieni i zimy jest najgorsza, bo wtedy powietrze jest wilgotne a szkodliwe cząsteczki mają się o co „zawiesić”. Gdy przychodzi sroga zima zanieczyszczenia są mniej szkodliwe, bo są szybko rozwiewane. W czasie mrozu powietrze jest suche (woda osiada jako szron albo śnieg) a to znaczy, że czystsze.

Kraków – brudne miasto

Dowodów na to, że zatrute powietrze powoduje wiele groźnych chorób jest tak wiele, że aż trudno zrozumieć dlaczego wciąż tak mało energii poświęcamy jego ochronie. Z badań ankietowych wynika, że aż 81 proc. pytanych nie uważa zanieczyszczenia powietrza za problem miejsca w którym mieszka. Fakty są jednak takie, że poziom zanieczyszczenia powietrza w Polsce jest jednym z najwyższych w Unii Europejskiej. Pod względem stężenia pyłu zawieszonego PM10 wywołującego m.in. astmę, alergię i niewydolność układu oddechowego w całej Europie gorsza sytuacja niż w Polsce jest tylko w niektórych częściach Bułgarii. W przypadku pyłu PM2,5 stężenie w polskim powietrzu jest najwyższe spośród wszystkich krajów w Europie, które dostarczyły dane. Podobnie jest ze stężeniem rakotwórczego benzopirenu. Gdy Polskę podzielono na 46 stref w których badano jakość powietrza, okazało się, że aż w 42 poziom benzopirenu był przekroczony. Wczytywanie się w statystyki, liczby, tabelki i wykresy może przyprawić o ból głowy. Okazuje się bowiem, że wśród 10 europejskich miast z najwyższym stężeniem pyłów zawieszonych, aż 6 to miasta polskie; Kraków, Nowy Sącz, Gliwice, Zabrze, Sosnowiec i Katowice. Bezsprzecznym liderem na liście miast z największym zanieczyszczeniem jest od lat Kraków. Tam liczba dni w roku w których normy jakości powietrza są przekroczone wynosi 151. Kraków jest trzecim najbardziej zanieczyszczonym miastem europejskim. Brudne powietrze to nie tylko takie w którym przekroczone są normy stężania pyłów zawieszonych czy wielopierścieniowych węglowodorów aromatycznych (WWA), w tym benzopirenu (te powstają w wyniku niecałkowitego spalania np. drewna, śmieci czy paliw samochodowych). My i nasze dzieci (także te, które jeszcze się nie urodziły) oddychamy tlenkami azotu (główne źródło to spaliny samochodowe), tlenkami siarki (spalanie paliw kopalnych), przynajmniej kilkoma metalami ciężkimi np. kadmem, rtęcią, ołowiem, a także tlenkiem węgla.

Piece i samochody

Źródła poszczególnych zanieczyszczeń występujących w atmosferze są różne, ale w brew pozorom nie są one związane z przemysłem. Głównym ich źródłem jesteśmy my sami, a konkretnie indywidualne ogrzewanie domów i mieszkań oraz transport drogowy. Ponad 49 proc. gospodarstw domowych ma własne piece centralnego ogrzewania. Samo to nie byłoby problemem gdyby nie fakt, że przeważająca większość tych pieców to proste konstrukcje, które można scharakteryzować dwoma określeniami: są wszystkopalne i bardzo mało wydajne. Duża ilość paliwa, którą trzeba zużyć oraz fakt, że często używane jest w nich paliwo niskiej jakości powodują, że duże miasta w Polsce w okresie jesienno – zimowym praktycznie są cały czas zasnute mgłą. Swoje dokładają także samochody. Liczba samochodów osobowych zarejestrowanych w Polsce wynosi 520 pojazdów na 1000 mieszkańców a to więcej niż średnia europejska. Nie jest to bynajmniej powód do dumy. Spory odsetek samochodów na naszych drogach nie zostałby zarejestrowany w innych unijnych krajach. Także ze względu na toksyczność spalin.

>>> Polub FB.com/NaukaToLubie to miejsce w którym komentuję i popularyzuję naukę.

O szkodliwości zanieczyszczonego powietrza można by pisać długie elaboraty. W zasadzie nie ma organu, nie ma układu w naszym ciele, który nie byłby uszkadzany przez związki chemiczne zawarte w zanieczyszczeniach. Przyjmuje się, że z powodu zanieczyszczenia powietrza umiera w Polsce ponad 40 tys. osób rocznie. To ponad 12 razy więcej osób niż ginie wskutek wypadków drogowych! Grupami szczególnie narażonymi są dzieci i osoby starsze. Zanieczyszczenia bardzo negatywnie wpływają na rozwój dziecka przed urodzeniem. Prowadzone także w Polsce badania jednoznacznie wskazywały, że dzieci, których matki w okresie ciąży przebywały na terenach o dużym zanieczyszczeniu powietrza, miały mniejszą masę urodzeniową, były bardziej podatne na zapalenia dolnych i górnych dróg oddechowych i nawracające zapalenie płuc w okresie niemowlęcym i późniejszym, a nawet wykazywały gorszy rozwój umysłowy.

To problem każdego!

W sondażu przeprowadzonym na zlecenie Ministerstwa Środowiska w sierpniu 2015 r. czystość powietrza była wymieniana jako jedna z trzech – obok bezpieczeństwa na drogach i poziomu przestępczości – najważniejszych kwestii, od których zależy komfort życia w danej miejscowości. Problem z tym, że większość pytanych nie widzi tego problemu w miejscowości w której mieszka. Temat dla nich istnieje, ale jest abstrakcyjny, mają go inni. Prawda jest inna. Nawet w wypoczynkowych miejscowościach jak Zakopane czy Sopot jakość powietrza jest koszmarna. Tymczasem problem w dużej części można rozwiązać bez dodatkowych inwestycji czy zwiększania rachunki np. za ogrzewanie. Wystarczy zmienić własne nawyki. Kupno węgla o odpowiednich parametrach to pozornie wyższy wydatek. Lepszy węgiel ma jednak wyższą wartość opałową, czyli trzeba go zużyć mniej by wyprodukować podobna ilość ciepła. Nic nie kosztuje dbanie o sprawność domowego pieca przez regularne czyszczenie go. Nic nie kosztuje (można dzięki temu nawet zaoszczędzić), zamiana w mieście samochodu na komunikacje miejską albo rower.

A miejsce śmieci… jest w śmietniku. Inaczej pozostałości z ich spalania, będę kumulowały się w naszych płucach. Polacy w domowych piecach spalają rocznie do 2 mln ton odpadów. W konsekwencji do atmosfery i do naszych płuc trafiają m.in. toksyczne dioksyny, furany, cyjanowodór.

>>> Polub FB.com/NaukaToLubie to miejsce w którym komentuję i popularyzuję naukę.

 

Tekst został opublikowany w tygodniku Gość Niedzielny.
2 komentarze do TworzyMy atmosferę

100 lat abstrakcji

Czas jest względny, a masa zakrzywia czasoprzestrzeń. To jedno zdanie jednych przyprawia o ból głowy, dla innych jest źródłem nieograniczonej fascynacji. Fascynacji, która trwa dokładnie 100 lat.

>>> Polub FB.com/NaukaToLubie to miejsce w którym komentuję i popularyzuję naukę.

Pióra i ołówki na teorii grawitacji połamało już wielu badaczy. To co wiemy, to prosty wzór, którego dzieci uczą się w szkole. Że siła grawitacji zależy od masy obiektów, które są jej źródłami (im obiekt cięższy, tym większa siła), oraz że słabnie wraz z zwiększającą się odległością pomiędzy tymi obiektami. Dzięki tej prostej zależności, udaje się doskonale przewidywać ruchy planet, satelitów, także zachowanie sporej części gwiazd w galaktyce. Sporej, ale nie wszystkich.

Tymi, których wytłumaczyć się nie da są np. kolizje gwiazd neutronowych, pulsary, czarne dziury czy wybuchy supernowych. Grawitacji nie sposób także „dopasować” do wielkiego wybuchu. A skoro od niego swój początek wziął czas i przestrzeń, nasze braki w rozumieniu grawitacji stają się kłopotliwe.

Dokładnie 100 lat temu Albert Einstein ogłosił (a konkretnie odczytał) Ogólną Teorię Względności. Jej manuskrypt (ma 46 stron) można dzisiaj zobaczyć w Bibliotece Narodowej Izraela. Dla postronnego obserwatora, niespecjalisty , notatki Einsteina mogą sprawiać wrażenie niewyraźnych bazgrołów zrobionych na pożółkłych kartkach. Są napisane bardzo drobnym maczkiem, często poprawiane, miejscami podkreślone, w innych miejscach przekreślone. Sporo w nich matematycznych wzorów. Niesamowite, jak wiele w fizyce czy w ogóle w postrzeganiu świata (wszechświata) zmieniło to, co 100 lat temu zostało zaprezentowane światu.

Ogólna Teoria Względności została ogłoszona w 1915 roku, gdy Albert Einstein przebywał w Niemczech. Już wtedy Einstein był znanym człowiekiem, a jego prace – choć przez bardzo nielicznych rozumiane – były w pewnym sensie kultowe. Stworzenie OTW nie było olśnieniem, jak wielu innych teorii fizycznych. Einstein pracował nad nią 9 lat. Czasami błądził, czasami się mylił. To była żmudna praca. OTW jest – jak sama nazwa wskazuje – uogólnieniem Szczególnej Teorii Względności Einsteina. Choć teoria Ogólna i Szczególna są dwoma najbardziej znanymi jego pracami, Einstein największe naukowe zaszczyty (Nagrodę Nobla) odebrał za prace nad zupełnie innym problem (konkretnie nad efektem fotoelektrycznym).

Ogólna Teoria Względności (OTW) jest w zasadzie teorią opisującą najbardziej namacalne dla nas oddziaływanie – grawitację. Z nią wiążą się takie wielkości jak masa, przestrzeń i czas. OTW jest bardzo skomplikowana. Nie sposób jej zrozumieć bez ogromnej wiedzy czysto matematycznej. Wynika z niej, że każda masa jest źródłem zakrzywienia otaczającej ją przestrzeni. Czym większa masa, tym większa siła grawitacji, czyli większe zakrzywienie przestrzeni. Jak to rozumieć? Gdy dwie osoby trzymają za rogi obrus jego powierzchnia jest płaska. Ale gdy na sam środek obrusu wrzucimy piłkę, obrus w miejscu w którym się ona znajduje lekko się „naciągnie” czy inaczej „zakrzywi”. Czym większa piłka, tym większe zakrzywienie. Gdy położymy na skraju obrusu mniejsza piłeczka, stoczy się do tego zakrzywienia, tak jak przyciągana grawitacyjnie asteroida „stoczy” się w kierunku Słońca. Tyle tylko, że obrus ma dwa wymiary, a przestrzeń wokół nas ma ich trzy. Ta nieintuicyjność (nie mylić z nielogicznością) to jeden z powodów dla których dwie teorie względności tak trudno zrozumieć. Drugim jest bardzo zaawansowana matematyka, której Einstein musiał użyć do rozwiązania swoich równań.

Gdy Einstein referował swoje pomysły na względność, był znany z zupełnie innych badań teoretycznych. Słuchano go więc z zaciekawianiem. Ale to zaciekawienie wynikało z szacunku do znanego fizyka a nie ze zrozumienia tego o czym mówił. W pewnym sensie tak jest do dzisiaj. Albert Einstein jest postacią kultową. Ale nie dlatego, że tak wielu ludzi rozumie Szczególną czy Ogólną Teorię Względności.  Tak naprawdę zaledwie garstka fizyków wie o co w niej chodzi. Nieco większa grupa rozumie co wynika z teorii Einsteina. Całkiem sporo fizyków na codzień wykorzystuje w swojej pracy naukowej zjawiska, które udało się dzięki teoriom Einsteina zrozumieć. Jednym z takich zjawisk są soczewki grawitacyjne. W zakrzywionej przestrzeni światło nie porusza się po liniach prostych, tylko krzywych. To dlatego światło dalekich galaktyk biegnące w okolicach dużych mas (czarnych dziur czy innych galaktyk) jest zakrzywione, tak samo jak światło przechodzące przez szklane soczewki. Dla astrofizyków i astronomów soczewki grawitacyjne to coś w rodzaju naturalnego teleskopu dzięki któremu mogą obserwować obiekty i zjawiska których inaczej nie udałoby się zaobserwować. Zakrzywiane światło to jednak dopiero początek wchodzenia w świat abstrakcji. Z równań Einsteina wynika także, że czas jest pojęciem względnym, że nie płynie dla nas wszystkich tak samo. Jego bieg jest zależny bowiem od siły grawitacji i od prędkości z jakim porusza się ciało. To z kolei wykorzystuje się w systemach globalnej lokalizacji (np. GPS).

Einstein był teoretykiem. Nie sprawdzał eksperymentalnie tego co wyliczył na drodze matematyki. Zresztą wtedy kiedy dokonywał swoich odkryć, nie było możliwości sprawdzenia ich poprawności. Urządzenia pomiarowe nie były dość czułe, a człowiek jeszcze nie latał w kosmos. To właśnie w przestrzeni pozaziemskiej wielokrotnie testowano wyliczenia Alberta Einsteina. Wszystkie dokładnie się zgadzają. No może za wyjątkiem jednej. Przewidywanych w Teorii Względności fal grawitacyjnych. Ale o nich napiszę innym razem 🙂 Tak samo jak o największej naukowej pomyłce Einsteina.

>>> Zapraszam na profil FB.com/NaukaToLubie (kliknij TUTAJ). To miejsce w którym staram się na bieżąco informować o nowościach i ciekawostkach ze świata nauki i technologii.

Brak komentarzy do 100 lat abstrakcji

Marsjanin okiem naukowca ;-)

Film Marsjanin jest niezły, choć książka 100 razy lepsza. Ale do rzeczy. Czy możliwa jest historia astronauty Marka Watneya, którego  gra Matt Damon? Postanowiłem popastwić się nad scenariuszem.

Wiem, że piszę to nico późno (w większości kin film już zszedł z ekranów), ale potraktujcie to jako pewien rodzaj próby. W polskim internecie naukowcy (dziennikarze naukowi) zwykle nie recenzują filmów. Ciekaw jestem jaka będzie reakcja na moją recenzję.

Film warto zobaczyć, a jeszcze bardziej warto przeczytać książkę. Piękne krajobrazy, dobre efekty specjalne i ciekawa historia nie zmieniają jednak tego, że opowiedziana w nim historia nie ma prawa się zdarzyć i to z wielu różnych powodów. Ja wspomnę o czterech. Jeżeli nie oglądałaś, jeżeli nie oglądałeś filmu, za chwilę zdradzę kilka szczegółów jego fabuły.

Burza piaskowa, ewakuacja załogi. Zdjęcie z filmu

1.Załogowa misja na Marsa musi w trybie natychmiastowym ewakuować się z planety z powodu silnej burzy piaskowej. Ta nadchodzi tak szybko, że astronauci mają dosłownie kilka minut na spakowanie się i wystrzelenie na orbitę. Tymczasem marsjańska burza byłaby dla sprzętu i ludzi  niegroźna. Marsjańska atmosfera jest z grubsza 200 razy rzadsza od ziemskiej. Nawet jak mocno wieje, niewiele ma to wspólnego z niszczycielskim żywiołem. Marsjańskie burze po prostu nie mają mocy którą mają burze na Ziemi. Marsjańska burza nie może przewracać metalowych konstrukcji. Poza tym da się ją przewidzieć z dużym wyprzedzeniem. Jeżeli w ogóle mówić o niebezpieczeństwach związanych z burzami piaskowymi na Czerwonej Planecie, to nie z powodu siły wiatru tylko znacznie mniejszych niż na Ziemi ziarenek pyłu. Te wcisną się wszędzie powodując uszkodzenia sprzętu. No ale tego w filmie nie było.

martian-gallery13-gallery-image

Uprawa ziemniaków w marsjańskim habitacie. Zdjęcie z filmu

2.Główny bohater ulega wypadkowi, a ewakuująca się załoga święcie przekonana o jego śmierci zostawia go samego na planecie. Mark Watney oczywiście się nie załamuje, tylko szybciutko liczy że na pomoc będzie musiał czekać kilka lat. Sprawdza racje żywnościowe i wychodzi mu, że tych ma za mało. Postanawia więc uprawiać w habitacie ziemniaki. Nawozi do wnętrza labu marsjański grunt i… no i tutaj zaczynają się kolejne kłopoty. Warstwa gruntu jaką przenosi do habitatu jest za mała żeby cokolwiek na niej wyrosło. Ale nie to jest najciekawsze. Z jakiś powodów astronauta postanawia nawozić ekskrementami ziemię po to by ziemniaki szybciej rosły. Po pierwsze nie wiem po co jakikolwiek nawóz. Marsjański grunt jest bardzo bogaty w mikroelementy i minerały. Nawet jeżeli chcieć go nawozić, to ludzkie odchody to nienajlepszy pomysł. Znacznie lepiej byłoby używać odpadków organicznych. Totalnym odlotem jest produkcja wody dla uprawy ziemniaków. Do tego Mark używa hydrazyny, czyli paliwa rakietowego. W teorii reakcja którą przeprowadza jest możliwa, w praktyce cały habitat wyleciałby w powietrze. Po to żeby z hydrazyny odzyskać wodór, po to by po połączeniu z tlenem powstała woda, musi zachodzić w ściśle kontrolowanych warunkach. A nie w namiocie zrobionym z worka.

Habitat, ściana na której główny bohater zaznacza liczbę spędzonych na Marcie dni. Zdjęcie z filmu

3.Największe moje wątpliwości budzi jednak nie burza, ani nie uprawa ziemniaków, tylko długi czas przebywania człowieka na Czerwonej Planecie. O ile dobrze liczę Mark Watney przebywał tam około 20 miesięcy. Nawet gdyby miał wodę i pożywienie wróciłby stamtąd chory. Do powierzchni Marsa z powodu bardzo cienkiej i rzadkiej atmosfery dochodzi dużo więcej promieniowania kosmicznego niż do powierzchni Ziemi. Z szacunków wynika, że po to by człowiek mógł czuć się na Marsie równie bezpieczny co na Ziemi, na Czerwonej Planecie musiałby przebywać pod osłoną około 2 metrów litej skały. Tymczasem w filmie nie widzimy bunkrów czy podziemnych schronów, tylko pomieszczenia wykonane z dość cienkich materiałów. Także kombinezon głównego bohatera jest cieniutki. Mark spaceruje, podziwia widoki a nawet wypuszcza się w dość dalekie trasy w pojeździe, który zresztą wygląda na zbyt ciężki jak na marsjańskie warunki. Jeden z łazików marsjańskich, nieporównywalnie mniejszy i lżejszy, kilka lat temu zakopał się w wydmie a wyciąganie go zajęło kilka tygodni.

Dalekie wycieczki piesze. Dość niebezpieczna rozrywka na Marsie. Zdjęcie z filmu

4.Natomiast najwiekszy odlot – dosłownie i w przenośni – to powrót z Marsa na Ziemię, a szczególnie jego początkowa faza, czyli opuszczenie Marsa. Nic tu się nie zgadza. Proca grawitacyjna pomiędzy Ziemia i Marsem zadziała tylko w dość specyficznych warunkach, na pewno nie takich jak te pokazane w filmie. Rozebranie rakiety, którą astronauta Mark Watney wydostaje się z powierzchni Marsa na jego orbitę spowodowałoby jej rozbicie. Pomijam już fakt, że okna zatkane materiałem z zużytego spadochronu to już nawet nie fikcja rodem z gwiezdnych wojen, tylko raczej z Hi-Mena… (dla młodszych Czytelników, He-Men to taka bajka rysunkowa, którą oglądali Wasi rodzice 😉 ). No i w końcu manewry na orbicie. Hamowanie przez wysadzenie w powietrze części stacji, przedziurawienie kombinezonu po to by używać go jak silniczka manewrowego. W końcu spotkanie… no i happy end. Nie o to chodzi że ostatnie sceny filmu sa mało prawdopodobne. One są nierealne i przeczą zasadom fizyki.

Podsumowując.

P1000471

Pustynia Atacama, Chile. Zdjęcie: Tomasz Rożek

Oczywiście takich filmów jak Marsjanin nie ogląda się po to by uczyć się fizyki. To jasne. Lubię się jednak czasami poznęcać nad filmami. Mnie najbardziej podobały się w tym filmie plenery. Spora część z nich była wykreowana komputerowo, ale część scen była grana na Chilijskiej pustyni Atacama. Byłem na niej jakiś czas temu i jeżeli Mars wygląda choć trochę jak ona… warto tam polecieć. Chociażby dla widoków. No i niebieskiego zachodu Słońca, którego akurat w filmie nie było. No bo wiecie, że na Ziemi, czyli niebieskiej planecie słońce zachodzi na czerwono, ale na czerwonej planecie na niebiesko.

P1000318_Fotor

Pustynia Atacama, Chile. Niedaleko tego miejsca testuje się marsjańskie łaziki. Zdjęcie: Tomasz Rożek

>>> Zapraszam na profil FB.com/NaukaToLubie (kliknij TUTAJ). To miejsce w którym staram się na bieżąco informować o nowościach i ciekawostkach ze świata nauki i technologii.

15 komentarzy do Marsjanin okiem naukowca ;-)

Jesteśmy w centrum?

Czy Ziemia leży w centrum wszechświata? To pytanie w XXI wieku może u niektórych wywołać  uśmiech politowania. Ale czy powinno?

Jesteśmy jedynym gatunkiem na Ziemi, który współtworzy środowisko w którym żyje. To ciekawe, bo to środowisko, które sami kreujemy, ma ogromny wpływ na kolejne pokolenia. Choć na Ziemi żyją tysiące, dziesiątki tysięcy gatunków zwierząt i roślin, tylko człowiek ma umiejętności, choć chyba powinienem napisać możliwości, by ziemię w tak ogromnym stopniu przekształcać. Jesteśmy niezwykłym gatunkiem, który żyje na niezwykłej planecie.

CopernicSystem

Rysunek Układu Słonecznego jaki pojawił się w dziele De revolutionibus orbium coelestium.

Przez setki lat, odpowiedź na tytułowe pytanie nie budziła żadnych wątpliwości. Ziemia była w centrum wszystkiego i centrum wszystkiego. Obiekty niebieskie (ze Słońcem i Księżycem włącznie) krążyły wokół naszej planety, a sama Ziemia była rusztowaniem o które opierała się cała reszta. Ten obraz runął około połowy XVI wieku. W 1543 roku w Norymberdze ukazało się dzieło kanonika Mikołaja Kopernika – astronoma, matematyka, ale także prawnika, lekarza i tłumacza. W De revolutionibus orbium coelestium – o obrotach sfer niebieskich – Kopernik obalił geocentryczną wizję świata i całkiem sprawnie (choć ze sporymi błędami) przedstawił system heliocentryczny. Ziemia przestała być w centrum. Jej miejsce zajęło Słońce. Oczywiście nikt wtedy nie myślał nawet o galaktykach, gwiazdach supernowych czy czarnych dziurach.

Dla Kopernika sytuacja była w zasadzie dosyć prosta. Słońce w centrum, a wszystko inne krążące wokoło. Mechanizm wszechświata wyglądał podobnie z tą tylko różnicą, że w samym jego centrum znajdowała się nie jak u starożytnych Ziemia, ale nasza dzienna gwiazda. Kilkadziesiąt lat po Koperniku, na początku XVII wieku obserwacje tego co znajduje się poza naszym układem planetarnym rozpoczął Galileusz. Pierwszą osobą, która przedstawiła koncepcję budowy galaktyki był urodzony w Królewcu filozof i matematyk, Immanuel Kant. Była połowa XVIII wieku i nikt poważny nie uznawał już Ziemi za geometryczne centrum wszechświata. Inaczej było jednak ze Słońcem. Wiedziano już o tym, że gwiazd w naszej galaktyce jest bardzo wiele. Wiedziano nawet że krążą one wokół jednego punktu. Bardzo długo uznawano jednak, że tym centralnym punktem jest właśnie Słońce i nasz układ planetarny.

BN-IB371_0424hu_J_20150423201321

Edwin Hubble z negatywem jednej z zaobserwowanych przez siebie galaktyk. źródło: www.wsj.com

Choć w XIX wieku Ziemia od wielu setek lat nie była już traktowana jako geometryczne centrum wszechświata, była jedyną znaną planetą co do której istniała pewność, że jest kolebką życia. Była też częścią jedynego znanego układu planetarnego. Poza Układem Słonecznym nie obserwowano żadnych planet. Ziemia nie leżała w centrum, ale była symbolicznym centrum. Na przełomie XVIII i XIX wieku najpierw Charles Messier, a później William Herschel skatalogowali setki i tysiące mgławic, które później, dzięki pracy amerykańskiego astronoma Edwina Hubble’a (lata 20te XX wieku) okazały się odległymi galaktykami. Odkrywano wiele, zaglądano coraz głębiej i dalej, ale jedno nie ulegało zmianie. W całym ogromnym wszechświecie, wszechświecie w którym istnieją miliardy galaktyk a każda jest domem dla setek miliardów gwiazd do 1990 roku istniało tylko dziewięć planet. Niesamowita historia !

Sytuacja uległa zmianie dokładnie 9 stycznia 1992 roku. To wtedy ukazała się w prestiżowym czasopiśmie Nature praca polskiego astronoma Aleksandra Wolszczana. Opisywała ona dokonane dwa lata wcześniej odkrycie trzech pierwszych planet poza Układem Słonecznym. Krążyły wokół pulsara PSR B1257+12, niecały 1000 lat świetlnych od Ziemi. Dzisiaj, 23 lat po tym odkryciu znanych jest prawie 2000 planet poza Układem Słonecznym, a planety pozasłoneczne, tzw. egzoplanety są odkrywane wręcz hurtowo.

The artist's illustration featured in the main part of this graphic depicts a star and its planet, WASP-18b, a giant exoplanet that orbits very close to it. A new study using Chandra data has shown that WASP-18b is making the star that it orbits act much older than it actually is.  The lower inset box reveals that no X-rays were detected during a long Chandra observation.  This is surprising given the age of the star, suggesting the planet is weakening the star's magnetic field through tidal forces.

To nie zdjęcie, tytlko artystyczna wizja ogromnej planety WASP-18b, która krąży bardzo blisko powierzchni swojej gwiazdy.

Planet jest sporo, ale czy one są takie jak Ziemia ? Nie! Po pierwsze przeważająca większość z nich jest dużo większa od Ziemi. To gazowe giganty takie jak „nasz” Jowisz i Saturn. Dużych planet odkrywamy tak dużo, bo znacznie łatwiej je wykryć. Ziemia różni się od innych jednak tym, że tutaj jest życie, a „tam” – niewiadomo. Co do tego, że proste bakteryjne życie istnieje w przestrzeni kosmicznej, praktycznie możemy mieć pewność, ale z życiem inteligentnym nie jest wcale tak prosto. Jest w tym pewien paradoks. Czym więcej wiem o życiu, tym chętniej przyznajemy, że to proste, jednokomórkowe jest wszechobecne i wszędobylskie. Proste formy mają niesamowitą zdolność do adaptowania się i do zasiedlania miejsc, które – jeszcze do niedawna byliśmy tego pewni – absolutnie nie nadają się do życia. Z życiem złożonym, nie mówiąc już o jego inteligentnej wersji, jest dokładnie na odwrót. Czym więcej wiemy, tym dłuższa staje się lista czynników, warunków, które muszą zostać spełnione, by życie jednokomórkowe wyewoluowało do wersji złożonej. Dzisiaj ta lista ma już kilkaset pozycji, wśród nich takie jak odpowiednia wielkość planety, odpowiednia odległość od gwiazdy i odpowiedni skład atmosfery. Te wspomniane warunki są w sumie logiczne. Ale dalej na tej liście jest pole magnetyczne i gorące jądro planety, siły pływowe, a więc tektonika płyt. Bardzo ważna jest aktywność wulkaniczna oraz wyładowania atmosferyczne.

Kiedyś powszechnie uważano, że Ziemia w skali kosmicznej jest ewenementem. Potem takie myślenie zarzucono. Gdybym napisał, że dzisiaj wraca się do tego, chyba bym przesadził. Ale faktycznie, coraz częściej zdajemy sobie sprawę z tego, że inteligentne istotny w kosmosie mogą być wielką rzadkością. I to pomimo tego, że planet we wszechświecie jest niepoliczalnie dużo. Czyżby więc Ziemia z ludźmi „na pokładzie” była egzemplarzem niepowtarzalnym? Na razie jest. Wiele, bardzo wiele wskazuje na to, że tak pozostanie jeszcze przez dość długi czas. A może nawet na zawsze.

2 komentarze do Jesteśmy w centrum?

Zdjęcia z eksplozji Antaresa

NASA ujawniła 85 zdjęć ze startu i eksplozji rakiety Antares. Niektóre zapierają dech w piersiach.

Kilka tygodni temu, na FB.com/NaukaToLubie informowałem, że Amerykańska Agencja Kosmiczna NASA udostępniła w serwisie zdjęciowym Flickr zdjęcia wysokiej jakości zrobione w trakcie trwania programu lotów księżycowych Apollo.

Tym razem NASA udostępniła 85 zdjęć na których widać nieudany start zakończony eksplozją rakiety Antares. Zdjęć nie powstydził by się najlepszy scenarzysta filmów science-fiction. Niestety fotografie, które pokazuję poniżej nie zostały stworzone na komputerze.

Rakieta Antares eksplodowała 15 sekund po starcie, który miał miejsce 28 października 2014. Zapasy, które przewoziła miały być dostarczone na pokład Międzynarodowej Stacji Kosmicznej. W sumie stracono ponad 2 tony zaopatrzenia dla ISS, a także sprzęt naukowy i eksperymenty studenckie. Zniszczeniu uległ także satelity Arkyd 3, RACE, GOMX 2 i 26 nanosatelitów Flock-1d.

>>> Przy okazji zapraszam na profil FB.com/NaukaToLubie (kliknij TUTAJ). To miejsce w którym staram się na bieżąco informować o nowościach i ciekawostkach ze świata nauki i technologii.

6_33_gallery_wide 7_25_gallery_wide 8_25_gallery_wide 9_19_gallery_wide 10_15_gallery_wide 11_17_gallery_wide 12_8_gallery_wide-2  13_7_gallery_wide 14_6_gallery_wide 15_4_gallery_wide

 

>>> Zapraszam na profil FB.com/NaukaToLubie (kliknij TUTAJ). To miejsce w którym staram się na bieżąco informować o nowościach i ciekawostkach ze świata nauki i technologii.

Brak komentarzy do Zdjęcia z eksplozji Antaresa

Wszechświaty równoległe?

Pracujący w Kalifornii astrofizyk, analizując mapę mikrofalowego promieniowania tła zauważył na niej dziwne struktury. Naukowiec uważa, że to światło które pochodzi z wszechświatów równoległych.

Pracujący w Kalifornii astrofizyk, Ranga-Ram Chary, analizując mapę mikrofalowego promieniowania tła zauważył na niej dziwne struktury. Tam gdzie na mapie miało być ciemno, pojawiały się jasne plamy. Naukowiec uważa, że najbardziej prawdopodobnym wytłumaczeniem jest to, że światło które widzi pochodzi z wszechświatów równoległych.

Czy to możliwe? Tak. Żadna teoria nie zabrania istnienia wszechświatów równoległych do naszego. Nie zabrania także istnienia wszechświatów starszych od tego w którym my żyjemy. Tyle tylko, że to nie jest żaden dowód za tym, że takie światy rzeczywiście istnieją.

Czym jest mikrofalowe promieniowanie tła, zwane inaczej promieniowaniem reliktowym? To echo Wielkiego Wybuchu. Brzmi abstrakcyjnie. Około 380 tysięcy lat po Wielkim Wybuchu, a więc w bardzo BARDZO wczesnej fazie rozwoju naszego wszechświata, temperatura materii obniżyła się do około 3000 Kelwinów a to spowodowało, że zupa materii i energii (a tym właśnie był wczesny wszechświat) zaczęła się rozdzielać. Fotony oddzieliły się od materii, a ta zaczęła się skupiać w pragalaktyki. Od tego czasu te pierwotne fotony przemierzają wszechświat we wszystkich kierunkach, a my dzięki temu jesteśmy w stanie zobaczyć, jak ten wczesny wszechświat wyglądał. Na mapie mikrofalowego promieniowania tła widać bowiem mniejsze i większe skupiska materii. To są miejsca w których zaczęły powstawać galaktyki i ich gromady. Promieniowania reliktowego jest bardzo mało (w każdym centymetrze sześciennym świata jest około 300 tworzących go fotonów), ale za to jest ono wszędzie. Otacza nas ze wszystkich stron. W skrócie mówiąc to promieniowanie to nic innego jak resztki światła, które emitował rozgrzany i potwornie ściśnięty młody wszechświat. Tak jak żarzące się włókno żarówki czy rozgrzany do czerwoności rozpalony w ogniu metalowy pręt. Poświata Wielkiego Wybuchu wydostała się z gorącej zupy materii dopiero, gdy zaczął się z niej formować przezroczysty gaz atomów. Szacuje się, że było to ok. 380 tyś lat po Wielkim Wybuchu.

A wracając do wszechświatów równoległych. Ich istnienia nie możemy wykluczyć, ani potwierdzić. Przynajmniej na razie. Tajemnicze plamy o których wspomniałem wcześniej nie są żadnym dowodem. W najlepszym wypadku będą argumentem za tym, by jeszcze raz, jeszcze dokładniej przeanalizować wyniki badań, które przeprowadza się nieustannie od kilkudziesięciu lat. Zdaniem naukowca, który zauważył tajemnicze plamy, są to ślady materii, która pochodzi z innego świata, na dodatek takiego w którym mają obowiązywać inne niż u nas prawa fizyki. To ostatnie stwierdzenie jest – delikatnie mówiąc – słabo udokumentowane. Badacza poniosła chyba fantazja. Dobrze jest pamiętać, że w XXI wieku nie jesteśmy w stanie powiedzieć z czego zbudowane jest ponad 90 proc. Naszego własnego wszechświata. Ciemna energia i ciemna materia to ogromne znaki zapytania dla kosmologów. Zanim więc zaczniemy dowodzić istnienia innych wszechświatów, będzie trzeba rozwikłać zagadkę tego w którym my żyjemy.

>>> Zapraszam na profil FB.com/NaukaToLubie (kliknij TUTAJ). To miejsce w którym staram się na bieżąco informować o nowościach i ciekawostkach ze świata nauki i technologii.

3 komentarze do Wszechświaty równoległe?

Bolid – kilka mitów, kilka faktów

Bolid, jasny ślad na nocnym niebie, jaki pojawił się przedwczoraj nad Polską, wywołał ogromne emocje. I nie ma się co dziwić. Przy okazji warto wyjaśnić kilka nieporozumień.

Bolid, jasny ślad na nocnym niebie, jaki pojawił się przedwczoraj nad Polską wywołał ogromne emocje. I nie ma się co dziwić. Tak dobrze udokumentowane na zdjęciach zdarzenie to jednak rzadkość. Przy okazji tego zdarzenia warto wyjaśnić kilka nieporozumień.

  1. Czy to dało się przewidzieć?

NIE. Bolidy to wbrew pozorom małe obiekty (piszę o tym w kolejnym punkcie), a takich nie da się obserwować przez teleskopy a tym bardziej śledzić ich trajektorii. W efekcie, choć są okresy kiedy szansa na zaobserwowanie bolidu jest większa, nie da się przewidzieć kiedy i gdzie go zauważymy. Jeżeli tak, skąd wzięło się tyle zdjęć tego zjawiska? Bolid pozostawia na nocnym niebie (w niektórych przypadkach także na dziennym niebie) ślad, który „trwa” kilkanaście, a nawet kilkadziesiąt sekund. Jeżeli ktokolwiek był na zewnątrz, jeżeli ktokolwiek miał w dłoni aparat fotograficzny (np. w telefonie), miał ogromne szanse by zrobić zdjęcie mimo tego, że nie spodziewał się niczego szczególnego. Wiele ze zdjęć bolidu było robionych na cmentarzach. Cóż, mieliśmy Wszystkich Świętych, a pogoda w sporej części Polski była perfekcyjna. Noc, liście na drzewach, znicze na grobach, łuna światła i … bolid w tle. Bonus dla artystycznych dusz.

  1. Czy to był duży obiekt?

NIE. Ludzkie oko jest w stanie zobaczyć krótkotrwały błysk światła wtedy gdy w ziemską atmosferę wchodzi obiekt wielkości ziarenka piasku. W czasie deszczy (rojów) meteorów, których w ciągu roku jest kilkanaście, przeważającą większość świetlnych efektów powodują właśnie ziarenka wielkości główki od szpilki. Gdy meteor ma wielkość kostki do gry, ślad jaki pozostawia po sobie utrzymuje się na kilka sekund. Bolidy mają wielkość kilku, górka kilkunastu centymetrów. Kilkunastocentymetrowe nie tylko mogą świecić jaśniej niż Księżyc w pełni, ale także być źródłem efektów dźwiękowych. Te przypominają charakterystyczny pisk hamującego na dworcu pociągu, albo wyładowanie atmosferyczne. Szczególnie duże bolidy mogą być widoczne także w ciągu dnia.

  1. Czy bolid mógł dolecieć do Ziemi?

NIE. Ten konkretny, który w sobotę wieczorem wywołał takie poruszenie, nie doleciał do powierzchni gruntu. Był za mały. Skąd o tym wiemy? Pierwszym wskazaniem jest to, że w pewnym momencie świetlny ślad jakiego bolid był źródłem urywa się. To nie jest wskazanie jednoznaczne, bo w przypadku niektórych obiektów świetlny ślad kończy się w miejscu w którym obiekt ma za mało energii (powietrze wyhamowało go) by rozgrzewać otaczające go powietrze. O tym czym jest świetlny ślad piszę w kolejnym punkcie. Jest jednak argument drugi za tym, że nic do powierzchni ziemi nie doleciało. Sobotni obiekt nie był duży, bo świadkowie przelotu nie słyszeli efektów dźwiękowych. Obiekty o średnicy rzędu centymetrów (a nawet te o średnicy dziesiątków centymetrów) spalają się całkowicie w atmosferze. Niektóre najpierw rozpadają się na mniejsze kawałki, a potem spalają.

  1. Czy świetlisty ślad na niebie zostawił rozgrzany do białości kawałek skały?

NIE. Powszechnie uważa się, że to co widzimy na niebie, to rozgrzany do białości kawałek meteoru. Tymczasem to nieprawda. Po pierwsze – jak wspominałem wcześniej – te obiekty są bardzo małe a efekty świetlne powstają na znacznych (kilkadziesiąt kilometrów) wysokościach. Po drugie, gdyby źródłem światła był meteor, nie widzielibyśmy utrzymującego się przez kilkanaście sekund śladu, tylko bardzo szybko poruszający się punkt świetlny. Co zatem świeci jeżeli nie rozgrzany meteor?

Powierzchnia meteoru nagrzewa się rzeczywiście bo tego typu obiekty poruszają się z bardzo dużymi prędkościami (nawet ponad 100 000 km/h), ale powodem tego nagrzewania nie jest ocieranie się o atomy ziemskiej atmosfery, tylko sprężenie powietrza przed czołem meteoru. Kosmiczna „skała” działa jak szybko poruszający się spychacz, który pcha przed sobą gaz. W ten sposób wytraca prędkość, ale „zyskuje” energię. W ten sposób może się rozgrzać do temperatury kilku tysięcy st. C. Tak, jest źródłem światła, ale to nie to światło widzimy na powierzchni ziemi. Rozgrzany meteor przekazuje część swojej energii otoczeniu przez które przelatuje, czyli powietrzu atmosferycznemu. Te rozgrzane zaczyna intensywnie świecić. I to to światło widzimy. Meteor przelatuje dalej, ale gaz świeci tak długo aż się nie ochłodzi co czasami trwa kilkanaście sekund. W pewnym momencie świetlny ślad urywa się. To znak, że w tym miejscu meteor całkowicie się spalił albo rozpadł na fragmenty mniejsze niż ziarenka piasku.

  1. Czy można się spodziewać większej ilości bolidów?

TAK. Przelot bolidu nie jest jednorazowym wydarzeniem. Wbrew pozorom na danym obszarze zdarza się kilka razy w roku. Trzeba jednak pamiętać, że średnio połowę doby mamy dzień. Bolidy dzienne, czyli na tyle duże by zobaczyć je na jasnym niebie, są rzadkością. Ponadto bolidów nie widać gdy na niebie są chmury bo świetlne ślady powstają dużo wyżej. No i kwestia świadków. Gdyby ten sam przelot miał miejsce nie w godzinach wczesno wieczornych tylko nad ranem, nie byłoby pięknych zdjęć, ani ogromnej liczby świadków.

Podsumowując. Gdyby wziąć to wszystko pod uwagę, piękna pogoda, wczesny wieczór i jasny bolid zdarza się raz wiele miesięcy. Co nie znaczy, że kolejny nie pojawi się jutro. Szanse na pojawienie się bolidów rosną w czasie deszczów meteorów. Obecnie Ziemia przechodzi przez pozostałości po komecie 2P/Encke, czego efektem jest dość rzadki (średnio 5 „spadających gwiazd” na godzinę) rój Taurydów Północnych. Jest bardzo prawdopodobne, ze sobotni bolid był kiedyś częścią komety 2P/Encke.

>>> Zapraszam na profil FB.com/NaukaToLubie (kliknij TUTAJ). To miejsce w którym staram się na bieżąco informować o nowościach i ciekawostkach ze świata nauki i technologii.

5 komentarzy do Bolid – kilka mitów, kilka faktów

Kolorowa jesień naukowo

Jest taki moment w roku, kiedy las – zwykle zielony – mieni się niemalże wszystkimi możliwymi kolorami. Dlaczego liście zmieniają kolor jesienią?

Liście są zielone, bo zawierają chlorofil. To związek chemiczny, barwnik, który potrafi „produkować” elektrony pod wpływem światła słonecznego. Po co roślinom elektrony? Potrzebują ich po to, by zaszła fotosynteza, czyli proces, w trakcie którego – w skrócie – z wody, dwutlenku węgla i światła powstają cukry i tlen. Ten ostatni jest usuwany do atmosfery, a cukry stanowią pożywienie dla roślin. W ciągu roku ilość wody i dwutlenku węgla jest mniej więcej stała. Co innego jednak ze światłem. Jego ilość w ciągu 12 miesięcy zmienia się diametralnie.

Sekret tkwi w świetle
Chlorofil to niejedyny barwnik – choć najważniejszy – z wielu występujących w roślinach zielonych. Gdy jesienią temperatura obniża się i powoli spada ilość dochodzącego do powierzchni ziemi światła słonecznego, dla roślin to znak, że zbliża się zima. Czas odpoczynku, a właściwie snu. To także sygnał, by przestać produkować chlorofil. To dosyć racjonalna decyzja. Skoro światła i tak jest coraz mniej, a za chwilę przyjdzie w ogóle „przystopować”, po co tracić energię na produkcję chlorofilu?

A więc chlorofilu jest coraz mniej, ale tutaj niespodzianka. Można by się spodziewać, że wraz z zanikiem barwnika liści, powinny one stawać się coraz bardziej przezroczyste. Otóż nie! Chlorofil znika a wraz ze zbliżaniem się zimy „do głosu” dochodzą inne barwniki. Są w liściach przez cały czas, ale „hegemonia” chlorofilu powoduje, że tych innych po prostu nie widać. Pojawiają się dopiero wtedy, gdy zmniejsza się ilość zielonego barwnika. Liście stają się coraz bardziej żółte i pomarańczowe, ale nie dlatego, że przysychają, ale dlatego, że znajduje się w nich całkiem sporo barwników z grupy karotenoidów. To te, które nadają kolor marchewce czy pomarańczom. Dzięki karotenoidom liście stają się żółte, pomarańczowe czy brązowe. Ale nie wszystkie liście są tak samo żółte. Sekret tkwi w ilości dochodzącego do powierzchni ziemi światła, a także temperaturze, gatunku drzewa, a nawet odczynie pH gruntu, na którym roślina się rozwija. Na jesień bardzo żółte są liście osiki, ale już liście klonu czy jesionu w ogóle nie żółkną. Te stają się intensywnie czerwone.

O co chodzi z czerwienią?
Barwniki, które odpowiadają za wiele odcieni czerwieni jesiennych liści, pochodzą z grupy antocyjanidyn. Te same związki występują zresztą w kwiatach. I tutaj ciekawostka. Dokładnie ten sam barwnik (cyjanidyna) nadaje róży kolor krwistej czerwieni i chabrom ciemnego błękitu. Wracając jednak do liści. Tak jak barwnik żółty czy pomarańczowy jest w liściach przez okrągły rok, tak barwniki czerwone produkowane są dopiero jesienią. Bez sensu? Po co tuż przed opadnięciem liść traci energię na produkcję czegokolwiek? To rzeczywiście swego rodzaju tajemnica. Dzisiaj naukowcy sądzą, że barwniki z grupy czerwonych chronią komórki liści przed zamarznięciem.

Jesienią nocne przymrozki są czymś zupełnie normalnym. Rośliny, w których liściach jest dużo czerwonych barwników, są odporniejsze na nie. To, co zastanawia badaczy, to fakt, że związki z grupy antocyjanidyn są produkowane także w innych okolicznościach. Na przykład wtedy, gdy roślinę zaatakują jednokomórkowe grzyby, gdy natężenie światła UV jest zbyt wielkie albo gdy zanieczyszczenie środowiska staje się dla nich uciążliwe. Czerwone liście mogą świadczyć o chorobie roślin. I znowu pojawia się pytanie. Dlaczego wyczerpana, chora roślina marnuje swoją energię na produkcję czerwonych barwników ? Czy nie lepiej, by w tej sytuacji ją oszczędzała? Eksperci przypuszczają, że jeżeli antocyjanidyny są produkowane po to, by liść wisiał na drzewie tylko troszkę dłużej, może oznaczać, że tuż przed zimą drzewo chce pobrać ze środowiska coś, co pomoże mu we wzroście w kolejnym sezonie. Być może tak jest rzeczywiście. W końcu liść zawiera wiele soli mineralnych czy pierwiastków, które roślinie mogą się jeszcze przydać. Część z nich drzewo odzyska, gdy liść zgnije na powierzchni gruntu, ale być może substancje najbardziej potrzebne roślina chce odzyskać bezpośrednio z liścia? Jeżeli tak, czerwone barwniki przypominałyby nieco komandosów czy BORowców, którzy w sytuacji zagrożenia pilnują ewakuacji ważnych osób. Dbają by liść wisiał jak najdłużej, po to by zanim spadnie, udało się z niego nak najwięcej wyciągnąć.

Przepis na kolorową jesień
Niektóre barwniki są charakterystyczne dla konkretnego gatunku roślin. Inne występują we wszystkich, ale pojawiają się w zależności od warunków zewnętrznych. To dlatego liście nawet dwóch stojących obok siebie drzew mogą mieć nieco inny odcień. Czy można sformułować przepis na kolorową jesień? Listę warunków, jakie muszą zostać spełnione, by spacer po jesiennym lesie był przeżyciem wręcz metafizycznym? Można się o to pokusić. Temperatura powietrza powinna spadać powoli, nie gwałtownie. To samo dotyczy ilości dochodzącego do liści światła. Pogoda powinna być słoneczna, a niebo niezasnute chmurami. Tylko wtedy chlorofil będzie ustępował innym barwnikom w sposób ciągły. Jakiekolwiek nagłe zmiany mogą spowodować, że liście znajdą się na ziemi, zanim zdążą zapłonąć feerią kolorów. Jeżeli jest zbyt mokro, liście wcześniej spadną, a jeżeli zbyt często chmury będą przysłaniały słońce, liście nie wyprodukują czerwonego barwnika. W skrócie: jesień musi być ciepła, sucha i słoneczna. Wtedy będzie złota, czerwona, brązowa, żółta, pomarańczowa…

 

Polecam wideo  „Tajemnica czerwonego drzewa – Nauka. To lubię.”

 

Polecam wideo „Liście jesienią (okiem fizyka) – Nauka. To lubię.”

Brak komentarzy do Kolorowa jesień naukowo

Orionidy nadlatują !!!

Już za chwileczkę, już za momencik… a tak właściwie od kilku dni Ziemia w swoim ruchu wokół Słońca przelatuje przez chmurę kawałków komety Halley’a. Maksimum tych zderzeń nastąpi z środy na czwartek.

Ziemia z resztkami komety Halley’a „spotyka się” kilka razy w roku. W październiku skutkuje to deszczem Orionidów, na przełomie kwietnia i maja Eta Akwadydów, a w pierwszych dniach sierpnia Akwarydów. Dzisiaj w nocy jest maksimum roju Orionidów.

Poruszająca się w kierunku Słońca kometa (nie tylko kometa Halley’a) topiąc się pozostawia na swojej drodze niewielkie skalne kawałki, z których jest posklejana. Powstaje wtedy ślad, który znaczy drogę po której kometa się poruszała. W ciągu roku Ziemia wielokrotnie wlatuje w tak pozostawioną „ścieżkę” (u dołu tego wpisu wypisałem listę największych rojów meteorytów jakie można oglądać w Polsce).

Pozostałości komet z którymi Ziemia się „zderza” to pył i małe okruchy skalne. W ziemskiej atmosferze pozostawiają widoczny gołym okiem świetlny ślad nawet te, które są wielkości ziarenek pisaku. To dzięki grubej ziemskiej atmosferze możemy oglądać – o ile pogoda na to pozwoli – ciekawe widowisko. Nie musimy przy tym chować się pod dach 😉 , choć gdyby nie chroniąca nas atmosfera byłoby to konieczne, bo drobne cząstki pyłu i większe okruchy skalne wpadają w nią nawet z prędkością 75 km/s. Wtedy ocierając się i zderzając z cząsteczkami powietrza silnie rozgrzewają swoją powierzchnię. Zderzenia te są tak intensywne i jest ich tak dużo, że powierzchnia obiektu zaczyna się topić i wrzeć. Część w ten sposób „nabytej” energii przekazana zostaje do otaczającego meteor powietrza. To nagrzewa się i świeci a my widzimy „spadającej gwiazdy”.

Znakomita większość „spadających gwiazd” spala się całkowicie w ziemskiej atmosferze. Co więcej to co obserwujemy gołym okiem, to zaledwie ułamek wszystkich spadających na Ziemię meteorów. Większość z nich  jest na tyle mała, że ich „spalania” nie widać gołym okiem. Szacuje się, że w ciągu doby na powierzchnię Ziemi spada aż 100 ton tego niezauważalnego pyłu. Corocznie – w ściśle określonych porach – różnych rojów pojawia się na naszym niebie ok. 20. Niektóre z nich widoczne są na jednej półkuli a inne – tak jak Orionidy – na obydwu. Do ich obserwacji nie trzeba kosztownych urządzeń i o ile pogoda dopisze – i dodatkowo noc będzie bezksiężycowa – powinno być widać spadające gwiazdy. Uważny obserwator może ich zauważyć nawet 15 w ciągu jednej godziny.

Najobfitsze roje meteorytów występujące na półkuli północnej (w Polsce).  
Nazwa i okres występowania    
Kwadrantydy (1-6 I)    
Eta Akwarydy (24 IV – 20 V)    
Delta Akwarydy (15 VII – 20 VIII)    
Geminidy (7-16 XII)    
Perseidy (23 VII – 20V III)    
Orionidy (16-27 X)    
Taurydy (20 X- 30XI)    
Leonidy (15-20 XI)    

 

>>> Zapraszam na profil FB.com/NaukaToLubie (kliknij TUTAJ). To miejsce w którym staram się na bieżąco informować o nowościach i ciekawostkach ze świata nauki i technologii.

Brak komentarzy do Orionidy nadlatują !!!

Fizyka tłumu

Zatłoczone miejsca mogą być bardzo niebezpieczne. Nie, nie z powodu kieszonkowców, tylko z powodu trudnych do opanowania reakcji tłumu. Duża grupa ludzi w określonych sytuacjach zachowuje się jak „jeden organizm” a nie jak grupa organizmów niezależnych.

Dwa dni temu, w Bydgoszczy, w czasie studenckiej imprezy wybuchła panika. Jedna osoba zginęła, a kilka kolejnych zostało rannych. Do dramatu doszło nie na dużej sali, tylko w wąskim przejściu. Kilkanaście dni wcześniej, w czasie hadżu – pielgrzymki wyznawców Allaha do Mekki, w tłumie zginęło około 500 osób. W styczniu 1990 roku, w tym samym miejscu zadeptano ponad 1500 ludzi. W czym jest problem? Ludzie w swoim zachowaniu podobni są do zwierząt, np. mrówek, ryb w ławicy czy ptaków w kluczu. Poruszają się w sposób uporządkowany i określony. Do czasu. Gdy wybucha panika, uporządkowanie ustępuje chaosowi. Wbrew pozorom ten chaos można ujarzmić… za pomocą równań matematycznych.

Szybko ale bezpiecznie

Z pozoru sytuacje takie jak w saudyjskiej Mekce zdarzają się rzadko. I całe szczęście. Ale nie chodzi tylko o tragedie w których giną ludzie. Gdy trzeba ewakuować centrum handlowe, liczy się każda chwila. Jak zaprojektować wyjścia ewakuacyjne? Zrobić jedno duże, czy kilka mniejszych? A kibice piłkarscy na dużym stadionie? Po skończonym meczu tysiące ludzi chce jak najszybciej dostać się do swoich samochodów czy do środków komunikacji publicznej. Jak oznaczyć ciągi komunikacyjne? Wypuszczać ludzi partiami czy po prostu otworzyć drzwi i „niech sami sobie radzą”. Problem jest ważny nawet dla linii lotniczych. I nie tylko w sytuacjach zagrożenia życia. Każda minuta postoju na płycie lotniska kosztuje. Jak pasażerów szybko „usadzić” na miejscu i co zrobić by po wylądowaniu jak najszybciej – bezpiecznie – opuścili oni samolot? Pytań jest naprawdę wiele. Tylko dlaczego mają na nie odpowiadać fizycy? Ano dlatego, że duża grupa ludzi podobna jest do płynu. Ten w niektórych sytuacjach porusza się przewidywalnie i wtedy mówimy o przepływie laminarnym, ale czasami ten porządek zamienia się w chaos i wtedy mówimy o przepływie turbulentnym. Fizycy tymi przepływami zajmują się od dawna, bo to od nich zależy np. opór z jakim musi poradzić sobie jadący autostradą samochód, bo to od nich zależy sprawność silnika odrzutowego samolotu. Od niedawna wiadomo jednak, że te same równania, które opisują mechanikę płynów, można stosować do dużych grup ludzi.

Mrówki też ludzie

Mrówki zwykle wybierają drogę… którą chodzi większość. „Domyślają się” – i słusznie – że kierunek który wybrało więcej mrówek jest z jakiś powodów bardziej atrakcyjny. I tak tworzą się tzw. mikrostużki, czyli drogi, które z jakichś powodów są przez mrówki preferowane. Podobnie zachowują się ryby w ławicy. I ludzie na chodniku. Nawet w dużym tłumie, nie poruszamy się całkowicie losowo i chaotycznie. Często, nawet nieświadomie, wybieramy drogę, którą idzie przed nami osoba poruszająca się w podobnym tempie co my. Gdy ktoś idzie wolniej, albo szybciej nie zwracamy na niego uwagi. Nasz mózg podświadomie śledzi tylko tych, którzy idą w naszym tempie. My sami też możemy być dla kogoś „przewodnikiem”, a ten ktoś dla kolejnej osoby. I już się tworzą mikrostrużki. To dlatego na szerokim trakcie ludzie idący w jednym kierunku jakoś automatycznie trzymają się jednej strony. Tylko co jakiś czas ktoś próbuje przebić się ”pod prąd”. Podstawowa i święta zasada jest taka, żeby tak projektować trakty, by ruch na nich mógł być płynny. I tak, lepiej, gdyby korytarz skręcał łukiem niż pod kątem prostym. Lepiej też by na skrzyżowaniu traktów było coś co trzeba okrążyć (fontanna, rzeźba,…), bo to zwiększa płynność ruchu. Niestety, te z pozoru proste zasady, gdy wybucha panika przestają obowiązywać i pojawia się chaos. Podobnie zresztą jak u mrówek, ryb w ławicy, a nawet u ptaków w stadzie. Za wszelką cenę nie można do tego dopuścić. Nie ma co liczyć na rozwagę czy trzymanie nerwów na wodzy. Ludzie w panice przestają zdawać sobie sprawę z tego co robią. Choć nie sposób przewidzieć, co zrobi konkretna osoba, naukowcy potrafią przewidzieć co będzie robiła duża grupa ludzi. Do tego zatrudniają największe komputery świata i… setki wolontariuszy. Ci, czasami sa narażeni na niebezpieczeństwo. W czasie próbnych ewakuacji jakie prowadzono w czasie budowy samolotu Airbus 380, z 900 ochotników, 30 zostało rannych w tym jedna osoba ciężko. Z międzynarodowych norm wynika, że samolot powinny być zaprojektowany w ten sposób, by ewakuacja wszystkich pasażerów nie trwała dłużej niż 90 sekund.

Dym i kamery

Gdy z końcówki palącego się knota świecy ulatnia się dym, początkowo jego strużka unosi się pionowo do góry. Można wręcz dostrzec równoległe do siebie pasma. To tzw. przepływ laminarny. Po kilkunastu centymetrach dym zaczyna jednak tworzyć zawirowania. Uporządkowana jeszcze przed chwilą stróżka staje się chaotyczna i nieprzewidywalna. Tak wygląda przepływ turbulentny. Naukowcy z Uniwersytetu w Dreźnie analizujący przypadki w których tłum zaczyna tratować ludzi, zauważyli, że zagrożenie pojawia się wtedy, gdy ludzie zaczynają poruszać się jak ciecz albo gaz w czasie przepływu turbulentnego. Tak długo, jak „przepływ” ludzi jest laminarny – nie ma problemu. Turbulentny, czyli chaotyczny przepływ pojawia się gdy wybucha panika, ale sam może być źródłem paniki. W Mekce droga pielgrzymów wiodła przez most Jamarat, który jest węższy niż droga do niego prowadząca. To zwężenie w przeszłości powodowało, że ludzie zaczynali poruszać się turbulentnie. Chaos powodował wybuch paniki, a panika – jeszcze większy chaos. Po sugestiach jakie niemieccy fizycy wysłali władzom Arabii Saudyjskiej, drogę pielgrzymów nieco przebudowano.

Co jeszcze może mieć znaczenie? Na przykład wyrwa w drodze, w zasadzie jakakolwiek przeszkoda. Ale także kłótnia czy bijatyka dwóch idących obok siebie osób. Schody, krawężnik, nawet moment w którym pieszy schyla się, by podnieść coś, co wypadło mu z ręki. Niemieccy badacze sugerują więc, by nad miejscami gdzie poruszają się duże grupy ludzi umieszczać kamery, które automatycznie będą wykrywały w których miejscach ruch zaczyna być turbulentny. Zanim dojdzie do tragedii (przecież z tyłu napierają kolejne masy ludzi), odpowiednie służby mogą zareagować. Mają na to od kilku, do kilkunastu minut.

Wąsko źle, szeroko też niedobrze

Ślepe stosowanie zasad jakie rządzą mechaniką płynów (analogia do dymu papierosowego) jest jednak skuteczne tylko do pewnego stopnia. Ludzie ze sobą współdziałają, oddziałują na siebie znacznie bardziej niż cząsteczki gazu czy płynu. W końcu widzą, co robią inni. Gdy wziąć pod uwagę to wszystko okazuje się, że pomieszczenie (pokój, stadion czy pokład samolotu) najszybciej pustoszeje, gdy … nikt się nie śpieszy. Tylko wtedy wyjście nie staje się wąskim gardłem. Gdy wzrasta prędkość ludzi idących ku wyjściu, drzwi „korkują się”, a ludzie opuszczają pomieszczenie grupkami. To spowalnia opuszczanie zagrożonego terenu. Dlatego lepiej jest projektować więcej węższych wyjść niż mniej szerszych. Ale tutaj – uwaga – sprawa jest bardziej złożona. Pomijając szczegóły (które choć bardzo ciekawe, zajęłyby tutaj zbyt dużo miejsca), okazuje się, że gdy ludzie współpracują z sobą (np. znajomi z pracy) szybciej wyjdą wąskim wyjściem. Gdy raczej konkurują o to kto szybciej się wydostanie, lepsze są wyjścia szerokie (chociażby miałoby ich być mniej). Gdy wyjścia są szerokie, dobrze przed nimi stawiać kolumny. Z symulacji komputerowych wynika, że w sytuacji krytycznej przed wyjściem rzadziej tworzą się wtedy kolejki, a w efekcie „przepływ” staje się bardziej laminarny. Z kolei przed wąskimi wyjściami dobrze jest zamontować równoległe  barierki (takie jak przy wejściu do metra), które spowodują, że już przed wejściem, ludzie będą szli w uporządkowanym szyku.

Kilka lat temu niemiecki rząd uruchomił projekt Hermes, w ramach którego powstał system kierujący tłumem. Kamery obserwują prędkość ludzi, a komputery za pomocą znaków świetlnych i dźwiękowych decydują którędy tłum prowadzić. Na stadionie czy w czasie dużej wystawy gdy trzeba zarządzić ewakuację, któreś z wyjść może być zablokowane (albo za bardzo oblegane). Wtedy kierowanie się w jego kierunku jest bardziej niebezpieczne niż nawet dołożenie drogi i udanie się do innego wyjścia. Dawanie ludziom jasnych sygnałów co mają robić w czasie zagrożenia jest niezwykle istotne. Zauważono (zresztą u zwierząt występuje ten sam mechanizm), że w sytuacjach kryzysowych podążamy raczej za tłumem, w grupie czujemy się bezpieczniej. Bez wyraźnej informacji duża grupa może przemieszczać się w kierunku jednego wyjścia („tam idą wszyscy, widocznie ktoś zna najlepszą drogę”), podczas gdy inne będą puste.

Dzisiaj jeszcze zbyt wcześnie by dogłębnie przeanalizować to co dwa dni temu stało się w Bydgoszczy. Przejście było wąskie, ludzi było dużo, okna były pozamykane. Brak tlenu przyspiesza podejmowanie irracjonalnych decyzji. Niektórzy świadkowie twierdzą, że ktoś w przejściu rozpylił gaz. Być może po to by uspokoić ludzi. Jeżeli tak było rzeczywiście, tylko pogorszył sytuację. Wyjaśnienie przyniesie śledztwo.

>>> Zapraszam na profil FB.com/NaukaToLubie (kliknij TUTAJ). To miejsce w którym staram się na bieżąco informować o nowościach i ciekawostkach ze świata nauki i technologii.

4 komentarze do Fizyka tłumu

Co tam się dzieje? Komety czy Obcy?

Wokół jednej z setek tysięcy gwiazd, które obserwuje teleskop Kepler krążą duże obiekty. Naukowcy nie widzą czym one są, ani jak powstały. Internety już mówią o tworach obcych cywilizacji.

Wiecie co to jest Brzytwa Ockhama? To zasada zgodnie z którą przy „wyjaśnianiu zjawisk należy dążyć do prostoty, wybierając takie wyjaśnienia, które opierają się na jak najmniejszej liczbie założeń i pojęć”. Trudno obcą cywilizację uznać za najbardziej oczywisty powód niezrozumiałych obserwacji astronomicznych. Oczywiście nie można jej też całkowicie wykluczyć.

Co konkretnie tak zadziwiło astronomów? W 2009 roku Teleskop Kosmiczny Keplera wśród setek tysięcy gwiazd wypatrzył KIC 8462852. Ta nie świeciła jednak tak jak inne słońca. Coś w sposób nieregularny zakłócało jej obserwację. Tym „czymś” jest duża ilość niewielkich, ale bardzo gęstych obiektów. – Prawdę mówiąc, światło emitowane przez KIC 8462852 było najdziwniejszą rzeczą, jaką zaobserwował Kepler od początku swojego istnienia – powiedziała badaczka z Yale Tabetha Boyajian. Kepler pracuje na orbicie od kilku lat. Inny badacz, Jason Wright, astronom z Penn State University powiedział, że był pod wrażeniem tego, jak niesamowicie to wyglądało. – Obca cywilizacja to ostatnia hipoteza, jaką powinniśmy w takim przypadku rozpatrywać, ale to coś wyglądało tak, jak gdyby stworzyli to właśnie kosmici. (oryginał wypowiedzi : „I was fascinated by how crazy it looked”. “Aliens should always be the very last hypothesis you consider, but this looked like something you would expect an alien civilization to build.”).

Jako że zdjęcia pochodzą sprzed kilku lat, badacze twierdzą, że bardzo dokładnie sprawdzili sprzęt i nie ma mowy o usterce czy pomyłce. – Tam na prawdę krąży ogromna ilość obiektów, ściśniętej materii – powiedziała Boyajian. Czym te obiekty mogą być? No właśnie tutaj zaczyna się kłopot. Bo lista naturalnych wytłumaczeń tego fenomenu jest bardzo krótka. W zasadzie, choć i to jest bardzo mało prawdopodobne, podobny efekt dałyby tylko komety. Być może inna gwiazda przyciągnęła w stronę KIC 8462852 sznur komet. Trudno nawet oszacować prawdopodobieństwo takiego zdarzenia, bo… nigdy wcześniej niczego podobnego nie zaobserwowano.

I co teraz? Dane są analizowane, a gwieździe wokół którejś coś krąży od stycznia będą się przyglądały ziemskie radioteleskopy. Gwiazda KIC 8462852 na nocnym niebie znajduje się pomiędzy gwiazdozbiorami łabędzia i lutni. Patrząc tam można sobie przez chwile pomyśleć…. że ktoś patrzy stamtąd w naszym kierunku. Nie, no błagam, musi być jakieś bardziej przyziemne wytłumaczenie 😉

Zapraszam na profil FB.com/NaukaToLubie (kliknij TUTAJ). To miejsce w którym staram się na bieżąco informować o nowościach i ciekawostkach ze świata nauki i technologii.

2 komentarze do Co tam się dzieje? Komety czy Obcy?

Jak zrobić latawiec?

Zrobienie latawca jest bajecznie proste. Nie trzeba do tego wyszukanych materiałów, ani drogich urządzeń. A zabawy (zarówno dla dzieci jak i dorosłych) cała masa.

Dlaczego latawiec lata? W największym skrócie dlatego, że ciśnienie pod nim jest większe niż ciśnienie nad nim. Ta różnica ciśnień wynika z tego, że pęd powietrza opływa go z góry i z dołu z różną prędkością.

Struga powietrza „natrafiając” na latawiec rozdziela się. Gdy latawiec znajduje się pod odpowiednim kątem (to tzw. kąt natarcia), struga, która opływa go wzdłuż górnej powierzchni porusza się szybciej, a wzdłuż dolnej wolniej. To powoduje, ze nad latawcem jest niższe ciśnienie, a pod nim wyższe. To powoduje, że latawiec zaczyna się unosić. Jeżeli tak jest, dlaczego nie unosi się w nieskończoność ? Bo w dół ciągnie go siła grawitacji. Czym latawiec cięższy, tym ma ona większe znaczenie. Jeżeli unosi jakąś aparaturę badawczą, „zły” wpływ siły grawitacji można nadrobić zwiększając powierzchnię „skrzydła”. Ale i tutaj trzeba znać umiar. Czym większe skrzydło, tym cięższy latawiec, tym mocniejsza (a więc także cięższa) musi być linka, która go przytrzymuje. Duże latawce w zasadzie nie startują z rozbiegu, a do tego by puszczać je „z ręki” potrzeba dużego wiatru.

A co z ogonem? Latawce potrafią bez nich latać, ale w przypadku płaskich latawców ogon jest bardzo pomocny. Choć powoduje że latawiec jest cięższy, a to oznacza, ze na pewno wolniej będzie się wznosił i niżej latał, ogon utrudnia niepożądane obroty i kołysanie latawca wokół którejś z jego osi. Obroty są problemem szczególnie dla mniejszych latawców, które są bardzo podatne na zmieniający się wiatr. W skrócie, ogon zwiększa stabilność. Zresztą to akurat możecie sprawdzić sami.

latawiec

Gdy latawiec w końcu się uniesie… zaczyna się zabawa. Można ścigać się który poleci wyżej, który szybciej się wzniesie czy w końcu który dłużej utrzyma się w powietrzu. Jest jednak kilka reguł co do których puszczając latawce trzeba bezwzględnie się stosować. Nigdy nie wolno puszczać latawców w pobliżu linii wysokiego (jakiegokolwiek) napięcia, a także w pobliżu lotnisk, wysokich anten czy urwisk. Nie wolno tego robić także w pobliżu dróg publicznych. Lepiej (dla latawca) by w pobliżu nie było drzew. Pod żadnym pozorem nie wolno puszczać latawców w czasie burzy lub tuż przed nią. Może to grozić śmiertelnym niebezpieczeństwem, bo w wysoko latający obiekt może uderzyć błyskawica. I jeszcze jedno. Gdy latawiec jest duży, a wiatr silny, lepiej uważać z puszczaniem latawców. Latawiec bez problemu może przewrócić człowieka, a nawet go unieść. Jak ktoś nie wierzy, niech w Internecie wyszuka takie dyscypliny sportu jak kitejumping, kiteboarding czy buggykiting.

A na koniec kilka rekordów. W sierpniu 1919 roku, w Niemczech padł rekord wysokości lotu latawcem – 9740 metrów. Najdłuższy latawiec miał 1034 metry, największy miał powierzchnię 553 m2, a najszybszy poruszał się z prędkością 193 km/h. Najdłużej w powietrzu latawiec znajdował się 180 godzin.

> Tutaj mój materiał wideo o puszczaniu latawców:

Zapraszam na profil FB.com/NaukaToLubie (kliknij TUTAJ). To miejsce w którym staram się na bieżąco informować o nowościach i ciekawostkach ze świata nauki i technologii.

1 komentarz do Jak zrobić latawiec?

Nobel z fizyki – abstrakcja goni abstrakcję

W ciągu każdej sekundy, przez nasze ciała przenika kilkadziesiąt bilionów neutrin. Abstrakcyjnie dużo. Masa każdego z nich jest mniejsza niż miliardowa część masy atomu wodoru. Abstrakcyjnie mało. Takie właśnie są neutrina. Abstrakcyjne. Za ich badania przyznano tegorocznego Nobla z fizyki.

Neutrina są najbardziej chyba nieuchwytnymi cząstkami badanymi przez fizyków. Prawie w ogóle nie oddziałują z materią. Po prostu przez nią przenikają. Zupełnie tak, jak gdyby była dla nich przezroczysta. Nie stanowią dla nich żadnej przeszkody ciała niebieskie jak i olbrzymie odległości (które pokonują z prędkością zbliżoną do prędkości światła). Powstają w czasie reakcji jądrowych, nie mają ładunku i posiadają nieskończenie małą masę. Neutrina występują w trzech odmianach. Najlepiej poznane są tzw. neutrina elektronowe, ale oprócz nich istnieją jeszcze neutrina taonowe i mionowe. I to właśnie różne odmiany tej samej cząstki były przez 30 lat powodem zamieszania nazwanego tajemnicą neutrin słonecznych. Ale zanim o tajemnicy.

PH20-water-withboat-apr23-wm-small

Wnętrze ogromnego detektora neutrin Super-Kamiokande. Wydrążony we wnętrzu góry mieści 50 000 ton superczystej wody. Widoczne na zdjęciu bańki to fotopowielacze, które rejestrują subtelne błyski światła. Te powstają wtedy, gdy neutrino zderzy się z jądrem atomowym.

Dlaczego ich badanie jest tak ważne? Na prawdę zasługuje aż na Nagrodę Nobla?  Neutrina są być może najliczniejszą grupą cząstek jakie „zasiedlają” nasz wszechświat. W ciągu każdej sekundy, przez nasze ciała przenika ich kilkadziesiąt miliardów. Abstrakcyjnie dużo. Skoro chcemy poznać wszechświat, skoro mamy ambicje by go zrozumieć, nie poradzimy sobie bez wiedzy o neutrinach. Przez lata uważano, że są to cząstki bezmasowe, czyli, że w ogóle nie mają masy. W rzeczywistości ważą, choć tyle co nic. W przypadku tak małych i ulotnych obiektów trudno mówić o precyzyjnym pomiarze masy, ale szacunkowo masę neutrin określa się na dziesiąte części elektronowolta, a to mnie niż jedna miliardowa część masy atomu wodoru. Abstrakcyjnie mało.

A wracając do tajemnicy neutrin słonecznych. Naukowcy doskonale wiedzą w wyniku jakich reakcji we wnętrzu Słońca powstaje jeden z rodzajów neutrin, czyli neutrina elektronowe. Z dużą precyzją można policzyć ile neutrin elektronowych powinno trafiać na Ziemię i ile powinno być rejestrowanych. Przez lata problem polegał jednak na tym, że te przewidywania teoretyczne nijak się miały do danych eksperymentalnych. Neutrin elektronowych na Ziemi rejestrowano o wiele mniej (aż o ok. 70 proc. mniej) niż powinno ich być. Możliwości były dwie. Albo reakcje, które wg. fizyków powinny zachodzić w jądrze Słońca wcale tam nie zachodzą i dlatego o wiele mniej neutrin elektronowych dociera do Ziemi, albo w czasie swojej podróży pomiędzy gwiazdą a naszą planetą coś z neutrinami się dzieje. Ostatecznie okazało się, że fizycy mieli rację co do procesów zachodzących w Słońcu. One po prostu oscylują – czyli zmieniają swoje właściwości. Zamieniają się pomiędzy sobą postaciami. Jedne neutrina spontanicznie, zmieniają się w inne. W naszym świecie dużych przedmiotów to zdolność mocno abstrakcyjna. Jak można ją sobie wyobrazić? A można sobie wyobrazić spadające z drzewa jabłko, które w czasie lotu ku powierzchni gruntu spontanicznie zamieni się w śliwkę, po to by ostatecznie upaść na trawę jako gruszka? Takie właśnie są neutrina. Abstrakcyjne.  Zamiast badać jeden rodzaj neutrin docierających do Ziemi,  zaczęto przyglądać się im wszystkim na raz. Tym razem, wszystko się zgadzało. To było ostateczne potwierdzenie tzw. oscylacji neutrin.

Zapraszam na profil FB.com/NaukaToLubie (kliknij TUTAJ). To miejsce w którym staram się na bieżąco informować o nowościach i ciekawostkach ze świata nauki i technologii.

 

 

 

Tomasz Rożek

3 komentarze do Nobel z fizyki – abstrakcja goni abstrakcję

Kiedy, gdzie i jak obserwować Krwawy Księżyc?

Gdzie zwrócić wzrok, o której godzinie rozpocznie się najciekawsze i czy trzeba do obserwacji krwawego Księżyca mieć z sobą jakikolwiek sprzęt?

Kiedy?

W najbliższy poniedziałek, od godziny 2 w nocy. Choć najciekawsze będzie się działo dopiero dwie godziny później. Kilka minut po godzinie 3 nad ranem tarcza Księżyca w całości będzie znajdowała się w tzw. strefie półcienia”. Ale na prawdę widowiskowo zacznie być dopiero o 4:11. Wtedy cały Księżyc będzie w cieniu Ziemi. Nie zniknie jednak tylko będzie się stawał coraz bardziej czerwony (z domieszką brązu). Do 4:47 tarcza Księżyca będzie stawała się coraz ciemniejsza, a od tego momentu z każdą chwilą będzie się rozjaśniała. O 5:23 nastąpi koniec fazy całkowitego zaćmienia. Strefę pełnego cienia, Księżyc opuści o 6:27.  W skrócie mówiąc to co najciekawsze wydarzy się pomiędzy 4:11 a 5:23 i potrwa 72 minuty.

Gdzie?

lunar_201509Krwawy Księżyc będzie w Polsce widoczny wszędzie. Zresztą nie tylko w Polsce, ale także w całej Ameryce Południowej, w prawie całej Ameryce Północnej i Afryce. Księżyc, a szczególnie Księżyc w pełni to bardzo duży i jasny obiekt, stąd będzie widoczny także w miejscach „zanieczyszczonych” sztucznym światłem, a więc np. w centrach miast. Oczywiście obserwacje będą lepsze, gdy będą prowadzone z dala od sztucznych świateł.

Całkowite zaćmienie Księżyca nastąpi w chwili gdy Srebrny Glob będzie nisko nad horyzontem. Oznacza to, że niczego nie zobaczymy np. górskich dolinach, albo w mieście, w otoczeniu wysokich budynków. Do obserwacji trzeba więc wybrać miejsce, w którym nie będzie przeszkód patrząc w kierunku zachodnim i południowo-zachodnim i zachodnim. Optymalnie, gdyby takie miejsce było na wzniesieniu.

To, że Księżyc będzie nisko nad horyzontem spowoduje, że obserwacje będą ciekawsze. Oczywiście pod warunkiem, że niebo nie będzie przysłonięte chmurami.

Jak?

Księżyc jest tak dużym i jasnym obiektem, że bez problemu można do obserwować gołym okiem. Zwykłą lornetka, nie mówiąc o nawet najprostszym teleskopie będzie można zjawisko „zacieniania” Księżyca zobaczyć bardzo dokładnie. Tak samo jak będzie można z dużymi detalami oglądać obiekty na powierzchni Księżyca.

Dobrym pomysłem jest fotografowanie i filmowanie zjawiska. Podobnie jak z obserwacją, nie potrzeba do tego żadnego specjalistycznego sprzętu. Wystarczy zwykły aparat fotograficzny (nawet kompaktowy automat). Jedyne o co warto się zatroszczyć to statyw. Z reki obraz będzie nieatrakcyjny.

Zainteresowanym obserwacją i fotografowaniem Krwawego Księżyca polecam mój kolejny wpis. KLIKNIJ TUTAJ !!!

5 komentarzy do Kiedy, gdzie i jak obserwować Krwawy Księżyc?

Pluton jak Biedronka

Wczorajszy przelot sondy New Horizons w pobliżu Plutona natchnął mnie do pewnych przemyśleń. Po co badać coś tak odległego jak Pluton? Po co badać delfiny, motyle czy orangutany? Po co zajmować się gwiazdami, płytami tektonicznymi i DNA?

Wczorajszy przelot w pobliżu Plutona i związanych z nim sporo pytań natchnął mnie do pewnych przemyśleń. Niemal za każdym razem, gdy w nauce dochodzi do jakiegoś odkrycia, do wysłania sondy, do zbudowania nowego rodzaju mikroskopu czy znalezienia nowej cząstki elementarnej, pada pytanie, po co to wszystko? Po co wydawać miliony dolarów by dowiedzieć się co słychać np. na globie, który oddalony jest od nas o miliardy kilometrów. Dajmy na to na takim Plutonie. Wczoraj udało się sfotografować jego powierzchnię z odległości nieco ponad 12 tysięcy kilometrów. To 30 razy mniej niż odległość pomiędzy Ziemią i naszym Księżycem. Sonda która tego dokonała to New Horizons. Leciała w kierunku Plutona prawie 10 lat przebywając w tym czasie 5 miliardów kilometrów. No i po co to wszystko? Po co lecieć tak daleko, po co wydawać niemałe przecież pieniądze, po co zaangażowanie ogromnej grupy ludzi przez długi okres czasu?

Zacznijmy od pieniędzy. Całkowity koszt misji New Horizons, wszystkich urządzeń sondy, jej wystrzelenia, ale także analizy danych a nawet obsługi medialnej wydarzenia to około 700 milionów dolarów, czyli nieco ponad 2 miliardy i 600 milionów złotych. To dziesięć razy mniej (!!!) niż wynosi roczny przychód supermarketów Biedronka w Polsce. To mniej niż budowa 20 kilometrowego odcinka autostrady A1. W końcu to mniej niż zakup i 13 letnia obsługa 4 samolotów F16, które służą w polskiej armii (w sumie kupiliśmy ich 48). Tyle jeżeli chodzi o koszty. Tak, te są duże… dla przeciętnego obywatela. Niewielu byłoby stać na wybudowanie i wysłanie w kosmos sondy New Horizons (choć np. Jan Kulczyk, najbogatszy Polak, mógłby takich sond wysłać 7), ale w skali państwa, dla budżetu państwa rozwój nauki to grosze. Grosze zainwestowane najlepiej jak można sobie wyobrazić. Grosze, które w przyszłości przyniosą miliony poprzez rozwój technologii a w dalszej perspektywie rozwój przemysłu. Każda ekspansja to wyzwanie i konieczność znajdowania rozwiązań na problemy z których nie zdawaliśmy sobie sprawy. Przecież loty w kosmos mają bezpośrednie przełożenie na komunikację, elektronikę i materiałoznawstwo. Rozwój technik obrazowania (nieważne czy w astronomii czy w biologii) od razu jest wykorzystywany w medycynie. Nasze miasta byłyby skażonymi pustyniami gdyby nie powstawały zaawansowane technologicznie silniki i komputery, które tymi silnikami sterują.

A wracając do Plutona, delfinów, motyli i orangutanów. Po co je badać? Bo one są częścią nas, a my częścią świata którego różnorodność – przynajmniej mnie – powala na kolana. Wszystkie lekkie atomy, które nas budują powstały w czasie Wielkiego Wybuchu. Wszystkie ciężkie w czasie wybuchu gwiazdy. Warto rozwijać zarówno kosmologię, astrofizykę jak i fizykę cząstek. Nasze DNA to uniwersalny język całej przyrody, a gatunki (zarówno zwierzęce jak i roślinne), które zamieszkują Ziemię (a pewnie także inne globy) powstawały jedne z drugich. To dlatego nie można zaniedbywać biologii (w tym egzobiologii) i medycyny. Oddychamy powietrzem w którego skład wchodzą różne gazy. To dlatego warto rozwijać chemię i interesować się tym jak zmieniały się atmosfery na innych planetach. Ta wiedza może być bezcenna gdy zacznie zmieniać się nasza atmosfera. Bo to że wszystko jest wokoło nas zmienne – to oczywiste. Kontynenty są w ruchu (nie tylko zresztą na Ziemi) i dzięki temu mogło powstać życie. Ale to nie powstałoby, gdyby Ziemia nie miała swojego pola magnetycznego. A tego by nie było gdyby jądro planety nie było gorące i półpłynne. Ale nawet gdyby było, Ziemia byłaby martwa, gdyby nie było Księżyca, który stabilizuje ruch Niebieskiej Planety wokół Słońca. A Księżyc powstał w kosmicznej katastrofie w której w Ziemię uderzyła planetoida wielkości Marsa. Geologia, geografia, fizyka, astronomia, biofizyka i biochemia… Mam dalej wymieniać? Czy jest sens wymieniać? Czy jest sens pytać, po co badamy coś tak odległego jak Pluton? Po co badamy delfiny, motyle czy orangutany, a nawet biedronki (chodzi o owada, nie o sieć sklepów)? Moim zdaniem szkoda na to czasu. Lepiej go wykorzystać na zaspokajanie swojej ciekawości. Bo to ciekawość idzie przed odkryciami. Tak było zawsze i tak będzie zawsze.

3 komentarze do Pluton jak Biedronka

Ludowców gra grafenem

W jednym z najbardziej znanych na świecie polskich instytutów naukowych, w miejscu w którym produkuje się grafen, doszło dziwnych i niezrozumiałych kombinacji podczas wyboru dyrektora placówki. Sprawa wygląda na polityczną ustawkę, która może utopić polski grafen.

W jednym z najbardziej znanych na świecie polskich instytutów naukowych, w miejscu w którym produkuje się grafen, doszło dziwnych i niezrozumiałych kombinacji podczas wyboru dyrektora placówki. Sprawa wygląda na polityczną ustawkę, która może utopić polski grafen.

O sprawie pisałem już w Tygodniku Gość Niedzielny. Dotychczasowym szefem Instytutu Technologii Materiałów Elektronicznych (ITME) w Warszawie był doktor Zygmunt Łuczyński. Zasłużony fizyk i człowiek, który wiele lat temu zainicjował w tej jednostce badania nad nowymi postaciami węgla, czyli nad grafenem („wie pan, chodziłem za tym, jak jeszcze nikt nie wiedział czym jest grafen„). Dzisiaj ITME jest światowym liderem technologii. To w Warszawie powstają jedne z największych kawałków grafenu na świecie. Naukowcy pracujący w „grupie grafenowej” są zaangażowani w najbardziej prestiżowe projekty międzynarodowe, a sam instytut w rankingach jest plasowany na czołowych pozycjach. Dla przypomnienia, grafen to postać węgla, która ma niespotykane w innych materiałach właściwości. Jest bardzo wytrzymały, a równocześnie elastyczny. Lekki i przezroczysty, ale odporny na działanie sił zewnętrznych. Doskonale przewodzi prąd i ciepło. I choć trudno znaleźć dziedzinę w której grafen nie mógłby być wykorzystywany, największe nadzieje wiąże się z grafenem w elektronice. Panuje powszechne przekonanie, że w najbliższej przyszłości, to grafen, czy ogólnie węgiel, wyprze z elektroniki krzem, który dzisiaj jest jej fundamentem. W skrócie mówiąc, grafen, pod wieloma względami jest materiałem przyszłości.

Doktorowi Łuczyńskiemu kilka miesięcy temu kończyła się kadencja dyrektorska i starając się o kolejną, wystartował w ogłoszonym konkursie. Wraz z nim do konkursu stanęło jeszcze trzech innych kandydatów. Każdy z nich odpadł jednak na kolejnych etapach procedury konkursowej. Konkurs sprzed kilku miesięcy wygrał więc bezapelacyjnie dotychczasowy szef Instytutu, dr Zygmunt Łuczyński. Tą wygraną potwierdziła odpowiednią uchwałą Komisja Konkursowa, a Rada Naukowa Instytutu skierowała do Ministra Gospodarki pismo z rekomendacją i prośbą o powołanie nowego (starego) dyrektora na kolejną kadencję. Skany tych pism zamieszczam na dole wpisu.

Mimo tej wygranej, doktor Łuczyński dyrektorem jednak nie został, bo jego nominacji nie podpisał Minister Gospodarki, Janusz Piechociński z PSLu. Nie pomogło to, że do ministra zwróciła się z prośbą o podpisanie nominacji Rada Naukowa Instytutu oraz Rada Główna Instytutów Badawczych. Nie pomogło nawet to, że na biurku ministra znalazł się list podpisany przez 190 pracowników Instytutu popierających swojego poprzedniego dyrektora.  W liście do premiera Piechocińskiego, szef Rady Głównej Instytutów Badawczych pisał, że Rada wyraża pogląd, że konkurs na stanowisko dyrektora instytutu badawczego ITME został przeprowadzony zgodnie z obowiązującymi wymaganiami prawnymi.  A potem dodawał: „Rada Główna Instytutów Badawczych popiera stanowisko Rady Naukowej ITME. W imieniu Rady Głównej zwracam się do Pana Premiera o reasumpcję odmowy powodłania dr. Zygmunta Łuczyńskiego na stanowisko dyrektora ITME.” Premier Piechociński zdania jednak nie zmienił.

Dlaczego? Otóż ministerstwo twierdzi, że zostały złamane procedury, bo nie wszyscy kandydaci przeszli pełną ścieżkę konkursową. To prawda, ale to nie jest niezgodne z prawem. Nie wszyscy kandydaci dotrwali do końca procedury konkursowej, bo odpadli wcześniej. Pomijając nazwiska (choć te są w dokumentach zamieszczonych poniżej), jeden z panów odpadł na egzaminie z angielskiego. Jego wiadomości były zdaniem komisji konkursowej dużo poniżej tych, które deklarował w dokumentach. Drugi kandydat zrezygnował, gdy trzeba było podzielić się z komisją swoją wizją na temat rozwoju i przyszłości instytutu. Trzeci nie dopełnił formalności przy zgłoszeniu swojej kandydatury i dlatego komisja w ogóle nie rozpatrywała jego podania.

Napisałem do Ministerstwa Gospodarki maila z pytaniem o dziwne praktyki konkursowe. Po kilku dniach otrzymałem odpowiedź, że konkurs trzeba było powtórzyć z powodu złamania procedur. Jak to możliwe, skoro szefem Komisji Konkursowej był przedstawiciel ministerstwa, który na piśmie oświadczył, że wszystkie procedury były zachowane? Zerknijcie proszę w dokumenty poniżej. Gdy do rzeczniczki ministra Piechocińskiego napisałem kolejnego maila z prośbą o wyjaśnienie tej niezgodności (ministerstwo twierdzi, że prawo zostało złamane, przedstawiciel ministerstwa zaświadcza, że wszystko odbyło się zgodnie z przepisami), nie otrzymałem żadnej odpowiedzi. Mimo, że już dawno minął ustawowy termin na odpowiedź jaki prawo narzuca urzędnikom.

Ministerstwo Gospodarki postawiło na swoim i po unieważnieniu konkursu, rozpisało nowy. Dotychczasowy dyrektor – doktor Łuczyński – przepadł, szefem Instytutu Technologii Materiałów Elektronicznych został były prezes Grupy Azoty (Kędzierzyn Koźle) Ireneusz Marciniak. – O tej osobie mówiło się jak o kandydacie forsowanym przez ministerstwo gospodarki – powiedział mi dr Zygmunt Łuczyński. Ireneusz Marciniak był związany z różnymi spółkami skarbu państwa od kilkunastu lat.

Trzy miesiące temu dr Łuczyński udzielił pismu Elektronik wywiadu pod znamiennym tytułem „Kto jest zainteresowany przejęciem ITME?„, w którym tłumaczył naciski i motywy stojące za próbą przejęcia sterów w jednym z najbardziej znanych na świecie polskich ośrodków naukowych. – Z moich informacji wynika, że istnieje porozumienie pomiędzy Ministerstwem Gospodarki a Politechniką Warszawską, na mocy którego niedługo ma nastąpić konsolidacja Politechniki i ITME – mówił Łuczyński. Zapytany o to porozumienie rzecznik Politechniki Warszawskiej, zaprzeczył istnieniu jakiejkolwiek umowy. Doktor Łuczyński, we wspomnianym wywiadzie opowiada także, że ośrodek którym kierował znajduje się w wielu rankingach instytucji naukowych na czołowych pozycjach. Prowadzi bardzo ważne naukowo i biznesowo projekty (w tym bardzo prestiżowe, międzynarodowe), znajduje dofinansowanie i ma świetny sprzęt. – Nietrudno zatem dojść do wniosku, że ITME jest łakomym kąskiem do przejęcia – powiedział mi doktor Łuczyński. I dodawał, że przejęcie ITME to „bilet do wielu prestiżowych programów o charakterze międzynarodowym”. Tyle tylko, że dyrektor Łuczyński nie godził się na zmiany organizacyjne w instytucie. – Uczestnictwo w światowym wyścigu technologicznym, czego grafen jest doskonałym przykładem, wymaga 100-procentowej i maksymalnej koncentracji oraz podporządkowania się temu celowi – mówił Łuczyński w Elektroniku. A potem dodawał, że laboratoria Instytutu pracują na trzy zmiany, bo w tak zaciętym wyścigu technologicznym z jakim mamy do czynienia, liczy się każda godzina. – To moim zdaniem jest wystarczający powód, aby nie zmieniać konia w czasie gonitwy – mówił. I dodawał, że jakiekolwiek zmiany personalne w kierownictwie czy organizacyjne nie dają gwarancji utrzymania kadry, co jest kluczowe dla rozwoju prac. – Nie jest tajemnicą, że większość ze specjalistów pracujących nad grafenem ma liczne propozycje i możliwość natychmiastowego przejścia do innych (zagranicznych) ośrodków badawczych. Każda niestabilność związana z działalnością placówki jest tutaj realnym zagrożeniem, a w konsekwencji grozi utratą pozycji Polski w tej dziedzinie – mówił doktor Łuczyński. No właśnie. Pozycja Polski. Wydaje się, że w tym wszystkim najmniej chodzi o pozycję Polski i polskich badań.

 

DOKUMENTY015_Strona_2

Uchwała Komisji Konkursowej stwierdzająca zwycięstwo w konkursie dr. Zygmunta Łuczyńskiego

 

DOKUMENTY015_Strona_1

List Komisji Konkursowej rekomendujący dr. Łuczyńskiego na stanowisko dyrektora ITME

 

DOKUMENTY015_Strona_3-kolorowy

Uchwała Rady Naukowej Instytutu, w które potwierdzona zostaje prawidłowość procedury konkursowej, w której wygrał dr Zygmunt Łuczyński

 

List RGJB do Piechocińskiego-podkreślenia

List Przewodniczącego Rady Głównej Instytutów Badawczych do Premiera Piechocińskiego z prośbą o zmianę decyzji wsp. niepowoływania dr. Łuczyńskiego na stanowisko dyrektora ITME.

 

Wniosek  Rady Nauk do Ministra_Strona_1

Wniosek Rady Naukowej ITME o reasumpcję odmowy powołania dr. Zygmunta Łuczyńskiego na stanowisko dyrektora ITME

 

Wniosek  Rady Nauk do Ministra_Strona_2

Uzasadnienie wniosku o reasumpcję odmowy powołania dr. Zygmunta Łuczyńskiego na stanowisko dyrektora ITME strona 1

Wniosek  Rady Nauk do Ministra_Strona_3

Uzasadnienie wniosku o reasumpcję odmowy powołania dr. Zygmunta Łuczyńskiego na stanowisko dyrektora ITME strona 2

Wniosek  Rady Nauk do Ministra_Strona_4

Uzasadnienie wniosku o reasumpcję odmowy powołania dr. Zygmunta Łuczyńskiego na stanowisko dyrektora ITME strona 3

Wniosek  Rady Nauk do Ministra_Strona_5

Uzasadnienie wniosku o reasumpcję odmowy powołania dr. Zygmunta Łuczyńskiego na stanowisko dyrektora ITME strona 4

 

36 komentarzy do Ludowców gra grafenem

Muzyka to drgania

Dla niektórych muzyków informacja o tym, że całe swoje życie poświęcają produkcji drgań może być niemiłym zaskoczeniem. Setki, tysiące godzin prób, ból, łzy i emocje, a wszystko po to, by cząsteczki powietrza wyprowadzić z położenia równowagi.

Dla niektórych muzyków informacja o tym, że całe swoje życie poświęcają produkcji drgań może być niemiłym zaskoczeniem. To samo dotyczy także tych, którzy śpiewają. Setki, tysiące godzin prób, ból, łzy i emocje, a wszystko po to, by cząsteczki powietrza wyprowadzić z położenia równowagi.

Co to znaczy z położenia równowagi? To w przypadku cząsteczek powietrza, niezbyt fortunne stwierdzenie. Tlen, azot, wodór – atomy tych i wielu innych pierwiastków wchodzących w skład powietrza i tak nigdy nie są w spoczynku. Poruszają się chociażby pod wpływem różnicy temperatur czy ciśnienia (jedno z drugim jest zresztą powiązane). Jeżeli ktoś nie wierzy, niech spojrzy za okno, a najlepiej nich wyjdzie na świeże powietrze. Wiatr to właśnie ruch cząsteczek powietrza. Zimą wbijający się w ubranie jak szpilki, latem zwykle przyjemnie schładzający naszą skórę. Co ten ruch ma wspólnego z dźwiękami? Nic. Gdy wieje wiatr, cząsteczki powietrza przemieszczają się z miejsca na miejsce, jak samochody jadące szeroką autostradą. Z dźwiękami jest inaczej. Tutaj ruch bardziej przypomina zakorkowane miasto, gdzie na ulicach samochody stoją zderzak w zderzak. Albo nie, przypomina klik-klaka. Kulka z brzegu zostaje odchylona i uderza w swoją sąsiadkę, a ta w kolejną itd. Ale środkowe kulki zmieniają położenie tak nieznacznie, że nawet tego nie widać. Co nie przeszkadza im przekazywać energię. To przekazywanie energii od jednej kulki, do kolejnej dojdzie w końcu do ostatniej, która energicznie odskakuje. Podobnie jest z dźwiękiem. Cząsteczki powietrza przekazują sobie energię dźwięku tak jak kuleczki klik – laka. Z tą różnicą, że kuleczek w popularnej zabawce jest najwyżej kilka, a cząsteczek powietrza pomiędzy źródłem dźwięku a naszym uchem mogą być setki milionów.

Gęściej znaczy szybciej

Dźwięk rozchodzi się oczywiście nie tylko w powietrzu, nie tylko w gazach, ale także w cieczach i ciałach stałych. Czym gęstszy jest ośrodek, tym dźwięk szybciej się w nim rozchodzi. Na pozór to nielogiczne, ale gdyby się dłużej zastanowić… Skoro cząsteczki przekazują energię dźwięku nie jak posłańcy poruszający się na dużych odległościach, tylko raczej jak ludzie czekający w kolejce, czym bliżej siebie będą cząsteczki, tym szybciej dźwięk będzie przekazywany. Tym więcej energii zostanie przekazanej dalej. W powietrzu dźwięk porusza się z prędkością około 1200 km/h. W wodzie prędkość dźwięku jest prawie 5 razy większa i wynosi około 5400 km/h, a w stali wibracje poruszają się z prędkością bliską 18 000 km/h. Z drugiej strony, gdy cząsteczek nie ma wcale, albo gdy są bardzo daleko od siebie, dźwięk nie jest przekazywany w ogóle. W próżni panuje idealna cisza.

Dźwięki można wytwarzać na wiele różnych sposobów. Wytworzenie, to zwykle jednak za mało. Żeby były słyszalne, trzeba je wzmocnić. I mowa tutaj nie o mikrofonach i głośnikach, tylko o wzmacnianiu dźwięków przez same instrumenty. Człowiek wydaje dźwięki bo powietrze wychodzące z płuc, wprawia w drgania cienkie błony zwane strunami głosowymi. Dźwięki wydawane przez człowieka wzmacniane są w klatce piersiowej. W wielu instrumentach dźwięk wzmacnia pudło rezonansowe. W innych, są za to odpowiedzialne tzw. fale stojące. Sporo w tym fizyki, ale ciekawsze od tego jest to, co dzieje się z dźwiękiem po „opuszczeniu” instrumentu.

To oczywiste że drgania mogą być mocniejsze, albo słabsze. Wtedy dźwięk jest głośniejszy, albo cichszy. Ale to nie jedyna cecha drgań. W końcu ten sam dźwięk grany na skrzypcach i na pianinie różnią się od siebie. Falę wyobrażamy sobie jako sinusoidę (góry i doliny). To wyobrażenie jest jak najbardziej prawidłowe, tyle tylko, że trochę wyidealizowane. W rzeczywistości „górki” i „doliny” nie są gładziutkie, tylko składają się z wielu mniejszych „góreczek”. To w tych nieregularnościach zawarta jest informacja o dźwiękach. Nie o ich głośności, ale o ich brzmieniu. Jak to rozumieć, że w czymś zawarta jest informacja o brzmieniu?

Kostki na całe życie

W końcu fala akustyczna (czyli drganie od cząsteczki do cząsteczki) dojdzie do ucha, a konkretnie do błony bębenkowej. Od środka jest ona połączona z trzema kosteczkami – młoteczkiem, kowadełkiem i strzemiączkiem. To najmniejsze kości w całym ciele człowieka. I co ciekawe, od urodzenia do śmierci nie zmieniają one swoich rozmiarów. Nie rosną – jak wszystkie inne kości naszego organizmu. Trzy wspomniane kosteczki przenoszą drgania błony bębenkowej w głąb ucha, ale to nie jedyna ich funkcja. Są tak ze sobą połączone (na zasadzie dźwigni), że znacząco te drgania wzmacniają. Aż o 20 razy!

Kosteczki słuchowe przenoszą drgania do ślimaka. To zakręcony kanał, który jest wypełniony płynem. We wnętrzu kanału znajdują się czułe na drgania cieczy komórki. Wibracje powietrza na zewnątrz ucha, przez zmyślny system zamieniane są na wibracje płynu wypełniającego ślimak. A tam, drgania płynu zamieniane są na impulsy nerwowe. I w zasadzie dopiero od tego momentu można mówić o „słyszeniu”. Ucho nie słyszy, tylko zamienia drgania cząsteczek powietrza na impulsy elektryczne. To mózg tym impulsom nadaje znaczenie i interpretacja. To dopiero w zakamarkach mózgu odpowiedniej sekwencji impulsów elektrycznych przypisywane są dźwięki skrzypiec czy trąbki. To mózg, a nie ucho rozróżnia i potrafi nazwać te same dźwięki grane przez różne instrumenty.

Słuch jest pierwszym zmysłem człowieka. Już w pierwszych tygodniach życia płodowego, wykształcają się organy słuchowe. Długo przed porodem, dziecko słyszy. Słuch jest jedynym zmysłem, który tak wcześnie pozwala poznać dziecku świat zewnętrzny. Zaraz po porodzie dziecko prawie nie widzi. Słyszy doskonale i odczuwa zapachy. Od kilku lat wiadomo, że dziecko uczy się naśladować dźwięki, jakie słyszało jeszcze przed urodzeniem. W czasopiśmie Current Biology grupa francuskich i niemieckich uczonych opublikowała raport z którego wynika, że zaraz po urodzeniu dzieci płaczą zgodnie z melodią języka biologicznej matki. Francuskie noworodki na przykład płakały z intonacją wznoszącą się, a niemieckie z intonacją opadającą. To odzwierciedla melodię charakterystyczną dla tych języków. Dziecko rozwijając się w łonie matki, choć nie rozumie znaczenia słów, uczy się naśladować melodykę języka. Po co? Inne badania wskazują, że gdy płacz dziecka ma podobną „strukturę” jak język matki, noworodkowi łatwiej jest przyciągnąć uwagę swojej rodzicielki.

Muzyka to drgania cząsteczek powietrza. Brzmi wręcz banalnie prosto. Ale z prostotą ma niewiele wspólnego. Te drgania, ich wydobywanie, przenoszenie, rejestrowanie i interpretacja, to jedno z najciekawszych zagadnień w przyrodzie.

Brak komentarzy do Muzyka to drgania

Złapali kwant !!!

Dwójce młodych fizyków, doktorantów Uniwersytetu Warszawskiego, jako pierwszym na świecie udało się sfotografować kwanty, cząstki światła, w bardzo szczególnym momencie – chwili, w której się parują.

Dwójce młodych fizyków, doktorantów Uniwersytetu Warszawskiego, jako pierwszym na świecie udało się sfotografować kwanty, cząstki światła, w bardzo szczególnym momencie – chwili, w której się parują.

Tak, światło składa się z cząstek. A właściwie sprawa jest bardziej złożona. Światło ma cechy fali (podobnej do tej na wodzie), ale wykazuje też cechy korpuskularne. W skrócie mówiąc, jest i falą, i cząstką. Trudno to odnieść do naszej rzeczywistości, bo w makroświecie cechy fali i cząstki wykluczają się. W świecie kwantów nic się nie wyklucza.

Quantum paparazzi spying identical photon pairs

„Łapacze fotonów”, młodzi fizycy z UW, na tym zdjęciu zachowują się jak fotony. Są w dwóch miejscach równocześnie. Obok układu pomiarowego Radosław Chrapkiewicz (po prawej) oraz Michał Jachura (stojący za nim) .

W zasadzie proste 

Cząstki światła nazywają się kwantami. Nie mają masy spoczynkowej, nie da się ich zatrzymać i przyjrzeć im się „na spokojnie”. Przeciwnie, pędzą z prędkościami, które trudno sobie nawet wyobrazić. 300 tys. kilometrów na sekundę! Ile to jest? Odległość między Zakopanem i Trójmiastem (prawie 700 km) światło pokonuje w tysięczne części sekundy. Jak złapać, jak sfotografować coś, co porusza się z taką prędkością? – Układ, który zastosowaliśmy do naszych pomiarów, jest dość złożony, ale sama idea nie jest skomplikowana – powiedział mi Michał Jachura z Uniwersytetu Warszawskiego. – Źródłem fotonów jest fioletowy laser. Padają one na urządzenie, w którym z jednego fotonu powstaje jeden elektron. Następnym elementem jest wzmacniacz powielający ten jeden elektron. Tak powstaje kilka milionów elektronów, które następnie padają na płytkę z fosforu, gdzie powodują błysk światła. Ten błysk rejestrujemy specjalną kamerą – mówi drugi z młodych badaczy, Radosław Chrapkiewicz. – I to w zasadzie wszystko – dodaje. Niektóre elementy układu, w którym udało się złapać fotony, np. wzmacniacz obrazu, to urządzenia wykorzystujące technologię wojskową. Samo sfotografowanie pojedynczej cząstki światła to jednak nie było topowe osiągnięcie Michała i Radka. Im udało się zobaczyć moment, w którym fotony się parowały. Ale zanim o tym, warto powiedzieć trochę o samych fotonach.

Światło wprost ze światłowodu

Światło wprost ze światłowodu. Obiektyw aparatu Radka Chrapkiewicza był skierowany dokładnie w kierunku światłowodu (wyjścia) z lasera femtosekundowego. Ten laser emituje bardzo krótkie błyski światła, których długość nie przekracza 100 fs (femtosekund). Femtosekunda to jedna bilionowa część sekundy. W czasie jednej femtosekundy światło pokonuje drogę sto razy krótszą niż grubość ludzkiego włosa!

Jaki kształt? Jaki kolor?

Fotografia kojarzy nam się z odwzorowywaniem rzeczywistości. Skoro foton dał się sfotografować, można chyba zapytać, jak on wygląda. Zacznijmy od kształtu. Da się go określić? – W jednym pomiarze nie, ale robiąc wiele pomiarów, wiele zdjęć, udaje się to zrobić, choć od razu trzeba powiedzieć, że kształt fotonu nie jest stały. Może się różnić w zależności od tego w jakim otoczeniu się znajduje – tłumaczy Michał. – W naszej aparaturze obserwowaliśmy np. fotony o wydłużonych kształtach, takich trochę jak ołówek, ale udawało nam się także obserwować fotony rozseparowane, czyli takie, w których jeden foton był rozdzielony na dwie części. I to części, które znajdują się od siebie w odległości nawet centymetra – dodaje Radek. A kolor? Tutaj sprawa zaczyna się komplikować jeszcze bardziej. – Foton ma trzy cechy, które nazywamy stopniami swobody – opowiada Michał Jachura.

– Pierwszy to struktura w przestrzeni, czyli w pewnym sensie kształt. Drugi stopień swobody – spektralny – to innymi słowy kolor. Fotony mogą być czerwone, niebieskie, ale możemy mieć fotony w tak zwanej superpozycji, np. fotony białe, składające się z wielu barw dla których określony kolor ustala się dopiero w momencie pomiaru. Ten sam foton mierzony wielokrotnie może mieć różne kolory. Ostatni stopień swobody to polaryzacja, tzn. kierunek, w jakim foton drga. Jeżeli dwa fotony mają identyczne trzy stopnie swobody, nie ma żadnej możliwości, by odróżnić je od siebie – kończy Michał Jachura. Zatem wróćmy do osiągnięcia dwóch doktorantów. Fotografowali oni fotony, które dobierały się w pary. W czasie tego procesu zauważyli, że dwa różne fotony skazane są na samotność. Nawet gdy znajdą się obok siebie, „nie widzą” się i zwykle nie dobierają się w pary. Sytuacja wygląda zupełnie inaczej, gdy fotony są identyczne, to znaczy, gdy wszystkie trzy stopnie swobody dwóch cząstek są takie same. Wtedy powstają pary, które na dodatek są wyjątkowo jednomyślne. Jeden foton „idzie” zawsze tam, gdzie ten drugi. Chociaż trudno powiedzieć, który jest pierwszy, a który drugi, skoro obydwa są identyczne. Łączenie fotonów nazywa się efektem Hong-Ou-Mandela i na Wydziale Fizyki Uniwersytetu Warszawskiego po raz pierwszy na świecie udało się go sfilmować.

Quantum memory - glowing green

Układ pamięci nowej generacji do komputerów kwantowych. Zielona tuba to pamięć. Za pomocą lasera (czerwona wiązka) w atomach rubidu „zapisywana” jest informacja, która następnie może być odczytywana. Ta pamięć to także dzieło doktorantów z UW.

Nauka podstawowa

Pozostaje tylko znaleźć odpowiedź na pytanie, po co tego typu badania się robi. – Być może kiedyś uda się wyniki naszych eksperymentów wykorzystać w rozwijanych technologiach kwantowych, na razie myślimy jednak o naszych eksperymentach w kategoriach badań podstawowych – mówi Michał Jachura. – Nas bardziej niż kształt samego fotonu interesuje to, jaki kształt będzie miała para fotonów, które zaczną ze sobą interferować, zaczną się na siebie nakładać. To można wykorzystać do zupełnie nowego rodzaju mikroskopii o bardzo wysokiej rozdzielczości. – uzupełnia Radosław Chrapkiewicz.

17 komentarzy do Złapali kwant !!!

Teleportuj się !!!

Powiem szczerze: bałbym się teleportacji, skoro mamy kłopot z tradycyjnymi środkami transportu. A tymczasem naukowcom udała się teleportacja na odległość 25 km!

Może więc i dobrze, że teleportacja ludzi jest (na razie) niemożliwa. O co w ogóle chodzi? Teleportacja to przenoszenie obiektów z miejsca na miejsce, ale – jak mówią fizycy – bez zachowania ciągłości istnienia. Brzmi nie najlepiej, ale w największym skrócie polega na tym, że obiekt w jednym miejscu znika, a w drugim się pojawia.

Mielonka

Teleportacja jest dość popularna np. w filmach science fiction. Szczególnie w tych, których akcja dzieje się w przestrzeni kosmicznej. To jeden z dwóch sposobów radzenia sobie z ogromnymi odległościami, jakie w kosmosie są faktem. Nie chcąc narażać się na śmieszność, trzeba znaleźć w miarę prawdopodobny sposób szybkiego przemieszczania się. Jednym ze sposobów radzenia sobie z tym kłopotem jest zamontowanie w statkach kosmicznych napędów nadświetlnych, czyli takich, które rozpędzają obiekt do prędkości wyższej niż prędkość światła. Drugim ze sposobów jest teleportowanie. Napędów nadświetlnych nie ma i nie wiem, czy kiedykolwiek będą. Jeżeli zaś chodzi o teleportację, to problemu nie ma. Naukowcy potrafią teleportować… choć na razie nie ludzi. Na razie nie mamy ani urządzenia, ani nawet pomysłu, jak powinno wyglądać urządzenie do teleportowania większych i bardziej złożonych obiektów. Pisząc „większych i bardziej złożonych”, nie mam na myśli słonia afrykańskiego czy fortepianu. Mam na myśli większe atomy, nie mówiąc już nawet o najprostszej cząsteczce chemicznej.

Problemy z teleportowaniem przewidzieli także futurolodzy. Od czasu do czasu także w produkcjach science fiction nielubiany bohater korzystał z uszkodzonego „portalu” i w efekcie pojawiał się „po drugiej stronie” w kawałkach albo w formie przypominającej – brutalnie mówiąc – mielonkę. I także tutaj scenarzyści mieli nosa i nie bardzo minęli się z prawdą. Z definicji przy przesyłaniu cech zwanych stanami kwantowymi cząstki A do oddalonej cząstki B, niszczony jest stan kwantowy A. Trochę to skomplikowane, ale w zasadzie da się prosto wytłumaczyć. Nie może być tak, że teleportacja polega na skopiowaniu obiektu. Wtedy istniałyby dwa takie same obiekty. Teleportacja polega na „sczytaniu” obiektu A i przesłaniu w oddalone miejsce. Ale w czasie tego przesyłania obiekt A przestaje istnieć („znika”). Gdy przychodzi do jego odtworzenia, a coś pójdzie nie tak jak trzeba, wychodzi… w największym skrócie mielonka.

W czym jest problem?

Dzisiaj nikt ludzi oczywiście nie próbuje teleportować. Poza zasięgiem naukowców jest nawet teleportacja najprostszych cząsteczek. Nawet tak prostych jak chociażby trzyatomowa cząsteczka wody. Więcej, dzisiejsza technika nie pozwala teleportować nawet pojedynczego atomu, o ile mówimy o większym atomie, np. uranu, który składa się z kilkuset protonów, neutronów i elektronów. Jak to wygląda w praktyce? Każda cząstka ma tzw. stany kwantowe, czyli swoją specyfikę. Cząstki różnią się od siebie właśnie stanami kwantowymi, tak jak obiekty makroskopowe różnią się od siebie np. kolorem, zapachem, smakiem czy fakturą. Teleportacja polega na odczytaniu tych „cech”, przesłaniu ich w nowe miejsce i tam nadaniu ich innej cząstce. Przy okazji niszczy się stany kwantowe cząstki pierwotnej, stąd nie ma mowy o kopiowaniu czegokolwiek, tylko rzeczywiście o przesyłaniu.

Skoro to takie proste, w czym problem, żeby teleportować duże obiekty? Nie da się przesłać takich cech jak kolor, kształt, smak czy zapach po to, by w drugim teleporcie je odtworzyć… Te wspomniane cechy makroskopowe są wypadkową stanów kwantowych miliardów, bilionów cząstek, z których duże obiekty się składają. Problem teleportowania dużych czy większych od pojedynczych cząstek obiektów jest więc problemem skali. Na razie ledwo radzimy sobie ze stanami kwantowymi maleńkich obiektów, ale przyjdzie czas na te większe. I może wtedy pojawi się problem, czy da się teleportować wiedzę, czy da się teleportować duszę…

Wróćmy jednak na Ziemię (albo ziemię). Pierwszą teleportację kwantową przeprowadzono w 1997 r., ale już 7 lat później zespół badaczy z USA i Austrii opublikował dane, z których wynikało, że teleportowano najmniejszy atom, czyli wodór. Tym razem w piśmie „Nature Photonics” ukazała się publikacja, z której wynika, że dzięki badaczom z Uniwersytetu w Genewie, należącego do NASA Jet Propulsion Laboratory, oraz z National Institute of Standards and Technology w USA, udało się teleportować cząstkę na rekordową odległość 25 kilometrów. Informacja o stanach kwantowych została przesłana światłowodem, ale w przyszłości być może uda się ją przesłać falami radiowymi albo promieniem lasera. Tylko 25 kilometrów? Tak, wiem, wiem. W ten sposób na Księżyc czy Marsa się nie dostaniemy, ale od czegoś trzeba zacząć

Tekst ukazał się w tygodniku Gość Niedzielny

32 komentarze do Teleportuj się !!!

Komputer na światło

Wyobraź sobie komputery miliardy razy szybsze od tych, które dzisiaj mamy do dyspozycji. Po co nam takie urządzenia? Na razie jeszcze nie wiem, ale jestem pewien, że jak tylko je stworzymy, zastosowania sypną się jak z rękawa.

Wyobraź sobie komputery miliardy razy szybsze od tych, które dzisiaj mamy do dyspozycji. Po co nam takie urządzenia? Na razie jeszcze nie wiem, ale jestem pewien, że jak tylko je stworzymy, zastosowania sypną się jak z rękawa.

Skąd ta pewność? Tego uczy nas historia. Także ta najnowsza. W 1946 roku Thomas Watson, prezes koncernu IBM, firmy, która właśnie skonstruowała pierwszy komputer, stwierdził publicznie, że tego typu maszyny nigdy nie będą powszechne. W dość długim przemówieniu powiedział także, że jego zdaniem w przyszłości świat nie będzie potrzebował więcej niż 5 maszyn cyfrowych. No tak, przecież gry były planszowe, o internecie nikt nie słyszał, a dokumenty można przecież pisać na maszynie do pisania. Tymczasem dzisiaj mocna pozycja firmy IBM została zbudowana właśnie na produkcji ogólnie dostępnych i powszechnych maszyn cyfrowych. I jeszcze jeden przykład. W połowie lat 90. XX wieku (czyli zaledwie 20 lat temu) guru technologii cyfrowej, założyciel i szef Microsoftu Bill Gates stwierdził, że internet to mało użyteczna zabawka. Faktycznie, wtedy był on czymś takim. Faktycznie, listy można było wysłać pocztą albo faksem. Zawsze to samo. Cywilizacja rozwija się dzięki wizjonerom spełniającym swoje marzenia. Dzięki ludziom, którzy nie zawsze potrafią odpowiedzieć na pytania „po co?” albo „do czego nam się to przyda?”. Historia uczy jednak, że każde odkrycie, każda rewolucja błyskawicznie zostają zagospodarowane. I stąd pewność, że komputery kwantowe, bo o nich mowa, będą urządzeniami, bez których ludzie nie będą sobie wyobrażali życia.

Światłem hurtowo

Pomysł, by wykorzystać kwanty (np. pojedyncze cząstki światła) jako nośnik informacji, jako „medium” do prowadzenia obliczeń, ma około 40 lat. Jak to często bywa, w takich sytuacjach dość trudno wskazać pierwszego pomysłodawcę, ale nie ma wątpliwości, że jednym z pierwszych był znany fizyk Richard Feynman. No i potoczyło się. Na kilku uniwersytetach grupy naukowców rozpoczęły teoretyczne obliczenia. Jedna z takich grup, związana z uniwersytetem oksfordzkim, stworzyła protokoły kwantowe. Współpracował z nią też Polak, Artur Ekert. Po około 10 latach od rzucenia pomysłu, czyli w połowie lat 90. XX wieku, powstały pierwsze podstawowe elementy konstrukcji komputera kwantowego, czyli bramki, które przetwarzały kubity. Co to takiego? To cząstki elementarne, fotony lub elektrony, których różne stany w pewnym sensie są nośnikami informacji. Tylko dlaczego komputer zbudowany „na kwantach” ma być szybszy od tradycyjnego? Sprawa, wbrew pozorom, nie jest aż tak bardzo skomplikowana. Podstawą jest przeniesienie się do zupełnie innego świata. Świata, w którym nic nie jest takie jak w naszym świecie. Mam tutaj na myśli świat kwantów, same podstawy budowy naszej materii. Zjawiska, które tam występują, są dla nas fascynujące, bo wokół nas ich nie zauważamy. Więcej, one są nielogiczne, przeczące intuicji i zdrowemu rozsądkowi.

Jedną z dziedzin badających ten świat jest optyka kwantowa. Tak jak „zwykła” optyka, czyli ta, której uczymy się w szkole na lekcjach przyrody czy fizyki, tak samo i ta kwantowa zajmuje się światłem. Różnica polega na tym, że optyka kwantowa bada pojedyncze cząstki światła, czyli kwanty albo ich niewielkie grupy (pary, trójki…), podczas gdy „optyka szkolna” zajmuje się światłem bardziej „hurtowo”. Bada je jako zbiór ogromnej ilości kwantów. Właśnie w tych ogromnych ilościach fotonów (czyli w wiązkach czy promieniach światła) gubią się te zjawiska, które w przypadku pojedynczych cząstek występują. O co konkretnie chodzi? Na przykład o zjawisko superpozycji. – To zjawisko nie występuje w świecie klasycznym i bardzo trudno w ogóle znaleźć do niego zrozumiałą analogię – mówi „Gościowi” Radosław Chrapkiewicz, doktorant Wydziału Fizyki Uniwersytetu Warszawskiego.

I w lewo, i w prawo

Superpozycja. O co chodzi? – Definicja mówi, że to istnienie dwóch pozornie wykluczających się stanów cząstki – mówi Chrapkiewicz. I od razu dodaje, że superpozycja w naszym świecie nie występuje, ale gdyby występowała, strzałka skierowana w prawo równocześnie byłaby skierowana także w lewo, a prawy but byłby równocześnie lewym. – W świecie, który nas otacza, strzałka jest skierowana albo w jedną, albo w drugą stronę, a jeden but może być albo prawy, albo lewy. Ale w świecie kwantów jest inaczej. Jedna cząstka może istnieć w stanach, które się wzajemnie wykluczają. Tylko co to ma wspólnego z komputerami kwantowymi? W klasycznym komputerze, takim, jaki stoi w niemal każdym domu, takim, na jakim piszę ten artykuł, wszelkie obliczenia robi się na zerach i jedynkach. Maleńkie elementy elektroniczne mogą przyjmować albo wartość „0”, albo „1”. – W komputerze kwantowym w pewnym sensie zera i jedynki istnieją równocześnie, a to oznacza, że możemy wykonywać równocześnie wiele obliczeń naraz – mówi Radosław Chrapkiewicz. Muszę mieć niewyraźną minę, bo Radek tłumaczy dalej. – Jeden klasyczny bit to jest zero lub jedynka, jeden kwantowy bit, czyli kubit, to jakiś stan równoczesnego istnienia zera i jedynki. W tym samym momencie zamiast jednej wartości mamy dwie współistniejące. Jeżeli weźmiemy dwa kubity, mamy jednoczesne współistnienie czterech wartości, bo tyle jest możliwych kombinacji zer i jedynek. A jeżeli zbuduję komputer dziesięciokubitowy, różnych możliwości jest 2 do 10 potęgi, czyli 1024, podczas gdy w klasycznym komputerze dziesięciobitowym jest tylko 10 możliwości – tłumaczy Radosław Chrapkiewicz. I dodaje: – Liczba operacji możliwych do wykonania równocześnie rośnie bardzo szybko wraz ze wzrostem liczby kubitów. Komputery skonstruowane w ten sposób działałyby nieporównywalnie szybciej, bo wiele operacji mogłyby wykonywać równocześnie. Dzisiejsze komputery nie potrafią robić kilku operacji naraz – kończy Chrapkiewicz.

Zasada działania komputera kwantowego nie wydaje się skomplikowana. Ale jak jest z jej realizacją? No i tutaj pojawia się problem. Dzisiaj nie ma jeszcze układów, które z czystym sumieniem można byłoby nazwać wielokubitowymi. Co prawda na początku lutego 2007 roku firma D-Wave Systems zaprezentowała 128-kubitowy komputer, ale istnieją uzasadnione wątpliwości, czy to rzeczywiście jest „pełnowartościowy” komputer kwantowy, czy tylko urządzenie, które wykorzystuje pewne zjawiska kwantowe. Być może różnica pomiędzy tymi dwoma przypadkami jest subtelna, ale specjaliści ją zauważają. Ale nawet w przypadku komputera, który nie jest przez wszystkich zaliczany do maszyn kwantowych, liczby mogą robić wrażenie. Jedna z grup badaczy twierdzi, że stworzyła czip, który może dokonywać ponad 10^38 obliczeń naraz. Zwykłemu, klasycznemu komputerowi zajęłoby to kilka milionów lat.

To takie logiczne

No i powstaje pytanie kluczowe. Po co nam tak szybkie komputery? Kilka zastosowań przychodzi do głowy od razu. Zastosowania wojskowe, a właściwie wywiadowcze. Dzisiejsze komputery nie radzą sobie z ogromną ilością danych, które nadsyłają urządzenia podsłuchowe. Ludzie odpowiedzialni w strukturach państwa za bezpieczeństwo (własnych obywateli) nie lubią sytuacji, gdy mają dane, ale nie są ich gdy przeanalizować, bo jest ich za dużo. Niewiele instytucji ma fundusze na to, by inwestować w takie dziedziny nauki jak optyka kwantowa. Nieliczne są instytucje związane z wojskiem czy wywiadem. Amerykańska Agencja Bezpieczeństwa Narodowego, która zajmuje się tym drugim, w komputery kwantowe inwestuje duże pieniądze. Zresztą podobnie było z komputerami, których dzisiaj używamy. Ich rozwój związany był z Projektem Manhattan – budowy pierwszej bomby jądrowej. – Ta analogia jest bardzo dobra. Moim zdaniem komputery kwantowe dzisiaj są na takim etapie rozwoju technologicznego, jak w latach 40. XX wieku były komputery klasyczne – mówi Radosław Chrapkiewicz. I dodaje, że nie sposób dzisiaj powiedzieć, kiedy przyjdzie przełom.

Choć sam zajmuje się optyką kwantową, nie jest w stanie wyobrazić sobie komputerów kwantowych w każdym domu czy w zminiaturyzowanej wersji zastosowanych w jakichś urządzeniach mobilnych, takich jak np. dzisiejsze smartfony. Nie tylko zresztą on. Przegląd specjalistycznych stron internetowych pokazuje, że gdy mowa o wykorzystaniu komputerów kwantowych, najczęściej pojawiają się stwierdzenia o analizie dużej ilości danych, w tym danych naukowych i o skomplikowanych modelach matematycznych, dotyczących np. pogody czy na przykład projektowania leków. Nic dla ludzi? Cóż, leki są jak najbardziej dla ludzi, ale faktycznie brakuje nam chyba wyobraźni, by dzisiaj znaleźć zastosowanie dla maszyn o tak ogromnej mocy obliczeniowej. Spokojnie, gdy pojawią się takie komputery, pojawią się i zastosowania. A wtedy będziemy nieskończenie zdziwieni, że wcześniej tych zastosowań nie potrafiliśmy zauważyć. Przecież one są takie… logiczne.

komputer kwantowy

 

>>> Na zdjęciu układ skonstruowany przez firmę D-Wave Systems, zawierający 128 kubitów.

 

Tekst ukazał się w tygodniku Gość Niedzielny

6 komentarzy do Komputer na światło

Ład czy chaos?

Chaos i ład – choć wydają się przeciwstawne, w naturze pięknie się przenikają. Ład wynika z chaosu, a chaos kroczy przed harmonią. Wystarczy spojrzeć na piaskową wydmę, płatek śniegu czy którykolwiek układ planetarny.

Co było pierwsze: ład czy chaos? W życiu codziennym chaos powstaje z ładu, ale we wszechświecie w różnych skalach kolejność może być odwrotna. Gwiazdy i układy planetarne powstają z chaotycznej chmury drobinek, ta zaś z eksplozji gwiazdy. Tylko czy taka chmura jest rzeczywiście chaotyczna? Nie da się przewidzieć ruchu każdego z jej atomów, ale to nie znaczy, że nie działają w niej prawa fizyki. Z czasem to one wprowadzają porządek. Z tego porządku rodzą się nowe światy. Ale czy w nich panuje ład i porządek?

Góra piasku

Z naszego punktu widzenia niekoniecznie. Na przykład ruch planet, księżyców i wszystkich innych obiektów w Układzie Słonecznym wydaje się uporządkowany i przewidywalny. Ale gdyby tak było, jak należałoby tłumaczyć, skąd wzięły się kratery, które świadczą o kolizjach, do jakich dochodziło w przeszłości i wciąż dochodzi? Skąd pojawiające się co jakiś czas „alarmy”, że do Ziemi zbliża się groźna asteroida albo planetoida? Czy to wszystko rzeczywiście działa jak w szwajcarskim zegarku? Tak, ale złożoności tego mechanizmu nie jesteśmy (jeszcze?) w stanie pojąć. Zdarzenia w kosmosie, a wśród nich zderzenia między kosmicznymi obiektami, są elementem porządku, którego my nie dostrzegamy. Ta swego rodzaju ślepota to problem nie tylko kosmicznych skal. Mamy kłopot z ogarnianiem świata w każdej skali. Z tych ograniczeń wynika to, że dość często mylimy chaos z porządkiem. Jak to możliwe?

Wyobraźmy sobie niewielki fragment pustyni i wietrzny dzień. Pojedyncze ziarenka piasku są unoszone i opadają. Jedne blisko siebie, inne dalej. Jedne w powietrzu przebywają chwilę, inne przez długi czas. Nie ma najmniejszych szans, by przewidzieć ruch wspomnianych ziarenek. On zależy od tak wielu czynników, że największe komputery na Ziemi nie poradziłyby sobie z takim wyzwaniem. Gdy patrzy się na ten obraz, aż ciśnie się na usta słowo „chaos”. Czy ruch ziarenek piasku podrywanych przez wiatr jest przypadkowy? Na pewno jest (dla nas) nieprzewidywalny, ale nie chaotyczny. Jest w nim porządek i rządzą nim prawa fizyki. Nie trzeba wierzyć na słowo, wystarczy poczekać, aż wiatr ustanie, a wtedy naszym oczom ukaże się wydma. Ta potrzebuje swego rodzaju nieporządku. Wydma nigdy nie powstanie na idealnie płaskiej powierzchni. Potrzebna jest przeszkoda. Lokalne zaburzenie porządku. Po co? By wyhamować wiatr. Tylko wtedy niesiony przez niego piasek opadnie. Jedno ziarenko, później drugie, kolejne…

(Nie)porządek na zimno

Wystarczy rzut oka na wydmę, by zobaczyć porządek. Wydmy zawsze mają jedno zbocze łagodne, a drugie strome. Łagodnym odwrócone są w kierunku wiejącego wiatru. Rozpoznajemy wydmy poprzeczne, seify, barchany czy wydmy gwiaździste. Ich kształt zależy od wielu czynników. Wśród nich są ukształtowanie terenu, siła i kierunek wiatru oraz rodzaj (właściwości) piasku. Zależności między tymi czynnikami są tak skomplikowane, że nawet największe komputery nie są w stanie tego ogarnąć. Ale o żadnym chaosie nie ma tu mowy. Tak samo jak nie ma mowy o chaosie w procesie tworzenia się kryształów. Chyba najlepszą ilustracją jest powstawanie płatków śniegu. Nie mogłyby się pojawić w idealnie czystym powietrzu, w którym nie byłoby chociażby najmniejszego pyłku. Woda w pewnej temperaturze zamarza – to jasne – ale może przechodzić w stan stały na dwa sposoby. Lód to cząsteczki wody, które zamarzły w nieuporządkowaniu. Śnieg to kryształy wody, a więc cząsteczki, które zamarzając, zdążyły się uporządkować, znaleźć się na swoich miejscach. Płatek śniegu to nieprzewidywalny porządek. Nie ma dwóch takich samych śnieżynek, ale to nie zmienia faktu, że wszystkie są stworzone według konkretnego wzoru. Każdy płatek śniegu ma kształt sześciokąta foremnego, figury, która ma sześć kątów (wierzchołków) i której wszystkie boki są równej długości. Dlaczego? Bo cząsteczki wody w krysztale łączą się ze sobą szóstkami. Połączenie „na płasko” sześciu cząsteczek wody musi utworzyć sześciokąt, w którym w wierzchołkach są atomy tlenu. I choć płatki śniegu są sześcioramiennymi gwiazdkami, każda jest nieco inna, bo każdy płatek ma inną historię, przechodzi inną drogę w chmurze. Nie da się jej przewidzieć ani odtworzyć. Rządzi nią zbyt wiele zmiennych, ale czy można powiedzieć, że w chmurze śniegowej panuje chaos? Idealnie regularne, symetryczne i uporządkowane płatki śniegu świadczą o czymś zupełnie innym. Tak samo jak idealnie „dostrojone” do siebie planety w systemach planetarnych, które powstały z chmury materii. Czy istnieją dwie takie same gwiazdy? Czy istnieją dwa takie same układy planetarne? Nie. Każdy jest inny, mimo że wszystkie powstały na podstawie tych samych zasad fizyki.
Za mało wiemy

Co ciekawe, nie do przewidzenia czy nie do opisania jest nie tylko proces, w którym coś powstaje (układ planetarny, wydma, kryształ…), ale także sam moment, w którym to powstawanie się zaczyna. Zainicjowanie wielu procesów wiąże się z nieprzewidywalną sytuacją. W przypadku płatka śniegu musi być pyłek, jakieś zanieczyszczenie. Podobnie sprawa się ma ze wszystkimi kryształami. Woda w garnku nie zacznie się gotować, o ile na ściankach garnka nie znajdzie się jakaś mała rysa. W idealnie gładkim garnku idealnie czysta woda może być w stanie ciekłym nawet wtedy, gdy jej temperatura dawno przekroczyła 100 st. C. Lawina rozpoczyna się od niewielkiego zaburzenia. Podobnie jak burza. Pioruny uderzają w sposób nieprzewidywalny, ale na pewno nie przypadkowy. Choć kształt błyskawic zdaje się na to nie wskazywać, w rzeczywistości ładunki elektryczne obierają drogę, która gwarantuje najmniejszy opór elektryczny. Skąd ładunki wiedzą, w którą stronę się przemieszczać? Przed właściwym wyładowaniem z chmury wylatuje niewielka „paczka” ładunków, która sprawdza drogę o najmniejszym oporze. Ładunki z błyskawicy, którą widzimy, są prowadzone niemalże jak po sznurku. Wszystko w idealnym porządku, według ściśle określonych reguł. Choć z zewnątrz wygląda to na chaos i przypadek.

Układ Słoneczny potrzebuje 250 mln lat, by zrobić pełny obrót wokół centrum galaktyki Drogi Mlecznej. Ten ruch ma oczywiście swoje konsekwencje. Zmieniające się kosmiczne otoczenie powoduje, że naruszana jest subtelna równowaga między Słońcem a pozostałymi obiektami w naszym układzie planetarnym. Tego oczywiście nie da się przewidzieć, ale zdarza się, że to naruszenie równowagi skutkuje wzmożoną aktywnością komet. Te częściej niż zwykle wylatują w kierunku Słońca. Zwiększa się przez to szansa na kolizję z Ziemią. Co oznaczałoby takie zderzenie? Chaos? To chyba nie jest dobre słowo. Dzięki takim kolizjom w przeszłości dzisiaj na Ziemi jest woda. Patrząc na przepiękny krajobraz z wodą, piaskiem i palmami w tle, warto sobie zdać sprawę, że tę wodę przyniosły komety, piasek to skruszone skały, a palma czy jakikolwiek inny żywy organizm na tej planecie są zbudowane z cząsteczek chemicznych, których ruch wciąż jest dla nas chaotyczny i nieprzewidywalny. Z chaosu w pewnym sensie wynika porządek. Widząc ten porządek, harmonię, warto sobie zdać sprawę z tego, że w naszym świecie tak naprawdę nic nie jest chaotyczne. Wszystko jest podporządkowane prawom natury. Wszystko jest uregulowane i przewidywalne. Kłopot w tym, że my tego porządku często nie dostrzegamy.

 

Tekst ukazał się w Tygodniku Gość Niedzielny

 

2 komentarze do Ład czy chaos?

Nano-lekarz

Kiedyś po naszym ciele będą krążyły niewielkie urządzenia badawcze. Będą sprawdzały stan naszego zdrowia, podawały leki, a może nawet wykonywały – od wewnątrz – operacje chirurgiczne. Kiedy to się stanie?

Kiedyś po naszym ciele będą krążyły niewielkie urządzenia badawcze. Będą sprawdzały stan naszego zdrowia, podawały leki, a może nawet wykonywały – od wewnątrz – operacje chirurgiczne. Kiedy to się stanie?

Nie wiem, kiedy ta wizja się spełni, ale widzę, że świat inżynierii zmierza w tym kierunku. A wszystko zaczęło się w 1960 roku od słów jednego z najbardziej zasłużonych i barwnych fizyków w historii nauki. Richard Feynman był znany z bardzo dużego poczucia humoru i talentów popularyzatorskich. Uwielbiał grać na bębnach bongo. W ich rytmie zdarzało mu się nawet prowadzić wykłady. Malował, pisał książki i zbierał znaczki. Ale w historii zapisał się z innego powodu. Był fizykiem teoretykiem i laureatem Nagrody Nobla. Pracownikiem najlepszych na świecie uniwersytetów. Zajmował się dość hermetyczną dziedziną, jaką jest kwantowa teoria pola i grawitacji, ale interesował się także fizyką cząstek i nadprzewodnictwem. To on jako pierwszy podał koncepcję komputera kwantowego i – w 1960 roku – zapowiedział powstanie nowej dziedziny inżynierii – nanotechnologii.

Sporo miejsca

Nanotechnologia bada i próbuje wykorzystać potencjał natury i właściwości świata bardzo małych rozmiarów i bardzo małych odległości. Co jest tam tak interesującego? – „There is plenty of room at the bottom” – powiedział w czasie pamiętnego wykładu zapowiadającego powstanie nowej dziedziny wspomniany już Richard Feynman. W tłumaczeniu na polski to zdanie znaczyłoby mniej więcej: „gdzieś tam na dole jest dużo miejsca”. Feynman zastanawiał się, jak naśladować naturę, która z atomów i cząsteczek potrafi tworzyć większe, olbrzymie, piękne struktury, takie jak chociażby białka czy cukry. A wszystko to robi ze znakomitą wydajnością, i mechaniczną, i energetyczną. Innymi słowy, człowiek powinien spróbować nauczyć się naśladować przyrodę, tworzyć układy złożone, wychodząc z atomów i cząsteczek, i kontrolując ten proces, mieć jakiś wpływ na powstającą nową materię. Brzmi dumnie, ale jak to zrobić? To jest właśnie coś, co ma rozstrzygnąć nowa dziedzina. Naukowcy i inżynierowie do tego wyzwania próbują podejść na dwa sposoby. Jeden to tak zwane „bottom up”, czyli przejście od podstaw, z tego poziomu najniższego, atomowo-cząsteczkowego, do większych, zaprojektowanych struktur. Czyli od pojedynczych atomów i cząsteczek do konkretnych materiałów. Najpierw tych w skali nanometrowej, a później o tysiąc razy większej, czyli mikrometrowej.

To podejście przypomina budowanie domu z cegieł. Małe elementy łączone są w duże struktury. Atomy łączone są w cząsteczki. Na przykład takie, które w przyrodzie nie występują. Cząsteczki białek, które mogą być lekarstwem na wciąż niezwyciężone choroby, czy cząsteczki o takich właściwościach, które można będzie wykorzystać w elektronice. Drugie podejście jest dokładnie odwrotne, czyli „top down” – z góry do dołu. To jak wytwarzanie ziarenek piasku podczas mielenia większych kawałków skały albo jeszcze lepsza analogia, mielenie całych ziaren kawy na kawowy proszek. Po co? Im drobniej zmielone, tym lepiej gorąca woda wyciągnie z nich kofeinę. Z całych ziaren kofeiny nie da się wyciągnąć. Wracając do fizyki czy technologii: to drugie podejście polega na rozdrabnianiu materii i schodzeniu do niższych jej form wymiarowych, do skali nano włącznie.

Podróże do wnętrza

O nanotechnologii można bardzo dużo pisać. Choć to nowy kierunek, rozwija się bardzo dynamicznie. Trudno znaleźć dziedzinę nauki, w której nie byłaby obecna. Jednym z bardziej pasjonujących kierunków jej rozwoju jest nanomedycyna. Ta rozwija się w dwóch kierunkach. Jeden to próby (coraz częściej udane) stworzenia nanocząsteczek, które będą nośnikami leków, a nawet genów. Wnikając do organizmu, będą uwalniać przenoszony materiał dokładnie w tym miejscu i dokładnie o tym czasie, jaki jest optymalny. Drugi kierunek to nanosensory i nanoroboty. Już kilka lat temu stworzono nanodetektor komórek rakowych. Do jego działania wystarczy – dosłownie – jedna kropla krwi. Krew przesączana jest przez tysiące mikroskopijnych kanalików krzemowych, w których znajdują się przeciwciała wyłapujące komórki nowotworowe. Analiza przeciwciał pozwala stwierdzić, czy w krwi znajdują się komórki rakowe, a jeżeli tak, to ile i jakie. Taka informacja nie może być pozyskana w trakcie standardowej analizy, bo komórek nowotworowych w krwi jest bardzo mało. Nanomedycyna jednak najbardziej kojarzy się z nanorobotami. Wpuszczone do ludzkiego krwiobiegu będą nie tylko monitorowały funkcje życiowe, ale także reagowały na stany kryzysowe organizmu.

Te skojarzenia – przynajmniej na razie – są nierealne. Na razie. W listopadowym numerze czasopisma naukowego „Nature Communications” opisano urządzenie wielkości kawałka główki od szpilki. Zbudowane jest jak muszla małża, z dwóch połówek połączonych w jednym punkcie (to połączenie przypomina zawias w drzwiach). Niewielkie elektromagnesy w obydwu częściach urządzenia mogą powodować otwieranie i zamykanie „muszli”. Ta w efekcie takiego ruchu może się poruszać. Prędkość tego ruchu jest oczywiście zależna od przekroju naczynia i prędkości krwi (oraz kierunku), ale już dzisiaj mówi się, że urządzenie, którego wielkość nie przekracza 0,3 mm, jest jednym z tych, które w przyszłości będą podróżowały we wnętrzu naszego ciała.

 

Tekst ukazał się w tygodniku Gość Niedzielny

Brak komentarzy do Nano-lekarz

Ten robot ma żywy mózg

Komórki szczurzego mózgu nauczyły się kontrolować pracę robota. – Dzięki temu może zrozumiemy jak wyleczyć chorobę Alzheimera – mówią naukowcy. Może i tak, ale mnie przechodzą ciarki po plecach jak myślę o tym eksperymencie.

Ludzki mózg, stanowi dla badaczy większą tajemnicę niż wszechświat. Nie wiemy jak w detalach przebiega proces uczenia się czy zapamiętywania. Nie wiemy dlaczego tkanka nerwowa się nie regeneruje. I co szczególnie ważne nie wiemy jak leczyć wiele chorób związanych z naszą pamięcią.

Mózg w mechanicznym ciele

Badacze z brytyjskiego University of Reading wybudowali robota, którego głównym zajęciem jest… jeżdżenie od ściany do ściany. Jest mały, wolny i prawie nic nie potrafi. Zamiast kamery ma zwykły sonar, a duże koła poruszają się mało precyzyjnie. Jest jednak szczególny. Jego mózgiem nie jest elektroniczny procesor, tylko żywe komórki nerwowe szczura. Ten robot ma żywy mózg ! To on najpierw się uczy, a po chwili sam decyduje gdzie robot ma jechać.

Kevin-foto Mózgiem robota jest 300 tyś komórek pobranych z kory mózgowej szczura. Naukowcy chemicznie pozbawili neurony połączeń międzykomórkowych (zabili ich pamięć ?) a następnie umieścili w specjalnym, wypełnionym pożywką i antybiotykami pojemniku. Stworzyli im warunki w których mogły samodzielnie żyć. W dno tego pojemnika zatopionych było 60 przewodów elektrycznych a ich zakończenia, elektrody, były wyprowadzone do środka pojemnika. To właśnie tymi elektrodami wędrowały impulsy elektryczne, np. wtedy gry robot zderzył się ze ścianą. Tymi samymi kanałami wędrowała informacja z sonarów. Gdy urządzenie zbliżało się do ściany, na elektrodach pojawiało się odpowiednie napięcie elektryczne. Gdy robot zderzał się ze ścianą, do komórek wędrował inny sygnał elektryczny a odpowiedni system nakazywał kręcić się kołom robota w innym kierunku.

Komórki uczą się

Po kilku próbach okazało się, że żywe komórki coraz rzadziej pozwalałby zderzać się ze ścianą. Nauczyły się, że sygnał „przed nami ściana” oznacza, że za chwilę dojdzie do kolizji. Żeby do tego nie dopuścić, tymi samymi elektrodami sygnał elektryczny wędrował w drugim kierunku. Szczurzy mózg w ciele robota nakazywał kołom skręt i do zderzenia ze ścianą nie dochodziło. Żywe komórki zaczęły kontrolować maszynę.

Gordons-neuronsPo jakimś czasie robot unikał nawet 90 proc. wszystkich kolizji. Ale nie o kontrolę, albo nie tylko o kontrolę chodzi. Naukowcom szczególnie zależy na tym, żeby na gorącym uczynku złapać proces uczenia się. Komórki nerwowe w specjalnym odżywczym odczynniku zaczęły rekonstruować połączenia pomiędzy sobą. Zaczęły do siebie wysyłać sygnały elektryczne. Naukowcy przeprowadzający to doświadczenie mówili, że wyglądało to trochę tak jak gdyby pojedyncze neurony szukały siebie nawzajem, a równocześnie komunikowały gdzie same się znajdują. Tak jak gdyby same były żywym organizmem. – Wydaje się, że komórki mózgu mogą ponownie się organizować w każdych warunkach, które nie są dla nich zabójcze – powiedział Steve Potter z Georgia Institute of Technology w Atlancie, USA. Każdy sygnał elektryczny jaki pochodził od komórek nerwowych, przez elektrody dostawał się do komputera i tam był rejestrowany. Szczurzy mózg, choć kierował robotem, nie przestawał być żywą tkanką. Potrzebował energii (stąd żel odżywczy w pojemniku z komórkami) oraz antybakteryjnej tarczy (stąd w żelu antybiotyki). To jednak nie wystarcza. Żywe komórki muszą mieć zapewnioną odpowiednią temperaturę. Dlatego też w czasie dłuższych prób szczurze komórki mózgowe wcale nie były fizycznie w robocie. Krążek z elektrodami i komórkami był podłączony do urządzenia, które sygnały elektryczne „tłumaczyło” na fale radiowe. Innymi słowy mózg robota był w inkubatorze w którym utrzymywana była optymalna temperatura, a robot sygnały o tym jak ma się poruszać dostawał za pośrednictwem fal radiowych (wykorzystano technologię Bluetooth). Odpowiednie urządzenie pozwalało na dwustronny kontakt pomiędzy jeżdżącym robotem i „jego” mózgiem w inkubatorze.

Czy to komuś pomoże ?

Mózg poza urządzeniem…brzmi abstrakcyjnie. Choć z drugiej strony dzisiejsze komputery także często korzystają z mocy obliczeniowej, która znajduje się poza ich „ciałem”. Coraz częściej to w chmurze trzymamy dane a nawet całe programy.

– To co w tych badaniach najciekawsze, to znalezienie odpowiedzi na pytanie jak aktywność pojedynczych neuronów przekłada się na złożone zachowania całych organizmów – powiedział dr Ben Whalley, jeden z naukowców biorących udział w badaniach. – Ten eksperyment pozwala na wgląd w ten proces na poziomie pojedynczych komórek. To pozwoli nam na sformułowanie odpowiedzi na pytania fundamentalne – dodaje. Naukowcom udało się nauczyć żywe komórki kontroli nad prostym robotem. Ale to nie oznacza końca eksperymentu. Kolejnym krokiem będzie uszkodzenie połączeń pomiędzy wyuczonymi już komórkami mózgu w taki sposób w jaki upośledzone są połączenia u osób cierpiących na chorobę Alzheimera czy Parkinsona. Jak teraz będzie wyglądał proces uczenia się ? Czy robot z mózgiem który „cierpi” na chorobę Alzheimera będzie także się uczył ? Czy powstaną nowe połączenia ? Jeżeli nie, co zrobić żeby powstawały ?

Choć badacze zaangażowani w projekt uważają, że ich praca będzie krokiem milowym w rozumieniu wielu procesów które dzieją się w mózgu, nie brakuje i takich, którzy studzą emocje. – To zaledwie model. To nie badania mózgu, tylko jego małego wycinka w sztucznym otoczeniu. Oczywiście wyniki badań mogą nas wiele nauczyć, ale mogą też zmylić nas na przyszłość. Przecież nie wiemy czy to co zaobserwujemy w laboratorium wystąpiłoby w rzeczywistości – powiedział Steve Potter z Georgia Institute of Technology. – Trzeba być bardzo ostrożnym w wyciąganiu daleko idących wniosków – dodaje. Autorzy badań zgadzają się z tym podejściem, ale podkreślają, że… – nawet jeżeli przeprowadzane przez nas eksperymenty tylko w 1 proc. pogłębią naszą wiedzę o chorobach takich jak Alzheimer, będzie to świadczyło o tym, że warto je było przeprowadzić – powiedział profesor Kevin Warwick z School of Systems Engineering. Co do tego nie ma jednak chyba żadnej wątpliwości.

 

Tekst ukazał się w Tygodniku Gość Niedzielny.

1 komentarz do Ten robot ma żywy mózg

Bombardowanie z kosmosu

Małe asteroidy o średnicy około 1 metra wpadają w naszą atmosferę zadziwiająco często. NASA właśnie opublikowała raport dotyczący „bombardowania Ziemi” w latach 1994 – 2013.

Jednometrowe obiekty wpadają w atmosferę średnio co dwa tygodnie! Mniejszych obiektów nawet nie sposób policzyć. Miejsca w których dochodzi do kolizji są rozrzucone mniej więcej równomiernie po całej planecie. Z trwających 20 lat badań wynika, że w tym czasie zarejestrowano przynajmniej 556 przypadków bolidów, czyli dużych obiektów kosmicznych w atmosferze. Ich energia wynosi czasami setki miliardów dżuli. Jednym z nielicznych – w ostatnich latach – takich przypadków o którym mamy świadomość był meteor czelabiński, który w połowie lutego 2013 roku wywołał panikę nie tylko w Czelabińsku na Syberii. Jego energia wynosiła mniej więcej tyle ile energia pół miliona ton trotylu.

Meteor czelabiński zanim wszedł w ziemską atmosferę miał wielkość około 20 metrów. Rosnąca gęstość gazowej powłoczki Ziemi spowodowała jednak, że obiekt rozpadł się na mniejsze. To samo dzieje się z większością obiektów o średnicy około metra. Choć ich resztki nie „spalają” się w atmosferze całkowicie, zwykle nie są groźne dla ludzi. A wracając do wydarzenia z Czelabińska. Nawet eksperci uważali wtedy, że częstotliwość takich zdarzeń jest niewielka. Tymczasem okazuje się, że jest inaczej. Z danych NASA wynika, że obiekt podobny do czelabińskiego wchodzi w naszą atmosferę co kilka (a nie kilka tysięcy) lat. Obiekt wielkości boiska sportowego wchodzi w atmosferę średnio raz na 5000 lat. Obiekty wielkości samochodu osobowego „nawiedzają nas” średnio raz w roku. Obiekty mniejsze, o średnicy rzędu jednego metra wpadają średnio co dwa tygodnie. Te mniejsze, jeszcze częściej. Na powierzchnię Ziemi każdej doby spada ponad 100 ton kosmicznej materii. To, że mniejsze obiekty nie docierają do powierzchni planety to jasne. Ziemska atmosfera działa jak mechanizm hamujący. Ogromna energia kosmicznego obiektu jest „wytracana” ale nie znika, tylko zamieniana jest na ciepło, na ogrzewanie obiektu, a ten albo rozpada się na drobny maczek, albo po prostu topi się i wyparowuje. To dotyczy także obiektów dużych, tych metrowych. Przeważająca większość z nich rozpada się w górnych warstwach atmosfery pod wpływem dużej zmiany ciśnienia przy wchodzeniu atmosfery. Mniejsze obiekty albo topią się, albo spadają jako niegroźnie małe. Poza tym, 2/3 powierzchni planety pokryta jest oceanami, a całkiem spora pustyniami i lasami, w skrócie tereny niezamieszkałe stanowią dużą większość  obszarów Ziemi. Jakiekolwiek uderzenie pozostaje tam niezauważone.

Obiekty wielkości ziarenka piasku, o ile wejdą w ziemską atmosferę w nocy, są łatwo zauważalne nawet gołym okiem. Większe to tzw. bolidy, świecą jaśniej niż Wenus. Co ciekawe, to świecenie nie wynika z tarcia obiektu kosmicznego o cząsteczki gazów w atmosferze, tylko z silnego sprężenia powietrza przed czołem bolidu. Ogromny wzrost ciśnienia powoduje podniesienie temperatury nie tylko obiektu, ale także gazu. I to świecący gaz, a nie meteor jest tym co widać w nocy. Bolid czy meteor nagrzewa się do temperatury kilku tysięcy stopni Celsjusza. Szybkiej zmianie ciśnienia często towarzyszy także grom dźwiękowy.

NASA od wielu już lat obserwuje obiekty, które potencjalnie mogą zagrozić Ziemi (to tzw. NEO – Near Earth Object). Jako takie definiuje się te, które znajdują się w odległości mniejszej niż 50 milionów kilometrów od orbity Ziemi.Dla porównania średnia odległość Ziemia – Słońce wynosi około 150 mln kilometrów, a średnia odległość Ziemia Księżyc około 350 tys. kilometrów.

W obszarze szczególnego zainteresowania obserwatorów z NASA, tylko obiektów o średnicy 1km lub większej znajduje się około tysiąca. Ponad 950 z nich jest przez agencję (w ramach programu NEO) obserwowana. W najbliższym sąsiedztwie Ziemi ilość obiektów, których średnica wynosi 150 metrów i więcej, szacuje się na około 25 tysięcy, z czego ponad 22 tys. jest pod obserwacją.

 

Lista potencjalnie groźnych obiektów:

http://neo.jpl.nasa.gov/risks/

Więcej informacji:

http://science.nasa.gov/planetary-science/near-earth-objects/

 

 

Brak komentarzy do Bombardowanie z kosmosu

Kryształ Wikingów działa !

W każdej legendzie jest trochę prawdy. Od lat naukowcy (i żeglarze) zastanawiali się jak Wikingom udawało się tak skutecznie nawigować w czasie rejsów po morzach północnych, po Atlantyku czy Morzu Śródziemnym. Nie mieli kompasu, mgły często zasłaniały niebo, a w miejscu w którym mieszkali, przez pół roku nie było nocy (więc nie mogli nawigować obserwując gwiazdy).
Legendom o słonecznym kamieniu, którym miał się posługiwać m. in. król Olaf nie dawano wiary. Kamień do nawigacji? Dajcie spokój.

Wikingowie byli w swoim czasie (od roku 900 do roku 1200) panami mórz i oceanów. Byli najdoskonalszymi żeglarzami na Ziemi. W średniowieczu swobodnie pływali nie tylko po morzach północy, ale także po Oceanie Atlantyckim czy po Morzu Śródziemnym. Setki lat przed Kolumbem dotarli też do Ameryki. Od lat naukowcy (i żeglarze) zastanawiali się jak Wikingom udawało się tak skutecznie nawigować w czasach, w których nie znali igły magnetycznej (kompasu). Legendom o słonecznym kamieniu, którym miał się posługiwać m. in. król Olaf nie dawano wiary. Kamień do nawigacji? Dajcie spokój.

Przepuszczą, albo nie

Zrozumienie zasad nawigacji ludów północy było tym trudniejsze, że Wikingowie – z racji miejsca w którym mieszkali, a więc Islandii czy wybrzeży dzisiejszej Szwecji i Norwegii – pływali głównie po morzach północy. To obszary o bardzo dużym zachmurzeniu, a to uniemożliwia astronawigację. Na dalekiej północy, przez pół roku nocy w ogóle nie ma. Często występują też mgły, a linia brzegowa, z powodu lodowców i gór lodowych często się zmienia. I jak w takich warunkach nawigować? Jak wyruszyć tak daleko i – co ważniejsze – wrócić do domu?

Pierwszą osobą, która legendy próbowała zweryfikować legendy był duński archeolog Thorkild Ramskou. Był rok 1967, a Ramskou twierdził, że „sólarsteinn”, czyli tzw. słoneczny kamień istniał naprawdę i był nim szpat islandzki (odmiana kalcytu), występujący powszechnie na Islandii (zajmowanej przez Wikingów). Co to takiego? Fale elekto-magnetyne, w tym światło, mogą być uporządkowane, albo chaotyczne. Źródłem światła uporządkowanego jest np. laser. Za to już zwykła żarówka daje światło, które składa się z fal nieuporządkowanych. Choć nasze oko nie wykrywa polaryzacji, nie widzi czy fala która w nie wpada jest spolaryzowana czy nie, oczy niektórych zwierząt są na to wrażliwe. Np. niektórych owadów. Ponadto w przyrodzie są materiały, które działają jak filtry, i falę „ustawioną” w jednym kierunku przepuszczają, a w innych kierunkach nie.

Jak to sobie wyobrazić?

Gdyby przywiązanym do drzewa (płotu,… czegokolwiek) sznurkiem machać w kierunku góra – dół, powstałaby na nim fala.  Można też sznurkiem machać lewo – prawo. Też mielibyśmy falę. W końcu, sznurkiem można machać raz góra – dół, a raz lewo – prawo. A teraz na drodze sznurka ustawmy w pionie dwie deseczki. Tak, żeby sznurek swobodnie przechodził pomiędzy nim. Deseczki zadziałają jak każdy materiał polaryzujący. Jeżeli są ustawione w pionie, „przepuszczą” tylko falę, która powstanie na sznurze w czasie machania góra – dół. Nie przepuszczą fali lewa – prawa. Identycznie działają niektóre kryształy gdy przepuścić przez nie światło. Przepuszczą tylko te fale, które są zgodne z polaryzacją danego kryształu. Może się też zdarzyć tak, że kryształ nie przepuści światła w ogóle. To bardzo widowiskowe, bo w zależności od położenia kryształu, raz jest on przezroczysty, a za chwilę czarny jak węgiel. Zdaniem – wracając do Wikingów – duńskiego archeologa, Thorkilda Ramskou, takich kryształów używali właśnie Wikingowie do nawigacji. Ciekawa koncepcja, ale gdy powstała, była rozważaniem czysto teoretycznym, nikt jej nie sprawdził.

To działa!

Zresztą kryształów które polaryzują światło jest więcej. Niektóre z nich, (m. in. turmaliny i kordieryty) występują w Skandynawii. Obracanie nimi pozwala stwierdzić z jakiego kierunku padają promienie słoneczne, czyli gdzie jest Słońce, nawet wtedy, gdy zasłania je chmura, albo gdy panuje gęsta mgła.

W 2005 roku naukowcy z Węgier i Szwecji (Gábor Horváth z Uniwersytetu Eötvös w Budapeszcie i Susanne Ĺkesson Lund University) wybrali się z polaryzującym kryształem w rejs lodołamaczem po Oceanie Arktycznym. Rejs trwał kilka dni, w czasie których wielokrotnie panowała pogoda uniemożliwiająca astronawigację. Badacze udowodnili, że niezależnie od pogody, dzięki kryształowi można wyznaczyć strony świata. A to wystarczy by skutecznie pływać po morzach i oceanach (trafiając zawsze tak gdzie chce się trafić). Cztery lata później w czasopiśmie Science opublikowano artykuł napisany przez uczonych z francuskiego Universite de Rennes 1, którzy skonstruowali pełny przyrząd którym mogli posługiwać się Wikingowie. Jego sercem jest właśnie kamień słoneczny czyli „sólarsteinn”. Z pomiarów (a nie szacunków!) jakich dokonali Francuzi wynika, że wyznaczona dzięki kryształom dokładność położenia Słońca może wynieść około 1 proc. Nawet wtedy, gdy Słońce znajduje się już za horyzontem (o ile nie jest jeszcze kompletnie ciemno).

Brak komentarzy do Kryształ Wikingów działa !

Jesteśmy dziećmi gwiazd

My i całe nasze otoczenie, jesteśmy zbudowani z atomów różnych pierwiastków. Te pierwiastki – w przeważającej części – powstały we wnętrzu gwiazdy, która w naszej okolicy wszechświata kiedyś świeciła. Innymi słowy, jesteśmy zbudowani z popiołów gwiazd.

Najlżejsze atomy powstały zaraz po Wielkim Wybuchu. Te cięższe, powstają cały czas we wnętrzach świecących gwiazd. Atomy najcięższe powstają w czasie śmierci dużych słońc.

Na początku był…

Wielki Wybuch. To początek wszystkiego co fizyczne. Materii, czasu i przestrzeni. Nie ma sensu rozważać gdzie miał miejsce. Zdarzył się wszędzie równocześnie. Wtedy cała przestrzeń skupiona była w jednym punkcie, nie było nic na zewnątrz, nie było nic poza. Od tego momentu zaczął się także liczyć czas. Nie ma sensu rozważanie co było przed Wielkim Wybuchem, bo nie istniało … przed. Już kilkadziesiąt sekund po Wielkim Wybuchu z kwarków powstały protony i neutrony. Po kolejnych kilku minutach te cząstki wraz z elektronami (które nie składają się z kwarków) powstał wodór, jego cięższa odmiana – deuter oraz hel, lit i beryl. Z tej grupy najcięższy jest beryl. Składa się z 4 protonów i 5 neutronów w jądrze i 4 elektronów krążących wokoło. Powstawanie najlżejszych atomów trwało nie więcej niż kilkanaście minut. W bardzo szybko rozszerzającym się wszechświecie cięższe niż beryl pierwiastki nie miały szans powstać, bo energia za bardzo zdążyła się już rozproszyć.

Przez kolejnych kilkaset milionów lat, cała materia we wszechświecie była zbudowana z zaledwie kilku pierwiastków. Gdyby tak pozostało do dzisiaj, układ okresowy pierwiastków miałby zaledwie kilka pozycji.

I wtedy pojawiły się gwiazdy

Choć na początku swojego istnienia wszechświat był jednorodny, po jakimś czasie zaczęły w nim powstawać lokalne zagęszczenia. Te grawitacyjnie przyciągały swoje otoczenie. W środku tak zagęszczającej się materii rosło ciśnienie i temperatura. Im więcej materii się ze sobą zlepiało, tym większe ciśnienie (a więc i temperatura). Temperatura rosła aż do chwili gdy przyszła gwiazda „zapalała się”. Co to oznacza ? Gwiazdy czerpią energię z reakcji w której małe atomy łączą się w większe. Żeby jednak ta reakcja zastartowała, potrzeba bardzo wysokiej temperatury. Gdy ta została osiągnięta, gwiazda zaczynała świecić. Lekkie atomy łączyły się w cięższe, co dawało ogromną ilość energii. Ta energia daje gwiazdom życie, to dzięki niej gwiazdy świecą.

I tak, czasami przez miliardy lat lekkie atomy łączą się w gwiazdach w cięższe, te cięższe w jeszcze cięższe i jeszcze cięższe. Z wodorów powstaje hel, potem węgiel. Później tworzy się tlen, krzem, neon czy magnez. Każdy cięższy pierwiastek powstaje z połączenia się (fuzji albo inaczej syntezy) tych lżejszych. Ale we wnętrzu gwiazd nie powstają wszystkie znane z układu okresowego pierwiastki. Czym większy atom, tym więcej energii potrzeba do jego stworzenia. Ostatnim jaki może powstać we wnętrzu gwiazdy jest żelazo. Ma 26 protonów i 30 neutronów w jądrze, oraz 26 elektronów krążących wokoło. Gwiezdny piec jest za mały, by wytworzyć cokolwiek cięższego. Jak zatem powstają te naprawdę wielkie pierwiastki ?

Potrzebna jest śmierć

Duża gwiazda kończy swój żywot jako kula żelaza (żelaza, bo to ono jest najcięższym pierwiastkiem jaki może powstać w gwieździe). Ale to nie koniec życia gwiazdy. Przed nami najlepsze! Następuje największy bodaj kataklizm z jaki można sobie wyobrazić. Gwiazda wybucha jako supernowa. To dzieje się w zaledwie kilka sekund. Eksplozja jest tak duża, że zewnętrzne warstwy gwiazdy wyrzucane są w przestrzeń z prędkością rzędu dziesiątków tysięcy kilometrów na sekundę. To chwila, w której gwiazda może świecić jaśniej niż cała galaktyka w której się znajduje. Z zapisków w starych kronikach wynika, że w 1054 roku na dziennym niebie, oprócz Słońca, widoczny był efekt wybuchu jednej z supernowych. Przez 23 doby ludzie widzieli dwa „słońca”! Ten efekt równocześnie obserwowali chińscy astronomowie, arabscy mędrcy i Indianie Nimbres mieszkający na terenie obecnego Meksyku. Dzisiaj po tej supernowej został rozszerzający się obłok rozżarzonego gazu tworzący Mgławicę Kraba.

Crab_NebulaW czasie samego wybuchu energia eksplozji jest tak wielka, że dochodzi do produkcji najcięższych z występujących we wszechświecie pierwiastków. Także w tym przypadku powstają one z połączenia elementów lżejszych. To właśnie w czasie tylko niezwykle krótkich chwil powstaje np. ciężki, bo składający się aż 238 neutronów i protonów uran. Ale także ołów czy złoto. To ostatnie, choć wydobywane jest na Ziemi, powstało w czasie wybuchu gwiazdy, której teraz już nie ma. Te najcięższe pierwiastki w wyniku eksplozji zostają rozrzucone wokół eksplodującej gwiazdy. Wokół w kosmicznej skali. Wspomniana Mgławica Kraba ma średnicę około 11 lat świetlnych ( 100 bilionów kilometrów) i co sekundę powiększa się o 1500 kilometrów.

Człowiek, ale także wszystko to co wokoło widzimy zbudowane jest z cegiełek – dosłownie – wypalonych we wnętrzu gwiezdnego pieca. Te cięższe budujące nas elementy nie zaistniałyby gdyby nie dochodziło do gwałtownego i widowiskowego wybuchu gwiazdy supernowej. Jesteśmy – nie tylko w przenośni – dziećmi gwiazd. Korzystamy z tego co one wytworzyły, a gdy nasza dzienna gwiazda Słońce dożyje wieku sędziwego, budujące nas cegiełki na powrót zostaną rozsypane w kosmosie. Może wykorzysta je kto inny?

4 komentarze do Jesteśmy dziećmi gwiazd

Skąd dwa słońca?

Nad Lublinem zaświeciły dwa słońca. Tak to przynajmniej wyglądało. Skąd się wzięły?

Wydawałoby się, że nic szczególnego. Kryształki lodu, krople wody czy pyłki zawieszone w atmosferze. Przy odrobinie szczęścia i czasami wytrwałości mogą być jednak źródłem niezapomnianych wrażeń. Podwójne słońca, pierścienie, słupy, miraże, zielone zachody i glorie. Dzisiaj kilka słów o dwóch słońcach, które pojawiły się na niebie w okolicach Lublina.

Ze wszystkich zjawisk optycznych najciekawsze, najbardziej spektakularne, ale też najtrudniejsze do zaobserwowania są te, które występują w wyższych partiach atmosfery. Tam, gdzie promienie Słońca są załamywane, rozpraszane lub odbijane nie na kropelkach wody, tylko na kryształkach lodu. Wszystkie krople wody mają podobny kształt i takie samo ułożenie w przestrzeni w czasie drogi z chmury na ziemię. W przypadku kryształów podobna sytuacja nie występuje, bo kryształ kryształowi nierówny.

W zależności od temperatury i wilgothalo - słońceności otoczenia w chmurze mogą na przykład przeważać kryształki w kształcie graniastosłupów sześciokątnych o długości znacznie przewyższającej szerokość – przypominające małe ołówki. Przy odrobinie szczęścia można wówczas zaobserwować tzw. 22-stopniowe halo. Co to takiego?  To obwódka (pierścień) wokół Słońca, o zawsze tych samych rozmiarach kątowych. Dlaczego akurat 22 stopnie? Bo dla kryształu lodu o podstawie sześciokąta właśnie 22 stopnie są najmniejszym kątem odchylenia promieni. Wystarczy jednak, że lodowe kryształki nie będą przypominały długich ołówków, a raczej płaski, sześciokątny kafelek – i możliwość zaobserwowania 22-stopniowego halo przepadnie. Wtedy jednak być może uda się zobaczyć tzw. słońce poboczne (czyli inaczej parhelium). To właśnie to zjawisko zaszło na niebie w okolicy Lublina. Płaskie kryształki lodu nie opadają na ziemię w przypadkowych orientacjach, jak miało to miejsce w przypadku kryształków-ołówków. W rezultacie halo nie powstaje wokół słońca, tylko po jednej z jego stron. Słońce i jego rozproszona nieco kopia są oddalone od siebie nadal o 22 stopnie, bo dla bryły o podstawie sześciokąta 22 stopnie to dalej minimalny kąt załamania.

Kryształki lodu są także powodem powstawania tzw. słupów świetlnych. Ale to temat na zupełnie inną notatkę. No chyba, że przyślecie zdjęcia takiego zjawiska, chętnie je wtedy opiszę.

Zdjęcia pochodzą z serwisu kontakt24.pl

 

 

Brak komentarzy do Skąd dwa słońca?

Jak zbudować kuchenkę słoneczną?

Kuchenka słoneczna może działać cały rok. Co prawda zimą czy jesienią gotowanie w niej potraw zajmie nieco więcej czasu, ale wciąż jest możliwe. W takim urządzeniu gotuje bowiem nie wysoka temperatura otoczenia, tylko promienie słoneczne. Warunkiem działania kuchenki jest więc bezchmurne niebo, a nie upał.

Słońce dostarcza na powierzchnię Ziemi ogromną ilość energii. Co prawda tylko jej część przedziera się przez atmosferę, ale to i tak bardzo dużo. Gdyby wydobyć wszystkie paliwa kopalne (węgiel, ropę i gaz), zmagazynowana w nich energia równałaby się energii dostarczanej Ziemi przez Słońce zaledwie przez 50 dni.

Energię słoneczną wykorzystują rośliny w procesie fotosyntezy. My budujemy elektrownie słoneczne, ale w ten sposób na prąd czy ciepło przerabiamy zaledwie tysięczne części energii jaka dociera do powierzchni Ziemi. Jednym ze sposobów jej wykorzystania jest wybudowanie kuchenki słonecznej. Urządzenia, które wykorzystuje energię niesioną przez promienie Słońca do podnoszenia temperatury w garnku czy na patelni.

1. Umieść jeden karton w drugim, a pomiędzy ścianki włóż pogniecione gazety. Będą służyły jako izolator.

1

2. Wewnętrzny karton wyłóż czarnym matowym papierem lub folią. Następnie wytnij z kartonu cztery kwadraty, których bok będzie tej samej długości co bok większego kartonu. Przyklej do jednej z powierzchni kwadratów aluminiową srebrną folię. Staraj się aby folia była gładka, by nie miała żadnych nierówności. Ma być jak lustro.

2

3. Przyklej kartonowe kwadraty do brzegów większego kartonu tak, by były skierowane folią do góry…

3

4. … a następnie umieść je pod kątem 45 st. do pionu (albo podłoża). Boki kuchenki można podtrzymać na drewnianych nóżkach, albo na sznurkach, łączących je ze sobą. Kąt 45 st. gwarantuje, że największa ilość promieni słonecznych będzie kierowana do środka kuchenki, a to oznacza najwyższą temperaturę w jej środku.

4

5. Kuchenka gotowa. Możesz do niej włożyć garnek z daniem, które ma być ugotowane.

5

Co ważne, kuchenka może działać nie tylko latem. Co prawda zimą czy jesienią gotowanie w niej potraw zajmie więcej czasu, ale wciąż jest możliwe. W solarnej kuchence gotuje bowiem nie wysoka temperatura otoczenia, tylko promienie słoneczne. Warunkiem działania kuchenki jest więc bezchmurne niebo, a nie upał.

Rysunki w artykule pochodzą z serwisu wikiHow.com

3 komentarze do Jak zbudować kuchenkę słoneczną?

Lanie wody

Dlaczego wylana na rozgrzaną blachę woda nie paruje? I dlaczego gorąca woda szybciej zamraża się niż zimna?
Czy o wodzie można napisać coś interesującego? Przeczytaj, a dowiesz się rzeczy, o których nie miałeś zielonego pojęcia.

Co się stanie, gdy wylejemy powiedzmy szklankę wody na mocno rozgrzaną metalową blachę? Np. taką w tradycyjnym piecu. Usłyszymy głośny syk i gwałtowne parowanie. To logiczne i oczekiwane. A teraz proszę na tą samą rozgrzaną blachę wylać wodę w małych ilościach. Np. strzepnąć wodę z mokrej dłoni, albo wypuścić wąski strumień wody ze strzykawki. Można by oczekiwać, że mała ilość wody na gorącej blasze wyparuje szybciej niż duża ilość. A tu niespodzianka. Woda w małych ilościach na gorącej powierzchni nie paruje. Wodne kulki po blasze poruszają się jak pszczoły na łące, bez zauważalnego ładu, to w te, to wewte. Czasami nawet podskakują.

Pułapka na parę

Co się więc dzieje?  Spadająca kropelka wody przy zetknięciu z gorąca blachą zaczyna parować, ale tylko nieznacznie. Paruje dolna część kropli, bo to ona bezpośrednio styka się z gorącą powierzchnią. W ten sposób powstała para tworzy pomiędzy blachą a kroplą coś w rodzaju poduszki. Woda nie styka się już bezpośrednio z blachą, tylko leży na izolującej parowej poduszce. To powoduje, że energia (temperatura) gorącej powierzchni nie jest przekazywana kropli. To niesamowite, bo grubość „parowej poduszki” wynosi znacznie mniej niż milimetr (od 0,1 do 0,2 mm). Jak to się dzieje, że tak cieniutka izolacja wystarczy, że tak mała ilość pary nie dopuści do „przedostania” się energii z gorącej blachy do małej kropelki wody? Gaz (a para wodna jest gazem) jest kiepskim przewodnikiem energii (temperatury). Przekaz energii z blachy przez poduszkę pary do kropli wody następuje, ale bardzo wolno. W końcu wrzucona na rozgrzaną blachę kropla wyparuje (zmniejszając się coraz bardziej, w którymś momencie zniknie) ale nastąpić to może dopiero po kilkudziesięciu sekundach, a nie jak można by się spodziewać – natychmiast. Co więcej, im powierzchnia blachy cieplejsza, tym dłużej trwa taki „kroplowy taniec”. Pozostaje jeszcze wyjaśnienie trzech kwestii. Dlaczego para spod kropli nie ucieknie na boki, dlaczego poduszka parowa nie tworzy się pod dużą ilością chluśniętej na blachę wody i dlaczego kropla na gorącej blasze tak gwałtownie się porusza. Para nie ucieknie bo kropla od spodu nie jest płaska, tylko wklęsła. Więcej pary mieści się w środku, niż na brzegach kropli. Gazowa poduszka powoduje, że pomiędzy rozgrzaną powierzchnią a kroplą nie ma tarcia. Gwałtowne ruchy kropli spowodowane są tym, że dolne warstwy kropli parują nie w sposób ciągły, tylko gwałtowny i nierównomierny ze wszystkich stron. I ostatnia sprawa, chluśnięta na blachę woda wyparuje, ale poduszka parowa wytworzy się tylko pod kropelkami, właśnie dlatego, że one od dołu nie są płaskie i tworzą coś w rodzaju pułapki na parę. Wszystko co dzieje się z kroplą wody na rozgrzanej blasze wyjaśnił w 1756 roku niemiecki lekarz i fizyk Johann Leidenfrost (stąd zjawisko Leidenfrosta).

Raz ciepło, raz zimno

Izolująca warstwa gazu wytwarza się nie tylko pomiędzy rozgrzaną powierzchnią a kroplą wody, tylko pomiędzy obiektami o sporej różnicy temperatur. Przykłady? Wylanie ciekłego azotu czy ciekłego tlenu na powierzchnię stołu w temperaturze pokojowej spowoduje, że te dwie ciecze nie wyparują od razu, tylko „skulkują się” i będą zachowywały się tak jak woda w niewielkich ilościach wylana na gorącą blachę. Ciekły azot ma temperaturę około minus 200 st. C. Teoretycznie włożona do niego dłoń (o temperaturze około + 37 st. C) powinna natychmiast ulec poważnemu odmrożeniu. Tymczasem, o ile rękę w azot wsadzi się na krótko, odmrożeń nie będzie. Dlaczego? Bo pomiędzy skórą a ciekłym azotem wytworzy się cienka warstwa gazowego azotu, który jest swego rodzaju izolacją. Ta izolacja nie jest doskonała, więc dłuższe przytrzymanie dłoni w ciekłym azocie może być niebezpieczne. W Internecie można znaleźć też filmiki na których eksperymentator wkłada palec do naczynia z ciekłym ołowiem. Temperatura tego metalu  w stanie ciekłym wynosi przynajmniej 327 st. C. A temperatura palca około 37 stopni. O ile palec jest mokry, jego włożenie w ołów na krótką chwilę nie będzie groźne. Skóra będzie chroniona przez cieniutką warstwę pary wodnej. To ostatnie doświadczenie nie należy chyba do najbezpieczniejszych, więc lepiej na własną – nomen omen rękę – go nie przeprowadzać.

Lody zawstydziły fizykę

Woda może naprawdę zaskakiwać. Nie tylko nas, ludzi nie zajmujących się nauką, ale nawet naukowców.

Erasto Mpemba, mieszkający w Tanzanii 13latek uwielbiał lody. Podgrzewał mleko, dosypywał cukru, dolewał sok owocowy, wszystko mieszał ze sobą i zamrażał.  By nie zepsuć zamrażarki, najpierw swoją miksturę schładzał w lodówce. Pewnego razu gorące mleko wsadził jednak, bez schładzania, od razu do zamrażarki. Gdy po jakimś czasie otworzył zamrażalnik, okazało się, że lody są już dawno zrobione. „Tak szybko?” – zdziwił się. Zrobił prosty eksperyment. Do dwóch takich samych pojemników wlał gorącą i zimną wodę i obydwa wstawił do zamrażarki. Woda gorąca zamroziła się szybciej. Był rok 1963. Gdy Erasto Mpemba zapytał dlaczego tak się dzieje swojego nauczyciela fizyki, ten go wyśmiał. Ta sama reakcja spotkała go rok później, już jako ucznia liceum. Pewnego dnia do szkoły Erasto przyjechał profesor Denis G. Osborne, fizyk z pobliskiego uniwersytetu. Po jego wykładzie (który dotyczył zupełnie innych zagadnień) Mpemba opowiedział o swoich dobrze już udokumentowanych obserwacjach. Koledzy z klasy zaczęli się śmiać, ale profesor Osborne obiecał sprawę zbadać (choć jak później przyznał nie wierzył licealiście).  Osborne przeprowadził kilka eksperymentów i… potwierdził obserwacje Erasta. W 1969 roku ukazała się profesjonalna praca obydwu panów (ucznia i nauczyciela) opisująca tzw. efekt Mpemby. Woda gorąca rzeczywiście szybciej się zamraża niż woda zimna. Nie pierwszy raz intuicja może wyprowadzić na manowce. Przecież ciepła ciecz, zanim się zamrozi powinna najpierw się schłodzić, podczas gdy ta która jest chłodna tego nie potrzebuje. Jak całą sprawę wytłumaczyć? W przeciwieństwie do opisanego wyżej zjawiska Leidenfrosta, tutaj naprawdę trudno o jednoznaczne wyjaśnienie. Od ukazania się publikacji powstało kilka teorii, ale żadna do końca nie jest satysfakcjonująca. Wiadomo że woda, która się gotowała jest mniej nasycona gazami. Ciecz z mniejszą ilością rozpuszczonych w niej gazów (a więc ta ciepła), zamarza szybciej. W czasie podgrzewania wody wytrącają się też sole mineralne (stąd osad na grzałce czajnika). A te obniżają temperaturę zamarzania. Dlatego zimą posypuje się chodniki i ulice solą. Innymi słowy, chłodna woda zamarza w niższej temperaturze niż ta, która była przegotowana. Do tego wszystkiego niektórzy wyliczają to, że na ściankach naczynia z ciepłą wodą osadza się szron (na ściankach zimnego tylko w śladowych ilościach), a to powoduje, że chłodzenie jest bardziej efektywne. Ciepła woda zacznie więc zamarzać od ścianek (i dna) naczynia, podczas gdy zimna od powierzchni. Ten pierwszy sposób jest znacznie bardziej efektywny. Poza tym ciepła woda paruje, a to w skrócie oznacza szybkie ochładzanie. Dlaczego? Do parowania potrzebna jest energia. Wychodząc z jeziora, wanny czy prysznica odczuwamy zimno tak długo aż nasza skóra się nie wysuszy. Dzieje się tak, bo parująca woda ochładza naszą skórę pobierając z niej energię. No i ostatnia sprawa. W „ciepłym naczyniu” wody do zamarznięcia jest mniej, bo część wyparowała. Woda zimna też paruje, ale bardzo, bardzo wolno.

Wiele pomysłów, ale żaden do końca nie tłumaczy efekt Mpemby. A może każde z tych wytłumaczeń jest w części prawdziwe? Tak czy inaczej nawet w czymś tak powszechnym jak woda, jest jeszcze sporo do odkrycia. I może kiedyś uda się zrozumieć, dlaczego na mrozie rury z ciepłą wodą pękają częściej niż rury z zimną. Dlaczego lodowisko lepiej się robi z ciepłej wody i dlaczego w czasie mrozu mycie samochodu ciepłą wodą szybko prowadzi do popękania lakieru na karoserii.

2 komentarze do Lanie wody

Type on the field below and hit Enter/Return to search

WP2Social Auto Publish Powered By : XYZScripts.com
Skip to content