Nauka To Lubię

Oficjalna strona Tomasza Rożka

Autor: Tomasz Rożek

Uwaga: Spadające gwiazdy! Rój meteorów Perseidy

Przez najbliższych kilkanaście godzin Ziemia będzie nieustannie bombardowana przez rój meteorów – Perseid. Na nocnym niebie można będzie wtedy zaobserwować nawet kilkaset „błysków” na godzinę.

Przez najbliższych kilkanaście godzin Ziemia będzie nieustannie bombardowana przez rój meteorów – Perseid. Na nocnym niebie można będzie wtedy zaobserwować nawet kilkaset „błysków” na godzinę. Szczyt zjawiska widoczny bedzie we środę 12.08.2020!

4 komentarze do Uwaga: Spadające gwiazdy! Rój meteorów Perseidy

Obłoki srebrzyste coraz częstsze [galeria]

Pojawiają się coraz częściej więc jest okazja żeby je obserwować. Właśnie teraz! Obłoki srebrzyste, najwyżej „powieszone” chmury w naszej atmosferze.

Pojawiają się coraz częściej więc jest okazja żeby je obserwować. Właśnie teraz! Obłoki srebrzyste, najwyżej „powieszone” chmury w naszej atmosferze.


Estonia, Kuresoo, @Martin Koitmäe

W Polsce najlepszym okresem do ich obserwowania jest środek roku, czyli miesiące czerwiec i lipiec. Obłoki srebrzyste znajdują się w mezosferze, czyli na wysokości do 85 km nad naszymi głowami, praktycznie na granicy ziemskiej atmosfery i kosmosu. Z powierzchni Ziemi wyglądają jak bardzo subtelna mgiełka. I rzeczywiście z rzadką mgłą mają wiele do czynienia, bo składają się z ogromnej ilość maleńkich kryształków lodu. Wielkość tych kryształków nie przekracza milionowych części milimetra. Obłoki srebrzyste widać około północy. Niebo jest już wtedy ciemne, ale Słońce, które w czasie przesilenia letniego znajduje się „płytko” poniżej linii horyzontu oświetla obiekty znajdujące się w wysokich partiach atmosfery. Np. ogromne chmury maleńkich kryształków lodu. Te na tle ciemnogranatowego nieba srebrzą się. – Wysokość na której chmury się znajdują sprawia, że mogą one odbijać światło słoneczne, co powoduje wrażenie, jakby świeciły własnym światłem – mówi James Russell z Uniwersytetu w Hampton.

>>> Więcej naukowych informacji na FB.com/NaukaToLubie.

450px-Noctilucent_clouds_over_saimaa
Finlandia, Jezioro Saimaa, @Mika Yrjölä

Zdaniem badaczy z Uniwersytetu w Hampton zjawisko srebrzących się obłoków występuje coraz częściej i można je obserwować z coraz niższych szerokości geograficznych. Co ciekawe, zdaniem naukowców, wiąże się to ze spadkiem temperatury na szczycie mezosfery, w której powstaje zjawisko. Teraz zespół badaczy chce sprawdzić czy ma to jakiś związek z aktywnością Słońca. Co chmury mają wspólnego z naszą gwiazdą? Mogą mieć bardzo dużo. Słońce jest źródłem nie tylko światła, ale także naładowanych elektrycznie cząstek (np. protonów), które z dużą prędkością poruszają się w przestrzeni kosmicznej. Co prawda przeważająca ich większość zostaje zatrzymana przez ziemskie pole magnetyczne, zdarza się jednak że niewielka ich część przedostaje się do atmosfery. Tam w wyższych jej partiach w wyniku tego zjawiska mogą powstawać chmury. Intuicja podpowiada więc, że czym wyższa aktywność Słońca, tym więcej powinno pojawiać się obłoków. Intuicja może jednak zawodzić. Jak się wydaje, powstawanie obłoków srebrzystych ma związek z niską temperaturą wysokich warstw atmosfery. Niższa temperatura pojawia się jednak, gdy aktywność Słońca spada. – Kiedy zbliża się minimum aktywności słonecznej możemy oczekiwać, że mniej energii będzie dostarczane do planety, a co za tym idzie pojawi się tendencja ochłodzenia – dodał Russel.

>>> Więcej naukowych informacji na FB.com/NaukaToLubie.

Coloured-crosshatc_1411905i
Finlandia, @webodysseum.com

Co ma wpływ na częstotliwość i miejsce pojawiania się obłoków srebrzystych? Dzisiaj trudno powiedzieć. I nie chodzi tylko o to, by zrozumieć widowiskowe, ale w sumie dość rzadkie zjawisko atmosferyczne. Chodzi o to, by zrozumieć całą atmosferę

Tomasz Rożek

>>> Więcej naukowych informacji na FB.com/NaukaToLubie.

nocti-pano
Kanada, miasto Edmonton, @Hayley Dunning

 

Noctilucent-cloud-11
Z pokładu samolotu, @webodysseum.com

4 komentarze do Obłoki srebrzyste coraz częstsze [galeria]

Co by się stało…

…gdyby uderzyła w nas asteroida albo kometa? Właśnie jedna z nich przelatuje rekordowo blisko Ziemi. Za pomocą prostych symulatorów (linki w tekście) można sobie wyobrazić rozmiar kataklizmu.

…gdyby uderzyła w nas asteroida albo kometa? Dzisiaj blisko Ziemi przeleci ich pięć! Jedna będzie miała średnicę kilku kilometrów. Skutki kolizji zależą od wielu czynników, w tym od struktury obiektu, jego wielkości, energii ale także kąta pod jakim obiekt wszedłby w ziemską atmosferę. Za pomocą prostych symulatorów można sobie wyobrazić rozmiar kataklizmu.

Co nam może grozić?

Obiekt (52768) 1998 OR2 to planetoida (asteroida), a największe jego zbliżenie z Ziemią nastąpi o 11:56 czasu polskiego. Wiadomo o jego istnieniu od 1998 roku, a jego wielkość (średnica) jest szacowana na od 1,8 do 4,1 km. Nie ma ryzyka, że asteroida uderzy w Ziemię, bo przeleci w odległości około 6 milionów kilometrów, czyli 16,36 razy dalej niż Księżyc. Ale dzisiejszego dnia przeleciały obok nas już dwa inne obiekty, z których jeden w odległości zaledwie 600 tysięcy kilometrów. Ten obiekt został odkryty zaledwie kilka tygodni temu, a jego średnica wynosi kilkanaście metrów. Jego zbliżenie nastąpiło około 3 nad ranem. Oprócz wspomnianej kilkukilometrowej asteroidy która zbliży się do nas niemal w południe, obok Ziemi przelecą jeszcze dwie, kilka minut przed godziną 14  i druga o 14:23. Obydwie miną planetę w odległościach około 4 milionów kilometrów. Pierwsza z nich ma średnicę kilkunastu, a druga kilkudziesięciu metrów.

Tylko ta największa – z dzisiejszych –  asteroida została zauważona wcześniej, pozostałe cztery zostały odkryte dopiero kilka tygodni temu. Na całym świecie funkcjonują teleskopy, które wypatrują obiektów, które mogą zagrozić Ziemi. Wspaniałą pracę robią tutaj także astronomowie amatorzy, którzy analizują zdjęcia zrobione przez „zawodowe” teleskopy. Jednakże te mniejsze obiekty bardzo trudno zobaczyć i często odkrywa się je w ostatniej chwili. Zresztą, czas odkrycia nie ma specjalnego znaczenia, bo i tak nie mamy technologii, która mogłaby nas uchronić przez kolizją z kosmiczną skałą.

Jak – w zależności od wielkości obiektu – wyglądają skutki zderzenia asteroidy z Ziemią? Gdyby asteroida miała średnicę do 25 metrów, takie obiekty uderzają w Ziemię średnio raz na 150 lat, najprawdopodobniej w całości spaliłaby się w ziemskiej atmosferze. Zagrożenie związane z takim „spotkaniem” byłoby zerowe. Meteor czelabiński, który wszedł w ziemską atmosferę 15 lutego 2013 roku miał nie więcej niż 20 metrów średnicy. W wyższych warstwach atmosfery obiekt rozpadł się na drobne kawałki i większość z nich wyparowała w drodze do powierzchni Ziemi. Te nieliczne, które „przetrwały” lekko uszkodziła kilka tysięcy budynków (w dość ciasno zabudowanym mieście) i spowodowały niewielkie obrażenia około tysiąca osób. W przeważającej większości, chodziło o rany spowodowane odłamkami szkła. Straty zostały spowodowane przez falę uderzeniową, a nie odłamki meteorytu.Tak duży obiekt jak meteor czelabiński ostatni raz wszedł w ziemską atmosferę w 1908 roku, czego skutkiem była katastrofa tunguska.

A co z większymi obiektami?

obiekt czas skutki
do 50 m co 1500 lat zniszczenia obejmują średniej wielkości miasto, pojawiają się pożary i fale tsunami
do 150 m co 20 000 lat zniszczenia obejmują kilkaset kilometrów kwadratowych
do 300 m co 100 000 lat totalne zniszczenia w promieniu 100 km, szkody w promieniu kilkuset kilometrów
do 600 m co 200 000 lat tsunami na całej planecie, zniszczenia obszaru porównywalnego z Polską
do 1000 m co 1 000 000 lat poważne zmiany klimatyczne odczuwalne na całej planecie, zniszczony obszar porównywalny z całą Europą
do 5000 m co 20 000 000 lat globalne zniszczenie, pyły powstałe w wyniku kolizji zasłaniają Słońce, wieloletnia zima na całej planecie
powyżej 10 000 m co 100 000 000 lat po nas…

W Układzie Słonecznym znajdują się miliony, miliardy obiektów, które potencjalnie mogłyby nam zagrozić. Grawitacyjną ochronę nad naszą małą planetą sprawuje jednak Słońce i dwa gazowe giganty, czyli Jowisz i Saturn. To one ściągają na siebie przeważającą większość obiektów, które mogłyby uderzyć w Ziemię. Warto także zdawać sobie sprawę z tego, że odległości w kosmosie są… prawdziwie kosmiczne. Nawet jeżeli mówimy o tak bliskim przelocie jak ten aktualny.

Dane w powyższej tabelce są mocno przybliżone, oddają jednak skalę zagrożenia. Dla osób bardziej zainteresowanych polecam dwa symulatory/kalkulatory, dzięki którym można policzyć i zobaczyć zagrożony przez kosmiczny obiekt obszar.

– Pierwszy symulator jest dla mniej zaawansowanych:

uderzenie

– Drugi dla osób, które nieco bardziej chcą się zagłębić w problem:

uderzenie2

>>> Zapraszam na profil FB.com/NaukaToLubie (kliknij TUTAJ). To miejsce w którym staram się na bieżąco informować o nowościach i ciekawostkach ze świata nauki i technologii.

4 komentarze do Co by się stało…

Robot obiad ci poda

W pierwszych dniach stycznia, na kampusie George Mason University’s w USA pojawiło się 25 robotów dostarczających żywność. Udało im się dokonać niemożliwego. Dzięki nim, studenci zaczęli normalnie się odżywiać.

W pierwszych dniach stycznia, na kampusie George Mason University’s w USA pojawiło się 25 robotów dostarczających żywność. Roboty wbudował i dedykowaną aplikację napisał start-up Bay Area należący do Starship Technologies.
Po trzech miesiącach trwania eksperymentu okazało się, że dzięki robotom studenci zaczęli lepiej się odżywiać. Z badań przeprowadzonych przed eksperymentem wynika, że prawie 90 proc. młodych ludzi rezygnuje z jedzenia śniadania nie z powodu braku pieniędzy, tylko braku czasu. W skrócie, gdy mamy do wyboru dłuższy sen albo śniadanie, wybieramy spanie. Chyba każdy z nas tak by wybrał.
Tymczasem okazuje się, że dzięki robotom, studenci zaczęli jeść śniadania. To samo dotyczy ciepłych posiłków w porze obiadu. I w tym przypadku chodziło o brak czasu. Ale urządzenie, które dotrzymuje kroku najbardziej zabieganym skutecznie przekonało młodych ludzi do tego by zamówić ciepły posiłek, z dostawą dokładnie do miejsca które w danym momencie wydaje się być optymalne. Czasami mamy po prostu ochotę posiedzieć na ławce w parku, a czasami pracę do wykonania w budynku oddalonym od stołówki. Tymczasem robot dojeżdża do każdego miejsca w kampusie w czasie nie dłuższym niż 15 minut.
O tym jak ważne jest regularne spożywanie posiłków powie każda mama, ale też każdy lekarz czy naukowiec zajmujący się żywieniem. To szczególnie istotne gdy organizm się rozwija i wtedy kiedy musi sprawnie analizować i uczyć się. Źle odżywieni studenci mają mniejsze osiągnięcia naukowe i sportowe. Częściej zapadają na różnego rodzaju choroby. Przy czym (może w przeciwieństwie do czasów zamierzchłych) złe nawyki żywieniowe dzisiejszych żaków nie wynikają z biedy czy dostępności jedzenia, a z braku czasu.
 
Biznesowo projekt skonstruowany jest następująco. Student płaci za posiłek kwotę taką samą jaką zapłaciłby w stołówce. Do tego – za dostarczenie – doliczana jest opłata 1,99 USD. Ta opłata jest zyskiem firmy dostarczającej roboty. Z kolei uczelnia ma swój udział w firmie przygotowującej posiłki. Uczelnia zarabia, bo sprzedaje się więcej posiłków. Zadowoleni są także studenci, bo… co to za przyjemność chodzić głodnym. W skrócie, rzadko spotykana sytuacja win-win.
W dłuższej perspektywie odpowiednio odżywieni studenci mogą mieć wpływ na lepsze wyniki samego uniwersytetu. Nie mówiąc już o tym, że uczelnia która ma w swojej ofercie taką ofertę może przyciągnąć do siebie więcej kandydatów, a to zawsze podnosi poziom nauczania. Już dzisiaj wiadomo, że podobny system zostanie wprowadzony na kolejnym amerykańskim uniwersytecie Flagstaff z Północnej Arizony. Po kampusie tej uczelni będzie jeździła flota 30 robotów Starship Technologies.
Zobaczcie sami jak to działa:

5 komentarzy do Robot obiad ci poda

Polecimy na Trytona?

Amerykańska Agencja Kosmiczna NASA zaproponowała przeprowadzenie misji na Trytona, największy księżyc Naptuna. Na tym globie, pod grubą warstwą lodu, mogą znajdować się wodne oceany a w nich życie.

Amerykańska Agencja Kosmiczna NASA zaproponowała przeprowadzenie misji na Trytona, największy księżyc Naptuna. Na tym globie, pod grubą warstwą lodu, mogą znajdować się wodne oceany a w nich życie.

Tryton jest jednym z najmniej zbadanych globów Układu Słonecznego. W zasadzie mamy jego zdjęcia tylko dzięki misji Voyager2. Widać na nich lodowy świat, który jest… aktywny geologicznie. Sonda odkryła bowiem, że na księżycu funkcjonują kriowulkany (lodowe gejzery). Zdjęcia o których mowa zostały jednak zrobione 30 lat temu (w 1989 roku) przez urządzenie zaprojektowane i wybudowane prawie 50 lat temu. Najwyższy więc czas na zaktualizowanie danych, które mamy.

Kilka dni temu przedstawiciele NASA, na specjalnie zwołanej konferencji prasowej, zaproponowali wysłanie na Trytona niewielkiej (i co podkreślano – taniej) sondy, która zbadałaby niektóre parametry księżyca. Wśród nich możliwość istnienia na Trytonie (a w zasadzie pod jego powierzchnią) prostego, bakteryjnego życia.

Z powodu zestalonego azotu i dwutlenku węgla, Tryton jest bardzo jasny (odbija bardzo dużo światła słonecznego) i… wygląda jak melon. Przynajmniej na niektórych obszarach. Oprócz nich, powierzchnia księżyca poprzecinana jest głębokimi i długimi na setki kilometrów bruzdami. Księżyc jest aktywny geologicznie (a to w Układzie Słonecznym ewenement) i to właśnie z powodu tej aktywności powstają wspomniane bruzdy. A także lodowe wulkany. Tryton jest największym księżycem Neptuna, ale licząc od powierzchni planety, jest dopiero ósmy w kolejności. Co ciekawe, jest jedynym – z tych dużych – księżycem w naszym układzie, który porusza się ruchem wstecznym. Innymi słowy, obraca się w przeciwnym kierunku do kierunku obrotu planety. To znaczy, że Tryton nie powstawał razem z Neptunem, tylko został przez niego grawitacyjnie przechwycony później. Nie dość, że Tryton nie powstał razem ze swoją planetą, najpewniej, Neptun go „przeżyje”. Tryton powoli zbliża się do powierzchni planety i za od 1,5 do 3,5 mld lat zderzy się z nią. Księżyc w 25 proc. składa się z wody, a w pozostałych 75 proc. z materiału skalnego. W chwili zderzenia rozsypie się jak potłuczona szyba na wiele małych kawałków, tworząc wokół Neptuna pierścienie podobne do tych, które posiada np. Saturn.

 

Tryton jest jednym z najzimniejszych miejsc Układu Słonecznego. Co do wielkości, w zasadzie nie różni się od Plutona i jest tylko trochę mniejszy od naszego Księżyca. Wokół Neptuna porusza się w podobnej odległości co Księżyc od Ziemi. Ze zdjęć wykonanych przez sondę Voyager2 wynika, że pióropusze lodowych kawałków, płynnego azotu i metanu wyrzucane są na wysokość nawet 8 km ponad powierzchnię księżyca. Z tych lodowych erupcji pochodzą także gazy (metan, amoniak i dwutlenek węgla), które tworzą bardzo rzadką atmosferę. Jej skład bardzo różni się w zależności od pory roku. A te na Trytonie zmieniają się jednak dość rzadko, bo co kilkadziesiąt ziemskich lat.

Brak komentarzy do Polecimy na Trytona?

Chiny na Marsie, Mars w Chinach

Cóż tam, panie, w polityce? Chińczyki trzymają się mocno!? Oj mocno.
I to nie tylko w polityce, ale także w nauce. Chiny właśnie otwarły zaawansowany ośrodek w który będą symulowali warunki marsjańskie, kilka tygodni temu chiński lądownik Cheng4 wylądował na „odwrotnej” stronie Księżyca, a to dopiero początek!

W chińskim mieście Mang, położonym tuż przy granicy z Birmą, powstała bardzo zaawansowana makieta marsjańskiego miasta (bazy). W zasadzie tak zaawansowanej bazy nie ma chyba nigdzie indziej. Celem budowy tego ośrodka jest z jednej strony przyciągnięcie turystów i edukacja, z drugiej ćwiczenie ekspertów i symulowanie tego co czeka nas na czerwonej Planecie. W ośrodku będą także prowadzone badania naukowe, w tym badania człowieka. Równocześnie może w nim pracować około 60 osób.

Ośrodek otwarto w zeszły piątek, a koszt jego budowy wyniósł prawie 25 milionów dolarów. Pieniądze nie pochodziły jednak z kasy państwa. Wyłożył je prywatny donator.

Miejsce w którym ośrodek powstał, jego otoczenie, przypomina to czego można się będzie spodziewać na Marsie. Sucha, piaszczysto-kamienista okolica ułatwi prowadzenie treningów i urealni symulacje. Oczywiście na powierzchni Marsa będzie znacznie, znacznie trudniej, z powodu bardzo rzadkiej atmosfery, niskiego ciśnienia i nieporównywalnie większej amplitudy temperatury. I być może najważniejsze. na Marsie panuje wysoki poziom promieniowania kosmicznego, przed którym, na Ziemi chroni nas atmosfera i pole magnetyczne planety. Te różnice nie zmieniają jednak tego, że zdobycie Marsa przez człowieka musi być poprzedzone budowaniem ośrodków szkoleniowych i baz na Ziemi. Jest jeszcze jeden cel ich budowy. Takie miejsca inspirują młodych ludzi. A to bardzo ważne przy budowaniu planu podboju kosmosu. Te inspiracje u niektórych zostaną wykorzystane i rozwinięte w życiu zawodowym, a u innych przekonają że rozwój nauki i technologii ma ogromny sens.

Odwrócona strona Księżyca. Zdjęcie zrobione z pokładu lądownika Cheng4. Widać na nim łazik Yutu-2 zmierzający w kierunku krateru Aitken.

Kto pierwszy będzie na Marsie? Amerykanin? Chińczyk? A może zostanie zorganizowana wspólna misja? W to ostatnie najtrudniej mi uwierzyć. Chiński program kosmiczny rozwija się w zawrotnym tempie. Sukces goni sukces. Żeby to zrozumieć, musimy zdawać sobie sprawę z tego, że pierwszy Chińczyk znalazł się na orbicie dopiero w 2003 roku, 42 lata później niż pierwszy Rosjanin (Gagarin) i pierwszy Amerykanin (Shepard). Dzisiaj, Chiny dawno wyprzedziły Rosję i gonią Amerykę. Kilka tygodni temu, chiński lądownik Cheng4, wylądował na „odwrotnej” stronie Księżyca. W miejscu w którym wcześniej nikt nie lądował. To nie był błachy sukces. Odwrócona od Ziemi strona Księżyca jest jedynym miejscem w całym Układzie Słonecznym (a może i całym kosmosie), do którego nigdy bezpośrednio nie dotrą fale radiowe z Ziemi. A to oznacza, że komunikacja z Cheng4 musiała się odbywać za pomocą satelitów pośredniczących.

To lądowanie pokazuje, że dzisiaj Chińczyków stać już na oryginalność. Nie budują swojego programu kosmicznego na wzór i podobieństwo innych (choć na początku ich rozbiegu tak właśnie było). To jasne jak Słońce, że chcąc lądować na obcych globach, trzeba to poćwiczyć na naszym Księżycu. Jest najbliżej, więc jest oczywistym poligonem testowym. W kierunku Księżyca swoje sondy wysyłali Amerykanie, Rosjanie, ale także Chińczycy, Japończycy, Irańczycy, a w przyszłym miesiącu ma tam lecieć sonda izraelska. Na powierzchni globu lądowali Amerykanie i Rosjanie (Japończycy i Irańczycy swoje sondy rozbijali o powierzchnię Księżyca). Wszyscy jednak wybierali widoczną stronę naszego satelity. Choć nie wszystkie jej kawałki zostały zbadane, generalnie jest ona bardzo dobrze poznana. Chińczycy swoje pierwsze lądowanie także odbyli po widocznej stronie Księżyca, ale kolejne, to sprzed kilku tygodni, postanowili zrobić po stronie niewidocznej. Amerykanie czy Rosjanie lądowali na Srebrnym Globie wielokrotnie. Chińczycy teraz zrobili to po raz drugi. I podnieśli sobie poprzeczkę lądując tam, gdzie nikt inny nie wylądował. Samo lądowanie to jedno, ale misja ma bardzo ciekawy i oryginalny program naukowy. Łącznie z testowaniem czy na Księżycu mogłyby się rozwijać rośliny i zwierzęta.

Tamta strona Księżyca jest wciąż zagadką i choć sam satelita jest blisko Ziemi a jego zdjęcia (a więc i mapy) są bardzo wysokiej jakości, odwrócona strona Księżyca jest niezbadana. Biorąc pod uwagę, że jest inna niż ta strona którą widzimy, w pewnym sensie, Chińczycy wylądowali na zupełnie innym globie.

Co teraz? Jeszcze w tym roku na Księżyc poleci kolejna sonda, której celem będzie przywiezienie księżycowych próbek. W kolejnym roku zaplanowane jest lądowanie na Marsie. Z kolei za 2,5 roku, jeżeli wszystko pójdzie zgodnie z planem, na orbitę zostaną wyniesione i złożone elementy chińskiej stacji orbitalnej Tiangong. Stacji, która będzie miała stałą załogę.

Program kosmiczny Chin to typowy przykład syndromu młodszego brata. Młodsze rodzeństwo rozwija się szybciej i często dochodzi dalej, bo przyglądając się starszemu, nie popełnia błędów i korzysta z doświadczeń. Ma też większy rozmach i stać je na większą fantazję i oryginalność. Zdarza się, że takie podejście pozwala młodszemu prześcignąć starszego. Mimo tego, że ten starszy ma większe doświadczenie.

Brak komentarzy do Chiny na Marsie, Mars w Chinach

Ile mamy planet?

Odpowiedź na pytanie o to ile mamy planet w Układzie Słonecznym, wcale nie jest prosta. Wydaje się, że 9. Z tym, że o tej ostatniej wiemy z matematycznych wyliczeń a nie z obserwacji.

W 2006 roku, Międzynarodowa Unia Astronomiczna, pozbawiła Plutona miana planety. W sumie, tak na chłodno, bez emocji, należało mu się. Jest inny niż wszystkie pozostałe. Na tyle inny, że są uzasadnione podejrzenia, że nie powstawał razem z resztą, że ma inna historię i przybył do nas „z zewnątrz”. 
I gdy już się wydawało, że wszystko jest jasne, kilka lat temu, odżyła stara koncepcja, która mówi, że na obrzeżach Układu jest dziewiąta planeta. Nikt jej nie widział, ale gdyby rzeczywiście tam była, tłumaczyłoby to „dynamikę Układu Słonecznego”. O co chodzi?
Obiektem, który rozdaje grawitacyjne karty u nas w Układzie jest Słońce. Jego masa wynosi ponad 99 proc. masy całego Układu. Od masy zależy siła grawitacji, więc nie dziwota, że grawitacja słoneczna kształtuje wszystko co dzieje się na naszym podwórku. No prawi wszystko. Bo gdyby dokładnie się przyjrzeć, szczególnie gdy patrzymy na obszary oddalone od Słońca, widać wyraźnie że na ruch obiektów (szczególnie tych małych) wpływ mają także pola grawitacyjne innych planet. Szczególnie Jowisza i Saturna. Gdy przyglądamy się jeszcze bliżej… coś nam się nie zgadza. Bo albo czegoś nie rozumiemy z lekcji grawitacji, albo daleko, na obrzeżach Układy znajduje się jeszcze jeden, dość masywny obiekt. Jest tak daleko, że nieprędko go zobaczymy, ale czujemy jego obecność. A właściwie widzimy efekty tej obecności w ruchach niewielkich obiektów na dalekich orbitach.
Teraz okazuje się, że z wyliczeń jakie przeprowadzili naukowcy z California Institute of Technology (Caltech) wynika, że jeżeli ta planeta rzeczywiście istnieje, jej masa może wynosić około 5 razy więcej niż masa Ziemi. To oczywiście znacznie, znacznie mniej niż wynosi masa Jowisza czy Saturna, ale więcej niż zsumowana masa Merkurego, Wenus, Ziemii i Marsa. Z tych samych wyliczeń wynika, że odległość Dziewiątej Planety od Słońca jest kilkaset razy większa niż odległość Ziemi od Słońca (dla porównania, dla Jowisza to 5x większa odległość, dla Saturna 10x większa).
 
Podobno to co najciekawsze w Układzie Słonecznym, jeszcze nie zostało odkryte. Peryferia, zawsze skrywają najwięcej tajemnic. Peryferia świata w którym żyjemy są zimne, mroczne i tak odległe, że w zasadzie długo jeszcze będą niedostępne. Przynajmniej dla naszych oczu. Całe szczęście matematyka może sięgać, gdzie wzrok nie sięga.
6 komentarzy do Ile mamy planet?

Najbardziej cieszą nas zielone

Czym jest piękno nauki? Dla jednych to prostota matematycznych formuł, dla innych zaś piękne przekroje geologicznych struktur. Piękne mogą być wykresy, ale także obrazy spod mikroskopu i teleskopu kosmicznego.

Czym jest piękno nauki? Dla jednych to prostota matematycznych formuł, dla innych zaś piękne przekroje geologicznych struktur. Piękne mogą być wykresy (szczególnie te wielowymiarowe), ale także obrazy spod mikroskopu i teleskopu kosmicznego. Piękne są zdjęcia motylich skrzydeł i zdjęcia chmur zrobionych z orbity. Patrząc na te obrazy, wykresy, czasami bardzo dziwne, stosowane tylko w języku matematyki, znaki… doceniamy nie to, czym one są, ale to, jakie one są. Nie musimy chyba wiedzieć, co obraz, wykres czy formuła konkretnie przedstawiają. Za serce łapie nas to, co w nich ulotne i subiektywne. Połączenie nauki ze sztuką jest tak naturalne, jak wschód i zachód Słońca. Jak to, że w niższej temperaturze para wodna kondensuje i tworzy niepowtarzalne kryształy wody, czyli piękne płatki śniegu. I czy na prawdę trzeba rozumieć zasady symetrii i znać wykres przemian fazowych, aby docenić ich piękno?

Fundacja Badań i Rozwoju Nauki zorganizowała aukcję charytatywną, podczas której zlicytowane zostaną intrygujące zdjęcia wysp trzustkowych wykonane przez mikroskop fluorescencyjny. Uzyskane w ten sposób środki zostaną przeznaczone na rozbudowę Laboratorium Biodruku Tkankowego, które umożliwia realizację projektów związanych z biodrukowaniem tak tkanek, jak i całych organów.

Druk 3D w medycynie to rewolucja, na progu której stoimy. Dzięki niej – „na miarę” i z własnych komórek – będzie można drukować tkanki i organy. Dzisiaj osoby z uszkodzonym sercem, nerką czy trzustką muszą, czasami miesiącami, czekać na dawcę. Ale przyszłość rysuje się inaczej! Już dzisiaj można drukować substancjami, które są szkieletem, rusztowaniem dla żywych komórek. W ten sposób od 2013 roku zaczęto drukować pokiereszowane czy stracone w wyniku wypadku syntetyczne chrząstki uszu lub nosa. Potem zaczęto drukować kości.

Po elementach drukowanych z materiałów sztucznych (choć biokompatybilnych) przyszedł czas na drukowanie żywymi komórkami. Trzy lata temu grupie badaczy z amerykańskiego Wake Forest Baptist Medical Center udało się wydrukować warstwę skóry wprost na oczyszczoną ranę pacjenta. Z kolei naukowcy z dwóch amerykańskich uczelni (University of Pennsylvania oraz MIT) już jakiś czas temu wydrukowali z żywych komórek naczynia krwionośne. A w San Diego jedna z firm stworzyła technologię, która umożliwia drukowanie… wątroby.

Drukowanie całych narządów jest sporym wyzwaniem. Drukarka nie może nakładać kolejnych warstw żywych komórek, ponieważ pomiędzy nimi muszą zostać wprowadzone naczynia krwionośne. W przypadku takich narządów jak wątroba, mamy dodatkowo do czynienia z wieloma rodzajami komórek. Ale te ograniczenia udaje się coraz częściej przezwyciężać.

W polskiej Fundacji Badań i Rozwoju Nauki, w konsorcjum Bionic, naukowcy starają się wydrukować w pełni działającą, żywą trzustkę. Brzmi to abstrakcyjnie, ale co do zasady jest dość proste. W drukarce, w odpowiednich pojemnikach, umieszcza się żywe komórki produkujące insulinę, komórki śródbłonka do tworzenia naczyń, a także zawiesinę tzw. macierzy zewnątrzkomórkowej, czyli rusztowania, które następnie utrzyma całość. Kolejny krok nie różni się od „zwykłego” drukowania 3D. Drukarka warstwa po warstwie układa zawartość poszczególnych pojemników. Następnie tak wydrukowany organ umieszcza się na kilka dni w inkubatorze i… trzustka gotowa!

Przed polskimi naukowcami przełomowa próba. W najbliższych tygodniach chcą – jako pierwsi na świecie – wydrukować w pełni unaczynnioną trzustkę. Prototyp narządu zostanie umieszczony w bioreaktorze i poddany kolejnym testom. Gdy te przebiegną pomyślnie, przyjdzie czas na testy na zwierzętach, którym zostanie wszczepiony w pełni funkcjonalny, całkowicie wydrukowany narząd. To będzie prawdziwy przełom w medycynie, którego wypatrują miliony, nie mogących się doczekać na dawcę, chorych. W biodruku nie chodzi jednak tylko o to, aby każdy potrzebujący natychmiast otrzymał organ do przeszczepu. W tej technologii, tkanki czy narządy, mogą być drukowane z namnożonych komórek pacjenta, a to oznacza, że znika ryzyko odrzucenia przeszczepu. Nadzieje są ogromne. A niecierpliwym polecam poważniejsze traktowanie filmów czy książek science – fiction. W wielu z nich – chociażby w serialu „Star Trek” – części uszkodzonego ciała były replikowane. Po prostu.

To przyszłość, choć wierzę, że wcale nie odległa. Na kolejne badania potrzebne są oczywiście pieniądze. Fundacja Badań i Rozwoju Nauki pozyskuje je z różnych źródeł. Jednym z nich będzie właśnie organizowana aukcja, podczas której zlicytowane zostaną piękne obrazy. I chyba wcale nie trzeba rozumieć w detalach, jakie funkcje w organizmie spełnia trzustka, jaka jest jej struktura i czym dokładnie są wyspy trzustkowe. Wystarczy patrzeć na ich zdjęcia i zachwycać się. Tak jak obrazami galaktyk, kolonii koralowców czy warstw skał osadowych.

Aukcja charytatywna “Najbardziej cieszą nas zielone” ma charakter otwarty. Wymaga jedynie wcześniejszej rejestracji na stronie aukcji.

Wydarzenie odbędzie się 14.03.2019 r., o godz. 18:30, w Sali Konferencyjnej Instytutu Chemii Przemysłowej przy ul. Rydygiera 8 w Warszawie.

Szczegóły na: https://fundacjabirn.pl/aukcja/

Brak komentarzy do Najbardziej cieszą nas zielone

Czy wiemy, co one tam robią?

Czy mamy świadomość, co nasze dzieci robią w internecie? Oczywiście, że nie mamy. Ufamy, że nie robią nic głupiego. Zaufanie to podstawa wychowania. Ale może czasami ufając, warto sprawdzić? Dla ich dobra.

Czy my, rodzice, mamy świadomość, co nasze dzieci robią w internecie? To pytanie retoryczne. Oczywiście, że nie mamy o tym pojęcia. Ufamy, że nie robią nic głupiego. Zaufanie to podstawa wychowania. Ale może czasami ufając, warto sprawdzić? Dla ich dobra.
 
Nigdy nie mogłem zrozumieć, skąd wzięło się całkowicie błędne przekonanie, że internet daje anonimowość. Jaką anonimowość? Przecież człowiek jest bardziej anonimowy gdy chodzi po dużym mieście z zawieszoną na szyi tabliczką na której jest jego imię i nazwisko, adres, data urodzenia i numer buta. W internecie nic nie jest anonimowe, nigdy anonimowe nie było i nigdy takie nie będzie. A mimo to, część z nas uważa, że może pozostać bezkarna robiąc głupie rzeczy.
Znam przypadek dziewczynki, w zasadzie nastolatki, którą jej klasowi rówieśnicy wpisami w internecie doprowadzili na skraj rozpaczy. Jechali tak ostro, że dziewczyna nie wytrzymała i gdyby nie wsparcie rodziców i dość zdecydowana reakcja, mogłoby dojść do tragicznych skutków. Przekleństwa i wulgarne przezwiska przez kilka dni padały na forum klasy i nikt nie reagował. Choć czytało wielu. Niektórzy się dołączali, inni tylko (a może aż?) milczeli. Prowodyrów było dwoje. Koleżanka, siedząca w pierwszej ławce i kolega, wzorowy uczeń, sportowiec. Rodzice byli w szoku. Dziwili się, bo przecież ich dzieci… no kto by pomyślał? Oni chyba powinni pomyśleć.
 
Z jakiegoś powodu nasze dzieci nie rozumieją, a i my mamy z tym kłopot, że świat nie dzieli się na ten prawdziwy realny i ten udawany cyfrowy. W tym realnym nie wypada komuś napluć w twarz, nie wypada go zwyzywać i oskarżyć np. o handel swoim ciałem. Ale w tym udawanym wszystko wolno. Bo co? Bo nikt się nie dowie? Bo nikt nie zapamięta? Bo nie uda się sprawdzić? Bo nikt nie potraktuje tego poważnie? Bo mniej zaboli? Co za brednie! Internet pamięta wszystko. Temu młodemu, zdolnemu sportowcowi, ktoś może za kilka lat zrujnować karierę przypominając głupotę młodości. Tej młodej dziewczynie, ktoś może przypomnieć wulgaryzmy gdy będzie starała się o pierwszą pracę. W świecie analogowym wspomnienia, ekscesy i wybryki mogą ulec zapomnieniu. W Internecie nigdy.
 
My, drodzy rodzice, nie mamy bladego pojęcia co nasze dzieci robią w internecie. Zabronić? Broń Boże. Uczyć i mieć pełną świadomość możliwości i zagrożeń. A tak na początek, pierwsze ćwiczenie. Wiecie ile kont wasze dzieci mają na popularnych serwisach społecznościowych? Ile z nich znacie? Ile to konta ukryte zakładane pod pseudonimem? Czy wiecie jakich słów, jakich zwrotów najczęściej wyszukują w przeglądarkach internetowych? Czy wiecie kogo oglądają na platformach video? Przecież wielokrotnie, z tymi osobami „spędzają” więcej czasu niż z wami. Kontrolować na każdym kroku? To moim zdaniem niewykonalne. Jasne że ufać, ale też pamiętać, że ludzie (może szczególnie ci młodzi) robią głupie rzeczy. Te w internecie, nigdy nie zostaną zapomniane. Więc może dobrze, dla ich dobra, ufając, choć czasami sprawdzić.
2 komentarze do Czy wiemy, co one tam robią?

Doping czyni mistrza

Co decyduje o zwycięstwie? Dobrze grający piłkarze, to za mało. Równie ważny jest doping i miejsce w którym odbywa się mecz. Takie wnioski można wyciągnąć z danych statystycznych.

Każdy fan piłki nożnej wie, że doping może czynić cuda. Piłkarze lepiej grają gdy zagrzewa ich do tego rozentuzjazmowana publiczność, a i naciskający na plecy oddech obserwującego mecz tłumu może robić swoje. Najwięcej „własnych” kibiców mają oczywiście gospodarze spotkania. Ale co ciekawe, analizy statystyczne wskazują, że głośny doping wpływa nie tylko na uganiających się za piłką po boisku piłkarzy. Także arbiter główny czuje presję wrzeszczących na trybunach kibiców. Jego sądy są w dużej mierze zależne od tego która drużyna ma więcej swoich zwolenników na trybunach.

Analiza statystyczna pokazuje, że drużyna bardziej dopingowana dostaje od sędziego głównego średnio o 16 % mniej kar niż drużyna gości. Sędziowie – zapewne bojąc się reakcji trybun – rzadziej zauważają np. że piłka przekroczyła boczną linię boiska. Taka reakcja arbitrów wynikać może w dużej mierze z niepewności. Ludzkie oko potrzebuje około pół sekundy na „złapanie ostrości” gdy obserwując odległy obiekt, nagle musi śledzić sytuację blisko siebie. Sędzia wręcz musi się mylić. Nie jest w stanie z fizjologicznego punktu widzenia wszystkiego dostrzec. Choć oczywiście pomagają mu w tym najnowsze zdobycze techniki. Ale gdy pojawia się niepewność, a czas leci nieubłaganie, to w dużej mierze ogromna presja głośniej zachowujących się na trybunach fanów dyktuje co robić. Badania wykazały także, że sędziowie częściej wydłużają mecze gdy gospodarze przegrywają. Co prawda – to także mówią statystyki – rzadko ma to wpływ na wynik końcowy meczu, ale jest dosyć irytujące dla fanów drużyny gości.

Jakkolwiek by na to nie spojrzeć, drużyna bardziej dopingowana jest podwójnie uprzywilejowana. Po pierwsze drużynie gra się lepiej przy silnym dopingu swoich, a po drugie drobne błędy są jej częściej wybaczane przez zestresowanego ewentualną reakcją fanów sędziego. Czy da się ilościowo ocenić wpływ „czynnika oszalałego tłumu” na wynik końcowy meczu ? To trudne zadanie, ale można spróbować. Gdyby doping nie miał wpływu na wynik pojedynku na boisku, wtedy meczów wygranych przez gospodarzy byłoby średnio tyle samo ile wygrywanych przez gości. Tymczasem statystyki mówią, że 60 % meczów wygrywa drużyna głośniej dopingowana (pozostałe 40 % to przegrane gospodarzy i remisy). I jeszcze jedno. Wygrana drużyny narodowej – i tutaj znowu statystyka – zwiększa szansę na zwycięstwo w najbliższych wyborach partii rządzącej. Z kolei kompromitacja drużyny to pewna zmiana warty na szczytach władzy. O ile mecze i wybory odbywają się w krótkich (do miesiąca, może dwóch) odstępach czasu. No ale to już polityka, a o tej nie chcę tutaj pisać 😉

1 komentarz do Doping czyni mistrza

Zakażenia w szpitalach poważnym problemem

Brudne ręce personelu medycznego, skażone otoczenie chorego, zatrudnianie osób nieprzygotowanych do pracy w szpitalach wskazują, jak bardzo nieskuteczny jest w niektórych placówkach system przeciwdziałania zakażeniom wewnątrzszpitalnym ostrzega NIK. Tymczasem szacuje się, że efektywne systemy kontroli zakażeń mogą zmniejszyć ryzyko ich wystąpienia od 55% do 70%.

Brudne ręce personelu medycznego, skażone otoczenie chorego, zatrudnianie osób nieprzygotowanych do pracy w szpitalach wskazują, jak bardzo nieskuteczny jest w niektórych placówkach system przeciwdziałania zakażeniom wewnątrzszpitalnym ostrzega NIK. Z najnowszego raportu Izby wynika, że wzrost liczby pacjentów m.in zarażonych lekoodpornymi szczepami bakterii Klebsiella Pneumoniae NDM(+) w 2016 r. był niemal trzykrotnie wyższy niż w 2015 r. Niestety NIK nie może podać kompletnych danych, bowiem funkcjonujące w kontrolowanych szpitalach systemy monitorowania i raportowania o zakażeniach nie dostarczały pełnych danych. Przekazane zestawienia w ocenie Izby mogą być znacznie zaniżone.

Zakażenia szpitalne związane z udzielaniem świadczeń zdrowotnych stanowią poważny problem wszystkich szpitali, nawet w krajach o najwyższych standardach opieki zdrowotnej. Dotyczą od 5 do 10 % osób leczonych szpitalnie. Zakładając, że w polskich szpitalach ulega zakażeniom tylko 5% procent pacjentów to i tak daje to ok. 400 tys. osób. Źródłem przenoszenia bakterii mogą być m. in. brudne ręce personelu medycznego, niejałowy sprzęt, skażone otoczenie chorego, przyjmowanie pacjentów wymagających szczególnych warunków hospitalizacji bez ich zapewnienia, zatrudnianie osób nieprzygotowanych do pracy w szpitalach.

Do grupy osób najbardziej narażonych należą pacjenci np. po przeszczepach, z zaburzeniami odporności po terapii przeciwnowotworowej, po rozległych oparzeniach, dzieci do pierwszego roku życia i osoby starsze. Zakażenia szpitalne wydłużają pobyt w szpitalu, powodują powikłania prowadzące często do niepełnosprawności, przez co zwiększają koszty leczenia. Koszty generują też roszczenia pacjentów, którzy potrafią udowodnić, że zostali zakażeni z winy szpitala.

Narzędziem służącym ograniczeniu przypadków zakażeń szpitalnych powinien być prawidłowo działający system zapobiegania i zwalczania zakażeń, utworzony w szpitalu na podstawie istniejących przepisów prawa. Szacuje się, że efektywne systemy kontroli zakażeń mogą zmniejszyć ryzyko ich wystąpienia od 55% do 70%. Kontrolą objęto 18 szpitali (17 działających jako samodzielny publiczny zakład opieki zdrowotnej utworzony przez samorząd i jeden szpital działający w formie spółki prawa handlowego) oraz 4 stacje sanitarno-epidemiologiczne finansowane z budżetu państwa w okresie od 2015 r. do końca I półrocza 2017 r.

Najważniejsze ustalenia kontroli

W kontrolowanych szpitalach odnotowano wzrost liczby pacjentów, u których zdiagnozowano zakażenie szpitalne o 8,5%, mimo, że liczba wszystkich hospitalizowanych pacjentów w tym samym okresie spadła o 1,9%. Przykładem szybkiego wzrostu liczby zakażonych pacjentów jest jeden ze szpitali na Mazowszu. Tam od stycznia 2015 r. do czerwca 2017 r. współczynnik zachorowalności wzrósł niemal dwukrotnie z 1,14% do  2,25% (współczynnik pokazuje liczbę zakażonych na 100 pacjentów hospitalizowanych). Najwyższy wzrost, jak wykazała NIK był na Oddziale Anestezjologii i Intensywnej Terapii ( z poziomu 27,35% w 2015 r. do 34,02 % w 2016 r. aż do 41,35 % w 2017 r. Na innych oddziałach też odnotowano wzrosty ale nie tak gwałtowne. Jak wyjaśnił zastępca dyrektora ds. lecznictwa szpitala wzrost liczby zarejestrowanych zakażeń nie jest spowodowany rzeczywistą liczbą zachorowań ale poprawą dostarczanych danych. NIK nie kwestionuje, że na wzrost współczynnika zachorowań mogło wpłynąć ujawnienie przez Zespół Kontroli Zakażeń Szpitalnych większej liczby zakażeń, jednak dynamika wzrostu budzi zaniepokojenie i zdaniem NIK wymaga pogłębionej analizy przyczyn ich występowania.

Izba zwraca też uwagę na prawie trzykrotny wzrost (o 278,7%) między 2015 a 2016 rokiem zakażeń lekoopornymi bakteriami Klebsiella Pneumoniae NDM(+). Najwięcej pacjentów hospitalizowano w województwie mazowieckim 2 757 osób, najmniej w pomorskim i małopolskim po 7 pacjentów. Z informacji Konsultanta Krajowego w dziedzinie mikrobiologii lekarskiej wynika, że ta bakteria w 2015 r. stanowiła najpoważniejszy problem medyczny i epidemiologiczny, dotyczący w szczególności szpitali warszawskich. Charakteryzuje się niezwykle niebezpieczną lekoopornością (na niemal wszystkie antybiotyki). Jednocześnie potrafi się szybko rozprzestrzeniać i utrzymywać w przewodzie pokarmowym przez kilka lat. W latach 2015 – 2017 (I półrocze) w województwie mazowieckim liczba hospitalizowanych pacjentów z jej powodu wynosiła odpowiednio 404, 1316 i 1037.

Poważny problem stanowi też sepsa (posocznica), która jest zespołem objawów spowodowanym nadmierną reakcją organizmu  na zakażenie (organizm walcząc z zakażeniem zaczyna niszczyć zdrowe organy). Sepsa stanowi bezpośrednie zagrożenie dla życia. W jej przebiegu dochodzi do niewydolności nerek, wątroby, serca, płuc. Najważniejsze w leczeniu jest możliwie najszybsze podanie antybiotyków. Z danych Narodowego Funduszu Zdrowia wynika, że w badanym przez NIK okresie liczba dorosłych hospitalizowanych z powodu sepsy wyniosła: 2015 r. – 19 053, 2016 r. – 21 522 a w pierwszej połowie 2017 r. – 10 962. Najwięcej, bo prawie jedną piątą (18,5%) leczono w województwie mazowieckim. W tym okresie Narodowy Fundusz Zdrowia zapłacił za leczenie sepsy w ramach kontraktów prawie 450 milionów złotych.

Zdaniem NIK, prowadzenie rejestru sepsy pozwoliłoby na uzyskanie wiarygodnych danych o rozpoznanych przypadkach, niezbędnych do analiz jej objawów, sposobów leczenia i poziomu śmiertelności. 

Na wysoki poziom zakażeń, w ocenie NIK, ma wpływ brak wyspecjalizowanego personelu medycznego. W składach Zespołów Kontroli Zakażeń Szpitalnych, powołanych w szpitalach (we wszystkich 18 kontrolowanych takie istniały) brakowało lekarza o wymaganej specjalności, odpowiedniej liczby pielęgniarek epidemiologicznych oraz specjalisty do spraw mikrobiologii.

Na dzień 30 czerwca 2017 r. w Polsce było zawodowo czynnych tylko 110 lekarzy specjalistów w dziedzinie mikrobiologii, w tym 61 w wieku powyżej 55 lat. Według NIK, taka sytuacja nie daje gwarancji należytego sprawowania ciągłego i bieżącego nadzoru epidemiologicznego. 

Wśród krajów europejskich Polska zajmujeostatnie miejsce pod względem praktykujących lekarzy specjalistów w dziedzinie mikrobiologia – bakteriologia. Niewiele lepiej jest z epidemiologami. W całej Polsce pracuje ich 219, najwięcej w województwie mazowieckim 57, najmniej w opolskim – 1.

Brakuje też pielęgniarek epidemiologicznych. To osoba uczestnicząca w szeroko pojętym zwalczaniu zakażeń, m. in. kontrolująca stan sanitarno – epidemiologiczny szpitala, prowadząca rejestr zakażeń, szkolenia personelu, nadzorująca i monitorująca pracę personelu, uczestnicząca w planowaniu opieki nad pacjentem z zakażeniem szpitalnym. Zgodnie z ustawą o zwalczaniu zakażeń  liczba pielęgniarek epidemiologicznych powinna być nie mniejsza niż 1 na 200 łóżek szpitalnych.  W 6 kontrolowanych szpitalach posiadających powyżej 200 łóżek nie zapewniono ustawowej liczby takich pielęgniarek. W dwóch mazowieckich szpitalach w skład Zespołu Kontroli Zakażeń Szpitalnych powołano tylko po jednej pielęgniarce, mimo, że szpitale te posiadały odpowiednio 354 i 564 łóżka. Dyrektor jednego z nich brak drugiej pielęgniarki tłumaczył trudnościami finansowymi. Jednak, w trakcie kontroli NIK zamieszczone zostało internetowe ogłoszenie o naborze na stanowisko pielęgniarki epidemiologicznej. Dyrektor drugiego poinformował, że też trwa nabór na to stanowisko. Zdaniem NIK, bezpośrednia podległość pielęgniarki epidemiologicznej kierownikowi danej jednostki zapewniłaby jej samodzielność w realizacji obowiązków i wzmocniłaby jej pozycję w kontaktach z personelem lekarskim.

Wiele uchybień dostrzeżonych przez NIK dotyczyło działalności Zespołów Kontroli Zakażeń Szpitalnych. W trzech szpitalach Zespół nie wywiązywał się z ustawowego obowiązku konsultowania osób podejrzanych o zakażenie lub chorobę zakaźną oraz tych, u których je wykryto. W pięciu brakowało dokumentacji o przeprowadzeniu takich konsultacji.

Odrębną sprawą jest dokumentowanie w szpitalach zakażeń.Analiza kart rejestracji wykazała, że były one sporządzane przez lekarzy nierzetelnie, często z pominięciem wielu danych.NIK skontrolowała 696 losowo wybranych kart. W 18 % z nich nie opisano czynników ryzyka, w 23 % nie podano zastosowanego leczenia antybiotykowego, w ponad 15 % nie odnotowano wykonania badania mikrobiologicznego, w 4 % nie określono postaci klinicznej zakażenia a w 3 % nie podano danych pacjenta. Ponadto 246 kart lekarze wystawili z opóźnieniem sięgającym do 288 dni. W dwóch szpitalach w ogóle nie prowadzono takiego rejestru, co było niezgodne z ustawą o zwalczaniu zakażeń. W jednym ze szpitali w województwie kujawsko – pomorskim nie prowadzono rejestru zakażeń i czynników alarmowych a wyniki badań mikrobiologicznych były rejestrowane w zeszytach prowadzonych na poszczególnych oddziałach. W dwóch przypadkach nie wykazano ujawnionych w badaniach patogenów alarmowych. Adnotacje nie zawierały m.in. daty otrzymania wyniku badań, informacji o potwierdzeniu lub braku wystąpienia patogenu alarmowego czyli drobnoustroju wyjątkowo opornego na działanie leków. Adnotacje obejmowały tylko liczbę stwierdzonych i rozpoznanych zakażeń. W jednym ze śląskich szpitali od 5 lipca do 30 października 2017 r. nie prowadzono rejestru z powodu awarii systemu informatycznego. W czasie kontroli NIK rejestr uruchomiono i do 9 listopada 2017 r. wprowadzono dane 284 pacjentów z 2016 r. W ocenie Izby sporządzanie kart rejestracji z opóźnieniem nie pozwalało na bieżące prowadzenie rejestru zakażeń i utrudniało wiarygodne określenie sytuacji epidemiologicznej szpitala.

A to w konsekwencji doprowadziło do braku precyzyjnych danych o sytuacji epidemiologicznej kraju. Według danych Narodowego Funduszu Zdrowia, w okresie objętym kontrolą (od 2015 r. do końca I półrocza 2017 r.) hospitalizowanych z powodu sepsy było 51 537 pacjentów a według danych Instytutu Zdrowia Publicznego – Państwowego Zakładu Higieny – 2 640. Tymczasem, w każdym z 18 skontrolowanych przez NIK szpitalu wystąpiły przypadki sepsy, w sumie 937 zachorowań.

Centrum Systemów Informacyjnych Ochrony Zdrowia, które gromadzi informacje z rocznych sprawozdań przesyłanych przez szpitale, wskazuje, że w 528 szpitalach stacjonarnych spośród 936 funkcjonujących w Polsce, a więc w ponad połowie, na koniec 2016 r. nie wykazano danych o pacjentach leczonych z powodu zakażenia i zgonów z tego powodu. Nieprawidłowości związane z wykazywaniem błędnych danych stwierdzono w siedmiu placówkach.

NIK ustaliła, że w kontrolowanych szpitalach liczba zakażeń związanych z udzielaniem świadczeń łącznie wyniosła 11 916. Natomiast zakażenie szpitalne zdiagnozowano u 11 488 pacjentów. Jako bezpośrednią przyczynę zgonu, zakażenie szpitalne wskazano  219 pacjentów, tj. ok. 1 % ogólnej liczby zgonów (22 167).

O braku wiarygodnych danych świadczą przeprowadzone tzw. badania punktowe. To badania zorganizowane w Polsce zgodnie z zaleceniem Rady Europy. Koordynowali je naukowcy z Collegium Medicum w Bydgoszczy, Uniwersytetu Mikołaja Kopernika w Toruniu i Narodowego Instytutu Leków w Warszawie.  Te badania punktowe wykazały, że liczba zakażeń szpitalnych może być nawet 5-krotnie wyższa, niż wynika to z danych Ministerstwa Zdrowia prezentowanych w mapach potrzeb zdrowotnych.

W Polsce w kontrolowanym okresie mogło dojść do ok. 400 tys. zakażeń rocznie.A to przekłada się na wydatki. Niestety żaden z kontrolowanych szpitali nie dysponował precyzyjnymi danymi dotyczącymi kosztów poniesionych w związku z wystąpieniem zakażenia. Analizy były prowadzone jedynie przez część szpitali, a koszty wyliczano w sposób uproszczony.  W 7 z kontrolowanych szpitali nie prowadzono ewidencji księgowej kosztów związanych z leczeniem zakażeń, np. w jednym ze szpitali w województwie warmińsko – mazurskim nie było danych dotyczących m.in. szacunkowych kosztów związanych z przedłużeniem leczenia pacjentów, u których wystąpiło zakażenie. Dyrektor tłumaczył tę sytuację niedoskonałością posiadanych narzędzi informatycznych. W pozostałych 11 szacunkowe koszty związane z przedłużeniem leczenia w kontrolowanych szpitalach wyniosły grubo ponad 85 milionów zł.

Zakażenia powodują wydłużenie czasu pobytu chorego w szpitalu. Średni pobyt  wynosił nieco ponad 5 i pół dnia. Zakażenie wydłużało ten czas do ponad 16 dni. Jak wynika z wyjaśnień dyrektorów szpitali, wydłużony czas leczenia jest głównym czynnikiem wpływającym na koszty leczenia pacjenta z zakażeniem.

Nie wszystkie szpitale realizowały zalecenia i decyzje organów Państwowej Inspekcji Sanitarnej w wyznaczonym terminie. Trzeba jednak przyznać, że większość podjęła działania w tym kierunku.

NIK zwraca też uwagę na niedostateczną liczbę badań mikrobiologicznych a to one pozwalają wcześnie wykrywać zakażenia i ustalać skuteczne antybiotyki. Średnia liczba takich badań w przeliczeniu na 1 łóżko szpitalne w danym roku była ok. dwukrotnie niższa niż w krajach Unii.

W trakcie kontroli okazało się, że 3 szpitale nie mają izolatek co jest niezgodne z ustawą o zwalczaniu zakażeń.

W cieple, wilgoci i brudzie bakterie, wirusy, grzyby  znajdują znakomite warunki do przetrwania i namnażania. Dlatego tak istotną rolę w zapobieganiu zakażeniom odgrywa czystość np. instalacji wentylacyjnych i klimatyzacji. Niestety w 5 szpitalach, jak ustaliła NIK, nie dokonywano okresowych przeglądów takich urządzeń zgodnie z zaleceniami producenta oraz nie dokumentowano czynności serwisowych. W jednym z mazowieckich szpitali nie zapewniono skutecznej wentylacji w pomieszczeniach sanitarno – higienicznych i łazienkach dla pacjentów. Brakowało też dokumentacji z okresowych przeglądów, czyszczenia, dezynfekcji bądź napraw urządzeń wentylacyjnych. Także w tym szpitalu powiatowy inspektor sanitarny nakazał doprowadzenie jakości wody do stosownych wymagań. W połowie kontrolowanych szpitali w ciepłej wodzie przekroczona była dopuszczalna norma obecności pałeczek Legionella.

Wnioski

Ustalenia kontroli NIK wskazują na konieczne wprowadzenie systemowych zmian, które powinny wpłynąć na poprawę sytuacji epidemiologicznej w polskich szpitalach. Kontrola wykazała, że mechanizm zapobiegania zakażeniom szpitalnym nie jest skuteczny a to stanowi zagrożenie dla zdrowia i życia pacjentów. Zła sytuacja finansowa części szpitali oraz niedobór wykwalifikowanej kadry medycznej powoduje, że nałożone przez prawo obowiązki nie są wykonywane rzetelnie co spowodowało rozprzestrzenienie się w kilku regionach Polski lekoopornych bakterii. Wadliwie działający system zbierania danych o zakażeniach doprowadził do braku pełnego obrazu skali zakażeń i rodzaju patogenów. NIK skierowała swoje wnioski do ministra zdrowia, kierowników szpitali i Inspekcji Sanitarnej.

17 MAJA 2018 07:00

Tekst i ilustracje pochodzą ze strony www.NIK.gov.pl . Pełny tekst raportu można znaleźć TUTAJ

 

Brak komentarzy do Zakażenia w szpitalach poważnym problemem

Najgroźniejsza broń biologiczna

Gdybym miał powiedzieć, którego rodzaju broni masowego rażenia boję się najbardziej, powiedziałbym, że biologicznej. Moim zdaniem, jest ona bardziej perfidna, niż chemiczna i atomowa.

Gdybym miał powiedzieć, którego rodzaju broni masowego rażenia boję się najbardziej, powiedziałbym, że biologicznej. Moim zdaniem jest ona bardziej perfidna niż broń jądrowa i chemiczna.

Zobacz odcinek:       https://youtu.be/raMiib2O28k

Tworząc ranking najgroźniejszych rodzajów broni zacząłem się zastanawiać, jakie kryteria powinienem wziąć pod uwagę. Na pewno skalę i skuteczność rażenia, koszty produkcji i dostępność komponentów, zaawansowanie technologiczne i łatwość zatrudnienia specjalistów. Nie bez znaczenia jest także to czy po użyciu można zająć zdobyty teren, czy też trzeba latami czekać, aż „czynnik zabijający” się zneutralizuje.

Organizmy chorobotwórcze, które wywołują tak groźne choroby jak cholerę, ospę, dur brzuszny, plamisty, dżumę czy żółtą febrę, a także grypę można zdobyć stosunkowo łatwo w licznych bankach genetycznych, znajdujących się przy dużych ośrodkach naukowych. Znane są przypadki kiedy państwom rządzonym przez dyktatorów, chorobotwórcze bakterie czy wirusy dostarczała firma kurierska. Koszty produkcji broni biologicznej są bardzo małe.

Do rozmnażania bakterii wystarczy wiedza zdobyta na podstawowym kursie biologii, a można to robić w niewielkim laboratorium, które można umieścić właściwie wszędzie. Do rozmnażania na masową skalę groźnych organizmów można użyć kadzi, które wykorzystuje się np. do … warzenie piwa.

Broń biologiczna jest bardziej perfidna niż chemiczna. Można rozsiać nad wybranym terenem bakterie, które np., zniszczą uprawy i doprowadzając mieszkańców do głodu, albo gospodarkę do upadku. To się nazywa terroryzm socjoekonomiczny. W taki sam sposób można zabić wszystkie zwierzęta hodowlane. Zarazki nie muszą być zrzucane z samolotów, mogą być roznoszone przez owady czy gryzonie. W rzeczywistości historia zna takie przypadki.

W 1940 roku, na chińskie miasta, Japończycy rozrzucili zakażone dżumą pchły, wywołując epidemię. Ale to nie był pierwszy przypadek użycia broni biologicznej. W starożytności zatruwano studnie wrzucając do nich zdechłe zwierzęta, a nierzadko zdarzało się, że w czasie oblężenia z katapult w kierunku miast wystrzeliwano zwłoki ludzi czy zwierząt, które zmarły na jakąś chorobę zakaźną. W czasie jednej z wojen pod koniec XV wieku Hiszpanie skazili wino w Neapolu krwią trędowatych.

Bardzo trudno powiedzieć kiedy po raz ostatni mieliśmy do czynienia z atakiem bronią biologiczną. W zależności od wykorzystanego patogenu, od ataku do epidemii może minąć nawet kilka tygodni. W innych przypadkach skutki chorobotwórcze mogą nastąpić niemalże natychmiast po ataku. Nawet gdybyśmy wiedzieli że właśnie zrzucono na nas, wpuszczono do wody w wodociągach, albo do wentylacji w budynku chorobotwórcze bakterie, niewiele możemy zrobić. Szybka i wysoka dawka antybiotyków? Tak, ale tylko wtedy, gdy wiemy czym zaatakowano. A określenie tego wcale nie jest takie proste. Testy wyszkolonych grup ludzi (muszą jeszcze znajdować się gdzieś w pobliżu) mogą trwać nawet kilka godzin, a jest to czas w którym większość bakterii już się w organizmie „zadomowiła”. Nawet jednak, gdyby od razu było wiadomo jakimi bakteriami zaatakowano, z symulacji robionych w USA wynika, że skuteczny atak biologiczny bakteriami wąglika tylko na jedno większe miasto zaowocowałby zużyciem całych krajowych zapasów antybiotyków w ciągu dwóch tygodni.

A co się stanie gdy na czynnik biologiczny nie ma antybiotyków? Jeden z twórców radzieckiego programu broni biologicznej Ken Alibek po ucieczce do USA mówił wprost, że celem radzieckich naukowców pracujących nad bronią biologiczną było produkowanie takich bakterii i wirusów, na które nie ma szczepionek ani antybiotyków. W praktyce jedna grupa naukowców produkowała metodami inżynierii genetycznej zabójczy organizm, a druga próbowała znaleźć antidotum. Jak się to NIE udawało, uznawano czynnik za idealny do użycia. Usilnie pracowano – a może dalej się to robi – nad zwiększeniem tzw. wirulencji bakterii czy wirusów, których naturalną szkodliwość uznano za niewystarczającą. Wirulencja to zdolności do wniknięcia, namnożenia się oraz uszkodzenia tkanek. Stwarzano także szczepy, które w naturze nie występują, łącząc np. najbardziej groźne cechy dwóch bakterii. Można było mieć pewność, że wróg na pewno nie ma na taki czynnik ani szczepionki ani antybiotyku. W ten sposób powstawały nowe odmiany wirusa ospy i wirusa Marburg.

Broń biologiczna jest groźniejsza od chemicznej jeszcze pod jednym względem. Jest samopowielająca się. Jej zabójcze działanie może się potęgować z biegiem czasu.Drobnoustroje rozsiane podczas ataku biologicznego rozmnażają się w organizmach ofiar i dalej rozprzestrzeniają się same. Tak właściwie wcale nie trzeba dużej ilości bakterii, żeby zarazić sporą grupę ludzi. Niewielka ilość bakterii wąglika – które w formie przetrwalnikowej wyglądają jak kakao – można przetransportować wszędzie. Nawet najbardziej drobiazgowe kontrole nic tutaj nie pomogą.

Broń biologiczna ma jednak dosyć istotną wadę z punktu widzenia prowadzenia wojny. Na długi czas może skazić zaatakowany teren. Brytyjczycy w czasie testów skuteczności laseczek wąglika pod koniec II Wojny Światowej skazili na 50 lat tereny szkockiej wyspy Gruinard. Oczywiście z punktu widzenia terrorystów, skażenie to żadna wada. Terroryści zwykle nie zajmują zaatakowanych przez siebie terenów.

Podsumowując. Broń biologiczna jest łatwa w użyciu i transporcie. Można ją – np. wąglik – przesłać nawet listem. Sama się powiela a jej wyprodukowanie – mówię tutaj o najbardziej dostępnych szczepach – nie wymaga dużej wiedzy. Dla terrorystów jest mniej dostępna niż niektóre trujące gazy, a jej sporym minusem jest to że zostawia za sobą skażony teren. Z kolei plusem jest to, że używający tej broni może zostać niewykryty. Śmierć ludzi, zwierząt, zagłada upraw może wystąpić wiele dni a nawet tygodni po użyciu tej broni.

6 komentarzy do Najgroźniejsza broń biologiczna

Najnowocześniejsza broń chemiczna

Jak działa broń chemiczna? Szybko i boleśnie. Bardzo boleśnie i bardzo okrutnie. Gdy po raz pierwszy na masową skalę zastosowali ją Niemcy w czasie I Wojny Światowej, cześć niemieckich dowódców meldowała do sztabu, że stosowanie takiej broni to hańba dla prawdziwych żołnierzy.

Jak działa broń chemiczna? Szybko i boleśnie. Bardzo boleśnie i bardzo okrutnie. Gdy po raz pierwszy na masową skalę zastosowali ją Niemcy w czasie I Wojny Światowej, cześć niemieckich dowódców meldowała do sztabu, że stosowanie takiej broni to hańba dla prawdziwych żołnierzy.

Teoretycznie broni chemicznej nie wolno badać ani produkować. Tak mówią międzynarodowe traktaty. W praktyce w ostatnich latach miało miejsce przynajmniej kilka ataków chemicznych. Ostatni, kilka tygodni temu miał miejsce w Syrii. Sposoby działania broni chemicznej są różne bo wiele zależy od zastosowanej substancji. Generalnie jednak wszystkie gazy bojowe dzieli się na pięć kategorii.

I Wojna Światowa. Jeden z pierwszych (a może pierwszy) atak gazowy z użyciem chloru. Gaz wypuszczano z butli zakopanych w ziemi.

Pierwszym gazem bojowym zastosowanym na polu walki był chlor. Wykorzystali go Niemcy podczas I Wojny Światowej. Chlor, ale też fosgen należy do środków krztuszących. Ich działanie polega głównie na podrażnieniu i paraliżu dróg oddechowych. W skutek tego dochodzi do ich śmiertelnego oparzenia wewnętrznych organów. Środki działające na drogi oddechowe są mało skuteczne, gdy żołnierze mają maski. W pierwszej wojnie światowej maski wprowadzono jednak dopiero po tym jak dziesiątki tysięcy ludzi w konwulsjach udusiło się w okopach.

Druga grupa to środki duszące. Wbrew nazwie nie chodzi jednak o sparaliżowanie układu oddechowego, ale o zablokowanie hemoglobiny, cząsteczki znajdującej się w czerwonej krwince, której celem jest roznoszenie tlenu po organizmie. Człowiek oddycha normalnie, ale w ciągu kilkudziesięciu sekund i tak się dusi. Tlen nie jest z płuc transportowany, a dość okrutna śmierć następuje z powodu obumierania mózgu. Środkiem duszącym jest Cyklon-B, którym zabijano w komorach gazowych, ale także cyjanowodór, który Niemcy stosowali w czasie II wojny światowej.

Trzecia i chyba najgroźniejsza bo najskuteczniejsza grupa to środki paralityczno-drgawkowe. Blokują one komunikację pomiędzy komórkami nerwowymi. To tak jak gdyby duży organizm jakim jest miasto odciąć od sieci elektrycznej i telekomunikacyjnej. Totalny chaos informacyjny i paraliż. Przykładami środków paralityczno-drgawkowych są tabun, sarin, soman czy VX. Sarinu użyły kilka lat temu wojska rządowe w Syrii. W wyniku ataku zmarło około 1700 cywilów.

Grupę czwartą stanowią środki parzące. Takim jest np. gaz musztardowy zwany także Iperytem od nazwy miejscowości w Belgii, gdzie w I Wojnie Światowej został po raz pierwszy użyty. W ciągu kilkunastu minut zmarło wtedy w męczarniach kilkadziesiąt tysięcy Brytyjczyków i Francuzów. W wyniku jednego ataku. Grupa podobna a może i większa zmarła w kolejnych dniach i tygodniach. Niemieccy naukowcy szukali gazu, który będzie zabijał przez skórę nawet tych,
którzy mają maski. I tak wynaleźli gaz musztardowy.

I ostatnia grupa to środki halucynogenne. One nie zabijają, ale powodują czasową niedyspozycję. Do tej grupy zalicza się LSD czy BZ, czyli Chinuklidynobenzylan, który był stosowany przez Amerykanów w Wietnamie.

Bojowym środkiem trującym może być wiele związków, które powszechnie są wykorzystywane w przemyśle chemicznym czy medycynie. Ich nie trzeba produkować, je wystarczy kupić i użyć. Dobrym przykładem może być fosgen. Wykorzystuje się go w przemyśle tekstylnym i farmaceutycznym. Gdyby wpuścić go do wentylacji wieżowca, jeden litr w kilka chwil uśmierciłby on tysiące ludzi. Inny przykład to jad kiełbasiany inaczej zwany botuliną. W medycynie kosmetycznej niewielkie ilości tej toksyny wstrzykuje się pod skórę by pozbyć się zmarszczek. To tzw. botox. Dorosły człowiek umiera w męczarniach po wchłonięciu milionowych części grama tej trucizny. Cyjanowodór używa się w przemyśle a iperytem
traktowano komórki rakowe.
Broń chemiczna – z punktu widzenia atakującego – ma wiele innych zalet. Tak szybko jak się pojawia, tak samo szybko znika. Np. sarin jest niebezpieczny zaledwie przez 4 godziny. Iperyt staje się nieszkodliwy po najwyżej kilku dniach. Dodatkową zaletą broni chemicznej jest to, że po jej użyciu wybucha panika. A skutki paniki mogą być groźniejsze od samego ataku.

Reasumując. Z trzech broni masowego rażenia, czyli broni jądrowej, biologicznej i chemicznej, to ta ostatnia jest najtańsza w produkcji i wymaga najmniejszej wiedzy. Choć to dotyczy raczej ataków terrorystycznych, w niektórych sytuacjach wcale nie trzeba się o trujący gaz starać, a wystarczy w odpowiednim momencie wysadzić cysternę przewożącą chemikalia. Cysterny z chlorem czy amoniakiem przejeżdżają przez centra wielu dużych miast.
Ostatnie ataki bronią chemiczną miały miejsce w Syrii, gdzie armia rządowa przy współpracy z armią rosyjską zrzuciła na miasto Duma kilka, może kilkanaście ładunków wypełnionych gazem. Świadkowie mówili, że w powietrzu zaczął się unosić jabłkowy zapach. To sarin. Najpierw pojawia się poczucie niepokoju, potem zwężone źrenice, drgawki, ślinotok i paraliż mięśni, w tym mięśni oddechowych, w końcu śmierć w konwulsjach. Podobnie opisywano ataki, jakie przed wielu laty przeprowadzali na kurdyjskie wioski żołnierza Saddama Husajna.

Profesor Fritz Haber, twórca pierwszych gazów bojowych. Z wykształcenia chemik, po I Wojnie Światowej został uhonorowany Nagrodą Nobla z chemii.

I na koniec jeszcze jedno.
Broń chemiczną zawdzięczamy prof. Fritzowi Haberowi. Po przegranej przez Niemcy I wojnie, Haber był pewien aresztowania i sądu wojennego. Tymczasem rok po zakończeniu wojny, został laureatem nagrody Nobla z chemii. Dzięki tej nagrodzie i powszechnemu szacunkowi Heber mógł kontynuować swoje prace a w ich efekcie wynalazł m.in. cyklon B.

6 komentarzy do Najnowocześniejsza broń chemiczna

Co gdzie pada? Diamenty na Uranie!

U nas słowo deszcz, albo śnieg kojarzy się z wodą, bo w zasadzie tylko woda spada na naszą głowę. Na innych planetach i księżycach z nieba spada kwas siarkowy, metan, krople żelaza, ciekłe szkło, a nawet diamenty.

U nas słowo deszcz, albo śnieg kojarzy się z wodą, bo w zasadzie tylko woda spada na naszą głowę. W rzeczywistości sprawa jest bardziej złożona bo woda wodzie nierówna. Mamy grad, mamy śnieg, mamy szadź, szron, krupy no i kropelki ciekłej wody. To jednak tylko różne fizyczne postaci wody, z chemicznego punktu widzenia woda to woda. H2O. A co spada na powierzchnię innych globów? Na razie nie znaleźliśmy planety czy księżyca, na których byłyby wodne deszcze czy wodny śnieg. Ale to wcale nie znaczy, że poza Ziemia nie pada. Nie trzeba daleko szukać, wystarczy spojrzeć na naszą siostrzaną planetę Wenus na której z chmur pada kwas siarkowy 1.

Chmury

No właśnie. Z chmur. Po to żeby cokolwiek padało na powierzchnię globu, muszą być spełnione pewne warunki. Po pierwsze na takim globie musi istnieć atmosfera. A w niej chmury. W zależności od tego z czego te chmury się składają, jaki jest skład całej atmosfery, jakie panuje w niej ciśnienie oraz temperatura, mogą powstawać deszcze np. kwasu siarkowego. Tutaj warto zwrócić uwagę na pewien wyjątek. Gdy jakiś glob jest aktywny geologicznie czy sejsmicznie i występują na nim wulkany albo gejzery, możliwa jest sytuacja w której na niewielką powierzchnię tego globu, mimo braku atmosfery, pada to, co wyrzuciły gejzery. Tak jest np. na jednym z księżyców Saturna, Enceladusie 2. Na jego powierzchni wybuchają lodowe gejzery. Ale nie takie jak te ziemskie, z których na wysokość najwyżej kilkudziesięciu metrów strzela gorąca woda. W przypadku Enceladusa w przestrzeń – księżyc nie ma atmosfery – wylatują kryształki lodu. Tylko bardzo niewielka ich część opada na powierzchnię księżyca, większość zasila pierścienie Saturna. Konkretnie pierścień E Saturna. W dłuższej perspektywie, rzędu tysięcy lat, materiał wyrzucany przez Enceladusa opada na powierzchnię samego Saturna. Gejzery wyrzucają maleńkie kryształki lodu z prędkością ponad 1400 km/h na wysokość 1500 kilometrów nad powierzchnię księżyca.

Kwas na Wenus

A wracając do Wenus. Większość informacji o ukształtowaniu powierzchni Wenus czerpiemy ze zdjęć radarowych. Atmosfera Wenus jest prawie 100 razy cięższa niż ziemska, mimo że Ziemia i Wenus to planety o bardzo podobnej wielkości. Ciśnienie przy powierzchni planety jest ponad 90 razy wyższe niż ciśnienie przy powierzchni ziemi 3. Co ciekawe, uważa się, że kiedyś atmosfery ziemi i Wenus były do siebie bardzo podobne, a na powierzchni Wenus była ciekła woda 4. Z jakiegoś jednak powodu tam rozpoczął się galopujący efekt cieplarniany. Dzisiaj przy powierzchni planety panuje temperatura 460 st C, a atmosfera to głównie dwutlenek węgla i trochę azotu. Grube chmury, zakrywają Wenus tak szczelnie, że do jej powierzchni trafia zaledwie 1proc. światła słonecznego które pada na planetę. Te chmury zbudowane są z dwutlenku siarki. W wensujańskiej atmosferze zdarzają się burze a nawet wyładowania atmosferyczne. Wydaje się, że nawet jeżeli coś pada z tych chmur, nie dolatuje do powierzchni planety. Wyjątkiem są szczyty pasm górskich, gdzie panuje niższa temperatura 1.  Sonda Magellan wykryła na szczytach górskich jakąś odbijającą światło substancję. Coś, co na ziemi bez wątpienia byłoby śniegiem. Biorąc pod uwagę skomplikowaną chemię wenusjańskiej atmosfery nie ma pewności czy tym czymś jest siarczek ołowiu, metaliczny tellur czy właśnie kwas siarkowy.

Metan i diamenty

Na Wenus panuje prawdziwe gorące piekło, z kolei zimne piekło panuje na Tytanie, jednym z księżyców Saturna. To jedyny księżyc w naszym układzie planetarnym, który ma gęstą atmosferę. Ta atmosfera jest zresztą gęstsza od atmosfery ziemskiej. Jest jeszcze coś. Tytan jest jedynym nam znanym globem, na którym jest znajdują się zbiorniki ciekłej substancji 5. Tą substancją jest metan. Atmosfera Tytana składa się z azotu z niewielką ilością argonu, metanu, etanu i acetylenu . Ta niewielka ilość jednak wystarczy, by z gęstych chmur padał ciekły metan i etan. Na zdjęciach z powierzchni księżyca widać rzeki i kanały, widać dopływy do jezior a nawet delty rzek. Największy znany zbiornik Kraken Mare ma wielkość Morza Kaspijskiego. Tytan jest znacznie mniejszy od Ziemi i tylko trochę większy od naszego Księżyca, a to znaczy, że w skali globu Kraken Mare jest prawdziwym oceanem. Na powierzchni którego widać zresztą wyspy i całe atole. Gdyby na powierzchni księżyca był tlen, cały glob wyleciałby w powietrze… Tlenu tam jednak nie ma.

Obserwowanie opadów na Tytanie jest dość skomplikowane, bo najpewniej pojawiają się one sezonowo a pory roku zmieniają się tam co wiele ziemskich lat.  Jeszcze trudniejsza jest jednak obserwacja tego co dzieje się w atmosferze Naptuna. To gazowy olbrzym, o którego twardej powierzchni trudno nawet spekulować. Na Neptunie chmury zbudowane są w zależności od wysokości i ciśnienia z amoniaku, siarkowodoru, wodorosiarczku amonu, siarkowodoru i wody 6. Bardzo skomplikowana fizyka i chemia jaka stoi za procesami które dzieją się w grubych atmosferach gazowych olbrzymów takich jak Neptun, Saturn, Jowisz czy Uran nie jest jeszcze zrozumiała, ale przypuszcza się, że wchodząc coraz głębiej w atmosferę Neptuna temperatura wzrasta do bardzo wysokich wartości liczonych w tysiącach stopni. Przypuszcza się, że na głębokości kilku tysięcy kilometrów, w głąb atmosfery Neptuna wysokie ciśnienie i temperatura powodują rozkład metanu w wyniku którego powstają kryształy węgla, czyli diamenty7 . Te diamenty – zdaniem naukowców – opadają w kierunku twardego jądra planety tak jak kryształy wody, opadają na powierzchnię Ziemi jako śnieg.

Jeszcze głębiej atmosfery Neptuna jest woda jonowa, która jeszcze głębiej staje się przewodnikiem superjonowym i skrystalizowany tlen.  A wracając do deszczy diamentów, te mogą występować nie tylko w supergęstej atmosferze Neptuna ale także na Uranie. Atmosfery tych dwóch gigantów muszą się jednak od siebie różnić składem, bo choć w obydwu znajduje się sporo metanu, Neptun jest niebieski, a Uran ma kolor cyjanu.

Szkło i żelazo

I jeszcze dwie planety pozasłoneczne na koniec. Ich bezpośrednia obserwacja jest ekstremalnie trudna. Owszem możemy zarejestrować ich istnienie, masę, okres obiegu wokół swoich gwiazd i odległość od tych gwiazd. Z tych informacji można wyciągać pewne wnioski na temat warunków jakie panują na tych planetach. W przypadku niektórych planet udaje się o nich powiedzieć nieco więcej. Jedną z takich planet jest HD 189733 b, która znajdującej się w odległości około 60 lat świetlnych od Ziemi8. Obserwując spolaryzowane światło rozpraszane przez atmosferę tej planety odkryto w niej metan, dwutlenek węgla i krzem. Wiatr na powierzchni planety wieje z prędkością kilkukrotnie większą, niż prędkość dźwięku. Zdaniem naukowców z NASA na tej planecie padają deszcze płynnego krzemu, czyli w pewnym przybliżeniu deszcze roztopionego szkła9. I druga planeta OGLE-TR-56b odkryta zresztą przez Polaka Macieja Konackiego10. Planeta krąży wokół swojej gwiazdy w odległości 17 krotnie mniejszej niż odległość Merkurego od Słońca. Jest bez wątpienia gazowym olbrzymem, dużo większym od Jowisza. Została odkryta metodą tranzytu. Nie ma na to żadnych dowodów, ale naukowcy spekulują, że na planecie padają deszcze płynnego żelaza11.

Patrząc na to wszystko, żelazo, metan, kwas siarkowy, jakoś przestaje mi przeszkadzać wodny deszcz. Nawet jak leje kilka dni z rzędu 😉

 

źródła:

  1. phys.org/news/2016-12-weather-venus.html
  2. www.space.com/32844-saturn-moon-enceladus-surprising-plumbing-mystery.html
  3. hyperphysics.phy-astr.gsu.edu/hbase/Solar/venusenv.html
  4. www.universetoday.com/22551/venus-compared-to-earth/
  5. www.nasa.gov/feature/jpl/cassini-explores-a-methane-sea-on-titan
  6. https://www.space.com/18922-neptune-atmosphere.html
  7. https://www.sciencealert.com/scientists-recreate-the-diamond-rains-of-neptune-and-uranus-in-the-lab
  8. https://en.wikipedia.org/wiki/HD_189733_b
  9. https://www.nasa.gov/image-feature/rains-of-terror-on-exoplanet-hd-189733b
  10. https://en.wikipedia.org/wiki/OGLE-TR-56b
  11. https://www.astrobio.net/meteoritescomets-and-asteroids/new-world-of-iron-rain/

 

1 komentarz do Co gdzie pada? Diamenty na Uranie!

Fizyka i jajka

Kiedyś dziecko zapytało mnie jak to możliwe, że kura nie zgniata jajka, które wysiaduje. W sumie to pytanie można by zadać inaczej. Jak to jest możliwe, że średniowieczne katedry są tak wytrzymałe? Wbrew pozorom odpowiedź na obydwa pytania jest taka sama. Chodzi o kształt.

Kiedyś dziecko zapytało mnie jak to możliwe, że kura nie zgniata jajka, które wysiaduje. W sumie to pytanie można by zadać inaczej. Jak to jest możliwe, że średniowieczne katedry są tak wytrzymałe? Wbrew pozorom odpowiedź na obydwa pytania jest taka sama. Chodzi o kształt.

To może trochę niekonwencjonalne postepowanie, ale żeby dobrze zrozumieć to zagadnienie, warto wybrać się do starej katedry… z jajkiem właśnie. Wielka Sobota i świecenie potraw temu sprzyja. W końcu w koszyczkach mamy też jajka. Mając to jajko w dłoni (albo w pamięci), warto w takim starym kościele spojrzeć w górę, na łuki które podtrzymują sklepienie. Okazuje się, że ich krzywizna jest bardzo podobna do krzywizny jajka. Wszystkie ptasie jajka, niezależnie od gatunku, mają podobny kształt. Mają węższy czubek i nieco szerszy. Oraz mają wydłużone boki. Gdy jajko leży na boku, nie jest specjalnie odporne na nacisk. Gdy jednak stoi na sztorc, jest w stanie wytrzymać naprawdę sporo.

Jajko w katedrze

Jak sporo? Nietrudno jest zrobić eksperyment w którym na trzech kurzych jajkach można utrzymać nawet 100 kilogramowy ciężar. Jest tylko jeden warunek, jajka muszą być ustawione idealnie na sztorc. Wtedy siła przyłożona od góry jest idealnie rozłożona na boki, a jajku (i jego zawartości) nic się nie dzieje. Podobnie jest w katedrach, akweduktach czy mostach łukowych. Siła przyłożona od góry, rozkłada się na boki. W jajku, dodatkowo ogromną rolę spełnia konstrukcja samej skorupki. Jej zewnętrzna warstwa jest twarda i mało elastyczna, a wewnętrzna błona – przeciwnie – miękka i bardzo elastyczna. Gdy te dwie warstwy zostaną z sobą zespolone (sklejone), są w stanie przetrwać naprawdę spore siły. Pod jednym warunkiem. Że warstwa twarda i nieelastyczna jest na zewnątrz. Innymi słowy, gdyby zamienić kolejność warstw i skorupkę jajka z zewnątrz otoczyć cienką błoną, cała konstrukcja nie byłaby tak wytrzymała. Jajko to wciąż nieosiągalny dla inżynierów ideał. Kształt, grubość i kolejność poszczególnych warstw, jest nie do skopiowania. A wszystko po to, by jajko mogło wytrzymywać duży nacisk z zewnątrz, ale by było stosunkowo łatwe do rozbicia od wewnątrz. Wykluwające się pisklę nie ma przecież wiele siły. Co ciekawe, u przeważającej części ptaków, pisklęta na czubku dzioba mają mały haczyk, który służy do zerwania wewnętrznej błony chwilę przed wykluciem. Rozbicie reszty skorupki jest wtedy łatwiejsze.

 Ale oczywiście jajko nie tylko z punktu widzenia sztuki inżynierskiej jest ciekawe. Wielu z nas, nie wyobraża sobie kuchni bez jajecznych potraw. Bez ciasta, jajecznicy czy makaronów. A przede wszystkim, bez jajka gotowanego w wodzie. I choć powszechnie uważa się, że ugotowanie jajka na twardo to łatwizna, w rzeczywistości nie jest to takie proste. Oczywiście, można jajko wrzucić do wody i gotować przez pół godziny. Pewność, że będzie na twardo jest całkowita (chyba że robimy na to na szczycie bardzo wysokiej góry, gdzie temperatura gotowania wody jest znacząco niższa niż 100 st C), ale to wcale nie znaczy, że jajko będzie smaczne.

Co białe a co żółte

Nie trzeba być naukowcem (a wystarczy być nawet nieogarniętym kucharzem), by wiedzieć, że jajko składa się z białka i  żółtka. To pierwsze to głównie woda i tylko w około 10 proc. rozpuszczone w niej proteiny. W surowym jajku, białko jest przezroczyste, bo cząsteczki protein pozwijane są w kłębki. Ze wzrostem temperatury te kłębki zaczynają się rozwijać, a osobne do tego momentu cząsteczki protein łączą się ze sobą. Tworzy się nieuporządkowana plątanina „proteinowych nitek”, a to z jednej strony powoduje, że białko nie jest już płynne tylko coraz bardziej galaretowate, a z drugiej strony staje się coraz mniej przezroczyste. Gdy białko jajka kurzego jest już całkowicie białe, mówimy że jest ugotowane. Bliższe prawdzie jest stwierdzenie, że jest ścięte, choć tak właściwie powinno się chyba mówić, że doszło do jego denaturacji. Co to takiego ? Każde białko zmienia swoją strukturę przestrzenną pod wpływem czynników fizykochemicznych. Jednym z nich jest temperatura właśnie. Część z tych zmian jest odwracalna (to tzw. zmiany struktury pierwszo- i  drugorzędowej), ale gdy sprawy zajdą za daleko, nie da się cofnąć czasu. Białko gotowane przez kilka minut w wodzie zmienia swoją strukturę nieodwracalnie. Podczas tego procesu (denaturacji właśnie) niszczone są wiązania wodorowe i tzw. mostki disulfidowe, które jak śruby trzymające rusztowanie w całości, nadają cząsteczce białka odpowiedni i charakterystyczny kształt. Gdy śruby (wiązania wodorowe) się odkręcą, rusztowanie zaczyna zachowywać się w sposób nieprzewidywalny. Co więcej, gdy runie, nie sposób wybudować go od nowa. Denaturacja białka kurzego następuje w temperaturze około 63 st. Celsjusza, dlatego trzymanie choćby nie wiem jak długo jajka w wodzie o temperaturze nawet trochę niższej od tej wartości nie spowoduje jego ścięcia. Co ciekawe żółtko jajka kurzego ścina się w temperaturze o około 5 st Celsjusza wyższej niż białko. Dzieje się tak dlatego, że w żółtku, w cząsteczki protein wplątane są cząsteczki tłuszczów. Trzeba więc trochę więcej energii (stąd wyższa temperatura), by proteiny od cząsteczek tłuszczu „uwolnić”. Dopiero potem mogą zajść opisane już wyżej zmiany w strukturze białka.

No dobrze, ale w takim razie jak to się dzieje, że jajko daje się przygotować „na miękko”, skoro gotujemy je w wodzie o temperaturze 100 st. C a tymczasem ścinanie białka i żółtka ma miejsce w temperaturze do 70 st C? Wytłumaczeniem jest rozkład temperatury i zjawisko przewodnictwa cieplnego. Nawet jeżeli z zewnątrz jajka temperatura wynosi 100 stopni, potrzeba czasu, by „doszła” ona do samego jego środka. Najpierw więc zetną się te części jajka, które są najbliżej skorupki, a dopiero na końcu te w samym środku. Jeżeli wybierze się odpowiedni moment i wyciągnie jajko z gotującej się wody, zewnętrzne białko będzie już ścięte, a znajdujące się w samym środku żółtko, jeszcze nie.  No i to jest pewna sztuka. Każda kucharka ma swoje sposoby, ale z obliczeń fizyków wynika, że dla świeżego, średniej wielkości jajka ten czas wynosi 3 minuty i 30 sekund. Po tym czasie białko już bardziej się nie zetnie, ale zacznie ścinać się żółtko.

Test na wiek

Gotowanie jajka na miękko, wydaje się być zajęciem dla kucharzy nieco już zaznajomionych ze sztuką kulinarną. Dla tych bez podstawowej wiedzy (i zegarka) pozostaje jajko na twardo. Choć z drugiej strony… Ugotowanie jajka na twardo, wbrew pozorom także wymaga pewnej wiedzy. Po pierwsze, jajka nie wrzucamy do lodowatej wody, ale też niedobrze jest je wrzucić do wrzątku. W tym drugim przypadku, najpewniej popęka jego skorupka i biało z żółtkiem wyleje się do wrzącej wody. Po drugie, nie wolno z czasem gotowania jajka przesadzać. Białka zbudowane są ze związków zwanych aminokwasami. Niektóre z nich (np. te które wchodzą w skład białka kurzego) zawierają małe ilości siarki. Gdy jajko będzie zbyt długo gotowane, wydziela się siarkowodór, gaz o charakterystycznym zapachu zgniłych… jaj. Poza tym wydzielanie tego gazu powoduje, że żółtko ugotowanego jajka otoczone jest sino-zieloną otoczką. Dlatego właśnie w najlepszych restauracjach jajko zaraz po ugotowaniu wrzuca się do lodu. Wtedy wierzchnie warstwy nie „przegrzeją” się, a wewnętrzne dojdą do odpowiedniej konsystencji. W domu z lodem trudno eksperymentować, ale ugotowane jajka można wrzucić do lodowatej wody.

Jajko do zimnej wody można jednak wsadzić w innym celu. Po to żeby sprawdzić ile czasu upłynęło od chwili jego zniesienia. We wnętrzu jajka, pod skorupką znajduje się pęcherzyk gazu. Ten gaz jest wynikiem powolnego rozpadu białek. Im starsze jest jajko, tym więcej tego gazu będzie pod skorupką. Po to żeby sprawdzić wiek jajka, można zrobić prosty test. Bąbelek gazu gromadzi się w jajku w szerszym jego czubku. Na czym ten test polega? Wystarczy jajko wsadzić do naczynia z wodą i obserwować. Świeże jajko w naczyniu z wodą leży płasko przy dnie, ale im jajko jest starsze, tym większy jest kąt pomiędzy osią jajka a dnem naczynia. Innymi słowy, im starsze jajko, tym bardziej unosi się gruby jego czubek. Gdy ten kąt wynosi mniej więcej 90 st, czyli wąski czubek jest przy dnie, a szerszy pionowo u góry, jajko ma około 30 dni. Przy kącie około 45 st. jajko ma od 12 do 15 dni. To też skoro. Najlepsze do gotowania (i jedzenia) są te jajka, które mają powyżej dwóch dni, ale nie więcej niż siedem.

Gotowanie jajek to trudna sztuka. Fizyka może oczywiście pomóc, ale nie zastąpi w kuchni… intuicji. Acha i jeszcze jedno. Nie wspomniałem o tym, że jajko powinno się trzymać w lodówce węższym czubkiem w dół. I o tym, że gdy są gotowane w niższym ciśnieniu… są podobno lepsze w smaku.

3 komentarze do Fizyka i jajka

Fizyk który nie znał granic

14 marca, zmarł urodzony 76 lat temu fizyk, Stephen Hawking. Człowiek odważny i wybitny, znany na całym świecie nie tylko z powodu teorii fizycznych, którymi się zajmował. Gdyby chcieć powiedzieć o nim jedno zdanie. Brzmiałoby ono… człowiek, który nie znał granic.

14 marca, zmarł urodzony 76 lat temu fizyk, Stephen Hawking. Człowiek odważny i wybitny, znany na całym świecie nie tylko z powodu teorii fizycznych, którymi się zajmował. Gdyby chcieć powiedzieć o nim jedno zdanie. Brzmiałoby ono… człowiek, który nie znał granic.

A granice, akurat Hawking powinien znać doskonale. Od wczesnej młodości cierpiał na stwardnienie zanikowe boczne. Choroba doprowadziła go do stanu, w którym w żadnym aspekcie życia nie był samodzielny. W żadnym, z wyjątkiem myślenia. I tutaj znowu wracamy do braku granic. Stephen Hawking był matematykiem i fizykiem teoretykiem. Zajmował się tematami tak abstrakcyjnymi, że nawet dla kolegów po fachu jego prace były niezwykle skomplikowane. Przez 40 lat swojej naukowej kariery opracował hipotezę parowania czarnych dziur, zajmował się grawitacją kwantową i opracował twierdzenie dotyczące osobliwości. Czyli takich obszarów, miejsc w których przyspieszenie grawitacyjne, albo gęstość materii mają nieskończoną wartość. W osobliwości mają nie działać prawa przyrody które znamy z naszego nie-osobliwego otoczenia.

Jak wszyscy mylił się i błądził. Wielu z tych rzeczy którymi się zajmował, nie potwierdziło się eksperymentalnie. Ale tak właśnie działa nauka. Teoretycy szukają, fizycy eksperymentalni, próbują podważyć. Zresztą podważaniem zajmował się i sam Hawking. Wielokrotnie mówił, że zabawa sztuczną inteligencję jest bardzo groźna. Mówił też, że nie mamy wyjścia, w dłuższej perspektywie, musimy opuścić Ziemię. Zresztą uważał, że kosmos jest pełen życia. „Na mój matematyczny rozum, same liczby sprawiają, że myślenie o istotach pozaziemskich jest całkowicie racjonalne. Prawdziwym wyzwaniem jest dowiedzieć się, jak te istoty mogą wyglądać – powiedział kiedyś.

Dla szerszego odbiorcy Stephen Hawking nie był jednak znany ani z prac o czarnych dziurach, ani z rachunków dotyczących osobliwości, ani tym bardziej z hipotez dotyczących grawitacji kwantowej. Był znany jako autor książki Krótka Historia Czasu, którą wydał w 1988 roku. Krótko po jej wydaniu powiedział, że jego marzeniem było napisanie książki o fizyce, którą będą sprzedawali na lotniskach. I dopiął swego. Jego książka przez wiele tygodni nie schodziła z listy bestsellerów w wielu krajach świata.

Dziesięć lat temu, obchodząc swoje 65 urodziny Hawking powiedział, że weźmie udział w suborbitalnym locie, że chce poczuć nieważkość. I poczuł. Zaledwie kilka miesięcy później fizyk znalazł się na pokładzie specjalnie dostosowanego do tego typu eksperymentów Boeinga 727. Samolot 8 razy wznosił się na wysokość około 8 kilometrów, a następnie „wyłączał” silniki i spadał w dół. Dzięki temu, biorący udział w eksperymencie ludzie, czuli w nim nieważkość. W ten sposób szkoli się ludzi, którzy zostaną wysłani w kosmos. Hawking nie zdążył polecieć na orbitę, ale spełnił swoje marzenie. W wielu wywiadach później wspominał, że w nieważkości, po raz pierwszy od 40 lat mógł się poruszać bez wózka inwalidzkiego. I znowu przekroczył granicę, która dla osób całkowicie sparaliżowanych, byłą dotychczas nieprzekraczalna.

7 komentarzy do Fizyk który nie znał granic

Czerwony wulkan

Przeglądając internet, mignęło mi zdjęcie z powierzchni Marsa. Zdjęcie największego w Układzie Słonecznym wulkanu. Gdyby był na Ziemi, stożek pokryłby prawie całą Francję. Olympus Mons – prawdziwa Góra Olimp.

Przeglądając internet, mignęło mi zdjęcie z powierzchni Marsa. Zdjęcie największego w Układzie Słonecznym wulkanu. Gdyby był na Ziemi, stożek pokryłby prawie całą Francję. Olympus Mons – prawdziwa Góra Olimp.

Do niedawna uważano, że Mars od (niemal) zawsze jest martwy geologicznie. Niemal, znaczy od bardzo długiego czasu. Ale być może ta planeta wygasłych wulkanów, jeszcze tętniła (geologicznym) życiem jeszcze kilkadziesiąt milionów lat temu. To w skali geologicznej okres dość bliski. Być może płynęła tam lawa, a wulkany wyrzucały w przestrzeń pył i głazy. Do takich wniosków doszli badacze, którzy analizowali np. dane z sondy Mars Global Surveyor (MGS). Badacze z Planetary Science Institute w Tucson w Arizonie oraz z Uniwersytetu w Arizonie wiek lawy na zboczach wulkanu Elysium Mons ocenili na około 20 milionów lat. W innych miejscach lawa może być jeszcze młodsza. Trudno – bez pobrania próbek – oceniać dokładny wiek lawy. Pozostaje szacowanie.

Wspomniany wulkan Elysium Mons mierzy 700 kilometrów średnicy i ok. 13 kilometrów wysokości. W porównaniu z ziemskimi wulkanami, a nawet z najwyższymi szczytami, to gigant. Ale w porównaniu z innymi wulkanami na Marsie, to zaledwie średniak. Bo na przykład wulkan Olympus Mons ma aż 27 kilometrów wysokości ponad otaczającą go równinę (prawie 3 razy więcej niż Mont Everest). To największy – znany – wulkan w Układzie Słonecznym. Naukowcy oceniają, że wygasł około 100 milionów lat temu. I choć – z oczywistych względów – nie ma żadnych zdjęć z tamtego okresu, sama jego obserwacja daje całkiem sporo informacji. To, że jego zbocza są nachylone pod bardzo małym kątem (średnio 5 st) oznacza, że wyciek lawy był bardzo powolny i długotrwały. Nie jest wykluczone, że kiedyś wystawał z dna dużego zbiornika z wodą, bo stożek u podstawy zakończony jest skarpą o wysokości nawet 6 kilometrów. Na szczycie wulkanu znajduje się ogromny krater o średnicy około 70 kilometrów i głębokości 3 kilometrów.

Dlaczego na Marsie wulkany są znacznie wyższe niż te na Ziemi? Mars jest planetą mniejszą a więc jego wewnętrzna energia wyczerpała się dość szybko. Ziemia we wnętrzu ma wciąż bardzo dużo energii. To wychładzanie miało swoje ogromne konsekwencje. Jedną z nich był zanik pola magnetycznego planety i zniknięcie tarczy. To mogło spowodować zdmuchnięcie atmosfery Marsa i wyparowanie całej znajdującej się na powierzchni wody. Inną konsekwencją mogło być zatrzymanie ruchu płyt kontynentalnych. Na Ziemi erupcje nawet najbardziej aktywnych wulkanów trwają – w geologicznej skali – bardzo krótko. Na Marsie raz otwarty „kanał” mógł być drożny przez długi czas. Gdy wulkan zaczął „wylewać” lawę, ten proces nie miał końca. Być może właśnie dlatego stożki wulkanów na Czerwonej Planecie są tak wysokie. To jednak tylko nasze przypuszczenia. O aktywności wewnętrznej innych planet, nie wiemy zbyt wiele.

Brak komentarzy do Czerwony wulkan

Osiągnięcia Polskiej Nauki 2016

W najbliższych tygodniach na facebookowym fanpage Nauka. To Lubie będę opisywał kolejne odkrycia, które zostały uznane za największe osiągnięcia polskiej nauki w 2016 roku. Całą publikację możecie ściągnąć TUTAJ >>>…

W najbliższych tygodniach na facebookowym fanpage Nauka. To Lubie będę opisywał kolejne odkrycia, które zostały uznane za największe osiągnięcia polskiej nauki w 2016 roku. Całą publikację możecie ściągnąć TUTAJ >>>

Publikacja powstała w Ministerstwie Nauki i Szkolnictwa Wyższego.

2 komentarze do Osiągnięcia Polskiej Nauki 2016

Spór jest „po coś”

Prawdziwą rolę sporu doceniłem dopiero pracując naukowo. Gdy spory są „po coś”, mogą budować. Te „po nic” są do niczego. Marnują na nie energię i potencjał. No i czas, którego nie uda się już odzyskać. W końcu nigdy nie masz tyle racji, by twój rozmówca nie miał jej choć troszeczkę.

Prawdziwą rolę sporu doceniłem dopiero pracując naukowo. Gdy spory są „po coś”, mogą budować. Te „po nic” są do niczego. Marnują energię i potencjał. No i czas, którego nie uda się już odzyskać. W końcu nigdy nie masz tyle racji, by twój rozmówca nie miał jej choć troszeczkę.

Pamiętam swoją pierwszą konferencję naukową. Zawsze myślałem, że spotkania naukowców są nudne. No bo czym się tu ekscytować? Przecież oni wszyscy się znają. Wielu z nich razem pracuje. Zwykle prezentują wyniki badań, które albo zostały już opublikowane, albo – przynajmniej w dużej części – omówione. Konferencja w Krakowie (ta pierwsza na której byłem dotyczyła chemii jądrowej) była jednak zupełnie inna. Ci ludzie się tam kłócili! Nie była to jednak zwykła awantura. To był spór, w którym padały argumenty.

Po tej pierwszej, byłem na dziesiątkach różnych konferencji. W Polsce (te u nas nazwałbym łagodnymi), za granicą, na takich, które gromadziły setki uczestników i takich kameralnych na kilkanaście osób. Na konferencjach nie chodzi o to by podzielić się wynikami swoich badań czy opowiedzieć o swojej nowej koncepcji (hipotezie). Temu służą publikacje naukowe. Tutaj chodzi o to, by to co się zmierzyło, zbadało i wyliczyło, skonfrontować z innymi. Głownie z tymi, którzy zajmują się czymś podobnym. Spór – na konferencjach naukowych – jest po coś. Coś z niego wynika. Bez niego, bez wymiany poglądów, myśli czy pomysłów nie ma rozwoju i grozi nam dreptanie w miejscu. Nie raz byłem świadkiem sporów, które kończyły się zawiązywaniem nowych kolaboracji, czyli grup naukowych. Nie raz gorąca dyskusja pomiędzy naukowcami była pierwszym krokiem do podpisania umowy o współpracy pomiędzy instytucjami naukowymi. – Ok, twierdzisz, że wyciągam złe wnioski z tego co wyliczyłem? Twierdzisz, że popełniłem jakiś błąd? W porządku, usiądźmy razem, policzmy to wspólnie. Zobaczymy który z nas się myli.

Szkoda, że spory z których coś wynika tak rzadko pojawiają się poza salami wykładowymi i centrami konferencyjnymi. Szkoda, że tak rzadko pojawiają się np. w życiu publicznym, w tym na internetowych forach. Tam królują spory „po nic”. Po nic, czyli do niczego. Nie chodzi w nich o skonfrontowanie się z inaczej myślącymi. Chodzi o to by się spierać dla samego spierania. Tak jest łatwiej! Spór merytoryczny wymaga przemyślania swoich racji, wymaga przygotowania argumentów, wymaga poświęcenia czasu interlokutorowi. A co jak racje zmienia się, w zależności od miejsca w którym się siedzi? A co jak nie ma się żadnych sensownych argumentów albo z intelektualnego lenistwa nie chce się ich uporządkować? A co jak interlokutora ma się za zdrajcę, kurdupla, agenta albo nieudacznika? W skrócie za człowieka gorszego sortu? Nie warto poświęcać mu czasu – logiczne, prawda? No to mamy gonienie króliczka po to by go gonić, a nie po to by go złapać. No to mamy prężenie muskułów przed kamerami albo na mównicach, zamiast prężyć szare komórki w mózgu na spotkaniach roboczych. Ile my marnujemy czasu i energii na spory „po nic”… Tego czasu nam już nikt nie zwróci.

Mój profesor, bardzo znany fizyk, Walter Oelert, człowiek, który jako pierwszy na świecie „wyprodukował” atom antymaterii dbał o to, żeby jego doktoranci regularnie dzielili się wynikami swoich pomiarów, żeby każdy miał czas na wspólne dyskutowanie. Tylko tak da się uprawiać naukę. Konfrontując się, argumentując i ścierając. W końcu nigdy nie masz tyle racji, by twój rozmówca nie miał jej choć troszeczkę.

Tomasz Rożek

3 komentarze do Spór jest „po coś”

Planety z innej galaktyki!

Naukowcom z Uniwersytetu w Oklahomie (USA) udało się znaleźć planety, które znajdują się poza galaktyką Drogi Mlecznej. To pierwsze takie odkrycie w historii.

Po raz kolejny pokazano jak potężną metodą badawczą jest mikrosoczewkowanie grawitacyjne. Naukowcy z University of Oklahoma, korzystając z danych zebranych przez orbitalny teleskop Chandra, po raz pierwszy w historii odkryli planety pozasłoneczne w innej galaktyce niż nasza Droga Mleczna. Te które znaleziono znajdują się w galaktyce odległej od nas o 3,8 miliarda lat świetlnych. Odkrycie zostało opisane w Astrophysical Journal Letters.

Mikrosoczewkowanie  grawitacyjne to jedna z kilku metod poszukiwania obiektów, które same nie są źródłem światła, ale same „zniekształcają” jego bieg. To też metoda, której udoskonalenie zawdzięczamy polskim uczonym z grupy profesora Andrzeja Udalskiego.

Promień światła niekoniecznie musi poruszać się po linii prostej. Gdy biegnie przez wszechświat i przelatuje w pobliżu dużej masy, zmienia swój bieg. Polscy uczeni tę metodę zastosowali w skali mikro. Tą masą, która ugina promień światła może być np. planeta. Metodą mikrosoczewkowania można odkrywać nawet planety mniejsze od Ziemi. Żadną z pozostałych znanych metod nie potrafimy wykrywać tak małych globów.

Uginanie promieni światła pod wpływem masy postulował Albert Einstein w opublikowanej w 1916 roku Ogólnej Teorii Względności . Eksperymentalnie ten efekt potwierdzono dopiero w 1979 roku, na podstawie obserwacji kwazaru Q0957+561. Dzisiaj mikrosoczewkowanie pomaga łowić planety, a soczewkowanie grawitacyjne pomaga ocenić np. rozkład ciemnej materii we wszechświecie. Czym większa masa, tym ugięcie światła będzie większe, ale nawet to bardzo subtelne, jest przez astronomów (a w zasadzie zaawansowane urządzenia astronomiczne) zauważalne.

A wracając do odkrytych planet. Zbyt wiele o nich nie wiadomo, poza tym, że ich masa mieści się pomiędzy masą Księżyca i Jowisza. Co więcej, na razie nie zanosi się na to, by dało się w jakikolwiek sposób powiększyć wiedzę o nowych planetach. Nie znamy technologii, która by to umożliwiała. – Ta galaktyka znajduje się 3,8 miliarda lat świetlnych stąd i nie ma najmniejszej szansy na obserwowanie tych planet bezpośrednio, nawet z najlepszym teleskopem, jaki można sobie wyobrazić w scenariuszu science fiction. Jednak jesteśmy w stanie je badać, odkrywać ich obecność, a nawet mieć wyobrażenie o ich masach – powiedział Eduardo Guerras, członek grupy badawczej, która dokonała odkrycia.

Wiele lat temu intuicja podpowiadała, że Układ Słoneczny nie może być jedynym miejscem w którym znajdują się planety. I rzeczywiście, badania polskiego astrofizyka, prof. Aleksandra Wolszczana z początku lat 90tych XX wieku pokazały, że Słońce nie jest jedyną gwiazdą z planetami. Dzisiaj planet innych niż słoneczne znamy wiele tysięcy. Ta sama intuicja podpowiadała, że w innych galaktykach niż nasza Droga Mleczna także muszą istnieć planety. No i właśnie – po raz pierwszy – takie odkryto.

 

Więcej informacji:

http://www.ou.edu/web/news_events/articles/news_2018/ou-discover-planets.html

http://iopscience.iop.org/article/10.3847/2041-8213/aaa5fb

For the First Time Ever, Scientists Found Alien Worlds in Another Galaxy

3 komentarze do Planety z innej galaktyki!

Robimy krzywdę naszym dzieciom

Dzieci w ostatnich klasach szkół podstawowych są przeciążone pracą. Nie mają czasu na pogłębianie swoich zainteresowań. Chcielibyśmy, żeby ciekawość dodawała im skrzydeł, tyle tylko, że ich plecaki są tak ciężkie, że nie sposób oderwać się z nimi od twardej ziemi.

Dzieci w ostatnich klasach szkół podstawowych są przeciążone pracą. Nie mają czasu na pogłębianie swoich zainteresowań. Chcielibyśmy, żeby ciekawość dodawała im skrzydeł, tyle tylko, że ich plecaki są tak ciężkie, że nie sposób oderwać się z nimi od twardej ziemi.

Kiedyś postanowiłem zapytać kilka osób o źródło ich pasji. Pisałem wtedy książkę o wybitnych polskich naukowcach, o badaczach, którzy uprawiają naukę na światowym poziomie. Co otworzyło ich głowy? Co napędzało ich do zdobywania wiedzy? Co spowodowało, że zainteresowali się genetyką, meteorologią, medycyną, fizyką,…? Okazało się, że za każdym razem była to książka. Nie szkoła, tylko książka wykraczająca poza szkolny program. Czasami podarowana przez rodziców, czasami znaleziona w bibliotece, czasami otrzymana jako nagroda w jakimś konkursie.

Szkoła może człowieka zainspirować, ale sama szkoła to za mało, żeby podtrzymać tę inspirację. Historie naukowców z którymi rozmawiałem były niemal identyczne. Najczęściej książkę, która jak się później okazywało miała wpływ na kierunek rozwoju zawodowego, ci ludzie dostawali gdy byli jeszcze w szkole podstawowej. To wtedy rodzą się pasje, które – jeżeli odpowiednio prowadzone i podsycane – pozostają na całe życie. Po latach nie pamiętamy prawych dopływów Wisły, długości głównych rzek w Polsce czy rodzajów gleb. Po latach pamiętamy okładkę książki, która zmieniła sposób w jaki postrzegamy świat. Pamiętamy rozkład ilustracji na poszczególnych stronach i kolor grzbietu.

Rozmowy z naukowcami o książkach przypominają mi się za każdym razem, gdy muszę swoim dzieciom zabraniać czytania książek. Czy dobrze robię? Uczniowie w 7 klasie mają w tygodniu 38 godzin lekcji. To prawie tyle ile etat dorosłego człowieka. Ja w ich wieku miałem w tygodniu o około 10 godzin mniej! Po powrocie do domu, dzieci muszą odrobić zadania domowe i przygotować się do sprawdzianów i kartkówek na kolejne dni. Ich plecaki są tak ciężkie, że około czwartku słyszę, że bolą je już plecy. Gdy kolejny dzień wracają o 15:30, znowu po ośmiu lekcjach, wyglądają nie jak dzieci, tylko jak cyborgi. Nie mają nawet siły na to, żeby pobiegać. Czy w Ministerstwie Edukacji naprawdę nie ma nikogo kto wie, że taki wysiłek jest ponad dziecięce możliwości? Gdy chcą psychicznie odpocząć, gdy chcą zrobić coś innego niż nauka i przeglądanie zeszytów – przynajmniej moje dzieci – biorą do ręki książkę. Tyle tylko, że w trakcie tygodnia wybór jest prosty. Jak będą czytały, nie zdążą się nauczyć na sprawdzian. Albo będą rozwijały pasje, albo będą – często tylko pamięciowo – przyswajały szkolne informacje. W takim trybie nie ma czasu na naukę instrumentu, na kółka zainteresowań czy pójście do muzeum. W takim trybie nie ma czasu na zabawę. Naprawdę nie wiecie państwo z Ministerstwa, że zabawa rozwija? W takim trybie z trudem udaje się znaleźć czas na dodatkowy angielski. Ale tylko wtedy, gdy obiad będzie zjedzony w biegu, niemalże na stojąco.

Czego oczekujemy od młodego człowieka? Tego, żeby umiał czy tego, żeby rozumiał? Tego, żeby ciekawość dodawała mu skrzydeł, czy tego, żeby plecak pokrzywił mu kręgosłup? Chcemy tworzyć armię zmęczonych robotów czy nowoczesne społeczeństwo ciekawych świata ludzi, którzy z pasją budują rakiety, badają geny, piszą wiersze i odkrywają nowe lądy? Czy ktokolwiek w Ministerstwie Edukacji zadaje sobie takie pytania? Robimy krzywdę naszym dzieciom.

Tomasz Rożek

 

Tekst ukazał się w tygodniku Gość Niedzielny

27 komentarzy do Robimy krzywdę naszym dzieciom

Karmienie piersią zmniejsza ryzyko cukrzycy

Karmienie dziecka piersią przez ponad sześć miesięcy niemal o połowę obniża u kobiety ryzyko zachorowania na cukrzycę typu 2 – wykazało trwające 30 lat badanie, które publikuje pismo “JAMA Internal Medicine”.

Karmienie dziecka piersią przez ponad sześć miesięcy niemal o połowę obniża u kobiety ryzyko zachorowania na cukrzycę typu 2 – wykazało trwające 30 lat badanie, które publikuje pismo “JAMA Internal Medicine”.

„Zaobserwowaliśmy bardzo silną zależność między okresem, w którym kobieta karmi piersią, a spadkiem ryzyka rozwoju cukrzycy, nawet po uwzględnieniu wszystkich możliwych czynników ryzyka” – skomentowała kierująca badaniami dr Erica P. Gunderson z Kaiser Permanente Division of Research w Oakland (Kalifornia, USA).

Jej zespół przeanalizował dane zebrane wśród 1238 kobiet, uczestniczek badania na temat czynników ryzyka rozwoju choroby wieńcowej – Coronary Artery Risk Development in Young Adults (CARDIA). W momencie włączenia do niego panie były w wieku od 18. do 30 lat i żadna z nich nie miała cukrzycy. W ciągu kolejnych 30 lat, kiedy śledzono stan ich zdrowia, każda kobieta urodziła co najmniej jedno dziecko oraz była poddawana badaniom w kierunku cukrzycy (do siedmiu razy w ciągu całego badania). Uczestniczki udzielały też informacji na temat stylu życia – w tym diety i aktywności fizycznej oraz na temat okresu, w którym karmiły piersią swoje dziecko. W analizie uwzględniono czynniki ryzyka zachorowania na cukrzycę występujące u nich przed ciążą, takie jak otyłość, poziom glukozy na czczo, styl życia, historia występowania cukrzycy w rodzinie, a także zaburzenia metabolizmu podczas ciąży.

Kobiety, które karmiły piersią przez ponad sześć miesięcy były o 47 proc. mniej narażone na rozwój cukrzycy typu 2 w późniejszych latach, w porównaniu z tymi, które nie karmiły wcale. U pań karmiących sześć miesięcy lub krócej spadek ryzyka był mniejszy – o 25 proc.

Długofalowe korzyści z karmienia piersią były widoczne zarówno u kobiet rasy białej, jak i czarnej, niezależnie od tego, czy wystąpiła u nich cukrzyca ciążowa (która zwiększa ryzyko zachorowania na cukrzycę typu 2 w przyszłości). U kobiet rasy czarnej trzykrotnie częściej rozwijała się cukrzyca w ciągu 30 lat badania, jednocześnie rzadziej karmiły one piersią niż kobiety rasy białej.

„Częstość zachorowania na cukrzycę spadała stopniowo wraz z wydłużaniem się okresu karmienia piersią, niezależnie od rasy, wystąpienia cukrzycy ciążowej, stylu życia, rozmiarów ciała i innych metabolicznych czynników ryzyka ocenianych przed ciążą, co sugeruje biologiczny charakter mechanizmu leżącego u podłoża tej zależności” – skomentowała dr Gunderson.

Naukowcy uważają, że może chodzić m.in. o wpływ hormonów produkowanych podczas laktacji na komórki trzustki, które wydzielają insulinę i w ten sposób regulują poziom glukozy we krwi.

Wiedzieliśmy od dłuższego czasu, że karmienie piersią daje wiele korzyści zarówno matce, jak i dzieciom” – przypomniała niebiorąca udziału w badaniu Tracy Flanagan, dyrektor oddziału ds. zdrowia kobiet w Kaiser Permanente Northern California.

Badania wskazują na przykład, że kobiety, które karmiły dziecko piersią są mniej zagrożone zachorowaniem na raka piersi, z kolei dzieci karmione mlekiem mamy są w przyszłości mniej narażone na alergie i astmę, choroby serca, nadciśnienie, otyłość i inne zaburzenia metabolizmu.

W opinii Flanagan wyniki najnowszego badania dostarczają kolejnego argumentu, dla którego „lekarze, pielęgniarki, a także szpitale i decydenci, powinni wspierać kobiety w tym, by karmiły piersią tak długo, jak to możliwe”. (PAP)

Brak komentarzy do Karmienie piersią zmniejsza ryzyko cukrzycy

RNA w 3D

Już 1 mln razy badacze i osoby z całego świata wykorzystały RNAComposer – publicznie dostępny, skuteczny poznański system do modelowania struktury 3D RNA. A to nie jedyny polski sukces w badaniach nad wyznaczaniem struktury RNA.

Już 1 mln razy badacze i osoby z całego świata wykorzystały RNAComposer – publicznie dostępny, skuteczny poznański system do modelowania struktury 3D RNA. A to nie jedyny polski sukces w badaniach nad wyznaczaniem struktury RNA.

RNA to cząsteczki kwasu rybonukleinowego. Bez nich komórka nie mogłaby produkować białek – cząsteczek, które są istotne dla budowy i funkcjonowania komórek. Rodzajów RNA jest sporo i pełnią one w komórce różne funkcje.

I tak np. matrycowe RNA są pośrednikami, dzięki którym z DNA daje się wyciągnąć informacje – przepis na białka. Z rybosomowych RNA zbudowane są rybosomy – komórkowe centra produkcji białek. A transferowe RNA mają przynosić do tych centrów odpowiednie aminokwasy – jednostki budulcowe białek.

Model struktury 3D RNA wirusa Zika wygenerowany przez RNAComposer na podstawie sekwencji. Obecnie struktura ta jest już określona eksperymentalnie i jest zdeponowana w bazie struktur PDB. Źródło: Marta Szachniuk

 

Cząsteczkę RNA tworzy zwykle nić składająca się z połączonych ze sobą reszt nukleotydowych (w skrócie: A, C, G, U). Nawet jeśli rozszyfruje się ich kolejność w łańcuchu RNA, czyli określi sekwencję, nie jest pewne, jak cała cząsteczka układa się w przestrzeni. Bo cząsteczki RNA – w przeciwieństwie do kabla od słuchawek wrzuconych do plecaka – nie zwijają się w przypadkowe supły. Istnieją pewne reguły, które pozwalają przewidzieć, jaki kształt przybierze dana cząsteczka. W rozwikłaniu tego zagadnienia pomocne okazują się komputerowe metody do przewidywania struktur 3D RNA.

Dr hab. Marta Szachniuk wspólnie z zespołem prof. Ryszarda Adamiaka z Instytutu Chemii Bioorganicznej PAN w Poznaniu opracowała darmowy, publicznie dostępny system RNAComposer. Do systemu wprowadza się sekwencję RNA (lub informację o oddziaływaniach między resztami nukleotydowymi, czyli tzw. strukturę drugorzędową), a on w ciągu kilku/kilkunastu sekund oblicza i prezentuje trójwymiarowy model cząsteczki. Program sprawnie radzi sobie zarówno z krótkimi, jak i bardzo długimi łańcuchami cząsteczek RNA o skomplikowanej architekturze. – Wielu naukowców z całego świata używa programu RNAComposer, żeby uzyskiwać pierwsze wyobrażenie tego, jak wyglądać może w 3D cząsteczka, którą badają. Nasz system od 2012 r. wykonał już 1 mln predykcji” – opowiada dr hab. Marta Szachniuk.

To nie jest jedyny system informatyczny do predykcji struktury 3D RNA. Takich automatycznych systemów jest kilka. Poza tym przewidywaniem struktur RNA zajmują się zespoły badawcze wspomagające się badaniami eksperymentalnymi.

Aby porównać skuteczność różnych metod wyznaczania kształtu RNA w przestrzeni 3D, od 2010 roku organizowany jest konkurs RNA-Puzzles. Chodzi w nim o to, by mając zadaną sekwencję RNA, jak najdokładniej wyznaczyć strukturę cząsteczki. Modele przewidziane przez uczestników konkursu porównywane są następnie z wynikami eksperymentów chemicznych i biologicznych prowadzących do określenia struktury. Konkurs organizowany jest obecnie w dwóch kategoriach: serwerów, które automatycznie generują wyniki, oraz w kategorii predykcji ludzkich, gdzie modele powstają w wyniku integracji obliczeń komputerowych i eksperymentów laboratoryjnych. „Jesteśmy najlepsi w kategorii automatycznych systemów do predykcji 3D RNA” – podkreśla dr Szachniuk.

System RNAComposer powstał dzięki temu, że od dekady zespół z ECBiG skrzętnie gromadził ogromną bazę danych dotyczących RNA. W bazie RNA FRABASE zebrano informacje z ogromnej liczby eksperymentów. Takich, z których można było wyciągnąć wnioski o strukturze przestrzennej molekuł RNA. Baza ta jest ciągle aktualizowana i każdy może z niej bezpłatnie skorzystać. „To popularne narzędzie. Wiemy nawet, że na zagranicznych uczelniach korzystają z niej np. studenci w ramach badań i studiów przygotowujących do zawodu bioinformatyka czy biologa” – opowiada dr Szachniuk. Baza ta pomaga m.in. wyszukiwać czy w różnych cząsteczkach powtarzają się jakieś konkretne przestrzenne wzorce.

Polska na światowej mapie badań nad strukturą RNA jest widoczna także dzięki badaniom innych zespołów. Ważną postacią jest tu m.in. prof. Ryszard Kierzek z Instytutu Chemii Bioorganicznej PAN w Poznaniu. Jego prace pozwoliły określić termodynamiczne reguły fałdowania RNA. Nowatorskimi badaniami nad wyznaczaniem struktury RNA zajmuje się również zespół prof. Janusza Bujnickiego z Międzynarodowego Instytutu Biologii Molekularnej i Komórkowej w Warszawie.

PAP – Nauka w Polsce

1 komentarz do RNA w 3D

Fajerwerki – gra świateł

Podobno czarny proch wymyślili Chińczycy. Nie po to jednak by używać go na polu walki, ale by się nim bawić. Jak ? Budując sztuczne ognie.

Pierwsze fajerwerki budowano by odstraszać złe duchy. Spalano suszone łodygi bambusowe by wydawały charakterystyczne trzaski. Później wypełniano je różnymi substancjami. Rozrywka zaczęła się wraz z rozwojem chemii. A właściwie nie tyle rozwojem ile świadomością. Odkrywano coraz to nowe substancje czy związki, których wcześniej nikt nie podejrzewał o wybuchowe konotacje. Dziś wiele z nich znaleźć można w petardach, bombkach czy rakietach. W Polsce pokazy sztucznych ogni odbyły się po raz pierwszy w 1918 r., kilka dni po ogłoszeniu niepodległości. Trwały wtedy zaledwie 3 minuty. Pierwsze znane pokazy sztucznych ogni zorganizowano na dworze cesarskim w Chinach w roku 468 p.n.e.

>>> Więcej naukowych ciekawostek na FB.com/NaukaToLubie

To wszystko fizyka …

Wybuchające na niebie sztuczne ognie to jedna z lepszych ilustracji tzw. zasady zachowania pędu. To dokładnie ta sama reguła, która tłumaczy dlaczego wyskakując z pokładu łódki na brzeg czy molo powodujemy, że łódka zaczyna odpływać. No właśnie, dlaczego ? Bo – jak powiedziałby fizyk – w układzie w którym nie działają siły zewnętrzne, pęd układu musi zostać zachowany. Oczywiście w wyżej opisanym przykładzie z łódką i jej pasażerem działają siły zewnętrzne – siły oporu, ale są one małe i można je pominąć. Tak więc jeżeli pasażer łódki wskakuje z jej pokładu na molo – łódka zaczyna się poruszać w przeciwnym kierunku. Można by powiedzieć, że ruch łódki równoważy ruch jej pasażera. Im z większym impetem wyskoczy on z łódki, tym szybciej sama łódka zacznie odpływać w przeciwnym kierunku. Co to wszystko ma wspólnego z fajerwerkami ? Człowiek płynący na łódce to układ składający się z dwóch elementów. Petarda rozrywana nad naszymi głowami, to układ składający się z setek a może nawet tysięcy elementów. Ilość nie gra jednak tutaj roli. Fizyka pozostaje taka sama. Każdy wybuch jest w pewnym sensie symetryczny. Jeżeli kawałek petardy leci w prawo, inny musi – dla równowagi – lecieć w lewo. Jeden do przodu, to inny do tyłu. W efekcie malujące się na ciemnym niebie wzory mają kształty kul, okręgów czy palm. Zawsze są jednak symetryczne. Zawsze takie, że gdyby potrafić cofnąć czas, wszystkie te ogniste stróżki spotkałyby się w punkcie znajdującym się dokładnie w środku, pomiędzy nimi.

… czy może chemia ?

Najczęściej występującą barwą na pokazach sztucznych ogni jest pomarańcz i czerwień. Pojawiają się też inne kolory. Skąd się biorą ? Wszystko zależy od tego z czego zrobiona, a właściwie z dodatkiem czego zrobiona jest petarda. Jej zasadnicza część to środek wybuchowy, ale czar tkwi w szczegółach. I tak, za często występujący pomarańcz i czerwień odpowiedzialny jest dodany do materiału wybuchowego wapń i bar. Inny pierwiastek – stront powoduje, że eksplozja ma kolor żółty, z kolei związki boru i antymon, że zielony. Ale to dopiero początek kolorowej tablicy Mendelejewa. Bo płomienie może barwić także rubid – na kolor żółto fioletowy, cez na kolor fioletowo-niebieski i bar na kolor biały. Potas spowoduje, że niebo stanie się liliowe, a miedź, że niebieskie. W produkcji fajerwerków wszystkie chwyty są dozwolone – o ile wykonuje je specjalista pirotechnik. Bo o efekt toczy się gra. Tak więc mieszanie poszczególnych związków jest nie tyle wskazane, ile wręcz pożądane. Jedno jest pewne. Specjalista spowoduje, że w czasie pokazu na niebie będzie można podziwiać więcej barw niż w łuku tęczy. Będą się pojawiały dokładnie w tym momencie, w którym chce je przedstawić twórca sztucznych ogni. Niebo z liliowego, przez zielony może stać się krwisto czerwone, aż na końcu spłonie intensywnym pomarańczem. A wszystko wg wyliczonego co do ułamka sekundy scenariusza. Ale czy na pewno tylko o kolory chodzi ? Co z dymem ? Co z hukiem ?

>>> Więcej naukowych ciekawostek na FB.com/NaukaToLubie

To sztuka!

Prawdziwy mistrz dba nie tylko o efekty wizualne, ale także dźwiękowe w czasie pokazu fajerwerków.  Żeby petarda zdrowo nadymiła trzeba zaopatrzyć się w zapas chloranu potasu, laktozę i barwniki – w zależności od oczekiwanego koloru dymu. Petardy błyskowe będą wypełnione magnezem, a hukowe i świszczące będą zawierały duże ilości nadchloranów i soli sodu i potasu. Można też wyprodukować mieszaninę iskrzącą, a wtedy przyda się węgiel drzewny albo oświetlającą. W praktyce – szczególnie w ładunkach profesjonalnych – różnego rodzaju mieszanki stosuje się razem. Nie wszystkie, w jednym worku, ale ułożone w odpowiedniej kolejności.

Można zapytać jak zadbać o chronologię w czasie trwającej ułamki sekund eksplozji ? To jest właśnie sztuka. Ładunek pirotechniczny wygląda trochę jak cebula. Składa się z wielu warstw. Petarda najpierw musi wznieść się w powietrze. Ani nie za wysoko, ani za nisko. W pierwszym wypadku efekt wizualny będzie marny, a w drugim – gdy wybuchnie zbyt blisko widzów – może dojść do tragedii. Prawdziwa magia zaczyna się, gdy ładunek jest już wysoko nad głowami. Poszczególne warstwy zapalają się od siebie i w zaplanowanej wcześniej kolejności wybuchają. Widz z zapartym tchem podziwia gęste kule rozrastającego się we wszystkich kierunkach różnokolorowego ognia, albo błysk i kilka opadających w bezwładzie długich ognistych języków. Gdy wszystko wydaję się być skończone, nagle pojawiają się migoczące gwiazdki, albo wirujące wokół własnych osi ogniste bombki. Po nich jest ciemność i cisza. Do następnej eksplozji, innej niż poprzednia. Innej niż wszystkie poprzednie.

Sztuczne ognie można sprowadzić do chemii materiałów wybuchowych. Można też powiedzieć, że są wręcz encyklopedycznym przykładem znanej każdemu fizykowi zasady zachowania pędu. Ale tak naprawdę sztuczne ognie to czary.

Kolory sztucznych ogni:

karminowy: lit, bar i sód

szkarłatny: bar 

czerwono-żółty: wapń i bar

żółty: stront, śladowe ilości sodu i wapnia

biały: cynk i bar

szmaragdowy: miedź i tal

niebiesko-zielony: związki fosforu ze śladowymi ilościami kwasu siarkowego lub kwasu borowego, związki miedzi

jaskrawy zielony: antymon

żółto-zielony: bar i molibden

lazurowy: ołów, selen i bizmut

jasnoniebieski: arszenik

fioletowy/liliowy: niektóre związki potasu z dodatkiem sodu i litu

purpurowy: potas, rubid i cez

2 komentarze do Fajerwerki – gra świateł

Pożary widziane z kosmosu

W Kalifornii od kilku tygodni szaleją pożary. Serwisy telewizyjne czy internetowe pełne są apokaliptycznych zdjęć, ale ja postanowiłem pokazać wam zdjęcia z kosmosu. Są straszne i… hipnotyzujące.

W Kalifornii od kilku tygodni szaleją pożary. Serwisy telewizyjne czy internetowe pełne są apokaliptycznych zdjęć, ale ja postanowiłem pokazać wam zdjęcia z kosmosu. Są straszne i… hipnotyzujące.

 

Pożary zniszczyły albo niszczą setki tysięcy hektarów lasu. W sumie z domów ewakuowano kilkaset tysięcy ludzi. Ogień dotarł już do Los Angeles, płonie dzielnica Bel Air na terenie której znajduje się kampus znanego na całym świecie Uniwersytetu Kalifornijskiego.

Pożary w tej części Stanów to żadna nowość, ale tegoroczne są szczególnie groźne, bo towarzyszy im suchy i gorący wiatr fenowy, który wieje w porywach z prędkością do 130 km/h. Taki wiatr w południowej Kalifornii wieje od października do marca, z północnego wschodu, od strony gór Sierra Nevada.

Wiatrem fenowym jest np. nasz wiatr halny, czyli ciepły, suchy i porywisty wiatr, wiejący ku dolinom. Taki wiatr powstaje na skutek różnic ciśnienia pomiędzy jedną a drugą stroną grzbietu górskiego. Po nawietrznej stronie grzbietu powietrze unosi się ochładzając oraz pozbywając się pary wodnej. Po stronie zawietrznej powietrze opada ocieplając się.

A wracając do pożarów w Kalifornii. W tym roku są one tak dotkliwe także dlatego, że wczesną wiosną w Kalifornii spadły wyjątkowo obfite deszcze. To spowodowało szybki wzrost niskiej roślinności porastającej zbocza. Od marca jest tam jednak susza. NASA szacuje, że mamy właśnie do czynienia z okresem dziesięciu najsuchszych miesięcy w historii Południowej Kalifornii. Od 10 miesięcy nie spadła tam nawet jedna kropla wody. Ta niska, bujna na wiosnę, ale teraz wysuszona na proch roślinność stała się doskonałą pożywką dla pożarów.

Dzisiaj w Kalifornii szaleje sześć dużych pożarów i kilka mniejszych. Spaliło się kilkaset domów i setki tysięcy hektarów lasu. Straty liczone są w setkach miliardów dolarów.

Zdjęcia w większości zostały zrobione przez spektroradiometr obrazu (MODIS) na pokładzie satelity NASA oraz Multi Spectral Imager (MSI) z satelity Sentinel-2 Europejskiej Agencji Kosmicznej.

A photo taken from the International Space Station and moved on social media by astronaut Randy Bresnik shows smoke rising from wildfire burning in Southern California, U.S., December 6, 2017. Courtesy @AstroKomrade/NASA/Handout via REUTERS ATTENTION EDITORS – THIS IMAGE HAS BEEN SUPPLIED BY A THIRD PARTY. – RC11C90C8420

Przy okazji, zapraszam do subskrypcji mojego kanału na YT ( youtube.com/NaukaToLubie ) i polubienia fanpaga na Facebooku ( facebook.com/NaukaToLubie )

Brak komentarzy do Pożary widziane z kosmosu

Mechanizm samobójczego naśladownictwa

Czyli inaczej efekt Wertera jest znany od wielu lat. Media powinny z wielką powściągliwością pisać o zbrodniach, aktach terroryzmu i samobójstwach. Inaczej biorą na siebie ciężar odpowiedzialności za naśladowców. 

Czyli inaczej efekt Wertera jest znany od wielu lat. Media powinny z wielką powściągliwością pisać o zbrodniach, aktach terroryzmu i samobójstwach. Inaczej biorą na siebie ciężar odpowiedzialności za naśladowców. 

Gdy w mediach pojawia się dużo relacji dotyczących samobójstwa, gdy z tematu robi się główną informację dnia, gdy osoby znane gratulują samobójcy odwagi i determinacji, wzrasta prawdopodobieństwo kolejnych tragedii. Niewiele rzeczy tak jasno jak efekt Wertera ilustruje ogromną odpowiedzialność mediów i pracujących w nich dziennikarzy. Ta odpowiedzialność leży także na naszych barkach. To przecież my linkujemy, komentujemy i udostępniających treści, za które jesteśmy odpowiedzialni.  Światowa Organizacja Zdrowia kilka lat temu stworzyła nawet dokument z wytycznymi dla dziennikarzy jak pisać o samobójstwach, tak, żeby nie prowokować naśladowców.

Statystycznie rzecz ujmując, wzrost samobójstw następujący kilka, kilkanaście dni od nagłośnienia analogicznej tragedii. Z badań wynika, że szczególnie wyraźnie jest widoczny, gdy samobójstwo popełni znana osoba (np. gwiazda filmowa), lub gdy czyn osoby popełniającej samobójstwo jest usprawiedliwiany. Efekt Wertera zauważono także w stosunku do terroryzmu. Czym więcej informacji a aktach terroru, tym częściej się one zdarzają. Gdy przeanalizowano ponad 60 tysięcy zamachów terrorystycznych jakie miały miejsce na całym świecie w latach 1970 – 2002 i skorelowano je z częstotliwością oraz długością ukazujących się na ich temat materiałów prasowych, odkryto, że każde dodatkowe doniesienie o zamachu terrorystycznym zwiększało prawdopodobieństwo zamachów w kolejnym tygodniu o od kilku do kilkunastu procent.

Człowiekiem, który wprowadził do literatury określenie „efekt Wertera” był amerykański socjolog David Philips. Swoje badania prowadził w latach 70tych XX wieku. Już wtedy zauważono, że efekt jest wzmacniany gdy opisy śmierci podaje się ze szczegółami. Gdy samobójca umiera długo i w cierpieniu, gdy upublicznia się wizerunek zrozpaczonych krewnych samobójcy, gdy publikuje się list w których samobójca wyjaśnia swoje motywy i gdy te motywy poddaje się w mediach analizie. Psychologowie twierdzą, że w tym jest tak duży „potencjał identyfikacyjny”, że osoby o słabszej osobowości, osoby, które już wcześniej rozważały samobójstwo są tymi informacjami wręcz popychane do tragicznych czynów.

Obszerną rozmowę na temat efektu Wertera, kilka lat temu (w 2011 roku) opublikował portal Polityka.pl

– Jak to działa? – pytała w wywiadzie Joanna Cieśla.

(prof. Bartosz Łoza – kierownik Kliniki Psychiatrii Warszawskiego Uniwersytetu Medycznego.): Większość z nas bez głębszej refleksji wchłania papkę newsową, którą przekazują nam media, zwłaszcza te szybkie, operujące skrótami. Działa tu mechanizm modelowania – mamy podaną całą gotową historię – o prawdziwym człowieku, prawdziwym życiu, prawdziwych decyzjach, z początkiem i końcem. Nie musimy wkładać żadnego wysiłku w to, żeby ją śledzić, siedzimy w fotelu, a ona jest nam opowiadana. Staje się szczególnie wiarygodna dzięki wykorzystaniu takich technik jak nakręcone drżącą ręką filmy przysłane przez widzów, relacje i amatorskie zdjęcia internautów. To wszystko potwierdza, że to prawda, nie jakaś kreacja. 

Następnie prof. Bartosz Łoza wyjaśnia na czym polega owo modelowanie. Mówi, że osoby z podobnymi problemami co samobójca, rozważające już wcześniej tragiczne w skutkach kroki, dochodzą do wniosku, że skoro samobójca się zabił, one także mogą to zrobić.

– Informacja o zbrodni sprawia, że wszyscy stajemy się gorsi? – pytała Joanna Cieśla z Polityki.

– Niestety. Nie chcę zabrzmieć jak kaznodzieja, ale zło będzie rodzić zło. Wyjaśnia to nie tylko mechanizm modelowania, ale i teoria analizy transakcyjnej amerykańskiego psychoanalityka Erica Berne. Zgodnie z nią nasze emocje, moralność zależą od „głasków”, którymi nieustannie się wymieniamy z innymi ludźmi. Dobry głask to pochwała, zły głask – gdy ktoś na mnie burknął w autobusie. Mogę odburknąć – wtedy oddam negatywny głask. To taka waluta emocjonalna. Nasze portfele są pełne tej waluty, którą przez całe życie wymieniamy się z innymi ludźmi – odpowiada prof. Łoza.

W kolejnych częściach wywiadu profesor tłumaczy, że w tak destrukcyjny sposób działają na nas przede wszystkim informacje prawdziwe. Stąd często emitowane filmy w których dochodzi do strzelanin czy innych zbrodni nie mają wpływu na wzrost przestępczości. Natomiast relacjonowanie zbrodni czy tragedii, które rzeczywiście miały miejsce, szczególnie, gdy te relacje są bardzo emocjonalne, mogą nakłaniać do samobójczych kroków.

Efekt Wertera swoją nazwę zawdzięcza imieniu głównego bohatera napisanej przez Goethego powieści „Cierpienia młodego Wertera”. Po jej wydaniu (w 1774 roku) bodaj po raz pierwszy zauważono tzw. mechanizm samobójczego naśladownictwa.

Historia nieszczęśliwie zakochanego Wertera, który ostatecznie popełnił samobójstwo, pchnęła tysiące młodych ludzi nie tylko w Niemczech ale i w wielu innych krajach Europy do odebrania sobie życia.

3 komentarze do Mechanizm samobójczego naśladownictwa

Ukryta komnata

Ukryta komnata, promienie kosmiczne i piramidy. Nie, to nie jest streszczenie taniego filmu science-fiction. Streszczenie tekstu z Nature

To podobno pierwsze znalezisko w piramidzie Cheopsa od XIX. I to od razu z grubej rury. Magazyn Nature napisał, że w jednym z najbardziej monumentalnych grobowców odkryto tajemniczą komnatę. Jej długość jest szacowana na kilkadziesiąt metrów, a o tym, że w ogóle istnieje dowiedziano się dzięki analizie… promieni kosmicznych. Jak tego dokonano?

Czerwoną strzałką zaznaczyłem odkrytą komnatę 

Składnikiem  strumienia cząstek, które docierają do nas z kosmosu są miony. A ściślej mówiąc, miony powstają jako cząstki wtórne w wyniku rozpadu mezonów w wyższych warstwach ziemskiej atmosfery. Miony mają cechy elektronów, ale są ponad 200 razy od nich cięższe. Strumień mionów jest dość duży, bo w każdej sekundzie, przez metr kwadratowy powierzchni Ziemi przelatuje ich prawie 200. Miony nie omijają także nas, ale nie są dla nas groźne. Od jakiegoś czasu fizycy nauczyli się je wykorzystywać praktycznie.

 

Wiadomo ile mionów leci na nasze głowy. Jeżeli na ich drodze postawimy przeszkodę, część z nich, w niej ugrzęźnie. Im gęstsza ta przeszkoda, tym ugrzęźnie ich więcej. Ustawiając w odpowiedni sposób detektory mionów, jesteśmy w stanie wykonać trójwymiarowy obraz skanowanego obiektu. Zasada działania tego pomiaru jest identyczna co działania tomografu komputerowego. Jest źródło promieniowania (promienie Roentgena, zwane promieniami X) i są detektory. Robiąc odpowiednio dużo pomiarów pod różnymi kątami, jesteśmy w stanie z dużą precyzją określić kształt, budowę i strukturę tych części ludzkiego ciała, które dla oka lekarza są zakryte.

>>> Więcej naukowych informacji na FB.com/NaukaToLubie.

W przypadku piramidy Cheopsa w Gizie nie było lekarzy, tylko fizycy i archeologowie, nie było promieni X, tylko kosmiczne miony. Nie było tomografu medycznego, tylko zmyślny system detektorów. Ale udało się dokonać tego samego. Znaleziono obiekt, a właściwie pustą przestrzeń, która wcześniej była przed wzrokiem badaczy zakryta.

Nie wiadomo czym jest tajemnicza komnata. Rozdzielczość tej metody jest zbyt mała, by stwierdzić czy znajdują się w niej jakieś obiekty. Może więc być pusta. Ale może też być pełna skarbów. Pusta przestrzeń znajduje się nad tzw. Wielką Galerią, czyli korytarzem prowadzącym do Komory Królewskiej. Nie wiadomo też, czy komnata (pusta przestrzeń) była zamurowana na etapie budowy piramidy, czy ktokolwiek po jej wybudowaniu do niej zaglądał. Piramida Cheopsa powstała w okresie tzw. Starego Państwa, czyli około 2560 roku p.n.e. Budowano ją zaledwie przez 20 lat. Jak na metody i technologie jakimi wtedy dysponowano, to tempo ekspresowe.

>>> Więcej naukowych informacji na FB.com/NaukaToLubie.

7 komentarzy do Ukryta komnata

Nagroda za mikroskop

Nagroda Nobla z chemii zostałą przyznana za technikę, która zrewolucjonizowała biochemię. Mowa o mikroskopii krioelektronowej, dzięki której można obserwować i to w trzech wymiarach cząsteczki np. białek, bez uszkadzania ich.

Nagroda Nobla z chemii zostałą przyznana za technikę, która zrewolucjonizowała biochemię. Mowa o mikroskopii krioelektronowej, dzięki której można obserwować i to w trzech wymiarach cząsteczki np. białek.

Jacques Dubochet, Joachim Frank, Richard Henderson

„for developing cryo-electron microscopy for the high-resolution structure determination of biomolecules in solution”

Co niezwykle ważne, dzięki nagrodzonej metodzie, jesteśmy w stanie zobrazować nieuszkodzoną cząsteczkę białka w jej „naturalnym” środowisku. Uszkodzone białko nie niesie dla nas interesującej informacji. Nie jesteśmy w stanie zobaczyć jak ono reaguje, jak łączy się z innymi cząsteczkami, w skrócie, jak ono funkcjonuje w swoim naturalnym środowisku (a nie na przysłowiowym szkiełku) czyli we wnętrzu żywej komórki czy we wnętrzu poszczególnych organelli komórki. Białka to cegiełki z których wybudowane jest życie. Przy czym analogia do cegły i budynku nie jest wystarczająca. Białka nie są pasywnymi elementami naszego ciała. Białka (jako hormony) regulują czynności a nawet modyfikują struktury tkanek (tkanek, które też są zbudowane z białek). Bez poznania białek, tego jak są zbudowane, jak funkcjonują, jak łączą się w większe kompleksy, nie ma najmniejszej szansy żeby zrozumieć życie.

Trzej panowie Jacques Dubochet (Szwajcaria), Joachim Frank (USA), Richard Henderson (Wielka Brytania) stworzyli metodę by w skuteczny sposób białka badać. Nie w środowisku sztucznym, ale naturalnym. Bo tylko złapane w akcji białko daje nam się poznać. Tylko wtedy widzimy jak rzeczywiście funkcjonuje cały mechanizm, w którym bierze ono udział. Jak białko podglądnąć tak, by rzeczywiście zobaczyć jak ono funkcjonuje? Zamrozić. Ale bardzo szybko, po to by nie zdążył przebiec proces krystalizacji. Zamrażanie – jeżeli zostanie odpowiednio przeprowadzone – niczego nie uszkadza i niczego nie fałszuje. Mrożąc kolejne próbki, jesteśmy w stanie zrobić video, klatka po klatce pokazujące procesy, które przebiegają niezwykle szybko. Złożenie tych klatek w jedną całość umożliwia nie tylko prześledzenie procesu tak jak gdyby było się jego naocznym świadkiem, ale także przyjrzenie się poszczególnym jego aktom z różnej perspektywy. I tak w trójwymiarze można zobaczyć splatanie i rozplatanie długich nici białkowych. Można zobaczyć łączenie się mniejszych białek w większe kompleksy czy np. działanie receptorów białkowych.

– Te metody były przełomowe w medycynie molekularnej. Dzięki nim nie tylko możemy patrzyć na narządy i komórki. Możemy zejść głębiej, możemy śledzić jak wyglądają i działają pojedyncze cząsteczki w szczegółach, o jakim jeszcze niedawno nam się nie śniło. – powiedział Joachim Frank, jeden z laureatów tegorocznego Nobla z chemii, w rozmowie telefonicznej którą zaaranżowano w trakcie ogłaszania werdyktu.

Na zdjęciu głównym model wirusa zapalenia mózgu otrzymany dzięki technice mikroskopii krioelektronowej.

1 komentarz do Nagroda za mikroskop

Nobel z fizyki za fale

Prace nad wykrywaniem i analizą fal grawitacyjnych musiały kiedyś zostać uhonorowane Nagrodą Nobla. No i stało się.

Kosmiczny detektor, kosmiczne zagadnienie. W świecie fizyków i kosmologów po raz kolejny będzie mówiło się o falach grawitacyjnych. Kilkanaście dni temu dzięki pracy kolaboracji LIGO/VIRGO zmarszczki przestrzeni były w czołówkach serwisów na całym świecie. Dzisiaj też będą. Z powodu Nagrody Nobla z fizyki.

Rainer Weiss, Barry C. Barich, Kip S. Thorne

„for decisive contributions to the LIGO detector and the observation of gravitational waves”

waves-101-1222750-1600x1200

Fale grawitacyjne to kompletny odlot. Człowiekiem który sprawę rozumiał, ba, który ją wymyślił, a w zasadzie wyliczył był nie kto inny tylko Albert Einstein (swoją drogą powinien dostać nagrodę za odkrycie najbardziej nieintuicyjnych zjawisk we wszechświecie). Z napisanej przez niego 100 lat temu Ogólnej Teorii Względności wynika, że ruch obiektów obdarzonych masą,  jest źródłem rozchodzących się w przestrzeni fal grawitacyjnych (lub inaczej – choć nie mniej abstrakcyjnie – zaburzeń czasoprzestrzennych). Jak to sobie wyobrazić? No właśnie tu jest problem. Bardzo niedoskonała analogia to powstające na powierzchni wody kręgi, gdy wrzuci się do niej kamień. W przypadku fal grawitacyjnych zamiast wody jest przestrzeń, a zamiast kamienia poruszające się obiekty. Czym większa masa i czym szybszy ruch, tym łatwiej zmarszczki przestrzeni powinny być zauważalne. Rejestrując największe fale grawitacyjne, tak jak gdybyśmy bezpośrednio obserwowali największe kosmiczne kataklizmy: zderzenia gwiazd neutronowych, czarnych dziur czy wybuchy supernowych. Trzeba przyznać, że perspektywa kusząca gdyby nie to… że fale grawitacyjne to niezwykle subtelne zjawiska. Nawet te największe, bardziej będą przypominały lekkie muśnięcia piórkiem niż trzęsienie ziemi. W książce „Zmarszczki na kosmicznym morzu” (Ripples on a Cosmic Sea: The Search for Gravitational Waves) australijski fizyk, prof. David Blair, poszukiwanie fal grawitacyjnych porównuje do nasłuchiwania wibracji wywołanych przez pukanie do drzwi z odległości dziesięciu tysięcy kilometrów. Detektory zdolne wykryć fale grawitacyjne powinny być zdolne zarejestrować wstrząsy sejsmiczne wywołane przez upadek szpilki po drugiej stronie naszej planety. Czy to w ogóle jest możliwe? Tak! Od 2002 roku działa w USA Laser Interferometer Gravitational Wave Observatory w skrócie LIGO czyli Laserowe Obserwatorium Interferometryczne Fal Grawitacyjnych. Zanim budowa ruszyła, pierwszy szef laboratorium prof. Barry Barrish na dorocznym posiedzeniu AAAS (American Association for the Advancement of Science) oświadczył, że pomimo wielu trudności nadszedł w końcu czas na zrobienie czegoś, co można nazwać prawdzią nauką (swoją drogą, odważne słowa na zjeździe najlepszych naukowców na świecie).

>>> Więcej naukowych informacji na FB.com/NaukaToLubie

This_visualization_shows_what_Einstein_envisioned

Symulacja łączenia się czarnych dziur – jedno ze zjawisk, które wytwarza najsilniejsze fale grawitacyjne

Z falami grawitacyjnymi jest jednak ten problem, że przez dziesięciolecia, mimo prób, nikomu nie udało się ich znaleźć. Gdyby komuś zaświtała w głowie myśl, że być może w ogóle ich nie ma, spieszę donieść, że gdyby tak było naprawdę, runąłby fundament współczesnej fizyki – Ogólna Teoria Względności, a kosmologię trzeba byłoby przepisać od początku. Dzisiaj głośno mówi się, że fale grawitacyjne zostały przez LIGO zarejestrowane. Panuje raczej atmosfera lekkiego podniecenia i oczekiwania na to, co stanie się za chwilę. Potwierdzenie istnienia fal grawitacyjnych nie będzie kolejnym odkryciem, które ktoś odfajkuje na długiej liście spraw do załatwienia.  Zobaczymy otaczający nas wszechświat z całkowicie innej perspektywy.

Jako pierwszy falowe zmiany pola grawitacyjnego, w latach 60 XX wieku próbował zarejestrować amerykański fizyk Jaseph Weber. Budowane przez niego aluminiowe cylindry obłożone detektorami nie zostały jednak wprawione w drgania. Co prawda Weber twierdził, że złapał zmarszczki wszechświata, ale tego wyniku nie udało się potwierdzić. Dalsze poszukiwania trwały bez powodzenia, aż do 1974 roku, gdy dwóch radioastronomów z Uniwersytetu w Princeton (Joseph Taylor i Russel Hulse) obserwując krążące wokół siebie gwiazdy (PSR1913+16) stwierdziło, że układ powoli traci swoją energię, tak jak gdyby wysyłał … fale grawitacyjne. Mimo, że samych fal nie zaobserwowano, za pośrednie potwierdzenie ich istnienia autorzy dostali w 1993 roku Nagrodę Nobla. Uzasadnienie Komitetu Noblowskiego brzmiało: „za odkrycie nowego typu pulsara, odkrycie, które otwiera nowe możliwości badania grawitacji”.

>>> Więcej naukowych informacji na FB.com/NaukaToLubie

virgoviewInstalacja, która z lotu ptaka wygląda jak wielka litera L, to dwie rury o długości 4 km każda, stykające się końcami pod kątem prostym. Choć całość przypomina przepompownię czy oczyszczalnię ścieków jest jednym z najbardziej skomplikowanych urządzeń kiedykolwiek wybudowanych przez człowieka. Każde z ramion tworzy betonowa rura o średnicy 2 metrów. W jej wnętrzu – jak w bunkrze – znajduje się druga ze stali nierdzewnej, która jest granicą pomiędzy światem zewnętrznym a bardzo wysoką próżnią. Z miejsca w którym rury się stykają, „na skrzyżowaniu”, dokładnie w tym samym momencie wysyłane są wiązki lasera. Ich celem są zwierciadła umieszczone na końcu każdej z rur. 2000px-Ligo.svgOdbijane przez zwierciadła tam i z powrotem około 100 razy promienie, wpadają z powrotem do centralnego laboratorium i tam zostają do siebie porównane. Dzięki zjawisku interferencji możliwe jest wyliczenie z wielką dokładnością różnicy przebytych przez obydwie wiązki światła dróg. A drogi te powinny być identyczne, no chyba że… chyba że w czasie pomiaru przez Ziemie – podobnie jak fala na powierzchni wody – przejdzie fala grawitacyjna. Wtedy jedno z ramion będzie nieco dłuższe, a efekt natychmiast zostanie wychwycony w czasie porównania dwóch wiązek. Tyle tylko, że nawet największe zaburzenia zmienią długość ramion o mniej niż jedną tysięczną część średnicy protonu (!). To mniej więcej tak, jak gdyby mierzyć zmiany średnicy Drogi Mlecznej (którą ocenia się na ok. 100 tys. lat świetlnych) z dokładnością do jednego metra. Czy jesteśmy w stanie tak subtelne efekty w ogóle zarejestrować ? Lustra na końcach każdego z korytarzy (tuneli) mogą zadrgać (chociażby dlatego, że przeleciał nad nimi samolot, albo w okolicy przejechał ciężki samochód). By tego typu efekty nie miały wpływu na pomiar zdecydowano się na budowę nie jednej, ale dwóch instalacji, w Handford w stanie Waszyngton i w Livingston w stanie Luizjana. Są identyczne, choć oddalone od siebie o ponad 3 tys. kilometrów. Ich ramiona maja takie same wymiary i maja takie same układy optyczne. Nawet gdy w jednym LIGO zwierciadło nieoczekiwanie zadrga, niemożliwe by to samo w tej samej chwili stało się ze zwierciadłem bliźniaczej instalacji. Zupełnie jednak inaczej będzie gdy przez Ziemię przejdzie z prędkością światła fala grawitacyjna. Zmiany jakie wywoła zajdą w dokładnie tej samej chwili w obydwu ośrodkach.

>>> Więcej naukowych informacji na FB.com/NaukaToLubie

A kończąc, pozwólcie na ton nieco nostalgiczny. Wszechświat jest areną niezliczonych kataklizmów a dramatyczne katastrofy, to naturalny cykl jego życia. To nic, że od tysięcy lat na naszym niebie królują te same gwiazdozbiory. W skali kosmicznej taki okres czasu to nic nieznacząca chwila, a nawet w czasie jej trwania widoczne były wybuchy gwiazd. Z bodaj największego kataklizmu – Wielkiego Wybuchu – „wykluło” się to co dzisiaj nazywamy kosmosem. Obserwatoria grawitacyjne (np. takie jak LIGO) otworzą oczy na inne wielkie katastrofy, i to nie tylko te które będą, ale także te które były. Już prawie słychać zgrzyt przekręcanego klucza w drzwiach. Już za chwilę się otworzą. Najpierw przez wąską szparę, a później coraz wyraźniej i coraz śmielej będziemy obserwowali wszechświat przez nieznane dotychczas okulary. Ocenia się, że to co widzą „zwykłe” teleskopy (tzw. materia świecąca) to mniej niż 10% całej masy Wszechświata. A gdzie pozostałe 90% ? Na to pytanie nie znaleziono dotychczas odpowiedzi. Tzw. ciemna materia powinna być wszędzie, a nie widać jej nigdzie. Przypisuje się jej niezwykłe właściwości, łączy się ją z nie mniej tajemniczą ciemną energią. Czy LIGO, pomoże w rozwiązaniu tej intrygującej zagadki? Czy będzie pierwszym teleskopem, przez który będzie widać ciemną materię? Jeżeli obserwatoria grawitacyjne będą w stanie „zobaczyć” obiekty, które można obserwować także w świetle widzialnym (np. wybuch supernowej), a nie będą widziały ani grama ciemnej materii, to zagadka staje się jeszcze bardziej tajemnicza. Bo albo ta materia nie podlega prawom grawitacji, albo nie ma żadnej ciemnej materii. Konsekwencje obydwu tych scenariuszy są trudne do przewidzenia. Czy teraz rozumiecie dlaczego odkrycie fal grawitacyjnych jest tak ważne? 

9 komentarzy do Nobel z fizyki za fale

Nobel za biologiczny zegar

Ciekawa koincydencja. W dniach w których zmieniamy czas letni na zimowy, Komitet Nagrody Nobla ogłosił, że tegorocznymi laureatami z dziedziny fizjologii i medycyny są badacze, którzy zrozumieli jak działa nasz biologiczny zegar.

Ciekawa koincydencja. W dniach w których zmieniamy czas letni na zimowy, Komitet Nagrody Nobla ogłosił, że tegorocznymi laureatami z dziedziny fizjologii i medycyny są badacze, którzy zrozumieli jak działa nasz biologiczny zegar.

Jeffrey C. Hall, Michael Rosbash and Michael W. Young

for their discoveries of molecular mechanisms controlling the circadian rhythm

Ta nagroda w pewnym sensie łączy medycynę, a właściwie fizjologię z astronomią. Czasami chyba zapominamy, że życie nie funkcjonuje w oderwaniu od otoczenia. Podział szkolnych zajęć na przedmioty (biologia, fizyka, chemia,…)  nie pomaga zrozumieć złożoności tego świata. Jak to się dzieje, że czujemy się senni gdy zapada zmrok? Jak to się dzieje, że inne zwierzęta budzą się wtedy gdy zachodzi słońce? Co dzieje się w naszym organizmie gdy za krótko śpimy? I wtedy gdy podróżując samolotem, zmieniając strefy czasowe nasz biologiczny zegar totalnie się pogubi? Na te pytania bardzo długo nie było konkretnej odpowiedzi. Teraz już jest. I to – co może zadziwiać – udało się je uzyskać m.in dzięki badaniom muszek owocówek. Swoją drogą, tym małym niepozornym owadom, ktoś powinien wystawić chyba pomnik. Niewiele jest organizmów żywych, które bardziej przysłużyły się nauce. I to wielu dziecinom równocześnie. No ale to inny temat.

A wracając do pór dnia i nocy. Pór niższej temperatury i wyższej. Pór odpoczynku i aktywności. Te pory są skutkiem obrotu Ziemi wokół własnej osi. Mieliśmy (my czyli ziemskie życie) grubo ponad 3 miliardy lat na dostosowanie się do tego cyklu. Więcej, wzrastaliśmy, ewoluowaliśmy w świecie który jest cykliczny. Różnych cykli mamy wiele, ale ten który bodaj ma n nas największy wpływ to właśnie cykl dnia i nocy. Nawet najbardziej prymitywne bakterie mają biologiczny zegar. Działa na tyle dobrze, że my mamy go w zasadzie w niezmienionej wersji.

W zegarze o którym mowa nie chodzi tylko o to żeby wiedzieć kiedy mamy się położyć do łóżka. W zasadzie – w przypadku ludzi – to jest tylko skutek uboczny. Biologiczny zegar taktuje tym wszystkim co w naszym ciele dzieje się poza naszą świadomością. Metabolizmem, temperaturą ciała, produkcją i wydzielaniem hormonów a także aktywnością seksualną, cyklami życiowymi czy nawet poczuciem głodu i sytości. Tegoroczni laureaci Nagrody Nobla zostali uhonorowani za opisanie tego jak ten skomplikowany system działa.

Już kilkaset lat temu zauważono, że rośliny pozbawione dostępu światła zachowują się tak, jak gdyby to światło cały czas okresowo do nich docierało. Tak jak gdyby kiedyś nastawiony (nakręcony) zegar teraz tykał i działał niezależnie od tego czy światło pada na liście czy też nie. Podobnie zachowują się zwierzęta, w tym ludzie. To dlatego mamy kłopoty z zaśnięciem i koncentracją gdy szybko zmienimy strefę czasową. Tych kłopotów by nie było, gdyby nasz wewnętrzny zegar automatycznie dostosowywał się do pory dnia i nocy.

W latach 70tych XX wieku zaczęto poszukiwać źródeł (mechanizmu) tego biologicznego zegara. Najpierw – a jakże – u muszek owocówek. Poszukiwano i znaleziono – w największym skrócie – mechanizmy w którym w zależności od pory dnia (natężenia światła) produkowane są specyficzne białka (nazwane PER). Te gromadzą się w ciągu nocy, a rozpadają się w ciągu dnia. Badacze odkryli u muszek gen, który gdy zostanie uszkodzony zaburza rytm dobowy. Gen został wyizolowany dopiero w połowie lat 80tych XX wieku. To w nim był przepis na produkcję wspomnianego wcześniej białka PER. Tego, które gromadzi się w ciagu nocy a rozpada w ciagu dnia. Dziesięć lat później, w połowie lat 90tych odkryto drugi gen kodujący „zegarowe” białko. I gen i białko nazwano TIM. Białka TIM i PER łączą się z sobą wtedy gdy noc przechodzi w dzień. To sygnał żeby komórka wstrzymała produkcję biała PER. Mamy wiec produkcję białka i wiemy co powoduje że wstrzymywana jest jego produkcja. A jaki czynnik powoduje, że produkcja PER znowu rusza z kopyta? Skąd komórka wie, że dzień zamienia się w noc? Pod koniec lat 90tych odkryto trzeci gen odpowiedzialny za tykanie biologicznego zegara. gen DBT. I tak zamyka się 24godzinny cykl.

Zegar tyka nawet wtedy gdy przez jakiś czas organizm odcięty jest od światła. Z czasem, zegar się jednak rozregulowuje. U roślin ten okres swego rodzaju bezwładności wynosi kilka dni. U człowieka od 2-3 dni (stąd niektórzy są w stanie dość łatwo przestawiać się na pracę w nocy) do kilkudziesięciu (dlatego istnieją osoby, które nie są w stanie przyzwyczaić się do zmiany czasu o godzinę). Gdy zegar się zatrze, nie staje w miejscu, tylko zaczyna odmierzać czas nieprawidłowo. Np.  u niektórych wydłużając dobę dwukrotnie a u innych skracając o kilka godzin. Wiemy to, bo kilku śmiałków w ramach eksperymentu zamknęło się w kompletnych ciemnościach na czas od kilkunastu do kilkudziesięciu dni. W naszym przypadku sercem zegara nie jest jednak pojedyncza komórka, tylko szyszynka, czyli ta cześć mózgu, która „widzi” czy jest dzień czy noc. To ona daje sygnał, który jest podchwytywany przez miliardy drobnych zegarków już na poziomie komórkowym. Gdyby tykały jak zegarki ze wskazówkami, wydawalibyśmy dźwięki jak zakład zegarmistrza.

2 komentarze do Nobel za biologiczny zegar

Type on the field below and hit Enter/Return to search

WP2Social Auto Publish Powered By : XYZScripts.com
Skip to content