Nauka To Lubię

Oficjalna strona Tomasza Rożka

Tag: mózg

Robot obiad ci poda

W pierwszych dniach stycznia, na kampusie George Mason University’s w USA pojawiło się 25 robotów dostarczających żywność. Udało im się dokonać niemożliwego. Dzięki nim, studenci zaczęli normalnie się odżywiać.

W pierwszych dniach stycznia, na kampusie George Mason University’s w USA pojawiło się 25 robotów dostarczających żywność. Roboty wbudował i dedykowaną aplikację napisał start-up Bay Area należący do Starship Technologies.
Po trzech miesiącach trwania eksperymentu okazało się, że dzięki robotom studenci zaczęli lepiej się odżywiać. Z badań przeprowadzonych przed eksperymentem wynika, że prawie 90 proc. młodych ludzi rezygnuje z jedzenia śniadania nie z powodu braku pieniędzy, tylko braku czasu. W skrócie, gdy mamy do wyboru dłuższy sen albo śniadanie, wybieramy spanie. Chyba każdy z nas tak by wybrał.
Tymczasem okazuje się, że dzięki robotom, studenci zaczęli jeść śniadania. To samo dotyczy ciepłych posiłków w porze obiadu. I w tym przypadku chodziło o brak czasu. Ale urządzenie, które dotrzymuje kroku najbardziej zabieganym skutecznie przekonało młodych ludzi do tego by zamówić ciepły posiłek, z dostawą dokładnie do miejsca które w danym momencie wydaje się być optymalne. Czasami mamy po prostu ochotę posiedzieć na ławce w parku, a czasami pracę do wykonania w budynku oddalonym od stołówki. Tymczasem robot dojeżdża do każdego miejsca w kampusie w czasie nie dłuższym niż 15 minut.
O tym jak ważne jest regularne spożywanie posiłków powie każda mama, ale też każdy lekarz czy naukowiec zajmujący się żywieniem. To szczególnie istotne gdy organizm się rozwija i wtedy kiedy musi sprawnie analizować i uczyć się. Źle odżywieni studenci mają mniejsze osiągnięcia naukowe i sportowe. Częściej zapadają na różnego rodzaju choroby. Przy czym (może w przeciwieństwie do czasów zamierzchłych) złe nawyki żywieniowe dzisiejszych żaków nie wynikają z biedy czy dostępności jedzenia, a z braku czasu.
 
Biznesowo projekt skonstruowany jest następująco. Student płaci za posiłek kwotę taką samą jaką zapłaciłby w stołówce. Do tego – za dostarczenie – doliczana jest opłata 1,99 USD. Ta opłata jest zyskiem firmy dostarczającej roboty. Z kolei uczelnia ma swój udział w firmie przygotowującej posiłki. Uczelnia zarabia, bo sprzedaje się więcej posiłków. Zadowoleni są także studenci, bo… co to za przyjemność chodzić głodnym. W skrócie, rzadko spotykana sytuacja win-win.
W dłuższej perspektywie odpowiednio odżywieni studenci mogą mieć wpływ na lepsze wyniki samego uniwersytetu. Nie mówiąc już o tym, że uczelnia która ma w swojej ofercie taką ofertę może przyciągnąć do siebie więcej kandydatów, a to zawsze podnosi poziom nauczania. Już dzisiaj wiadomo, że podobny system zostanie wprowadzony na kolejnym amerykańskim uniwersytecie Flagstaff z Północnej Arizony. Po kampusie tej uczelni będzie jeździła flota 30 robotów Starship Technologies.
Zobaczcie sami jak to działa:

5 komentarzy do Robot obiad ci poda

Czy wiemy, co one tam robią?

Czy mamy świadomość, co nasze dzieci robią w internecie? Oczywiście, że nie mamy. Ufamy, że nie robią nic głupiego. Zaufanie to podstawa wychowania. Ale może czasami ufając, warto sprawdzić? Dla ich dobra.

Czy my, rodzice, mamy świadomość, co nasze dzieci robią w internecie? To pytanie retoryczne. Oczywiście, że nie mamy o tym pojęcia. Ufamy, że nie robią nic głupiego. Zaufanie to podstawa wychowania. Ale może czasami ufając, warto sprawdzić? Dla ich dobra.
 
Nigdy nie mogłem zrozumieć, skąd wzięło się całkowicie błędne przekonanie, że internet daje anonimowość. Jaką anonimowość? Przecież człowiek jest bardziej anonimowy gdy chodzi po dużym mieście z zawieszoną na szyi tabliczką na której jest jego imię i nazwisko, adres, data urodzenia i numer buta. W internecie nic nie jest anonimowe, nigdy anonimowe nie było i nigdy takie nie będzie. A mimo to, część z nas uważa, że może pozostać bezkarna robiąc głupie rzeczy.
Znam przypadek dziewczynki, w zasadzie nastolatki, którą jej klasowi rówieśnicy wpisami w internecie doprowadzili na skraj rozpaczy. Jechali tak ostro, że dziewczyna nie wytrzymała i gdyby nie wsparcie rodziców i dość zdecydowana reakcja, mogłoby dojść do tragicznych skutków. Przekleństwa i wulgarne przezwiska przez kilka dni padały na forum klasy i nikt nie reagował. Choć czytało wielu. Niektórzy się dołączali, inni tylko (a może aż?) milczeli. Prowodyrów było dwoje. Koleżanka, siedząca w pierwszej ławce i kolega, wzorowy uczeń, sportowiec. Rodzice byli w szoku. Dziwili się, bo przecież ich dzieci… no kto by pomyślał? Oni chyba powinni pomyśleć.
 
Z jakiegoś powodu nasze dzieci nie rozumieją, a i my mamy z tym kłopot, że świat nie dzieli się na ten prawdziwy realny i ten udawany cyfrowy. W tym realnym nie wypada komuś napluć w twarz, nie wypada go zwyzywać i oskarżyć np. o handel swoim ciałem. Ale w tym udawanym wszystko wolno. Bo co? Bo nikt się nie dowie? Bo nikt nie zapamięta? Bo nie uda się sprawdzić? Bo nikt nie potraktuje tego poważnie? Bo mniej zaboli? Co za brednie! Internet pamięta wszystko. Temu młodemu, zdolnemu sportowcowi, ktoś może za kilka lat zrujnować karierę przypominając głupotę młodości. Tej młodej dziewczynie, ktoś może przypomnieć wulgaryzmy gdy będzie starała się o pierwszą pracę. W świecie analogowym wspomnienia, ekscesy i wybryki mogą ulec zapomnieniu. W Internecie nigdy.
 
My, drodzy rodzice, nie mamy bladego pojęcia co nasze dzieci robią w internecie. Zabronić? Broń Boże. Uczyć i mieć pełną świadomość możliwości i zagrożeń. A tak na początek, pierwsze ćwiczenie. Wiecie ile kont wasze dzieci mają na popularnych serwisach społecznościowych? Ile z nich znacie? Ile to konta ukryte zakładane pod pseudonimem? Czy wiecie jakich słów, jakich zwrotów najczęściej wyszukują w przeglądarkach internetowych? Czy wiecie kogo oglądają na platformach video? Przecież wielokrotnie, z tymi osobami „spędzają” więcej czasu niż z wami. Kontrolować na każdym kroku? To moim zdaniem niewykonalne. Jasne że ufać, ale też pamiętać, że ludzie (może szczególnie ci młodzi) robią głupie rzeczy. Te w internecie, nigdy nie zostaną zapomniane. Więc może dobrze, dla ich dobra, ufając, choć czasami sprawdzić.
2 komentarze do Czy wiemy, co one tam robią?

Zakażenia w szpitalach poważnym problemem

Brudne ręce personelu medycznego, skażone otoczenie chorego, zatrudnianie osób nieprzygotowanych do pracy w szpitalach wskazują, jak bardzo nieskuteczny jest w niektórych placówkach system przeciwdziałania zakażeniom wewnątrzszpitalnym ostrzega NIK. Tymczasem szacuje się, że efektywne systemy kontroli zakażeń mogą zmniejszyć ryzyko ich wystąpienia od 55% do 70%.

Brudne ręce personelu medycznego, skażone otoczenie chorego, zatrudnianie osób nieprzygotowanych do pracy w szpitalach wskazują, jak bardzo nieskuteczny jest w niektórych placówkach system przeciwdziałania zakażeniom wewnątrzszpitalnym ostrzega NIK. Z najnowszego raportu Izby wynika, że wzrost liczby pacjentów m.in zarażonych lekoodpornymi szczepami bakterii Klebsiella Pneumoniae NDM(+) w 2016 r. był niemal trzykrotnie wyższy niż w 2015 r. Niestety NIK nie może podać kompletnych danych, bowiem funkcjonujące w kontrolowanych szpitalach systemy monitorowania i raportowania o zakażeniach nie dostarczały pełnych danych. Przekazane zestawienia w ocenie Izby mogą być znacznie zaniżone.

Zakażenia szpitalne związane z udzielaniem świadczeń zdrowotnych stanowią poważny problem wszystkich szpitali, nawet w krajach o najwyższych standardach opieki zdrowotnej. Dotyczą od 5 do 10 % osób leczonych szpitalnie. Zakładając, że w polskich szpitalach ulega zakażeniom tylko 5% procent pacjentów to i tak daje to ok. 400 tys. osób. Źródłem przenoszenia bakterii mogą być m. in. brudne ręce personelu medycznego, niejałowy sprzęt, skażone otoczenie chorego, przyjmowanie pacjentów wymagających szczególnych warunków hospitalizacji bez ich zapewnienia, zatrudnianie osób nieprzygotowanych do pracy w szpitalach.

Do grupy osób najbardziej narażonych należą pacjenci np. po przeszczepach, z zaburzeniami odporności po terapii przeciwnowotworowej, po rozległych oparzeniach, dzieci do pierwszego roku życia i osoby starsze. Zakażenia szpitalne wydłużają pobyt w szpitalu, powodują powikłania prowadzące często do niepełnosprawności, przez co zwiększają koszty leczenia. Koszty generują też roszczenia pacjentów, którzy potrafią udowodnić, że zostali zakażeni z winy szpitala.

Narzędziem służącym ograniczeniu przypadków zakażeń szpitalnych powinien być prawidłowo działający system zapobiegania i zwalczania zakażeń, utworzony w szpitalu na podstawie istniejących przepisów prawa. Szacuje się, że efektywne systemy kontroli zakażeń mogą zmniejszyć ryzyko ich wystąpienia od 55% do 70%. Kontrolą objęto 18 szpitali (17 działających jako samodzielny publiczny zakład opieki zdrowotnej utworzony przez samorząd i jeden szpital działający w formie spółki prawa handlowego) oraz 4 stacje sanitarno-epidemiologiczne finansowane z budżetu państwa w okresie od 2015 r. do końca I półrocza 2017 r.

Najważniejsze ustalenia kontroli

W kontrolowanych szpitalach odnotowano wzrost liczby pacjentów, u których zdiagnozowano zakażenie szpitalne o 8,5%, mimo, że liczba wszystkich hospitalizowanych pacjentów w tym samym okresie spadła o 1,9%. Przykładem szybkiego wzrostu liczby zakażonych pacjentów jest jeden ze szpitali na Mazowszu. Tam od stycznia 2015 r. do czerwca 2017 r. współczynnik zachorowalności wzrósł niemal dwukrotnie z 1,14% do  2,25% (współczynnik pokazuje liczbę zakażonych na 100 pacjentów hospitalizowanych). Najwyższy wzrost, jak wykazała NIK był na Oddziale Anestezjologii i Intensywnej Terapii ( z poziomu 27,35% w 2015 r. do 34,02 % w 2016 r. aż do 41,35 % w 2017 r. Na innych oddziałach też odnotowano wzrosty ale nie tak gwałtowne. Jak wyjaśnił zastępca dyrektora ds. lecznictwa szpitala wzrost liczby zarejestrowanych zakażeń nie jest spowodowany rzeczywistą liczbą zachorowań ale poprawą dostarczanych danych. NIK nie kwestionuje, że na wzrost współczynnika zachorowań mogło wpłynąć ujawnienie przez Zespół Kontroli Zakażeń Szpitalnych większej liczby zakażeń, jednak dynamika wzrostu budzi zaniepokojenie i zdaniem NIK wymaga pogłębionej analizy przyczyn ich występowania.

Izba zwraca też uwagę na prawie trzykrotny wzrost (o 278,7%) między 2015 a 2016 rokiem zakażeń lekoopornymi bakteriami Klebsiella Pneumoniae NDM(+). Najwięcej pacjentów hospitalizowano w województwie mazowieckim 2 757 osób, najmniej w pomorskim i małopolskim po 7 pacjentów. Z informacji Konsultanta Krajowego w dziedzinie mikrobiologii lekarskiej wynika, że ta bakteria w 2015 r. stanowiła najpoważniejszy problem medyczny i epidemiologiczny, dotyczący w szczególności szpitali warszawskich. Charakteryzuje się niezwykle niebezpieczną lekoopornością (na niemal wszystkie antybiotyki). Jednocześnie potrafi się szybko rozprzestrzeniać i utrzymywać w przewodzie pokarmowym przez kilka lat. W latach 2015 – 2017 (I półrocze) w województwie mazowieckim liczba hospitalizowanych pacjentów z jej powodu wynosiła odpowiednio 404, 1316 i 1037.

Poważny problem stanowi też sepsa (posocznica), która jest zespołem objawów spowodowanym nadmierną reakcją organizmu  na zakażenie (organizm walcząc z zakażeniem zaczyna niszczyć zdrowe organy). Sepsa stanowi bezpośrednie zagrożenie dla życia. W jej przebiegu dochodzi do niewydolności nerek, wątroby, serca, płuc. Najważniejsze w leczeniu jest możliwie najszybsze podanie antybiotyków. Z danych Narodowego Funduszu Zdrowia wynika, że w badanym przez NIK okresie liczba dorosłych hospitalizowanych z powodu sepsy wyniosła: 2015 r. – 19 053, 2016 r. – 21 522 a w pierwszej połowie 2017 r. – 10 962. Najwięcej, bo prawie jedną piątą (18,5%) leczono w województwie mazowieckim. W tym okresie Narodowy Fundusz Zdrowia zapłacił za leczenie sepsy w ramach kontraktów prawie 450 milionów złotych.

Zdaniem NIK, prowadzenie rejestru sepsy pozwoliłoby na uzyskanie wiarygodnych danych o rozpoznanych przypadkach, niezbędnych do analiz jej objawów, sposobów leczenia i poziomu śmiertelności. 

Na wysoki poziom zakażeń, w ocenie NIK, ma wpływ brak wyspecjalizowanego personelu medycznego. W składach Zespołów Kontroli Zakażeń Szpitalnych, powołanych w szpitalach (we wszystkich 18 kontrolowanych takie istniały) brakowało lekarza o wymaganej specjalności, odpowiedniej liczby pielęgniarek epidemiologicznych oraz specjalisty do spraw mikrobiologii.

Na dzień 30 czerwca 2017 r. w Polsce było zawodowo czynnych tylko 110 lekarzy specjalistów w dziedzinie mikrobiologii, w tym 61 w wieku powyżej 55 lat. Według NIK, taka sytuacja nie daje gwarancji należytego sprawowania ciągłego i bieżącego nadzoru epidemiologicznego. 

Wśród krajów europejskich Polska zajmujeostatnie miejsce pod względem praktykujących lekarzy specjalistów w dziedzinie mikrobiologia – bakteriologia. Niewiele lepiej jest z epidemiologami. W całej Polsce pracuje ich 219, najwięcej w województwie mazowieckim 57, najmniej w opolskim – 1.

Brakuje też pielęgniarek epidemiologicznych. To osoba uczestnicząca w szeroko pojętym zwalczaniu zakażeń, m. in. kontrolująca stan sanitarno – epidemiologiczny szpitala, prowadząca rejestr zakażeń, szkolenia personelu, nadzorująca i monitorująca pracę personelu, uczestnicząca w planowaniu opieki nad pacjentem z zakażeniem szpitalnym. Zgodnie z ustawą o zwalczaniu zakażeń  liczba pielęgniarek epidemiologicznych powinna być nie mniejsza niż 1 na 200 łóżek szpitalnych.  W 6 kontrolowanych szpitalach posiadających powyżej 200 łóżek nie zapewniono ustawowej liczby takich pielęgniarek. W dwóch mazowieckich szpitalach w skład Zespołu Kontroli Zakażeń Szpitalnych powołano tylko po jednej pielęgniarce, mimo, że szpitale te posiadały odpowiednio 354 i 564 łóżka. Dyrektor jednego z nich brak drugiej pielęgniarki tłumaczył trudnościami finansowymi. Jednak, w trakcie kontroli NIK zamieszczone zostało internetowe ogłoszenie o naborze na stanowisko pielęgniarki epidemiologicznej. Dyrektor drugiego poinformował, że też trwa nabór na to stanowisko. Zdaniem NIK, bezpośrednia podległość pielęgniarki epidemiologicznej kierownikowi danej jednostki zapewniłaby jej samodzielność w realizacji obowiązków i wzmocniłaby jej pozycję w kontaktach z personelem lekarskim.

Wiele uchybień dostrzeżonych przez NIK dotyczyło działalności Zespołów Kontroli Zakażeń Szpitalnych. W trzech szpitalach Zespół nie wywiązywał się z ustawowego obowiązku konsultowania osób podejrzanych o zakażenie lub chorobę zakaźną oraz tych, u których je wykryto. W pięciu brakowało dokumentacji o przeprowadzeniu takich konsultacji.

Odrębną sprawą jest dokumentowanie w szpitalach zakażeń.Analiza kart rejestracji wykazała, że były one sporządzane przez lekarzy nierzetelnie, często z pominięciem wielu danych.NIK skontrolowała 696 losowo wybranych kart. W 18 % z nich nie opisano czynników ryzyka, w 23 % nie podano zastosowanego leczenia antybiotykowego, w ponad 15 % nie odnotowano wykonania badania mikrobiologicznego, w 4 % nie określono postaci klinicznej zakażenia a w 3 % nie podano danych pacjenta. Ponadto 246 kart lekarze wystawili z opóźnieniem sięgającym do 288 dni. W dwóch szpitalach w ogóle nie prowadzono takiego rejestru, co było niezgodne z ustawą o zwalczaniu zakażeń. W jednym ze szpitali w województwie kujawsko – pomorskim nie prowadzono rejestru zakażeń i czynników alarmowych a wyniki badań mikrobiologicznych były rejestrowane w zeszytach prowadzonych na poszczególnych oddziałach. W dwóch przypadkach nie wykazano ujawnionych w badaniach patogenów alarmowych. Adnotacje nie zawierały m.in. daty otrzymania wyniku badań, informacji o potwierdzeniu lub braku wystąpienia patogenu alarmowego czyli drobnoustroju wyjątkowo opornego na działanie leków. Adnotacje obejmowały tylko liczbę stwierdzonych i rozpoznanych zakażeń. W jednym ze śląskich szpitali od 5 lipca do 30 października 2017 r. nie prowadzono rejestru z powodu awarii systemu informatycznego. W czasie kontroli NIK rejestr uruchomiono i do 9 listopada 2017 r. wprowadzono dane 284 pacjentów z 2016 r. W ocenie Izby sporządzanie kart rejestracji z opóźnieniem nie pozwalało na bieżące prowadzenie rejestru zakażeń i utrudniało wiarygodne określenie sytuacji epidemiologicznej szpitala.

A to w konsekwencji doprowadziło do braku precyzyjnych danych o sytuacji epidemiologicznej kraju. Według danych Narodowego Funduszu Zdrowia, w okresie objętym kontrolą (od 2015 r. do końca I półrocza 2017 r.) hospitalizowanych z powodu sepsy było 51 537 pacjentów a według danych Instytutu Zdrowia Publicznego – Państwowego Zakładu Higieny – 2 640. Tymczasem, w każdym z 18 skontrolowanych przez NIK szpitalu wystąpiły przypadki sepsy, w sumie 937 zachorowań.

Centrum Systemów Informacyjnych Ochrony Zdrowia, które gromadzi informacje z rocznych sprawozdań przesyłanych przez szpitale, wskazuje, że w 528 szpitalach stacjonarnych spośród 936 funkcjonujących w Polsce, a więc w ponad połowie, na koniec 2016 r. nie wykazano danych o pacjentach leczonych z powodu zakażenia i zgonów z tego powodu. Nieprawidłowości związane z wykazywaniem błędnych danych stwierdzono w siedmiu placówkach.

NIK ustaliła, że w kontrolowanych szpitalach liczba zakażeń związanych z udzielaniem świadczeń łącznie wyniosła 11 916. Natomiast zakażenie szpitalne zdiagnozowano u 11 488 pacjentów. Jako bezpośrednią przyczynę zgonu, zakażenie szpitalne wskazano  219 pacjentów, tj. ok. 1 % ogólnej liczby zgonów (22 167).

O braku wiarygodnych danych świadczą przeprowadzone tzw. badania punktowe. To badania zorganizowane w Polsce zgodnie z zaleceniem Rady Europy. Koordynowali je naukowcy z Collegium Medicum w Bydgoszczy, Uniwersytetu Mikołaja Kopernika w Toruniu i Narodowego Instytutu Leków w Warszawie.  Te badania punktowe wykazały, że liczba zakażeń szpitalnych może być nawet 5-krotnie wyższa, niż wynika to z danych Ministerstwa Zdrowia prezentowanych w mapach potrzeb zdrowotnych.

W Polsce w kontrolowanym okresie mogło dojść do ok. 400 tys. zakażeń rocznie.A to przekłada się na wydatki. Niestety żaden z kontrolowanych szpitali nie dysponował precyzyjnymi danymi dotyczącymi kosztów poniesionych w związku z wystąpieniem zakażenia. Analizy były prowadzone jedynie przez część szpitali, a koszty wyliczano w sposób uproszczony.  W 7 z kontrolowanych szpitali nie prowadzono ewidencji księgowej kosztów związanych z leczeniem zakażeń, np. w jednym ze szpitali w województwie warmińsko – mazurskim nie było danych dotyczących m.in. szacunkowych kosztów związanych z przedłużeniem leczenia pacjentów, u których wystąpiło zakażenie. Dyrektor tłumaczył tę sytuację niedoskonałością posiadanych narzędzi informatycznych. W pozostałych 11 szacunkowe koszty związane z przedłużeniem leczenia w kontrolowanych szpitalach wyniosły grubo ponad 85 milionów zł.

Zakażenia powodują wydłużenie czasu pobytu chorego w szpitalu. Średni pobyt  wynosił nieco ponad 5 i pół dnia. Zakażenie wydłużało ten czas do ponad 16 dni. Jak wynika z wyjaśnień dyrektorów szpitali, wydłużony czas leczenia jest głównym czynnikiem wpływającym na koszty leczenia pacjenta z zakażeniem.

Nie wszystkie szpitale realizowały zalecenia i decyzje organów Państwowej Inspekcji Sanitarnej w wyznaczonym terminie. Trzeba jednak przyznać, że większość podjęła działania w tym kierunku.

NIK zwraca też uwagę na niedostateczną liczbę badań mikrobiologicznych a to one pozwalają wcześnie wykrywać zakażenia i ustalać skuteczne antybiotyki. Średnia liczba takich badań w przeliczeniu na 1 łóżko szpitalne w danym roku była ok. dwukrotnie niższa niż w krajach Unii.

W trakcie kontroli okazało się, że 3 szpitale nie mają izolatek co jest niezgodne z ustawą o zwalczaniu zakażeń.

W cieple, wilgoci i brudzie bakterie, wirusy, grzyby  znajdują znakomite warunki do przetrwania i namnażania. Dlatego tak istotną rolę w zapobieganiu zakażeniom odgrywa czystość np. instalacji wentylacyjnych i klimatyzacji. Niestety w 5 szpitalach, jak ustaliła NIK, nie dokonywano okresowych przeglądów takich urządzeń zgodnie z zaleceniami producenta oraz nie dokumentowano czynności serwisowych. W jednym z mazowieckich szpitali nie zapewniono skutecznej wentylacji w pomieszczeniach sanitarno – higienicznych i łazienkach dla pacjentów. Brakowało też dokumentacji z okresowych przeglądów, czyszczenia, dezynfekcji bądź napraw urządzeń wentylacyjnych. Także w tym szpitalu powiatowy inspektor sanitarny nakazał doprowadzenie jakości wody do stosownych wymagań. W połowie kontrolowanych szpitali w ciepłej wodzie przekroczona była dopuszczalna norma obecności pałeczek Legionella.

Wnioski

Ustalenia kontroli NIK wskazują na konieczne wprowadzenie systemowych zmian, które powinny wpłynąć na poprawę sytuacji epidemiologicznej w polskich szpitalach. Kontrola wykazała, że mechanizm zapobiegania zakażeniom szpitalnym nie jest skuteczny a to stanowi zagrożenie dla zdrowia i życia pacjentów. Zła sytuacja finansowa części szpitali oraz niedobór wykwalifikowanej kadry medycznej powoduje, że nałożone przez prawo obowiązki nie są wykonywane rzetelnie co spowodowało rozprzestrzenienie się w kilku regionach Polski lekoopornych bakterii. Wadliwie działający system zbierania danych o zakażeniach doprowadził do braku pełnego obrazu skali zakażeń i rodzaju patogenów. NIK skierowała swoje wnioski do ministra zdrowia, kierowników szpitali i Inspekcji Sanitarnej.

17 MAJA 2018 07:00

Tekst i ilustracje pochodzą ze strony www.NIK.gov.pl . Pełny tekst raportu można znaleźć TUTAJ

 

Brak komentarzy do Zakażenia w szpitalach poważnym problemem

Najgroźniejsza broń biologiczna

Gdybym miał powiedzieć, którego rodzaju broni masowego rażenia boję się najbardziej, powiedziałbym, że biologicznej. Moim zdaniem, jest ona bardziej perfidna, niż chemiczna i atomowa.

Gdybym miał powiedzieć, którego rodzaju broni masowego rażenia boję się najbardziej, powiedziałbym, że biologicznej. Moim zdaniem jest ona bardziej perfidna niż broń jądrowa i chemiczna.

Zobacz odcinek:       https://youtu.be/raMiib2O28k

Tworząc ranking najgroźniejszych rodzajów broni zacząłem się zastanawiać, jakie kryteria powinienem wziąć pod uwagę. Na pewno skalę i skuteczność rażenia, koszty produkcji i dostępność komponentów, zaawansowanie technologiczne i łatwość zatrudnienia specjalistów. Nie bez znaczenia jest także to czy po użyciu można zająć zdobyty teren, czy też trzeba latami czekać, aż „czynnik zabijający” się zneutralizuje.

Organizmy chorobotwórcze, które wywołują tak groźne choroby jak cholerę, ospę, dur brzuszny, plamisty, dżumę czy żółtą febrę, a także grypę można zdobyć stosunkowo łatwo w licznych bankach genetycznych, znajdujących się przy dużych ośrodkach naukowych. Znane są przypadki kiedy państwom rządzonym przez dyktatorów, chorobotwórcze bakterie czy wirusy dostarczała firma kurierska. Koszty produkcji broni biologicznej są bardzo małe.

Do rozmnażania bakterii wystarczy wiedza zdobyta na podstawowym kursie biologii, a można to robić w niewielkim laboratorium, które można umieścić właściwie wszędzie. Do rozmnażania na masową skalę groźnych organizmów można użyć kadzi, które wykorzystuje się np. do … warzenie piwa.

Broń biologiczna jest bardziej perfidna niż chemiczna. Można rozsiać nad wybranym terenem bakterie, które np., zniszczą uprawy i doprowadzając mieszkańców do głodu, albo gospodarkę do upadku. To się nazywa terroryzm socjoekonomiczny. W taki sam sposób można zabić wszystkie zwierzęta hodowlane. Zarazki nie muszą być zrzucane z samolotów, mogą być roznoszone przez owady czy gryzonie. W rzeczywistości historia zna takie przypadki.

W 1940 roku, na chińskie miasta, Japończycy rozrzucili zakażone dżumą pchły, wywołując epidemię. Ale to nie był pierwszy przypadek użycia broni biologicznej. W starożytności zatruwano studnie wrzucając do nich zdechłe zwierzęta, a nierzadko zdarzało się, że w czasie oblężenia z katapult w kierunku miast wystrzeliwano zwłoki ludzi czy zwierząt, które zmarły na jakąś chorobę zakaźną. W czasie jednej z wojen pod koniec XV wieku Hiszpanie skazili wino w Neapolu krwią trędowatych.

Bardzo trudno powiedzieć kiedy po raz ostatni mieliśmy do czynienia z atakiem bronią biologiczną. W zależności od wykorzystanego patogenu, od ataku do epidemii może minąć nawet kilka tygodni. W innych przypadkach skutki chorobotwórcze mogą nastąpić niemalże natychmiast po ataku. Nawet gdybyśmy wiedzieli że właśnie zrzucono na nas, wpuszczono do wody w wodociągach, albo do wentylacji w budynku chorobotwórcze bakterie, niewiele możemy zrobić. Szybka i wysoka dawka antybiotyków? Tak, ale tylko wtedy, gdy wiemy czym zaatakowano. A określenie tego wcale nie jest takie proste. Testy wyszkolonych grup ludzi (muszą jeszcze znajdować się gdzieś w pobliżu) mogą trwać nawet kilka godzin, a jest to czas w którym większość bakterii już się w organizmie „zadomowiła”. Nawet jednak, gdyby od razu było wiadomo jakimi bakteriami zaatakowano, z symulacji robionych w USA wynika, że skuteczny atak biologiczny bakteriami wąglika tylko na jedno większe miasto zaowocowałby zużyciem całych krajowych zapasów antybiotyków w ciągu dwóch tygodni.

A co się stanie gdy na czynnik biologiczny nie ma antybiotyków? Jeden z twórców radzieckiego programu broni biologicznej Ken Alibek po ucieczce do USA mówił wprost, że celem radzieckich naukowców pracujących nad bronią biologiczną było produkowanie takich bakterii i wirusów, na które nie ma szczepionek ani antybiotyków. W praktyce jedna grupa naukowców produkowała metodami inżynierii genetycznej zabójczy organizm, a druga próbowała znaleźć antidotum. Jak się to NIE udawało, uznawano czynnik za idealny do użycia. Usilnie pracowano – a może dalej się to robi – nad zwiększeniem tzw. wirulencji bakterii czy wirusów, których naturalną szkodliwość uznano za niewystarczającą. Wirulencja to zdolności do wniknięcia, namnożenia się oraz uszkodzenia tkanek. Stwarzano także szczepy, które w naturze nie występują, łącząc np. najbardziej groźne cechy dwóch bakterii. Można było mieć pewność, że wróg na pewno nie ma na taki czynnik ani szczepionki ani antybiotyku. W ten sposób powstawały nowe odmiany wirusa ospy i wirusa Marburg.

Broń biologiczna jest groźniejsza od chemicznej jeszcze pod jednym względem. Jest samopowielająca się. Jej zabójcze działanie może się potęgować z biegiem czasu.Drobnoustroje rozsiane podczas ataku biologicznego rozmnażają się w organizmach ofiar i dalej rozprzestrzeniają się same. Tak właściwie wcale nie trzeba dużej ilości bakterii, żeby zarazić sporą grupę ludzi. Niewielka ilość bakterii wąglika – które w formie przetrwalnikowej wyglądają jak kakao – można przetransportować wszędzie. Nawet najbardziej drobiazgowe kontrole nic tutaj nie pomogą.

Broń biologiczna ma jednak dosyć istotną wadę z punktu widzenia prowadzenia wojny. Na długi czas może skazić zaatakowany teren. Brytyjczycy w czasie testów skuteczności laseczek wąglika pod koniec II Wojny Światowej skazili na 50 lat tereny szkockiej wyspy Gruinard. Oczywiście z punktu widzenia terrorystów, skażenie to żadna wada. Terroryści zwykle nie zajmują zaatakowanych przez siebie terenów.

Podsumowując. Broń biologiczna jest łatwa w użyciu i transporcie. Można ją – np. wąglik – przesłać nawet listem. Sama się powiela a jej wyprodukowanie – mówię tutaj o najbardziej dostępnych szczepach – nie wymaga dużej wiedzy. Dla terrorystów jest mniej dostępna niż niektóre trujące gazy, a jej sporym minusem jest to że zostawia za sobą skażony teren. Z kolei plusem jest to, że używający tej broni może zostać niewykryty. Śmierć ludzi, zwierząt, zagłada upraw może wystąpić wiele dni a nawet tygodni po użyciu tej broni.

6 komentarzy do Najgroźniejsza broń biologiczna

Najnowocześniejsza broń chemiczna

Jak działa broń chemiczna? Szybko i boleśnie. Bardzo boleśnie i bardzo okrutnie. Gdy po raz pierwszy na masową skalę zastosowali ją Niemcy w czasie I Wojny Światowej, cześć niemieckich dowódców meldowała do sztabu, że stosowanie takiej broni to hańba dla prawdziwych żołnierzy.

Jak działa broń chemiczna? Szybko i boleśnie. Bardzo boleśnie i bardzo okrutnie. Gdy po raz pierwszy na masową skalę zastosowali ją Niemcy w czasie I Wojny Światowej, cześć niemieckich dowódców meldowała do sztabu, że stosowanie takiej broni to hańba dla prawdziwych żołnierzy.

Teoretycznie broni chemicznej nie wolno badać ani produkować. Tak mówią międzynarodowe traktaty. W praktyce w ostatnich latach miało miejsce przynajmniej kilka ataków chemicznych. Ostatni, kilka tygodni temu miał miejsce w Syrii. Sposoby działania broni chemicznej są różne bo wiele zależy od zastosowanej substancji. Generalnie jednak wszystkie gazy bojowe dzieli się na pięć kategorii.

I Wojna Światowa. Jeden z pierwszych (a może pierwszy) atak gazowy z użyciem chloru. Gaz wypuszczano z butli zakopanych w ziemi.

Pierwszym gazem bojowym zastosowanym na polu walki był chlor. Wykorzystali go Niemcy podczas I Wojny Światowej. Chlor, ale też fosgen należy do środków krztuszących. Ich działanie polega głównie na podrażnieniu i paraliżu dróg oddechowych. W skutek tego dochodzi do ich śmiertelnego oparzenia wewnętrznych organów. Środki działające na drogi oddechowe są mało skuteczne, gdy żołnierze mają maski. W pierwszej wojnie światowej maski wprowadzono jednak dopiero po tym jak dziesiątki tysięcy ludzi w konwulsjach udusiło się w okopach.

Druga grupa to środki duszące. Wbrew nazwie nie chodzi jednak o sparaliżowanie układu oddechowego, ale o zablokowanie hemoglobiny, cząsteczki znajdującej się w czerwonej krwince, której celem jest roznoszenie tlenu po organizmie. Człowiek oddycha normalnie, ale w ciągu kilkudziesięciu sekund i tak się dusi. Tlen nie jest z płuc transportowany, a dość okrutna śmierć następuje z powodu obumierania mózgu. Środkiem duszącym jest Cyklon-B, którym zabijano w komorach gazowych, ale także cyjanowodór, który Niemcy stosowali w czasie II wojny światowej.

Trzecia i chyba najgroźniejsza bo najskuteczniejsza grupa to środki paralityczno-drgawkowe. Blokują one komunikację pomiędzy komórkami nerwowymi. To tak jak gdyby duży organizm jakim jest miasto odciąć od sieci elektrycznej i telekomunikacyjnej. Totalny chaos informacyjny i paraliż. Przykładami środków paralityczno-drgawkowych są tabun, sarin, soman czy VX. Sarinu użyły kilka lat temu wojska rządowe w Syrii. W wyniku ataku zmarło około 1700 cywilów.

Grupę czwartą stanowią środki parzące. Takim jest np. gaz musztardowy zwany także Iperytem od nazwy miejscowości w Belgii, gdzie w I Wojnie Światowej został po raz pierwszy użyty. W ciągu kilkunastu minut zmarło wtedy w męczarniach kilkadziesiąt tysięcy Brytyjczyków i Francuzów. W wyniku jednego ataku. Grupa podobna a może i większa zmarła w kolejnych dniach i tygodniach. Niemieccy naukowcy szukali gazu, który będzie zabijał przez skórę nawet tych,
którzy mają maski. I tak wynaleźli gaz musztardowy.

I ostatnia grupa to środki halucynogenne. One nie zabijają, ale powodują czasową niedyspozycję. Do tej grupy zalicza się LSD czy BZ, czyli Chinuklidynobenzylan, który był stosowany przez Amerykanów w Wietnamie.

Bojowym środkiem trującym może być wiele związków, które powszechnie są wykorzystywane w przemyśle chemicznym czy medycynie. Ich nie trzeba produkować, je wystarczy kupić i użyć. Dobrym przykładem może być fosgen. Wykorzystuje się go w przemyśle tekstylnym i farmaceutycznym. Gdyby wpuścić go do wentylacji wieżowca, jeden litr w kilka chwil uśmierciłby on tysiące ludzi. Inny przykład to jad kiełbasiany inaczej zwany botuliną. W medycynie kosmetycznej niewielkie ilości tej toksyny wstrzykuje się pod skórę by pozbyć się zmarszczek. To tzw. botox. Dorosły człowiek umiera w męczarniach po wchłonięciu milionowych części grama tej trucizny. Cyjanowodór używa się w przemyśle a iperytem
traktowano komórki rakowe.
Broń chemiczna – z punktu widzenia atakującego – ma wiele innych zalet. Tak szybko jak się pojawia, tak samo szybko znika. Np. sarin jest niebezpieczny zaledwie przez 4 godziny. Iperyt staje się nieszkodliwy po najwyżej kilku dniach. Dodatkową zaletą broni chemicznej jest to, że po jej użyciu wybucha panika. A skutki paniki mogą być groźniejsze od samego ataku.

Reasumując. Z trzech broni masowego rażenia, czyli broni jądrowej, biologicznej i chemicznej, to ta ostatnia jest najtańsza w produkcji i wymaga najmniejszej wiedzy. Choć to dotyczy raczej ataków terrorystycznych, w niektórych sytuacjach wcale nie trzeba się o trujący gaz starać, a wystarczy w odpowiednim momencie wysadzić cysternę przewożącą chemikalia. Cysterny z chlorem czy amoniakiem przejeżdżają przez centra wielu dużych miast.
Ostatnie ataki bronią chemiczną miały miejsce w Syrii, gdzie armia rządowa przy współpracy z armią rosyjską zrzuciła na miasto Duma kilka, może kilkanaście ładunków wypełnionych gazem. Świadkowie mówili, że w powietrzu zaczął się unosić jabłkowy zapach. To sarin. Najpierw pojawia się poczucie niepokoju, potem zwężone źrenice, drgawki, ślinotok i paraliż mięśni, w tym mięśni oddechowych, w końcu śmierć w konwulsjach. Podobnie opisywano ataki, jakie przed wielu laty przeprowadzali na kurdyjskie wioski żołnierza Saddama Husajna.

Profesor Fritz Haber, twórca pierwszych gazów bojowych. Z wykształcenia chemik, po I Wojnie Światowej został uhonorowany Nagrodą Nobla z chemii.

I na koniec jeszcze jedno.
Broń chemiczną zawdzięczamy prof. Fritzowi Haberowi. Po przegranej przez Niemcy I wojnie, Haber był pewien aresztowania i sądu wojennego. Tymczasem rok po zakończeniu wojny, został laureatem nagrody Nobla z chemii. Dzięki tej nagrodzie i powszechnemu szacunkowi Heber mógł kontynuować swoje prace a w ich efekcie wynalazł m.in. cyklon B.

6 komentarzy do Najnowocześniejsza broń chemiczna

Fizyk który nie znał granic

14 marca, zmarł urodzony 76 lat temu fizyk, Stephen Hawking. Człowiek odważny i wybitny, znany na całym świecie nie tylko z powodu teorii fizycznych, którymi się zajmował. Gdyby chcieć powiedzieć o nim jedno zdanie. Brzmiałoby ono… człowiek, który nie znał granic.

14 marca, zmarł urodzony 76 lat temu fizyk, Stephen Hawking. Człowiek odważny i wybitny, znany na całym świecie nie tylko z powodu teorii fizycznych, którymi się zajmował. Gdyby chcieć powiedzieć o nim jedno zdanie. Brzmiałoby ono… człowiek, który nie znał granic.

A granice, akurat Hawking powinien znać doskonale. Od wczesnej młodości cierpiał na stwardnienie zanikowe boczne. Choroba doprowadziła go do stanu, w którym w żadnym aspekcie życia nie był samodzielny. W żadnym, z wyjątkiem myślenia. I tutaj znowu wracamy do braku granic. Stephen Hawking był matematykiem i fizykiem teoretykiem. Zajmował się tematami tak abstrakcyjnymi, że nawet dla kolegów po fachu jego prace były niezwykle skomplikowane. Przez 40 lat swojej naukowej kariery opracował hipotezę parowania czarnych dziur, zajmował się grawitacją kwantową i opracował twierdzenie dotyczące osobliwości. Czyli takich obszarów, miejsc w których przyspieszenie grawitacyjne, albo gęstość materii mają nieskończoną wartość. W osobliwości mają nie działać prawa przyrody które znamy z naszego nie-osobliwego otoczenia.

Jak wszyscy mylił się i błądził. Wielu z tych rzeczy którymi się zajmował, nie potwierdziło się eksperymentalnie. Ale tak właśnie działa nauka. Teoretycy szukają, fizycy eksperymentalni, próbują podważyć. Zresztą podważaniem zajmował się i sam Hawking. Wielokrotnie mówił, że zabawa sztuczną inteligencję jest bardzo groźna. Mówił też, że nie mamy wyjścia, w dłuższej perspektywie, musimy opuścić Ziemię. Zresztą uważał, że kosmos jest pełen życia. „Na mój matematyczny rozum, same liczby sprawiają, że myślenie o istotach pozaziemskich jest całkowicie racjonalne. Prawdziwym wyzwaniem jest dowiedzieć się, jak te istoty mogą wyglądać – powiedział kiedyś.

Dla szerszego odbiorcy Stephen Hawking nie był jednak znany ani z prac o czarnych dziurach, ani z rachunków dotyczących osobliwości, ani tym bardziej z hipotez dotyczących grawitacji kwantowej. Był znany jako autor książki Krótka Historia Czasu, którą wydał w 1988 roku. Krótko po jej wydaniu powiedział, że jego marzeniem było napisanie książki o fizyce, którą będą sprzedawali na lotniskach. I dopiął swego. Jego książka przez wiele tygodni nie schodziła z listy bestsellerów w wielu krajach świata.

Dziesięć lat temu, obchodząc swoje 65 urodziny Hawking powiedział, że weźmie udział w suborbitalnym locie, że chce poczuć nieważkość. I poczuł. Zaledwie kilka miesięcy później fizyk znalazł się na pokładzie specjalnie dostosowanego do tego typu eksperymentów Boeinga 727. Samolot 8 razy wznosił się na wysokość około 8 kilometrów, a następnie „wyłączał” silniki i spadał w dół. Dzięki temu, biorący udział w eksperymencie ludzie, czuli w nim nieważkość. W ten sposób szkoli się ludzi, którzy zostaną wysłani w kosmos. Hawking nie zdążył polecieć na orbitę, ale spełnił swoje marzenie. W wielu wywiadach później wspominał, że w nieważkości, po raz pierwszy od 40 lat mógł się poruszać bez wózka inwalidzkiego. I znowu przekroczył granicę, która dla osób całkowicie sparaliżowanych, byłą dotychczas nieprzekraczalna.

7 komentarzy do Fizyk który nie znał granic

Spór jest „po coś”

Prawdziwą rolę sporu doceniłem dopiero pracując naukowo. Gdy spory są „po coś”, mogą budować. Te „po nic” są do niczego. Marnują na nie energię i potencjał. No i czas, którego nie uda się już odzyskać. W końcu nigdy nie masz tyle racji, by twój rozmówca nie miał jej choć troszeczkę.

Prawdziwą rolę sporu doceniłem dopiero pracując naukowo. Gdy spory są „po coś”, mogą budować. Te „po nic” są do niczego. Marnują energię i potencjał. No i czas, którego nie uda się już odzyskać. W końcu nigdy nie masz tyle racji, by twój rozmówca nie miał jej choć troszeczkę.

Pamiętam swoją pierwszą konferencję naukową. Zawsze myślałem, że spotkania naukowców są nudne. No bo czym się tu ekscytować? Przecież oni wszyscy się znają. Wielu z nich razem pracuje. Zwykle prezentują wyniki badań, które albo zostały już opublikowane, albo – przynajmniej w dużej części – omówione. Konferencja w Krakowie (ta pierwsza na której byłem dotyczyła chemii jądrowej) była jednak zupełnie inna. Ci ludzie się tam kłócili! Nie była to jednak zwykła awantura. To był spór, w którym padały argumenty.

Po tej pierwszej, byłem na dziesiątkach różnych konferencji. W Polsce (te u nas nazwałbym łagodnymi), za granicą, na takich, które gromadziły setki uczestników i takich kameralnych na kilkanaście osób. Na konferencjach nie chodzi o to by podzielić się wynikami swoich badań czy opowiedzieć o swojej nowej koncepcji (hipotezie). Temu służą publikacje naukowe. Tutaj chodzi o to, by to co się zmierzyło, zbadało i wyliczyło, skonfrontować z innymi. Głownie z tymi, którzy zajmują się czymś podobnym. Spór – na konferencjach naukowych – jest po coś. Coś z niego wynika. Bez niego, bez wymiany poglądów, myśli czy pomysłów nie ma rozwoju i grozi nam dreptanie w miejscu. Nie raz byłem świadkiem sporów, które kończyły się zawiązywaniem nowych kolaboracji, czyli grup naukowych. Nie raz gorąca dyskusja pomiędzy naukowcami była pierwszym krokiem do podpisania umowy o współpracy pomiędzy instytucjami naukowymi. – Ok, twierdzisz, że wyciągam złe wnioski z tego co wyliczyłem? Twierdzisz, że popełniłem jakiś błąd? W porządku, usiądźmy razem, policzmy to wspólnie. Zobaczymy który z nas się myli.

Szkoda, że spory z których coś wynika tak rzadko pojawiają się poza salami wykładowymi i centrami konferencyjnymi. Szkoda, że tak rzadko pojawiają się np. w życiu publicznym, w tym na internetowych forach. Tam królują spory „po nic”. Po nic, czyli do niczego. Nie chodzi w nich o skonfrontowanie się z inaczej myślącymi. Chodzi o to by się spierać dla samego spierania. Tak jest łatwiej! Spór merytoryczny wymaga przemyślania swoich racji, wymaga przygotowania argumentów, wymaga poświęcenia czasu interlokutorowi. A co jak racje zmienia się, w zależności od miejsca w którym się siedzi? A co jak nie ma się żadnych sensownych argumentów albo z intelektualnego lenistwa nie chce się ich uporządkować? A co jak interlokutora ma się za zdrajcę, kurdupla, agenta albo nieudacznika? W skrócie za człowieka gorszego sortu? Nie warto poświęcać mu czasu – logiczne, prawda? No to mamy gonienie króliczka po to by go gonić, a nie po to by go złapać. No to mamy prężenie muskułów przed kamerami albo na mównicach, zamiast prężyć szare komórki w mózgu na spotkaniach roboczych. Ile my marnujemy czasu i energii na spory „po nic”… Tego czasu nam już nikt nie zwróci.

Mój profesor, bardzo znany fizyk, Walter Oelert, człowiek, który jako pierwszy na świecie „wyprodukował” atom antymaterii dbał o to, żeby jego doktoranci regularnie dzielili się wynikami swoich pomiarów, żeby każdy miał czas na wspólne dyskutowanie. Tylko tak da się uprawiać naukę. Konfrontując się, argumentując i ścierając. W końcu nigdy nie masz tyle racji, by twój rozmówca nie miał jej choć troszeczkę.

Tomasz Rożek

3 komentarze do Spór jest „po coś”

Robimy krzywdę naszym dzieciom

Dzieci w ostatnich klasach szkół podstawowych są przeciążone pracą. Nie mają czasu na pogłębianie swoich zainteresowań. Chcielibyśmy, żeby ciekawość dodawała im skrzydeł, tyle tylko, że ich plecaki są tak ciężkie, że nie sposób oderwać się z nimi od twardej ziemi.

Dzieci w ostatnich klasach szkół podstawowych są przeciążone pracą. Nie mają czasu na pogłębianie swoich zainteresowań. Chcielibyśmy, żeby ciekawość dodawała im skrzydeł, tyle tylko, że ich plecaki są tak ciężkie, że nie sposób oderwać się z nimi od twardej ziemi.

Kiedyś postanowiłem zapytać kilka osób o źródło ich pasji. Pisałem wtedy książkę o wybitnych polskich naukowcach, o badaczach, którzy uprawiają naukę na światowym poziomie. Co otworzyło ich głowy? Co napędzało ich do zdobywania wiedzy? Co spowodowało, że zainteresowali się genetyką, meteorologią, medycyną, fizyką,…? Okazało się, że za każdym razem była to książka. Nie szkoła, tylko książka wykraczająca poza szkolny program. Czasami podarowana przez rodziców, czasami znaleziona w bibliotece, czasami otrzymana jako nagroda w jakimś konkursie.

Szkoła może człowieka zainspirować, ale sama szkoła to za mało, żeby podtrzymać tę inspirację. Historie naukowców z którymi rozmawiałem były niemal identyczne. Najczęściej książkę, która jak się później okazywało miała wpływ na kierunek rozwoju zawodowego, ci ludzie dostawali gdy byli jeszcze w szkole podstawowej. To wtedy rodzą się pasje, które – jeżeli odpowiednio prowadzone i podsycane – pozostają na całe życie. Po latach nie pamiętamy prawych dopływów Wisły, długości głównych rzek w Polsce czy rodzajów gleb. Po latach pamiętamy okładkę książki, która zmieniła sposób w jaki postrzegamy świat. Pamiętamy rozkład ilustracji na poszczególnych stronach i kolor grzbietu.

Rozmowy z naukowcami o książkach przypominają mi się za każdym razem, gdy muszę swoim dzieciom zabraniać czytania książek. Czy dobrze robię? Uczniowie w 7 klasie mają w tygodniu 38 godzin lekcji. To prawie tyle ile etat dorosłego człowieka. Ja w ich wieku miałem w tygodniu o około 10 godzin mniej! Po powrocie do domu, dzieci muszą odrobić zadania domowe i przygotować się do sprawdzianów i kartkówek na kolejne dni. Ich plecaki są tak ciężkie, że około czwartku słyszę, że bolą je już plecy. Gdy kolejny dzień wracają o 15:30, znowu po ośmiu lekcjach, wyglądają nie jak dzieci, tylko jak cyborgi. Nie mają nawet siły na to, żeby pobiegać. Czy w Ministerstwie Edukacji naprawdę nie ma nikogo kto wie, że taki wysiłek jest ponad dziecięce możliwości? Gdy chcą psychicznie odpocząć, gdy chcą zrobić coś innego niż nauka i przeglądanie zeszytów – przynajmniej moje dzieci – biorą do ręki książkę. Tyle tylko, że w trakcie tygodnia wybór jest prosty. Jak będą czytały, nie zdążą się nauczyć na sprawdzian. Albo będą rozwijały pasje, albo będą – często tylko pamięciowo – przyswajały szkolne informacje. W takim trybie nie ma czasu na naukę instrumentu, na kółka zainteresowań czy pójście do muzeum. W takim trybie nie ma czasu na zabawę. Naprawdę nie wiecie państwo z Ministerstwa, że zabawa rozwija? W takim trybie z trudem udaje się znaleźć czas na dodatkowy angielski. Ale tylko wtedy, gdy obiad będzie zjedzony w biegu, niemalże na stojąco.

Czego oczekujemy od młodego człowieka? Tego, żeby umiał czy tego, żeby rozumiał? Tego, żeby ciekawość dodawała mu skrzydeł, czy tego, żeby plecak pokrzywił mu kręgosłup? Chcemy tworzyć armię zmęczonych robotów czy nowoczesne społeczeństwo ciekawych świata ludzi, którzy z pasją budują rakiety, badają geny, piszą wiersze i odkrywają nowe lądy? Czy ktokolwiek w Ministerstwie Edukacji zadaje sobie takie pytania? Robimy krzywdę naszym dzieciom.

Tomasz Rożek

 

Tekst ukazał się w tygodniku Gość Niedzielny

27 komentarzy do Robimy krzywdę naszym dzieciom

Fajerwerki – gra świateł

Podobno czarny proch wymyślili Chińczycy. Nie po to jednak by używać go na polu walki, ale by się nim bawić. Jak ? Budując sztuczne ognie.

Pierwsze fajerwerki budowano by odstraszać złe duchy. Spalano suszone łodygi bambusowe by wydawały charakterystyczne trzaski. Później wypełniano je różnymi substancjami. Rozrywka zaczęła się wraz z rozwojem chemii. A właściwie nie tyle rozwojem ile świadomością. Odkrywano coraz to nowe substancje czy związki, których wcześniej nikt nie podejrzewał o wybuchowe konotacje. Dziś wiele z nich znaleźć można w petardach, bombkach czy rakietach. W Polsce pokazy sztucznych ogni odbyły się po raz pierwszy w 1918 r., kilka dni po ogłoszeniu niepodległości. Trwały wtedy zaledwie 3 minuty. Pierwsze znane pokazy sztucznych ogni zorganizowano na dworze cesarskim w Chinach w roku 468 p.n.e.

>>> Więcej naukowych ciekawostek na FB.com/NaukaToLubie

To wszystko fizyka …

Wybuchające na niebie sztuczne ognie to jedna z lepszych ilustracji tzw. zasady zachowania pędu. To dokładnie ta sama reguła, która tłumaczy dlaczego wyskakując z pokładu łódki na brzeg czy molo powodujemy, że łódka zaczyna odpływać. No właśnie, dlaczego ? Bo – jak powiedziałby fizyk – w układzie w którym nie działają siły zewnętrzne, pęd układu musi zostać zachowany. Oczywiście w wyżej opisanym przykładzie z łódką i jej pasażerem działają siły zewnętrzne – siły oporu, ale są one małe i można je pominąć. Tak więc jeżeli pasażer łódki wskakuje z jej pokładu na molo – łódka zaczyna się poruszać w przeciwnym kierunku. Można by powiedzieć, że ruch łódki równoważy ruch jej pasażera. Im z większym impetem wyskoczy on z łódki, tym szybciej sama łódka zacznie odpływać w przeciwnym kierunku. Co to wszystko ma wspólnego z fajerwerkami ? Człowiek płynący na łódce to układ składający się z dwóch elementów. Petarda rozrywana nad naszymi głowami, to układ składający się z setek a może nawet tysięcy elementów. Ilość nie gra jednak tutaj roli. Fizyka pozostaje taka sama. Każdy wybuch jest w pewnym sensie symetryczny. Jeżeli kawałek petardy leci w prawo, inny musi – dla równowagi – lecieć w lewo. Jeden do przodu, to inny do tyłu. W efekcie malujące się na ciemnym niebie wzory mają kształty kul, okręgów czy palm. Zawsze są jednak symetryczne. Zawsze takie, że gdyby potrafić cofnąć czas, wszystkie te ogniste stróżki spotkałyby się w punkcie znajdującym się dokładnie w środku, pomiędzy nimi.

… czy może chemia ?

Najczęściej występującą barwą na pokazach sztucznych ogni jest pomarańcz i czerwień. Pojawiają się też inne kolory. Skąd się biorą ? Wszystko zależy od tego z czego zrobiona, a właściwie z dodatkiem czego zrobiona jest petarda. Jej zasadnicza część to środek wybuchowy, ale czar tkwi w szczegółach. I tak, za często występujący pomarańcz i czerwień odpowiedzialny jest dodany do materiału wybuchowego wapń i bar. Inny pierwiastek – stront powoduje, że eksplozja ma kolor żółty, z kolei związki boru i antymon, że zielony. Ale to dopiero początek kolorowej tablicy Mendelejewa. Bo płomienie może barwić także rubid – na kolor żółto fioletowy, cez na kolor fioletowo-niebieski i bar na kolor biały. Potas spowoduje, że niebo stanie się liliowe, a miedź, że niebieskie. W produkcji fajerwerków wszystkie chwyty są dozwolone – o ile wykonuje je specjalista pirotechnik. Bo o efekt toczy się gra. Tak więc mieszanie poszczególnych związków jest nie tyle wskazane, ile wręcz pożądane. Jedno jest pewne. Specjalista spowoduje, że w czasie pokazu na niebie będzie można podziwiać więcej barw niż w łuku tęczy. Będą się pojawiały dokładnie w tym momencie, w którym chce je przedstawić twórca sztucznych ogni. Niebo z liliowego, przez zielony może stać się krwisto czerwone, aż na końcu spłonie intensywnym pomarańczem. A wszystko wg wyliczonego co do ułamka sekundy scenariusza. Ale czy na pewno tylko o kolory chodzi ? Co z dymem ? Co z hukiem ?

>>> Więcej naukowych ciekawostek na FB.com/NaukaToLubie

To sztuka!

Prawdziwy mistrz dba nie tylko o efekty wizualne, ale także dźwiękowe w czasie pokazu fajerwerków.  Żeby petarda zdrowo nadymiła trzeba zaopatrzyć się w zapas chloranu potasu, laktozę i barwniki – w zależności od oczekiwanego koloru dymu. Petardy błyskowe będą wypełnione magnezem, a hukowe i świszczące będą zawierały duże ilości nadchloranów i soli sodu i potasu. Można też wyprodukować mieszaninę iskrzącą, a wtedy przyda się węgiel drzewny albo oświetlającą. W praktyce – szczególnie w ładunkach profesjonalnych – różnego rodzaju mieszanki stosuje się razem. Nie wszystkie, w jednym worku, ale ułożone w odpowiedniej kolejności.

Można zapytać jak zadbać o chronologię w czasie trwającej ułamki sekund eksplozji ? To jest właśnie sztuka. Ładunek pirotechniczny wygląda trochę jak cebula. Składa się z wielu warstw. Petarda najpierw musi wznieść się w powietrze. Ani nie za wysoko, ani za nisko. W pierwszym wypadku efekt wizualny będzie marny, a w drugim – gdy wybuchnie zbyt blisko widzów – może dojść do tragedii. Prawdziwa magia zaczyna się, gdy ładunek jest już wysoko nad głowami. Poszczególne warstwy zapalają się od siebie i w zaplanowanej wcześniej kolejności wybuchają. Widz z zapartym tchem podziwia gęste kule rozrastającego się we wszystkich kierunkach różnokolorowego ognia, albo błysk i kilka opadających w bezwładzie długich ognistych języków. Gdy wszystko wydaję się być skończone, nagle pojawiają się migoczące gwiazdki, albo wirujące wokół własnych osi ogniste bombki. Po nich jest ciemność i cisza. Do następnej eksplozji, innej niż poprzednia. Innej niż wszystkie poprzednie.

Sztuczne ognie można sprowadzić do chemii materiałów wybuchowych. Można też powiedzieć, że są wręcz encyklopedycznym przykładem znanej każdemu fizykowi zasady zachowania pędu. Ale tak naprawdę sztuczne ognie to czary.

Kolory sztucznych ogni:

karminowy: lit, bar i sód

szkarłatny: bar 

czerwono-żółty: wapń i bar

żółty: stront, śladowe ilości sodu i wapnia

biały: cynk i bar

szmaragdowy: miedź i tal

niebiesko-zielony: związki fosforu ze śladowymi ilościami kwasu siarkowego lub kwasu borowego, związki miedzi

jaskrawy zielony: antymon

żółto-zielony: bar i molibden

lazurowy: ołów, selen i bizmut

jasnoniebieski: arszenik

fioletowy/liliowy: niektóre związki potasu z dodatkiem sodu i litu

purpurowy: potas, rubid i cez

2 komentarze do Fajerwerki – gra świateł

Mechanizm samobójczego naśladownictwa

Czyli inaczej efekt Wertera jest znany od wielu lat. Media powinny z wielką powściągliwością pisać o zbrodniach, aktach terroryzmu i samobójstwach. Inaczej biorą na siebie ciężar odpowiedzialności za naśladowców. 

Czyli inaczej efekt Wertera jest znany od wielu lat. Media powinny z wielką powściągliwością pisać o zbrodniach, aktach terroryzmu i samobójstwach. Inaczej biorą na siebie ciężar odpowiedzialności za naśladowców. 

Gdy w mediach pojawia się dużo relacji dotyczących samobójstwa, gdy z tematu robi się główną informację dnia, gdy osoby znane gratulują samobójcy odwagi i determinacji, wzrasta prawdopodobieństwo kolejnych tragedii. Niewiele rzeczy tak jasno jak efekt Wertera ilustruje ogromną odpowiedzialność mediów i pracujących w nich dziennikarzy. Ta odpowiedzialność leży także na naszych barkach. To przecież my linkujemy, komentujemy i udostępniających treści, za które jesteśmy odpowiedzialni.  Światowa Organizacja Zdrowia kilka lat temu stworzyła nawet dokument z wytycznymi dla dziennikarzy jak pisać o samobójstwach, tak, żeby nie prowokować naśladowców.

Statystycznie rzecz ujmując, wzrost samobójstw następujący kilka, kilkanaście dni od nagłośnienia analogicznej tragedii. Z badań wynika, że szczególnie wyraźnie jest widoczny, gdy samobójstwo popełni znana osoba (np. gwiazda filmowa), lub gdy czyn osoby popełniającej samobójstwo jest usprawiedliwiany. Efekt Wertera zauważono także w stosunku do terroryzmu. Czym więcej informacji a aktach terroru, tym częściej się one zdarzają. Gdy przeanalizowano ponad 60 tysięcy zamachów terrorystycznych jakie miały miejsce na całym świecie w latach 1970 – 2002 i skorelowano je z częstotliwością oraz długością ukazujących się na ich temat materiałów prasowych, odkryto, że każde dodatkowe doniesienie o zamachu terrorystycznym zwiększało prawdopodobieństwo zamachów w kolejnym tygodniu o od kilku do kilkunastu procent.

Człowiekiem, który wprowadził do literatury określenie „efekt Wertera” był amerykański socjolog David Philips. Swoje badania prowadził w latach 70tych XX wieku. Już wtedy zauważono, że efekt jest wzmacniany gdy opisy śmierci podaje się ze szczegółami. Gdy samobójca umiera długo i w cierpieniu, gdy upublicznia się wizerunek zrozpaczonych krewnych samobójcy, gdy publikuje się list w których samobójca wyjaśnia swoje motywy i gdy te motywy poddaje się w mediach analizie. Psychologowie twierdzą, że w tym jest tak duży „potencjał identyfikacyjny”, że osoby o słabszej osobowości, osoby, które już wcześniej rozważały samobójstwo są tymi informacjami wręcz popychane do tragicznych czynów.

Obszerną rozmowę na temat efektu Wertera, kilka lat temu (w 2011 roku) opublikował portal Polityka.pl

– Jak to działa? – pytała w wywiadzie Joanna Cieśla.

(prof. Bartosz Łoza – kierownik Kliniki Psychiatrii Warszawskiego Uniwersytetu Medycznego.): Większość z nas bez głębszej refleksji wchłania papkę newsową, którą przekazują nam media, zwłaszcza te szybkie, operujące skrótami. Działa tu mechanizm modelowania – mamy podaną całą gotową historię – o prawdziwym człowieku, prawdziwym życiu, prawdziwych decyzjach, z początkiem i końcem. Nie musimy wkładać żadnego wysiłku w to, żeby ją śledzić, siedzimy w fotelu, a ona jest nam opowiadana. Staje się szczególnie wiarygodna dzięki wykorzystaniu takich technik jak nakręcone drżącą ręką filmy przysłane przez widzów, relacje i amatorskie zdjęcia internautów. To wszystko potwierdza, że to prawda, nie jakaś kreacja. 

Następnie prof. Bartosz Łoza wyjaśnia na czym polega owo modelowanie. Mówi, że osoby z podobnymi problemami co samobójca, rozważające już wcześniej tragiczne w skutkach kroki, dochodzą do wniosku, że skoro samobójca się zabił, one także mogą to zrobić.

– Informacja o zbrodni sprawia, że wszyscy stajemy się gorsi? – pytała Joanna Cieśla z Polityki.

– Niestety. Nie chcę zabrzmieć jak kaznodzieja, ale zło będzie rodzić zło. Wyjaśnia to nie tylko mechanizm modelowania, ale i teoria analizy transakcyjnej amerykańskiego psychoanalityka Erica Berne. Zgodnie z nią nasze emocje, moralność zależą od „głasków”, którymi nieustannie się wymieniamy z innymi ludźmi. Dobry głask to pochwała, zły głask – gdy ktoś na mnie burknął w autobusie. Mogę odburknąć – wtedy oddam negatywny głask. To taka waluta emocjonalna. Nasze portfele są pełne tej waluty, którą przez całe życie wymieniamy się z innymi ludźmi – odpowiada prof. Łoza.

W kolejnych częściach wywiadu profesor tłumaczy, że w tak destrukcyjny sposób działają na nas przede wszystkim informacje prawdziwe. Stąd często emitowane filmy w których dochodzi do strzelanin czy innych zbrodni nie mają wpływu na wzrost przestępczości. Natomiast relacjonowanie zbrodni czy tragedii, które rzeczywiście miały miejsce, szczególnie, gdy te relacje są bardzo emocjonalne, mogą nakłaniać do samobójczych kroków.

Efekt Wertera swoją nazwę zawdzięcza imieniu głównego bohatera napisanej przez Goethego powieści „Cierpienia młodego Wertera”. Po jej wydaniu (w 1774 roku) bodaj po raz pierwszy zauważono tzw. mechanizm samobójczego naśladownictwa.

Historia nieszczęśliwie zakochanego Wertera, który ostatecznie popełnił samobójstwo, pchnęła tysiące młodych ludzi nie tylko w Niemczech ale i w wielu innych krajach Europy do odebrania sobie życia.

3 komentarze do Mechanizm samobójczego naśladownictwa

Za dużo liczb.

To nie tak, że nie mamy lekarstwa na raka z powodu prostej niewiedzy. To nie tak, że zatruwamy środowisko z powodu niedoborów energii. Dzisiejszy świat cierpi z powodu nadmiaru. Niemal wszystkiego. Szczególnie nadmiaru danych.

To nie tak, że nie mamy lekarstwa na raka z powodu prostej niewiedzy. To nie tak, że zatruwamy środowisko z powodu niedoborów energii. Dzisiejszy świat cierpi z powodu nadmiaru. Niemal wszystkiego.

Lek na raka, szczepionka przeciwko malarii czy panaceum na choroby serca i nadwagę nie zostaną odkryte, dopóki nie nauczymy się wyciągać wniosków z bardzo dużej ilości danych. Danych wszelakiego rodzaju. Statystycznych, środowiskowych czy tych medycznych. Danych jest tak wiele, że nie sposób sobie z nimi poradzić. Chyba że do ich analizy zatrudnimy komputery.

Lek z komputera

W zasadzie od wielu lat to się już dzieje. Z danych, które do nich napływają, komputery wyciągają wnioski, a te są następnie wykorzystywane w życiu codziennym. Tak, to komputery regulują światłami na skrzyżowaniach dużego miasta. To, czy włączyć na którymś zielone, czy pozostawić czerwone, zależy od natężenia ruchu w całym mieście, od priorytetowych szlaków komunikacyjnych, od prac drogowych na szlakach alternatywnych, a nawet od tego, czy w kierunku miasta zbliża się np. burza. Człowiek nie poradziłby sobie z tak dużą ilością danych, nie byłby w stanie podejmować na ich podstawie decyzji.

escherichia-coli-1441194-1279x1229

Takich przykładów jak ruch w mieście jest znacznie, znacznie więcej. Podobnie działają systemy ruchu lotniczego, ale także linie produkcyjne w fabrykach czy systemy do analizy danych w laboratoriach naukowych, np. podczas projektowania leków. Żeby wprowadzić na rynek nowy lek, trzeba sprawdzić tysiące, a czasami miliony różnych kombinacji cząsteczek chemicznych. Każda najmniejsza zmiana budowy cząsteczki chemicznej leku, czasami oznaczająca „przestawienie” jednego atomu, może zmieniać jego działanie. Nie sposób eksperymentalnie sprawdzić wszystkich możliwych kombinacji, bo trwałoby to latami i kosztowałoby miliardy. Także tutaj z pomocą przychodzą komputery, które same dochodzą do pewnych wniosków, same domyślają się efektu. Do ostatecznego sprawdzenia pozostają tylko te wersje cząsteczki chemicznej, które – zdaniem oprogramowania – budzą największe nadzieje. I tak, od ruchu ulicznego, poprzez medycynę, bezpieczeństwo, fizykę (nikt już dzisiaj nie projektuje eksperymentów naukowych bez wcześniejszego uruchomienia symulacji komputerowych oraz systemów analizujących ogromne pakiety danych), telekomunikację, po zmiany społeczne… Wszędzie mamy za dużo danych, za dużo informacji, z którymi jakoś musimy sobie poradzić. Na szczęście nie jesteśmy sami, pomaga nam w tym tak zwana sztuczna inteligencja.

Podatki w Brazylii

Dlaczego tak zwana? Bo pomiędzy inteligencją człowieka czy nawet zwierzęcia a inteligencją maszyny jest sporo różnic. U nas inteligencja wiąże się w jakiś sposób ze świadomością i emocjami. U maszyn tylko (albo aż) – z umiejętnością uczenia się i wyciągania wniosków. Wielu ludzi boi się sztucznej inteligencji, bo przypisuje jej cechy, które mają inteligentni ludzie. Inteligentni, choć nie zawsze prawi. Stąd wizje buntujących się komputerów czy systemów, które mają swoje własne zdanie. Oczywiście odmienne od naszego. Ten bunt – jak się obawiamy – nie będzie polegał na tym, że nasze komputery zaczną nam robić głupie żarty, tylko na tym, że np. system komputerowy odetnie zasilanie energetyczne dużego miasta. To byłaby prawdziwa tragedia, tyle tylko, że w praktyce taka sytuacja dzisiaj jest niemożliwa. Nie dlatego, że systemy komputerowe nie rządzą zasilaniem, ale dlatego, że nie mają one woli i świadomości. Nie robią z własnej inicjatywy niczego, na co nie pozwoli im programista. Człowiek inteligentny to ktoś, o kim powiemy, że jest samodzielny i aktywny. Sztuczna inteligencja jest czymś, co jest bierne i podporządkowane człowiekowi. Owszem, radzi sobie świetnie z tasowaniem dużej ilości informacji, z sortowaniem ich i wyciąganiem z nich wniosków, ale nie potrafi choć na milimetr wyjść poza to, na co pozwoli jej programista.

Polska firma Cognitum stworzyła system, który jako jeden z najlepszych na świecie potrafi znajdować regularności czy wzory w dużych zbiorach danych. Jak mówią jego twórcy, ich system „pozwala wiązać fakty w morzu danych”. I robi to tak dobrze, że został włączony w ogromny program, którego celem jest wykrywanie nieprawidłowości podatkowych w… Brazylii. Wyłudzenia podatków można wykryć, analizując faktury, tyle tylko, że w tak dużym kraju jak Brazylia codziennie dochodzi do milionów transakcji. To powoduje, że w praktyce praca człowieka, a nawet tysiąca ludzi, jest skazana na porażkę. Co innego, jeśli chodzi o system komputerowy, który te faktury sprawdza i wyłapuje nieprawidłowości. W czasie rzeczywistym! Dzięki polskim programistom powstał system, który zainstalowano w urzędach skarbowych w całym kraju. Wyłapuje on nieprawidłowości od razu po tym, jak faktura zostanie wczytana do systemu. Co ciekawe, człowiek posługujący się systemem wcale nie musi być programistą. Z programem może się porozumieć, wpisując komendy w języku nieodbiegającym od tego, którym posługujemy się w rozmowie z innymi ludźmi. Może też te komendy po prostu wymówić. Program zrozumie.

Samo z siebie?

Ważną cechą systemu zaprojektowanego przez Cognitum jest to, że uczy się i potrafi wyciągać wnioski. Dzięki temu, jeżeli ktoś choć raz zastosował jakąś metodę na oszukanie urzędu podatkowego i ten trik zostanie wykryty, ta sama sztuczka już nigdy więcej się nie uda. Podobne metody można stosować do walki z bakteriami. One też mogą atakować na wiele różnych sposobów. Człowiek próbuje przewidzieć wszystkie drogi ataku, ale sprawdzenie tych scenariuszy trwałoby bardzo długo. Co innego, gdy do pomocy zaprosi się odpowiednio zaprojektowany system komputerowy. Mówimy o nim, że jest wyposażony w sztuczną inteligencję, ale tak naprawdę powinno się mówić o programach wyposażonych w umiejętność nauki i wyciągania wniosków.

digital-dreams-1155928-1280x960

Nasz mózg działa inaczej niż komputer, a inteligencja u ludzi i ta sztuczna, czyli komputerowa, to dwie różne rzeczy. Dlaczego tak się dzieje? Dlaczego komputerom nie potrafimy nadać cech naszej inteligencji, z poczuciem osobowości i z własnymi celami włącznie? Po pierwsze, wcale nie jestem przekonany, że to dobry pomysł. A po drugie… Trudno nadawać maszynom cechy, których nie rozumie się u siebie. Nie wiemy, czym jest świadomość, poczucie odrębności. Nie potrafimy tego zdefiniować na poziomie nauk ścisłych. Nie wiemy, które „obwody” w naszym mózgu za to odpowiadają, a więc nie wiemy, jak tą cechą obdarzyć maszyny. Czy kiedyś tę barierę przełamiemy? Czy kiedyś maszyny staną się naprawdę (tak po ludzku) inteligentne? Nie da się tego wykluczyć. Przy czym dzisiaj wydaje się, że są dwie drogi do osiągnięcia tego celu. Będzie to możliwe, gdy sami zrozumiemy, na czym polega nasza świadomość. Gdy tak się stanie, będziemy mogli podjąć decyzję, czy nowo poznaną cechą obdarować maszyny. Jest jednak jeszcze druga opcja. Być może świadomość i poczucie odrębności pojawiają się „same z siebie”, gdy mózg staje się skomplikowany. Może to efekt skali? Może wraz z rozbudową systemów informatycznych, wraz z coraz większym skomplikowaniem programów samoświadomość maszyn pojawi się sama? Bez naszego bezpośredniego udziału i bez naszej wiedzy?

Współczesny świat produkuje tak wiele informacji, że bez pomocy programów, które się uczą i które wyciągają z tej nauki wnioski, nie jesteśmy już w stanie funkcjonować. Tego już się nie cofnie. A jaka będzie przyszłość? Okaże się jutro.

 

Tekst ukazał się w tygodniku Gość Niedzielny
Brak komentarzy do Za dużo liczb.

Uważaj jak chodzisz

Ze sposobu w jaki się poruszamy, naukowcy potrafią wyciągnąć zadziwiającą ilość informacji. Osoby, które obserwują model chodu charakterystyczny dla mężczyzn mają wrażenie, że postać się do nich zbliża. Równocześnie gdy obserwują chód żeński, wydaje im się, że postać się oddala.

Ze sposobu w jaki się poruszamy, naukowcy potrafią wyciągnąć zadziwiającą ilość informacji. Osoby, które obserwują model chodu charakterystyczny dla mężczyzn mają wrażenie, że postać się do nich zbliża. Równocześnie gdy obserwują chód żeński, wydaje im się, że postać się oddala.

Amerykańska firma Visionics opracowała system który potrafi analizować twarze. Zainstalowany w centrum monitoringu miejskiego (czy lotniskowego) „wyławia” z tłumu przechodniów osoby które ma w swojej bazie danych. Rozpoznaje je po rozstawie oczu, kształcie ust czy wysokości czoła. Czy istnieje lepszy sposób na znalezienie osoby poszukiwanej ?

Chód świetlnych punkcików

Oprogramowanie Visionics, ale także aplikacje wielu innych firm zajmujących się szeroko rozumianym bezpieczeństwem, potrafi znacznie więcej. Automatycznie wykrywa osoby, po… sposobie chodzenia. Może np. z tłumu wyłowić osobę, która pod kurtką niesie coś ciężkiego. Jak to robi ? Za dogłębne przeanalizowanie chodu kobiet i mężczyzn zabrali się badacze z Southern Cross Univeristy w Coffs Harbour (w Australii). Wyniki ich badań opublikował tygodnik „New Scientist” oraz czasopismo „Current Biology” (vol 18, R728-R729). Czy kobiety i mężczyźni poruszają się inaczej ? To oczywiste, ale jak matematycznie opisać i zmierzyć te różnice ? Najpierw naukowcy sfilmowali chód 50 kobiet i 50 mężczyzn, a następnie, komputerowo każdy staw (biodrowy, barkowy, łokciowy,…) badanej osoby zaznaczyli jako świecący punkt. Z filmu przedstawiającego poruszającą się postać powstała animacja poruszających się punktów świetlnych, a równocześnie biblioteka chodów ludzkich. Zbiór sposobów w jakich poruszają się ludzie.

Okazało się, że nawet powierzchowna analiza pozwala wyłapać charakterystyczne cechy męskiego i żeńskiego chodu. To ważne, bo jeżeli problem da się opisać matematycznie, jest też nadzieja, że uda się go przełożyć na język rozumiany przez komputery. Po sposobie chodzenia można też określić wiek obserwowanego. Głębsza analiza pozwala powiedzieć w jakim jest nastroju i czy jest zmęczony, jakie ma wady postawy i czy dźwiga coś ciężkiego. Stosunkowo łatwo jest też określić czy obserwowany kuleje czy tylko udaje (to ważne wtedy gdy ktoś chciałby zmylić system monitoringu). Te wszystkie informacje są niezwykle ważne dla służb, która zajmują się bezpieczeństwem, ale mogą być też wykorzystywane przez psychologów.

Odchodzi czy przychodzi

Szef grupy badaczy Rick van der Zwan chód najbardziej kobiecy porównał do poruszania się koni w czasie parady. Zauważył, że panie podnoszą wysoko kolana a stopy stawiają jedna za drugą w tej samej linii. Jak zatem wygląda chód typowo męski ? Wg autorów badań można go porównać do toczenia się.

Przy okazji badań badacze zauważyli bardzo ciekawą prawidłowość. Osoby, które obserwują model chodu charakterystyczny dla mężczyzn mają wrażenie, że postać się do nich zbliża. Równocześnie gdy obserwują chód żeński, wydaje im się, że postać się oddala. Dlaczego tak się dzieje ? Trudno powiedzieć, ale autorzy spekulują, że odpowiedzi należy szukać w ewolucji. – Gdy zauważymy mężczyznę i nie mamy pewności czy się do nas zbliża czy oddala, lepiej założyć to pierwsze – powiedział Zwan. Dlaczego ? Bo naszym dalekim przodkom bezpieczniej było w takiej sytuacji przygotować się do ucieczki albo konfrontacji niż później żałować. Dlaczego w takim razie chód kobiecy kojarzy nam się z oddalającą postacią ? Choć to znowu przypuszczenie, autorzy także w tym przypadku wskazują na ewolucję. „Kiedy jest się małym dzieckiem i nie do końca jest się pewnym czy mama stoi przodem do nas czy odchodzi, prawdopodobnie bezpieczniej jest założyć, że jednak odchodzi, aby być gotowym do pójścia za nią” – tłumaczy van der Zwan.

Kto zwraca uwagę na chód ? Modelki, aktorzy,… Okazuje się, że nawet ze stawiania nogi za nogą specjaliści potrafią wyciągnąć zaskakujące wnioski. Wnioski dotyczące nas dzisiaj i nas przed wieloma wiekami.

Tomasz Rożek

Brak komentarzy do Uważaj jak chodzisz

Smog? Bez spiny, jest super!

Na portalu TwojaPogoda.pl pojawił się kilka dni temu artykuł pt. „Histeria z powodu smogu. Kto ją wywołuje i dlaczego?” No właśnie. Kto histeryzuje? Po co? I kto na tym zyskuje?

Na portalu TwojaPogoda.pl pojawił się kilka dni temu artykuł pt. „Histeria z powodu smogu. Kto ją wywołuje i dlaczego?” No właśnie. Kto histeryzuje? Po co? I kto na tym zyskuje?

Pod artykułem nie podpisał się autor, wiec rozumiem, że to tekst redakcyjny. Dziwię się, że portal, który sam wielokrotnie ostrzegał przed powietrzem złej jakości (np. „Rekordowy smog spowija Polskę. Trujący każdy wdech” z 2017-01-08), sam wielokrotnie opisywał tragiczne skutki oddychania zatrutym powietrzem (np. „Smog w stolicy Iranu zabija tysiące ludzi” z 2007-08-03), dzisiaj postanowił odwrócić smoga ogonem.

Zrzut ekranu 2017-02-19 o 18_Fotora

Tekst można streścić do następujących punktów:

  1. Kiedyś było gorzej.
  2. Na Zachodzie wcale nie jest tak czysto.
  3. Ekologiczne lobby jest na pasku producentów pieców.
  4. Smogu nie trzeba się obawiać.

No to po kolei.

Ad1. Kiedyś było gorzej. Tak, kiedyś było znacznie gorzej. Choć to dzisiaj jest więcej rakotwórczych dioksyn i furanów niż kiedyś. Ale nawet gdyby dzisiaj stężenia wszystkich szkodliwych substancji były niższe niż powiedzmy 20 lat temu, czy to automatycznie oznacza że jest super? No nie. Trzeba spojrzeć w statystyki i w pomiary. I okazuje się, że super nie jest. Że jest źle. I to bardzo. To, że niektórzy obudzili się dopiero wczoraj nie oznacza że kiedyś smogu nie było. Oznacza tylko… że niektórzy obudzili się wczoraj. Ani mniej, ani więcej. Organizacje ekologiczne od wielu lat mówią o zatrutym powietrzu. Tyle tylko, że dotychczas niewielu tego słuchało. W tym roku media informują o smogu częściej niż w poprzednich latach. Dlaczego? Dlatego, że Internet o tym więcej pisze, bo świadomość ludzi wzrosła. To system naczyń połączonych. Odczuwam osobistą satysfakcje, że i ja w budzeniu tej świadomości miałem swój udział publikując prosty pokaz z wacikiem i odkurzaczem. Zrobiłem to w pierwszych dniach stycznia. Choć powietrze było dużo gorsze w listopadzie i grudniu, przeważająca większość materiałów w mediach została zrobiona dopiero w styczniu. Do dzisiaj na różnych platformach moje video zobaczyło ponad 2 mln ludzi. Od tego czasu ten sam pokaz był powtarzany kilkukrotnie we wszystkich serwisach informacyjnych głównych stacji telewizyjnych.

>>> Więcej naukowych informacji na FB.com/NaukaToLubie.

Ad2. Na Zachodzie wcale nie jest tak czysto. Szczerze. Co mnie obchodzi jakie jest powietrze w Londynie, Brukseli czy Paryżu? Oddycham powietrzem w Warszawie albo na Śląsku. I to mnie obchodzi. Argumentowanie, że nie ma co panikować, bo za granicą nie jest wcale tak zielono jak mogłoby się wydawać, jest poniżej poziomu piwnicy.

Ale, podejmując wyzwanie… Jakość powietrza w stolicach zachodniej Europy jest dużo lepsza niż w miastach Polski. Znane są zestawienia mówiące, że to nasze miasta są w czołówce najbrudniejszych miast kontynentu. To, że w Niemczech spala się więcej węgla nie oznacza, że ten węgiel w większym stopniu zanieczyszcza powietrze. Bo,

  • w Niemczech węgiel nie jest palony w prywatnych piecach tylko w elektrowniach i elektrociepłowniach, a te zakłady (także w Polsce) mają filtry i nie dokładają się do smogu. Tymczasem w Polsce sporo węgla spala się w prywatnych piecach.
  • W Polsce nie obowiązują żadne normy dotyczące jakości węgla. W efekcie to u nas spala się węgiel wydobywany np. w Czechach, który tam nie mógłby zostać sprzedany.

Już wiesz redakcjo dlaczego argument o ilości spalanego w Niemczech i Polsce węgla jest jak kulą w płot?

>>> Więcej naukowych informacji na FB.com/NaukaToLubie.

Ad3. Ekologiczne lobby jest na pasku producentów pieców. Gdy pisałem o elektrowniach jądrowych (uważam, że w Polsce powinny powstać), słyszałem, że jestem przeciwko górnictwu na pasku lobby jądrowego. Teraz słyszę, że opłaca mnie lobby producentów węglowych pieców, bo piszę i alarmuję na temat złej jakości powietrza. Robię to zresztą od wielu lat każdego roku w czasie sezonu grzewczego. W międzyczasie byłem na pasku przemysłu farmaceutycznego (tak, uważam, że szczepionki to jedno z największych osiągnieć ludzkości), oraz przemysłu biotechnologicznego (tak, nie znajduję naukowych dowodów przeciwko GMO).

Zarzucenie komuś, że jest skorumpowany jest bajecznie proste, ale intelektualnie dość małe. Redakcja TwojaPogoda.pl naprawdę wierzy, że ci, którzy ostrzegają przed złej jakości powietrzem są kupieni przez producentów nowoczesnych pieców? Dodam tylko, że po to by ulżyć powietrzu nie trzeba koniecznie pieca wymieniać. Dużo da przeczyszczenie przewodów kominowych. Sporo da odczyszczenie przed sezonem grzewczym, a nawet w trakcie jego trwania samego pieca i odpowiedni sposób składania ognia w piecu. Te czynności nic nie kosztują, a pozwalają oszczędzić pieniądze bo podnoszą sprawność pieca i instalacji. Nie jest wiec prawdą, że smog można zlikwidować tylko wymieniając stary piec na nowiutki. Jest wiele innych rozwiązań, a niektóre z nich przynoszą oszczędności. No ale tego z tekstu o histerii smogowej się nie dowiemy. Nie możemy się dowiedzieć, bo to złamałoby linię argumentacji redakcji, że ci, którzy piszą i mówią o smogu są w kieszeni producentów drogich pieców.

>>> Więcej naukowych informacji na FB.com/NaukaToLubie.

Ad4. Smogu nie trzeba się obawiać. Redakcja portalu twierdzi, że cała ta histeria ze smogiem została „opracowana przez niektóre organizacje” i „wcale nie chodzi [w niej] o ochronę naszego zdrowia”.

Był taki czas, kiedy uważano, że zdrowe jest naświetlanie się promieniami jonizującymi. I choć w pewnym momencie stało się jasne, że te mogą być źródłem raka, wiele osób dalej się naświetlało. Był taki czas, gdy twierdzono, że zdrowe jest palenie papierosów. Firmy tytoniowe przedstawiały opracowania które tego dowodziły. Przez lata dowodzono też, że ołów z benzyny nie ma nic wspólnego ze złym stanem zdrowia ludzi wdychających spaliny albo mieszkających niedaleko szlaków komunikacyjnych. Dzisiaj benzyny są bezołowiowe, na paczkach papierosów są ostrzeżenia o nowotworach spowodowanych paleniem a źródła promieniowania jonizującego są zamykane w pancernych szafach żeby nie wpadły w niepowołane ręce.

Nie ma w naszym ciele organu czy układu, który nie byłby narażony z powodu powietrza złej jakości. Są na to tysiące naukowych dowodów. Serce, płuca, ale także mózg. Układ hormonalny, układ nerwowy, krwionośny… Tam gdzie powietrze jest bardziej zanieczyszczone jest mniejsza masa urodzeniowa dzieci, a ludzie żyją krócej. Ocenia się że w Polsce każdego roku umiera z powodu powietrza złej jakości ponad 40 tys. osób. Szczególnie narażeni są chorzy (np. na astmę), osoby starsze i dzieci. „Smogu nie trzeba się obawiać”? W tekście z TwojaPogoda.pl znalazł się właśnie taki śródtytuł. Trzeba, i to bardzo. Dobrze, że coraz lepiej zdajemy sobie z tego sprawę. To, że są ludzie czy firmy, które na rosnącej świadomości robią pieniądze, to naturalne i oczywiste. Są firmy, które robią pieniądze na produkcji samochodowych pasów bezpieczeństwa i systemów ABS, choć gdy je wprowadzano mówiło się że to tylko sposób na wyciąganie pieniędzy z kieszeni klienta. Tam gdzie jest popyt tam pojawia się i podaż. Od nas, klientów, zależy czy damy się nabierać na tanie  sztuczki (np. maseczki) czy zdecydujemy się na rozwiązania, które problem rozwiązują choć w części.

Zanim zakończę, chciałbym jeszcze wyjaśnić trzy kwestie.

  1. Węgiel nie jest źródłem smogu. Źródłem smogu jest palenie węglem niskiej jakości i śmieciami w piecach, które nie są odpowiednio przygotowane do eksploatacji. Takie są fakty. Mówienie więc, że walka ze smogiem to walka z węglem jest bzdurą i niepotrzebnie rozgrzewa emocje. W Polsce kilka milionów ludzi żyje dzięki przemysłowi wydobywczemu. Ten przemysł jest przestarzały i zżerany wewnętrznymi problemami. Nie da się jednak (z wielu różnych powodów) po prostu wszystkich kopalń zamknąć. Węgiel może być czarnym złotem o ile wykorzystamy go w sposób nowoczesny i innowacyjny. Np. gazując pod ziemią, budując instalacje niskoemisyjne czy zeroemisyjne. Podkreślanie, że walka o czyste powietrze to walka z węglem, powoduje u milionów ludzi żyjących z wydobycia węgla (i przemysłu który z tym jest związany) automatyczną niechęć do działań mających na celu poprawę jakości powietrza.
  1. Wiarygodność pomiaru. „Jeśli na jednej ulicy pomiary wskazują na duże skażenie powietrza, wcale nie oznacza to, że w Twojej okolicy jest równie niebezpiecznie.” Nieprawdą jest, co pisze redakcja TwojaPogoda.pl, że pomiaru z jednej stacji nie można stosować do całego miasta. W przeciwieństwie do temperatury, która rzeczywiście może się szybko zmieniać, zanieczyszczenie powietrza jest dość jednorodne na większym obszarze. W Polsce nie mamy niedoboru stacji pomiarowych. A na tak duże miasto jak np. Warszawa wystarczy ich kilka, by wiarygodnie przedstawić jakość powietrza w mieście. Nawet jeżeli na danym obszarze znajdują się pojedyncze punkty pomiarowe, odpowiednie algorytmy (biorące pod uwagę wiele zmiennych) wyliczają stężenie prawdopodobne. Jest ono (a robi się takie testy) bardzo bliskie stężeniom rzeczywistym. Warto rzeczywiście zwrócić uwagę, by dane na których się opieramy (w tym dane w aplikacjach w telefonach komórkowych) pochodziły z oficjalnych stacji, a nie były zniekształcane przez mierniki prywatne albo komercyjne, których dokładność jest zła, albo bardzo zła.
  1. Skarga na Polskę. Niektóre organizacje ekologiczne za zanieczyszczone powietrze postanowiły złożyć na Polskę skargę do Komisji Europejskiej. Taki ruch uważam za totalnie antyskuteczny. Smogu nie pozbędziemy się (nie zminimalizujemy) dekretami rządu czy uchwałami samorządu, bo smog powstaje nie w dużych zakładach przemysłowych tylko w naszych prywatnych kominach i rurach wydechowych. Komisja Europejska może nałożyć na nas karę i co? I to nas, Polaków, przekona do zmiany głupich i szkodliwych przyzwyczajeń? Myślę, że raczej utwierdzi w przekonaniu, że Bruksela znowu nas atakuje. I z całą pewnością atakuje dlatego, że chce położyć łapę na naszym węglu. Składając skargę do Komisji Europejskiej niektóre organizacje ekologiczne właśnie dały do ręki argument tym, którzy ze smogiem nie mają zamiaru walczyć. Sorry, taki mamy klimat. 

Tomasz Rożek

>>> Więcej naukowych informacji na FB.com/NaukaToLubie.

4 komentarze do Smog? Bez spiny, jest super!

Nie wyrzucaj baterii!

Każdy powinien wiedzieć, że zużytych baterii czy akumulatorów nie wolno wyrzucać do śmieci komunalnych, tylko trzeba zanosić do specjalnie przygotowanych pojemników. Ale czy wiemy dlaczego należy tak postępować?

Każdy powinien wiedzieć, że zużytych baterii czy akumulatorów nie wolno wyrzucać do śmieci komunalnych, tylko trzeba zanosić do specjalnie przygotowanych pojemników. Ale czy wiemy dlaczego należy tak postępować?

Rocznie zużywamy prawie 300 milionów baterii. 90 proc. z nich to baterie jednorazowe. Zwykle gdy przestają działać, po prostu je wyrzucamy. W ten sposób do środowiska naturalnego trafiają tak trujące związki i pierwiastki jak ołów, kadm, nikiel, rtęć, lit i mangan. To czynniki silnie trujące. Wpływają negatywnie nie tylko na człowieka, ale na całe środowisko.

>>> Więcej naukowych informacji na FB.com/NaukaToLubie

Z wielu szkodliwych substancji czy pierwiastków z których zbudowane są wyrzucane baterie, najgorszy wpływ na zdrowie i życie człowieka mają ołów, kadm i rtęć.

Ołów – jest pierwiastkiem trującym. Związki ołowiu mają negatywny wpływ na praktycznie wszystkie komórki i narządy. Jest szczególnie niebezpieczny dla dzieci i młodzieży.

Kadm – jest jeszcze bardziej toksyczny niż ołów. Niezależnie od tego w jaki sposób dostanie się do organizmu, jest magazynowany w wątrobie, nerkach, trzustce i płucach. Jest źródłem anemii.

Rtęć – związki tego pierwiastka są silnie trujące i mają dewastujący wpływ na ośrodkowy układ nerwowy. Szalony Kapelusznik, to jedna z postaci występującej w Alicji z Krainy Czarów. Kapelusznicy często cierpieli na choroby psychiczne, bo w procesie uzyskiwania filcu były używane związki rtęci.

Jedynym sposobem na zneutralizowanie zagrożenia jest utylizacja zużytych baterii w wyspecjalizowanych zakładach przeróbki odpadów niebezpiecznych. Tam stosowana jest albo metoda mechaniczna, czyli w skrócie mówiąc rozdrabnianie baterii i oddzielanie od siebie poszczególnych ich części, albo metoda termiczna, która polega na wytapianiu szkodliwych metali w temperaturze około 1400 st C. Trzecia jest metoda hydrometalurgiczna, która polega na chemicznym przetworzeniu baterii. Traktując je kwasami lub zasadami, wytapia się metale czy związki, które są szkodliwe.  Proces recyklingu odbywa się w warunkach kontrolowanych, a odpowiednie zabezpieczenia nie pozwalają by niebezpieczne związki trafiły do środowiska naturalnego.

>>> Więcej naukowych informacji na FB.com/NaukaToLubie

Niezależnie od stosowanej metody, takie metale jak kadm, ołów, rtęć, nikiel czy lit, mogą być ponownie użyte.

PS. Zdaję sobie sprawę z tego, że tym wpisem absolutnie nie wyczerpuję tematu recyclingu baterii. Kiedyś napiszę o tym więcej. Po prostu dzisiaj wymieniałem dzieciom baterie w aparacie fotograficznym i zdałem sobie sprawę z tego jak dużo baterii zużywamy. Swoją drogą, coraz częściej myślę, że osoba (firma), która wymyśli sposób na wydajne i „zdrowe” dla środowiska magazynowanie energii elektrycznej, będzie autorem jednego z największych wynalazków wszech czasów.

9 komentarzy do Nie wyrzucaj baterii!

Burza w sercu

Zakochanie to biochemia, genetyka i cała masa czynników które moglibyśmy nazwać „naukowymi”. Zakochane mózgu bada się najbardziej zaawansowanymi technikami jakie zna medycyna.

Połowa lutego to czas w którym o miłości i zakochaniu mówi się szczególnie często. Oczywiście za sprawą dnia świętego Walentego (czyli Walentynek), który w pop-kulturze jest szczególnie czczony przez zakochanych. Nieczęsto wspomina się o tym, że święty Walenty jest także patronem psychicznie chorych (epilepsję do niedawna nazywano chorobą Św. Walentego), a szkoda. Z naukowego punktu widzenia to co dzieje się w chwili zakochania ma sporo wspólnego z czystym szaleństwem. I rzeczywiście, u osób zakochanych obserwuje się mocne ukrwienie tej części mózgu, która jest odpowiedzialna za zachowania obsesyjne.

Kurierzy w mózgu

To nie tak, że o zakochaniu wiemy wszystko, to nie tak, że to co dzieje się w sercu, mózgu czy brzuchu zakochanego, potrafimy wyrazić równaniami fizycznymi czy reakcjami biochemicznymi. Wciąż sporo w tym tajemnicy. Dlaczego zakochujemy się w tej, a nie w innej osobie? Dlaczego czasami zauroczenie zamienia się w trwające dziesiątki lat głęboki i szczere uczucie, a czasami mija jak śnieg wiosną? Tego nie wiemy. Pozostaje operowanie danymi statystycznymi, uśrednieniami i szacunkami.

>>> Więcej naukowych informacji na FB.com/NaukaToLubie

Z biochemicznego punktu widzenia za stan zakochania, który czasami porównuje się do stanu odurzenia jakimiś środkami, odpowiedzialne są przynajmniej trzy neurotransmitery (neuroprzekaźniki). To związki chemiczne, których cząsteczki działają trochę jak kurierzy w firmie, czyli przenoszą informacje z miejsca na miejsce. I tak jak w dużym wieżowcu kurierzy kursują pomiędzy biurkami, pokojami, korytarzami, piętrami czy nawet budynkami, tak w mózgu, linia startowa dla cząsteczki neuroprzekaźnika to dendryt, a meta to akson. Dendryty i aksony to „wypustki” komórek nerwowych. Impulsy elektryczne są przenoszone po zewnętrznej powierzchni komórki nerwowej, ale to neurotransmitery przenoszą informacje pomiędzy sąsiadującymi komórkami. W praktyce, impuls elektryczny (sygnał fizyczny) na zakończeniu każdej wypustki jest „tłumaczony” na sygnał chemiczny przenoszony przez neurotransmitery do kolejnej wypustki. Tam z powrotem chemia „zamienia się” w fizykę i w kolejnej komórce impuls elektryczny wędruje dalej. Neurotransmiterów jest bardzo dużo, ale w procesie zakochania uaktywniają się głównie trzy. Dopamina, serotonina i oksytocyna. Ta pierwsza pobudza te same części mózgu, które są pobudzane przez niektóre narkotyki. Powoduje, że świat wydaje się być bezproblemowy i piękny. Dopamina zmusza do aktywności, do działania. W skrócie… zakochany nie jest w stanie usiedzieć na miejscu. Potrzebuje swojego bodźca. Głosu, obrazu, zapachu osoby w której się zakochał. Ten bodziec uwalnia w mózgu nową porcję dopaminy. To dlatego zakochani zerkają na siebie ukradkiem.

Podczas gdy dopamina nas pobudza, drugi neuroprzekaźnik, serotonina, nas uspokaja. W końcu jest też oksytocyna. Ona pomaga nam nawiązywać relacje z drugą osobą. I dotyczy to nie tylko zakochanych. Oksytocyna jest uwalniana u matki np. podczas ssania piersi przez jej dziecko. Oksytocyna czyni nas bardziej uległymi, bardziej skorymi do współpracy i współodczuwania oraz ufnymi. Ale także bardziej szczodrymi (prezenty!) i zazdrosnymi.

Wieczna tajemnica?

Trzy wspomniane wyżej neuroprzekaźniki powodują, że świat wydaje się być różowy, bezproblemowy a osoba w którą jesteśmy zapatrzeni wydaje się nie mieć wad. Tym bardziej, że przytłumiona jest ta racjonalna część mózgu. Oczywiście nie u wszystkich działa to w ten sam sposób. Generalnie jednak, to mężczyźni szybciej się zakochują i szybciej odkochują. Kobiety są bardziej zrównoważone w tym względzie. Z czego to wynika? Teorii jest kilka, ale jedna z nich (tzw. teoria inwestycji rodzicielskiej) mówi, że skoro panie ponoszą większy biologiczny ciężar wydania na świat potomstwa, zostały obdarzone cechami, które proces zakochania się jakoś racjonalizują. To jak gdyby mieć w mózgu dodatkowe hamulce. Zgodnie z tą teorią, mężczyźni nie muszą mieć tych hamulców, bo… w sumie nie ponoszą odpowiedzialności biologicznej za przelotne romanse.

>>> Więcej naukowych informacji na FB.com/NaukaToLubie

Na koniec jeszcze garść wyników badań statystycznych. Nie jest prawdą, że w miłości przeciwieństwa się przyciągają. Prawdą za to jest, że mężczyźni znacznie większą wagę przywiązują do wyglądu kobiety niż kobiety do wyglądu mężczyzny. Z jednym wyjątkiem, zarówno płeć piękna, jak i brzydka za bardziej atrakcyjne uważa osoby z dużymi oczami. Może dlatego panie optycznie powiększają sobie oczy makijażem? A może osoby zakochane wydaję się być atrakcyjniejsze, bo w okresie zauroczenia mają rozszerzone źrenice?

Zakochanie to biochemia, genetyka i cała masa czynników które moglibyśmy nazwać „naukowymi”. Zakochane mózgu bada się najbardziej zaawansowanymi technikami jakie zna medycyna. Dzięki rezonansowi magnetycznemu jesteśmy w stanie odróżnić zakochanie od pożądania. To kwestia dokładnej obserwacji tzw. pola brzusznego nakrywki, które wchodzi w skład tzw. układu nagrody. Rumieniące się policzki (uczucie gorąca włącza system chłodzenia), pocące się dłonie, drżący głos… ale to wciąż za mało, by zrozumieć to co dzieje się w głowie zakochanego. Czy kiedykolwiek zrozumiemy? Mam nadzieję że nie. Mam nadzieję, że miłość i zakochanie pozostaną przynajmniej trochę tajemnicze.

>>> Więcej naukowych informacji na FB.com/NaukaToLubie

Tekst ukazał się w tygodniku Gość Niedzielny

Brak komentarzy do Burza w sercu

Mróz i ekstremalne doświadczenie

Nieczęsto robię doświadczenia naukowe na samym sobie. Ale… czasami mi się zdarza. Ten eksperyment, który opiszę był chyba jednym z najbardziej ekstremalnych.

Ta historia ma swój początek na Syberii. Jakiś czas temu (była już zima) zbierałem tam materiały do kilku tekstów (m.in. o jeziorze Bajkał). Trochę podróżowałem po okolicy (na Syberii okolica to co innego niż u nas 😉 ), ale przez kilka dni stacjonowałem w Irkucku.

>>> Więcej naukowych informacji na FB.com/NaukaToLubie

Któregoś dnia mojej wyprawy byłem świadkiem dość zaskakującej sytuacji. Widziałem dwóch dosyć rosłych facetów, którzy rozebrawszy się do kompletnego rosołu wskoczyli do wody. Bajkał w grudniu nie zamarza, więc nie musieli robić przerębla. Temperatura powietrza wynosiła wtedy około minus 30 st C. Panowie się wykąpali, po czym – tak jak Pan Bóg ich stworzył – weszli do samochodu i odjechali. Nie wyglądali na umęczonych, przeciwnie, ta szybka kąpiel chyba im się podobała. Już wtedy pomyślałem, że fajnie byłoby spróbować samemu wykąpać się w jeziorze, środku zimy.

Jak to jest, że ci, którzy morsują nie czują zimna (ja nie czułem)? Jak to jest, że tak dobrze czujemy się w saunie, gdzie temperatura może dochodzić nawet do plus 120 st C (!!!) ? No i co dzieje się z naszym ciałem gdy szybko zmieniamy temperaturę otoczenia?

sauna-1417238-639x739Pomijając osoby chore na serce i małe dzieci, szybka zmiana temperatury jest dla nas korzystna. O ile  dobrze się do niej przygotujemy. Eksperyment rozpocząłem od sauny. Wejście do sauny to jak zderzenie się z gorącą ścianą. W takim otoczeniu ciało bardzo szybko może się przegrzać. Dlatego mózg włącza tryb awaryjny. Coraz szybciej oddychamy i coraz szybciej bije nasze serce, a wszystko po to, by jak najwięcej krwi przepompować z wnętrza ciała do warstwy podskórnej. To dlatego gdy jest nam gorąco, jesteśmy czerwoni na twarzy. Krew krąży bardzo blisko powierzchni skóry bo wtedy najlepiej działa system chłodzenia. Pocimy się, a woda, po to by wyparować, potrzebuje energii. Tą energię odbiera powierzchni skóry, ochładzając ją. W saunie jest ekstremalnie ciepło, więc w odpowiedzi, ekstremalnie mocno się pocimy. I tutaj mała uwaga. Siedząc w saunie, nie wycierajcie spływającego hektolitrami po skórze potu. To  jest bez sensu. Pozbawiacie się wtedy systemu chłodzenia, a to może doprowadzić do przegrzania organizmu.

>>> Więcej naukowych informacji na FB.com/NaukaToLubie

Prosto z sauny wskoczyłem do basenu z zimną wodą. Miałem wrażenie, że serce staje mi w miejscu. Tymczasem ono zaczęło szybciej bić, po to by przepompować krew z zewnętrznych warstw mojego ciała do środka. Ale to jeszcze nic. Z basenu (po dokładnym osuszeniu), w krótkich spodenkach, czapce, rękawiczkach i butach, wszedłem do kriokomory. Temperatura w środku wynosiła minus 120 st C (!!!). W takiej atmosferze człowiek może przetrwać tylko kilka minut. Pomijam fakt, że palec przymarzł mi do klamki (moja wina, ściągnąłem rękawiczki), mimo ekstremalnych warunków, nic mi się nie stało. Miałem jednak wrażenie, że serce wyskoczy mi z klatki piersiowej. W niskiej temperaturze czym mniej krwi w warstwach podskórnych tym lepiej. To dlatego gdy jest nam zimno, robimy się bladzi na twarzy. Krew szybko usuwana jest z powierzchni ciała i pompowana do środka. W ten sposób tracimy mniej energii. W czasie tego przepompowywania pracuje nie tylko serce, ale w zasadzie wszystkie mięśnie.

Zrzut ekranu 2016-01-05 o 00_Fotor

Mój sprint do wody. Biegłem szybko… żeby nie zmarznąć 😉 Temperatura powietrza wynosiła wtedy około minus 7 st. C

Przepompowywanie krwi wte i wewte to doskonały trening dla ciała. Postanowiłem więc zrobić ostateczny test. Przerębel. Temperatura minus 7 st C, piaszczysta plaża i woda. Zimna woda! Najpierw koniecznie trzeba rozgrzać mięśnie, a w czasie tej rozgrzewki sukcesywnie się rozbierać. Pozostają buty do nurkowania (by nie rozciąć sobie nogi na kawałku lodu i by nie odmrozić sobie palców), czapka, rękawiczki no i kąpielówki. I tu ogromne zaskoczenie. Wszedłem do wody i nie czułem zimna. Serio, serio. Po kilkudziesięciu sekundach czułem mrowienie w mięśniach. To znak, że trzeba wyjść z wody i ponownie się rozgrzać. W czasie rozgrzewki krew (z tlenem) pompowana jest do mięśni. W lodowatej wodzie, przeciwnie, krew usuwana jest z mięśni (to mrowienie to znak, że mięśniom brakuje tlenu). Każde kolejne wejście może trwać dłużej (później pojawia się uczucie mrowienia), pomiędzy kolejnymi wejściami, zawsze trzeba się jednak rozgrzać. Nie ciepłym ubraniem, broń Boże alkoholem, tylko ćwiczeniami. Ja biegałem, robiłem przysiady i pompki.

>>> Więcej naukowych informacji na FB.com/NaukaToLubie

Moje wrażenia? Polecam każdemu. Przed wskoczeniem do przerębla, czytałem, że w czasie morsowania mięśnie pracują intensywniej niż na siłowni. Nie wierzyłem, ale uwierzyłem. Kolejnego dnia, po moim eksperymencie, bylem tak obolały, że nie potrafiłem wstać z łóżka. Co polecam każdemu 😉 

 

4 komentarze do Mróz i ekstremalne doświadczenie

Wszystko jest matematyką – rozmowa z X. prof. Michałem Hellerem

O kosmosie, ciekawości, przypadku i matematyce z księdzem profesorem Michałem Hellerem, teologiem, kosmologiem, matematykiem i filozofem rozmawia Tomasz Rożek

Z księdzem profesorem Michałem Hellerem, teologiem, kosmologiem, matematykiem i filozofem rozmawia Tomasz Rożek. Poniższy wywiad jest uzupełnieniem dwóch rozmów, które opublikowałem na kanale YouTube.com/Nauka To Lubie. Pierwsza z tych rozmów dotyczyła wszechświata, a druga człowieka. U dołu wywiadu znajdują się bezpośrednie odnośniki do obydwu rozmów.

>>> Więcej naukowych ciekawostek na FB.com/NaukaToLubie

Co się stało się prawie 14 miliardów lat temu? Możemy w ogóle udzielić jakiejkolwiek odpowiedzi?

Historię wszechświata rekonstruujemy poruszając się wstecz. Do 3 minut po wielkim wybuchu mamy wiedzę bardzo solidną, a potem grzęźniemy w hipotezach. Im bliżej początku, tym bardziej hipotetyczna jest nasza wiedza. Ta wiedza opiera się na teorii, ale teoria jest dobrze sprawdzona chociażby w takich miejscach jak laboratorium fizyki cząstek CERN, gdzie zderza się ze sobą np. protony.

Wiemy w takim razie co stało się po Wielkim Wybuchu, ale co było w punkcie zero?

Pytanie, czy taki punkt zero w ogóle był. Według klasycznej kosmologii, według teorii Einsteina, rzeczywiście punkt zero istniał i był tzw. osobliwością, czyli obszarem, w którym załamuje się pojęcie czasoprzestrzeni. Pojęcia czasu i przestrzeni tracą tam sens. Tam urywa się nasza wiedza, znane nam prawa natury przestają działać.

Skoro nie prawa przyrody, to co się tam dzieje?

To jest pytanie, na które nie znam odpowiedzi. Mamy dwie wielkie teorie: fizyka kwantowa i fizyka grawitacji. Fizyka kwantowa rządzi światem cząstek elementarnych, mikroświatem. Fizyka grawitacji rządzi kosmosem w wielkiej skali. Zaraz po Wielkim Wybuchu te dwie teorie nakładały się na siebie. Po to by wyjaśnić co dzieje się w osobliwości, trzeba połączyć te dwie teorie w jedną. Jest to niezmiernie trudne wyzwanie, bo te dwie siły mają zupełnie inną naturę. Moim zdaniem, to jest w tej chwili problem numer jeden fizyki teoretycznej. Mamy kilka, może nawet kilkanaście pomysłów jak grawitację i teorię kwantów ze sobą połączyć, ale żaden z nich nie jest potwierdzony doświadczalnie. Wszystko to są hipotetyczne rzeczy, posługują się bardzo ładną i zaawansowaną matematyką, ale nie mamy empirycznego rozstrzygnięcia, która jest prawdziwa i pewnie długo nie będziemy mieć.

Czy to jest przypadek, że człowiek został obdarzony umysłem, żeby dociekać tak skomplikowanych i abstrakcyjnych rzeczy?

Tego też nie wiemy. W każdym razie jest to rzecz niesamowita, że mamy taką władzę poznawania wszechświata. Bo pomyślmy nad tym. Jeżeli umysł ludzki powstał ewolucyjnie przez oddziaływanie z otoczeniem, to jak mówią biologowie, utrwalały się te cechy, które są potrzebne do przeżycia.

Wiedza o czarnej dziurze nie jest potrzebna?

Wiedza o czarnej dziurze jest absolutnie niepotrzebna do przeżycia.

Od biedy dałoby się połączyć wiedzę z sukcesem reprodukcyjnym. W końcu wolimy się otaczać ludźmi mądrzejszymi. Może intelekt czy wiedza to coś w rodzaju pożądanego przez przyszłego partnera gadżetu?

Myślę, że chyba wystarczyłby taki gadżet, który służyłby do uchylania głowy jak maczuga leci. Niemniej jednak jest to niesamowite, że człowiek ma tak rozwinięty umysł. Jeśli popatrzymy na historię, to tak naprawdę fizyka zaczęła się gdzieś w XVII wieku. Jesteśmy dopiero na samym początku. Co to jest kilkaset lat wobec 14 miliardów? I to jest rzeczywiście coś absolutnie niesamowitego. Można by to pytanie, które pan zadał, postawić w innej formie: czy złożoność ludzkiego mózgu wystarczy, ażeby zbadać złożoność wszechświata? Innymi słowy, czy złożoność wszechświata jest przykrojona na miarę naszego mózgu? Niezależnie od tego, czy jesteśmy sami we wszechświecie jako istoty rozumne, czy też są jacyś nasi bracia w rozumie, specjaliści mówią, że złożoność mózgu jest większa, niż złożoność całego wszechświata.

Ilość potencjalnych połączeń między komórkami w mózgu jednego człowieka jest większa niż ilość gwiazd we wszechświecie.

No właśnie. I to nas stawia w dość wyróżnionej pozycji. Natomiast czy dzięki tej złożoności możemy pojąć wszystko? Tu jest pewien logiczny paradoks. Jeśli chcielibyśmy pojąć wszystko, to musielibyśmy zrozumieć także mózg. Czy mózg może poznać sam siebie?

>>> Więcej naukowych ciekawostek na FB.com/NaukaToLubie

Mówiliśmy trochę o ewolucji, a z nią bardzo często wiąże się słowo „przypadek”. 

Arystoteles miał przyczynową koncepcję nauki, która w jakimś sensie jest aktualna do dzisiaj. Wyjaśniamy wszechświat według Arystotelesa przez ciągi przyczyn i skutków, takie łańcuchy przyczynowe. Natomiast on przypadek określił jako coś, co przerywa taki ciąg. Interweniuje przypadkowo w ten ciąg i zaburza go. I dlatego według niego nie może być wiedzy naukowej o przypadku. I ludzie uwierzyli, że przypadek jest jakimś takim obcym ciałem w nauce. Tymczasem okazuje się, że tak nie jest. Najbardziej dramatycznym czy widocznym przykładem próby oswajania przypadku jest ludzka chciwość. Jak ktoś gra hazardowo, to chce wygrać. Ludzie szukali więc jakiejś strategii, żeby zapewnić sobie zwycięstwo w totolotku, ruletce, czy w pokerze.

No i takiego sposobu nie znaleźli. Wygrana czy przegrana to kwestia przypadku.

Czy na pewno? Statystyka i rachunek prawdopodobieństwa mówią co innego. Gdyby było tak jak pan mówi, nie mogłyby działać np. banki czy towarzystwa ubezpieczeniowe, które liczą prawdopodobieństwo w związku z ubezpieczeniami na życie. Bez prawdopodobieństwa i statystyki nie byłoby dzisiejszej wiedzy. Ani fizyki, ani medycyny.

Bo statystyka daje odpowiedzi dotyczące ogółu a pojedynczy przypadek dalej jest dziełem… przypadku.

Też nie całkiem. W „Summa contra gentiles” św. Tomasz pisze, że boża opatrzność rządzi zdarzeniami ex casu del fortuna – dziejącymi się z przypadku lub losowo. Dwoje ludzi pobiera się, bo spotkali się, gdy spóźnił się pociąg. Czy to przypadek? Wszystko tu ma przyczynę. Pociąg się spóźnił, bo popsuła się lokomotywa. Młodzi ludzie byli w tym samym miejscu o tym samym czasie, bo każde z nich jechało w konkretne miejsce. W fizyce tak jest na każdym kroku. Dobrym przykładem jest zwykły rzut kamieniem. On jest opisany prostymi równaniami ruchu Newtona i wszystko jest – wydawałoby się – zdeterminowane, ale ja mogę przypadkiem tym kamieniem zamiast trafić w tarczę, to komuś w głowę. W nauce jest bardzo dużo miejsca na przypadki, a one same nie są zaprzeczeniem zasad przyrody. W siatce praw przyrody są pewne luzy na przypadki. Bez tych przypadków prawa przyrody by nie mogły działać.

A ten plan, te reguły, które tym wszystkim rządzą, te luzy, o których ksiądz profesor mówi, czy one jakoś powstały, czy one były zawsze? Jak to rozumieć?

No to jest problem genezy praw przyrody. I ja nie wiem jaka ona jest. To na pewno nie jest zagadnienie z dziedziny fizyki, bo fizyka zakłada prawa przyrody. Nie wyjaśnia ich. W każdym modelu fizycznym prawa fizyki są założone. Takie, a nie inne i koniec. Natomiast wyjaśnienie, skąd się biorą prawa przyrody, to już raczej należy do filozofii czy na przykład do teologii. Można powiedzieć, że to po prostu Pan Bóg stworzył.

>>> Więcej naukowych ciekawostek na FB.com/NaukaToLubie

To jest bardzo wygodne podejście. Pan Bóg stworzył, kropka. A może by się nad tym zastanowić ?

Często fizycy nie nazywają tego Panem Bogiem, ale skądś się one musiały wziąć. Einstein nie uznawał Boga w formie chrześcijańskiej. Raczej był bliżej panteizmu, ale używał hasła „Zamysł Boga” – the Mind of God. Może używał to jako metaforę, ale uważał, że zestaw praw przyrody to jest właśnie the Mind of God. I mówił: nie chciałbym nic więcej wiedzieć, tylko znać the Mind of God.

Znać boży zamysł… czyli to jedno równanie, które opisuje wszystko?

No tak. I tu są te granice fizyki, o których mówimy. Na to wszystko nakłada się matematyka, która jest uniwersalnym językiem opisu wszechświata. Tylko trzeba pamiętać, że matematyka nie oznacza wcale determinizmu.

2 + 2 zawsze równa się 4. Cała matematyka szkolna jest deterministyczna.

No bo w szkole się uczy najprostszych rzeczy: dodawania, odejmowania i pierwiastkowania. Niewiele więcej. W prawdopodobieństwie nic nie jest pewne, choć wszystko prawdopodobne. A to dopiero początek. Mechanika kwantowa posługuje się matematyką, która jest indeterministyczna. Wcześniej rozmawialiśmy o przypadkach. Ja rozróżniam dwa ich rodzaje. Jeden to przypadek wynikający z niewiedzy albo ignorancji. Np. mogę się z kimś założyć, czy z zza rogu wyjedzie tramwaj numer 8 czy 4. Ja nie wiem który i traktuję to w kategoriach przypadku, ale jeżeli te tramwaje są w drodze, to proces jest zdeterminowany. Natomiast czy są przypadki, zdarzenia, które rzeczywiście nie są zdeterminowane? Mechanika kwantowa jest świadectwem, że tak, są. I takie przypadki pojawiają się u podstaw całej naszej rzeczywistości.

Czy wszechświat ma jakieś granice geometryczne? Pytam zarówno o to, czy możemy dowolnie długo dzielić cząstki elementarne na coraz mniejsze kawałki, jak i o to, czy kosmos gdzieś się kończy?

Może być tak, że świat jest skończony, ale nie ma granicy. I wtedy idąc cały czas w jedną stronę, w końcu trafimy do punktu wyjścia. Modele otwarte mówią, że można zmierzać w jednym kierunku w nieskończoność. Nie ma żadnych naukowych powodów, by wszechświat miał granice. Natomiast czy można dzielić cząstki w nieskończoność? Nie wiem.

Co zapaliło małego Michała Hellera do tego by zajął się nauką? A co zapala już dorosłego księdza profesora by zajmował się nią dalej? 

Dorastałem w domu, gdzie rozmawiało się o nauce, o świecie. Ojciec był inżynierem, opublikował nawet kilka prac matematycznych. Od dziecka, jak tylko miałem jakąś książkę popularnonaukową, to się w niej zaczytywałem. I trudno tak ciekawymi rzeczami się nie zajmować. A dzisiaj? Chyba ta sama ciekawość co u małego Michała. Ciekawość jest motorem działania. Ale trzeba uważać, bo ona musi być pod kontrolą. Inaczej do niczego się nie dojdzie, niczego nie uda się wystarczająco dobrze zbadać. Na świecie żyje wielu geniuszy, którzy nie potrafili się ograniczyć. Wiedzą prawie wszystko o prawie wszystkim i zarazem niewiele. Wszystko ich za bardzo ciekawi. I w moim przypadku to zawsze było dość trudne i bywa trudne do dzisiaj. Interesuje mnie za dużo, a trzeba się ograniczyć do jednego.

>>> Więcej naukowych ciekawostek na FB.com/NaukaToLubie

Ksiądz Profesor Michał Heller jest teologiem, filozofem i kosmologiem. W 2008 roku jako jedyny dotychczas Polak został laureatem międzynarodowej Nagrody Templetona, przyznawanej za pokonywanie barier między nauką a religią. Jest autorem kilkudziesięciu książek. 

Opublikowany powyżej wywiad jest fragmentem rozmowy jaką przeprowadziłem z X. prof. Michałem Hellerem dla tygodnika Gość Niedzielny.
3 komentarze do Wszystko jest matematyką – rozmowa z X. prof. Michałem Hellerem

Jak działa alkohol?

Alkohol szkodzi zdrowiu. To hasło zna prawie każdy. Co dzieje się z alkoholem w organizmie człowieka? I co dzieje się z organizmem po spożyciu alkoholu.

Przełykany alkohol zaczyna być wchłaniany już jamie ustnej i przełyku. Najwięcej etanolu dostaje się jednak do krwi przez ścianki żołądka i jelita cienkiego. W tym drugim zaburza on zwykłe wchłanianie substancji odżywczych, a w żołądku może wywoływać stany zapalne. Mowa oczywiście o nadmiarze alkoholu oraz częstym i regularnym jego spożywaniu. Za wyjątkiem sytuacji chorobowych, niewielkie ilości alkoholu, np. lampka wina do kolacji czy kufel piwa wypity w czasie grilla – nikomu nie zaszkodzą. Przeciwnie mogą pomóc, alkohol jest antyoksydantem, czyli „likwiduje” wolne rodniki, które wpływają na starzenie się komórek. Mowa oczywiście o niewielkich ilościach alkoholu, a nie o jego nadużywaniu.

>>> Więcej naukowych ciekawostek na FB.com/NaukaToLubie

Potrzeba energii

A co dzieje się z alkoholem już wchłoniętym do krwi? Jest rozprowadzany po całym organizmie. Po to by rozłożyć cząsteczkę etanolu, potrzeba energii. Spada więc stężenie cukru we krwi. To może prowadzić do zawrotów głowy i drżenia rąk. Dokładnie tak samo organizm zacznie reagować na niski poziom cukrów gdy… przestaniemy jeść. Przy okazji obniżania poziomu cukru we krwi, wzrasta jej ciśnienie. Na ten proces wpływa jeszcze jeden mechanizm. Krew regularnie jest przepompowywana przez nerki. Te działają jak filtr i pozbywają się tego, co dla organizmu jest niepotrzebne albo szkodliwe. Do filtrowania etanolu nerki potrzebują bardzo dużej ilości wody. To właśnie dlatego, po spożyciu alkoholu oddajemy znacznie więcej moczu niż po wypiciu takiej samej ilości np. wody. Wypicie 250 ml wina, oznacza, że w ciągu 2-3 godzin pozbędziemy się przynajmniej 500 ml wody. Niebezpieczne odwodnienie organizmu po spożyciu dużej ilości alkoholu jest realnym zagrożeniem. A wypicie nadmiernej jego ilości zawsze kończy się pragnieniem i nieprzyjemnym wrażeniem suchości w ustach. Pragnienie jest jednym z elementów tzw. kaca, czyli zespołu objawów poalkoholowych.

Najbardziej obciążona po spożywaniu alkoholu jest jednak wątroba. Tylko 2 proc. spożytego alkoholu jest usuwanego z organizmu w niezmienionej postaci. Reszta, czyli 98 proc. jest najpierw metabolizowana. Zajmuje się tym właśnie wątroba. To proces bardzo obciążający i długi. Dlatego właśnie efekty spożycia alkoholu utrzymują się tak długo. Alkohol krąży we krwi przez kilka, kilkanaście a w skrajnych wypadkach nawet kilkadziesiąt godzin. Na dodatek sposób metabolizmu alkoholu jest dla organizmu bardzo niebezpieczny. W wątrobie etanol jest utleniany do aldehydu octowego, który jest wielokrotnie bardziej trujący niż sam alkohol. I to aldehyd uszkadza wątrobę. W skrajnych wypadkach w wątrobie mogą się pojawić komórki rakowe, znacznie częściej dochodzi do marskości wątroby czyli do zniszczenia struktury tego narządu. Bardzo często nadmiar alkoholu może doprowadzić do niewydolności wątroby. Zresztą aldehyd octowy niekorzystnie wpływa nie tylko na wątrobę, ale także na mózg. Nudności, bóle głowy i wymioty (czyli pozostałe objawy kaca) to efekt wpływu aldehydu na ludzki organizm a nie alkoholu.

>>> Więcej naukowych ciekawostek na FB.com/NaukaToLubie

Pijany mózg

Mówiąc o wpływie alkoholu na organizm człowieka najczęściej mamy jednak na myśli nie obniżenie poziomu cukru we krwi czy rujnowanie wątroby, tylko trudności w utrzymaniu równowagi, niewyraźne widzenie i mówienie oraz zwolniony czas reakcji. Skąd biorą się te objawy? Alkohol reaguje z substancjami, które w mózgu są odpowiedzialne za aktywność komórek nerwowych. Neurony stają się bardziej „ociężałe” nawet po wypiciu niewielkiej ilości alkoholu. Zmiany stężenia takich substancji jak kwas gamma-aminomasłowy, glutaminian czy serotonina nie tylko spowalniają działanie neuronów, ale zaburzają pracę niektórych części mózgu. Głównie w korze mózgowej, w której „znajduje się” odpowiedzialne zachowanie i logiczne myślenie. Mniejsza ilość serotoniny w podwzgórzu i w przysadce mózgowej skutkuje wylewnością i ogólnym rozluźnieniem. To dlatego pod wpływem alkoholu łatwiej zdradza się sekrety, łatwiej zaprzyjaźnia się z innymi. Krótko mówiąc znikają bariery. Alkohol wzmaga też pociąg seksualny, ale nadmiar alkoholu wpływa na takie rozluźnienie mięśni, że może skutkować problemami ze wzwodem.

Najbardziej niebezpieczne dla otoczenia są jednak konsekwencje działania alkoholu na móżdżek, tą część mózgu, która jest odpowiedzialna za koordynację ruchów i utrzymanie równowagi. To dlatego osoba pijana nie jest w stanie prosto chodzić, ma problemy np. z trafieniem kluczem do dziurki w zamku albo z dotknięciem palcem czubka swojego nosa. Osoba pijana za kierownicą samochodu nie potrafi omijać przeszkód, nie potrafi skoordynować swoich ruchów, nie jest w stanie prawidłowo ocenić odległości i szybkości. W największym skrócie jest całkowicie nieprzewidywalnym uczestnikiem ruchu na drodze. Alkohol zaburza także działanie rdzenia przedłużonego. Efektem tego – przy dużych dawkach alkoholu – jest ogólne otępienie, senność i spowolnienie reakcji.

Ile można wypić?

Organizm potrzebuje dużej ilości energii do oczyszczenia się z alkoholu. To dlatego jego wysoki poziom we krwi wywołuje dosyć szybko uczucie głodu. I tak na prawdę tylko dostarczenie dużej ilości węglowodanów ma wpływ na szybkość trawienia alkoholu. Chcąc szybko wytrzeźwieć, trzeba dużo jeść. Wszystkie inne metody, medykamenty, picie dużej ilości innych płynów czy robienie ćwiczeń fizycznych nie mają na trzeźwość żadnego wpływu.

A ile alkoholu można wypić, by móc normalnie funkcjonować? A co to znaczy normalnie? Nawet niewielka ilość alkoholu ma wpływ na nasze zachowanie, ma wpływ na pracę mózgu. Kwestią sporną pozostaje czy wpływ np. lampki wina jest zauważalny. Czy stanowi już jakiekolwiek zagrożenie. Są kraje w których prawo określa akceptowalny poziom alkoholu u kierowców na zero. Innymi słowy, np. na Węgrzech, na Słowacji czy w Czechach nie wolno mieć ani grama alkoholu we krwi. W Polsce (ale także w Szwecji i Norwegii) można prowadzić samochód mając 0,2 promila alkoholu we krwi. To – w porównaniu z innymi krajami europejskimi – dosyć restrykcyjna norma. Ale od 0,3 promila alkoholu we krwi zauważa się wpływające na zachowanie rozproszenie uwagi. Od 0,8 promila zauważalne jest już upośledzenie koordynacji ruchowo – wzrokowej. W przeważającej większości krajów Europy limit wynosi 0,5 promila, choć np. w Luksemburgu, Irlandii, Wielkiej Brytanii i na Malcie prawo dopuszcza prowadzenie samochodu z 0,8 promilem alkoholu we krwi.

A wracając na polskie drogi. Pomijając dyskusję nad tym czy polskie uregulowania prawne mają sens czy nie, ile można wypić, by nie przekroczyć limitu 0,2 promila alkoholu we krwi? Trudno o jednoznaczną odpowiedź. Wpływ alkoholu na organizm jest zależny od wielu czynników. Od stresu, zmęczenia czy różnego rodzaju dolegliwości zdrowotnych. Ale także od zażywanych leków czy od używek takich jak papierosy czy kawa. Lepiej więc nie ryzykować wsiadając za kierownicę nawet po jednym małym piwie. Lepiej odczekać. Przyjmuje się, że organizm potrzebuje godziny na pozbycie się 10 gramów czystego alkoholu. Tego w dużym (pół litrowym) piwie jest około 25 gramów. Krótko mówiąc, wsiadając za kierownicę 3 godziny po wypiciu kufla piwa, możemy być pewni, że alkomat policyjny wskaże poziom zero. I jeszcze jedno. Prawie 80 proc nietrzeźwych złapanych przez policję to kierowcy którzy pili alkohol poprzedniego dnia. Po wypiciu dużej ilości mocnego alkoholu trzeba dać organizmowi przynajmniej dobę na to, by całkowicie usunął alkohol z krwi. Tego procesu nie przyspieszy ani sen, ani zimny prysznic ani reklamowane środki farmaceutyczne.

>>> Więcej naukowych ciekawostek na FB.com/NaukaToLubie

Tekst ukazał się w tygodniku Gość Niedzielny
8 komentarzy do Jak działa alkohol?

Szkodliwe szufladki

Wściekam się, że nauk ścisłych w szkole często uczy się w tak nieatrakcyjny sposób. Jaki jest tego efekt? Na hasło „jestem fizykiem” widzę w oczach wielu (zbyt wielu) młodych ludzi przerażenie pomieszane ze współczuciem. Już słyszę jak w myślach mówią „mój Boże, jakie on musiał mieć nieszczęśliwe życie”.

Wściekam się, że nauk ścisłych w szkole często uczy się w tak nieatrakcyjny sposób. Kogo to wina? Wszystkich po trochu. Ale nie o tym chcę pisać (a przynajmniej nie tym razem). Wiem za to jaki jest efekt. Otóż na hasło „jestem fizykiem” widzę w oczach wielu (zbyt wielu) młodych ludzi przerażenie pomieszane ze współczuciem. Już słyszę jak w myślach mówią „mój Boże, jakie on musiał mieć nieszczęśliwe życie”.

>> Polub FB.com/NaukaToLubie i pomóż mi tworzyć stronę pełną nauki. 

W czym jest problem z nauczaniem przedmiotów ścisłych? Otóż z tym, że niewielu udaje się nimi zaciekawić. Dlaczego fizyka jest nudna? Bo ciągle wzory. A chemia? Bo nic nie kapuję z tych doświadczeń. To może biologia? A kogo interesują pantofelki?

Myślę, że jednym z głównych problemów… mój były szef, wybitny fizyk, który jako pierwszy człowiek na świecie wyprodukował kompletny atom antymaterii mawiał, że nie ma problemów, są tylko wyzwania… no to jeszcze raz. Myślę, że jednym z głównych wyzwań jakie stoją przed współczesną edukacją, jest zasypywanie szufladek, które sami stworzyliśmy w naszych mózgach, a teraz kopiujemy je do mózgów naszych dzieci. Chodzi mi o szufladki z napisem „fizyka”, „chemia”, „biologia”, „matematyka”. Małe, zainteresowane światem, dziecko nie rozróżnia dziedzin nauki. Dla niego jest nieistotne czy zmieniające kolor jesienne liście to domena biologii, chemii czy fizyki (prawdę mówiąc wszystkiego po trochu). Podobnie jak nie interesuje je czy spadającym z chmury deszczem powinien zajmować się fizyk czy chemik (podobnie jak poprzednio i jeden i drugi może o tym zjawisku sporo opowiedzieć). Dziecko interesuje znalezienie odpowiedzi, a nie to, kto jej udziela. Tymczasem my zamiast odpowiadać, zbyt wiele energii poświęcamy na to by dokładnie „rozdzielić kompetencje”.

Gdzie przebiega granica pomiędzy fizyką i chemią? A gdzie pomiędzy chemią i biologią? Czy cykle komórkowe to biologia czy chemia? A budowa materii? Atomy są chemiczne czy fizyczne? A potęgi? Powinien ich uczyć matematyk, fizyk czy chemik? W rzeczywistości uczy tego każdy na swój sposób, a uczeń – nie tylko ten, który miewa trudności z nauką – zastanawia się czy potęgi znane z matematyki, to te same o których słyszał na chemii czy fizyce? Na domiar złego, niektóre zjawiska zamiast pojawiać się równocześnie, na lekcjach np. chemii i fizyki wprowadzane są w sporych odstępach czasowych. To wszystko powoduje, że czym dłużej młody człowiek jest pod opieką systemu edukacji, tym większy ma problem z ogarnięciem nauk przyrodniczych jako całości. W pewnym sensie to powrót do dalekiej przeszłości, kiedy uważano, że prawa natury nie są uniwersalne. Że zasady, które rządzą zjawiskami przyrody nie wszędzie tak samo „działają”. Osobą, która dokonała przełomu, był Izaak Newton, lekarz, fizyk, filozof, ekonomista i teolog. Prawo powszechnego ciążenia jego autorstwa jako bodaj pierwsze pokazało, że „tutaj” czyli na Ziemi i „tam” czyli w kosmosie, obowiązują te same zasady. Że te same prawa opisują ruch planety wokół Słońca i ruch spadającego z drzewa jabłka. I pomyśleć, że 330 lat po opublikowaniu prac Newtona, nasz system edukacji wypuszcza „w świat” ludzi, którzy mają wątpliwości, czy gęstość oznaczana w chemii jako „d” a w fizyce jako ρ (ro), to ta sama wielkość.

Nasze wyobrażenie o świecie, nasza wiedza o nim jest weryfikowana praktycznie każdego dnia. Ale prawdziwe rewolucje zdarzają się stosunkowo rzadko. Kto tych rewolucji dokonuje? Czyimi rękami są one wprowadzane? Gdyby prześledzić historię nauki, dosyć szybko można dojść do wniosku, że rewolucje robią ci, którzy nie zostali zaszufladkowani, ci którzy potrafią się wznieść ponad tradycyjny – sztuczny i moim zdaniem mocno krzywdzący młodego człowieka – podział na przedmioty. Tak było nie tylko setki lat temu, kiedy jedna osoba studiowała tak różne (z dzisiejszego punktu widzenia) kierunki jak medycyna, filozofia, nauki przyrodnicze, teologia i prawo (Kopernik, Newton czy Kant), ale także w czasach nam bliższych (Hubble, Lemaitre, Rubin). Prawdziwych odkryć, prawdziwych rewolucji w nauce dokonują ci, którzy swoją wiedzą ogarniają wiele półek w bibliotece, a nie ci, którzy znają tylko kilka książek na wyrywki. Choćby znali je na pamięć. No bo na dobrą sprawę, czy jest sens czytać książki na wyrywki, czasami nie po kolei? Wydaje mi się, ba! jestem tego pewny, że opowiadana w książkach historia nabiera rumieńców, wciąga i inspiruje dopiero wtedy gdy jest opowiedziana w całości.

male wielkie odkrycia 1500px 3d

„Małe wielkie odkrycia – najważniejsze wynalazki, które odmieniły świat”. Steven Johnson

A skoro już piszę o książkach i półkach. Do przemyśleń nad systemem edukacji nakłoniła mnie lektura pewnej książki. Nakładem wydawnictwa Sine Qua Non właśnie ukazały się „Małe wielkie odkrycia – najważniejsze wynalazki, które odmieniły świat”. Bardzo żałuję, że w polskiej szkole w ten sposób nie uczy się nauk ścisłych. Jasne, na fizyce czy na chemii muszą być wzory i zadania z treścią, ale szkoda, że bardzo często przysypani rachunkami, zapominamy co tak właściwie liczymy. Steven Johnson, autor „Małe wielkie odkrycia…” napisał książkę, która pokazuje historię rozwoju naszej cywilizacji. Pokazuje zawiłą, ale równocześnie pasjonującą drogę jaką przechodzili ludzie ciekawi i uparci. Nie opisuje pojedynczych wynalazków, nie dzieli ich na te dokonane przez fizyków, chemików i biologów. Pokazuje historię dochodzenia do odkryć. Do wybudowania teleskopu przyczyniło się oblężenie, setki lat wcześniej, Konstantynopola. Do skonstruowania pierwszego mikroskopu, wynalezienie dużo wcześniej prasy drukarskiej. Ta książka jest pełna, tak zaskakujących „związków”. Nie będę więcej zdradzał. Powiem tylko, że te największe odkrycia nie byłyby możliwe, bez tych małych. Małych wcale nie znaczy banalnych i nudnych. Przeciwnie. Małych, znaczy tajemniczych, nieznanych i nieoczywistych.

>> Polub FB.com/NaukaToLubie i pomóż mi tworzyć stronę pełną nauki. 
7 komentarzy do Szkodliwe szufladki

TworzyMy atmosferę

To my tworzymy atmosferę, którą później oddychamy. Albo – trzeba niestety to przyznać – atmosferę, którą się podtruwamy. Na przełomie jesieni i zimy jakość powietrza w Polsce jest dramatyczna!  

>>> Polub FB.com/NaukaToLubie to miejsce w którym komentuję i popularyzuję naukę.

Jakość powietrza na przełomie jesieni i zimy jest najgorsza, bo wtedy powietrze jest wilgotne a szkodliwe cząsteczki mają się o co „zawiesić”. Gdy przychodzi sroga zima zanieczyszczenia są mniej szkodliwe, bo są szybko rozwiewane. W czasie mrozu powietrze jest suche (woda osiada jako szron albo śnieg) a to znaczy, że czystsze.

Kraków – brudne miasto

Dowodów na to, że zatrute powietrze powoduje wiele groźnych chorób jest tak wiele, że aż trudno zrozumieć dlaczego wciąż tak mało energii poświęcamy jego ochronie. Z badań ankietowych wynika, że aż 81 proc. pytanych nie uważa zanieczyszczenia powietrza za problem miejsca w którym mieszka. Fakty są jednak takie, że poziom zanieczyszczenia powietrza w Polsce jest jednym z najwyższych w Unii Europejskiej. Pod względem stężenia pyłu zawieszonego PM10 wywołującego m.in. astmę, alergię i niewydolność układu oddechowego w całej Europie gorsza sytuacja niż w Polsce jest tylko w niektórych częściach Bułgarii. W przypadku pyłu PM2,5 stężenie w polskim powietrzu jest najwyższe spośród wszystkich krajów w Europie, które dostarczyły dane. Podobnie jest ze stężeniem rakotwórczego benzopirenu. Gdy Polskę podzielono na 46 stref w których badano jakość powietrza, okazało się, że aż w 42 poziom benzopirenu był przekroczony. Wczytywanie się w statystyki, liczby, tabelki i wykresy może przyprawić o ból głowy. Okazuje się bowiem, że wśród 10 europejskich miast z najwyższym stężeniem pyłów zawieszonych, aż 6 to miasta polskie; Kraków, Nowy Sącz, Gliwice, Zabrze, Sosnowiec i Katowice. Bezsprzecznym liderem na liście miast z największym zanieczyszczeniem jest od lat Kraków. Tam liczba dni w roku w których normy jakości powietrza są przekroczone wynosi 151. Kraków jest trzecim najbardziej zanieczyszczonym miastem europejskim. Brudne powietrze to nie tylko takie w którym przekroczone są normy stężania pyłów zawieszonych czy wielopierścieniowych węglowodorów aromatycznych (WWA), w tym benzopirenu (te powstają w wyniku niecałkowitego spalania np. drewna, śmieci czy paliw samochodowych). My i nasze dzieci (także te, które jeszcze się nie urodziły) oddychamy tlenkami azotu (główne źródło to spaliny samochodowe), tlenkami siarki (spalanie paliw kopalnych), przynajmniej kilkoma metalami ciężkimi np. kadmem, rtęcią, ołowiem, a także tlenkiem węgla.

Piece i samochody

Źródła poszczególnych zanieczyszczeń występujących w atmosferze są różne, ale w brew pozorom nie są one związane z przemysłem. Głównym ich źródłem jesteśmy my sami, a konkretnie indywidualne ogrzewanie domów i mieszkań oraz transport drogowy. Ponad 49 proc. gospodarstw domowych ma własne piece centralnego ogrzewania. Samo to nie byłoby problemem gdyby nie fakt, że przeważająca większość tych pieców to proste konstrukcje, które można scharakteryzować dwoma określeniami: są wszystkopalne i bardzo mało wydajne. Duża ilość paliwa, którą trzeba zużyć oraz fakt, że często używane jest w nich paliwo niskiej jakości powodują, że duże miasta w Polsce w okresie jesienno – zimowym praktycznie są cały czas zasnute mgłą. Swoje dokładają także samochody. Liczba samochodów osobowych zarejestrowanych w Polsce wynosi 520 pojazdów na 1000 mieszkańców a to więcej niż średnia europejska. Nie jest to bynajmniej powód do dumy. Spory odsetek samochodów na naszych drogach nie zostałby zarejestrowany w innych unijnych krajach. Także ze względu na toksyczność spalin.

>>> Polub FB.com/NaukaToLubie to miejsce w którym komentuję i popularyzuję naukę.

O szkodliwości zanieczyszczonego powietrza można by pisać długie elaboraty. W zasadzie nie ma organu, nie ma układu w naszym ciele, który nie byłby uszkadzany przez związki chemiczne zawarte w zanieczyszczeniach. Przyjmuje się, że z powodu zanieczyszczenia powietrza umiera w Polsce ponad 40 tys. osób rocznie. To ponad 12 razy więcej osób niż ginie wskutek wypadków drogowych! Grupami szczególnie narażonymi są dzieci i osoby starsze. Zanieczyszczenia bardzo negatywnie wpływają na rozwój dziecka przed urodzeniem. Prowadzone także w Polsce badania jednoznacznie wskazywały, że dzieci, których matki w okresie ciąży przebywały na terenach o dużym zanieczyszczeniu powietrza, miały mniejszą masę urodzeniową, były bardziej podatne na zapalenia dolnych i górnych dróg oddechowych i nawracające zapalenie płuc w okresie niemowlęcym i późniejszym, a nawet wykazywały gorszy rozwój umysłowy.

To problem każdego!

W sondażu przeprowadzonym na zlecenie Ministerstwa Środowiska w sierpniu 2015 r. czystość powietrza była wymieniana jako jedna z trzech – obok bezpieczeństwa na drogach i poziomu przestępczości – najważniejszych kwestii, od których zależy komfort życia w danej miejscowości. Problem z tym, że większość pytanych nie widzi tego problemu w miejscowości w której mieszka. Temat dla nich istnieje, ale jest abstrakcyjny, mają go inni. Prawda jest inna. Nawet w wypoczynkowych miejscowościach jak Zakopane czy Sopot jakość powietrza jest koszmarna. Tymczasem problem w dużej części można rozwiązać bez dodatkowych inwestycji czy zwiększania rachunki np. za ogrzewanie. Wystarczy zmienić własne nawyki. Kupno węgla o odpowiednich parametrach to pozornie wyższy wydatek. Lepszy węgiel ma jednak wyższą wartość opałową, czyli trzeba go zużyć mniej by wyprodukować podobna ilość ciepła. Nic nie kosztuje dbanie o sprawność domowego pieca przez regularne czyszczenie go. Nic nie kosztuje (można dzięki temu nawet zaoszczędzić), zamiana w mieście samochodu na komunikacje miejską albo rower.

A miejsce śmieci… jest w śmietniku. Inaczej pozostałości z ich spalania, będę kumulowały się w naszych płucach. Polacy w domowych piecach spalają rocznie do 2 mln ton odpadów. W konsekwencji do atmosfery i do naszych płuc trafiają m.in. toksyczne dioksyny, furany, cyjanowodór.

>>> Polub FB.com/NaukaToLubie to miejsce w którym komentuję i popularyzuję naukę.

 

Tekst został opublikowany w tygodniku Gość Niedzielny.
2 komentarze do TworzyMy atmosferę

Technologia demencji z pomocą

To, że nasz świat się starzeje wiedzą wszyscy. Ale niewiele osób zdaje sobie sprawę z konsekwencji z jakimi się to wiąże. Przed ogromnymi wyzwaniami stoją służba zdrowia i publiczne usługi.  Ale także system ubezpieczeń społecznych i… architektura.

>>> Polub FB.com/NaukaToLubie to miejsce w którym komentuję i popularyzuję naukę.

Każdy chyba intuicyjnie czuje, czym jest tzw. inteligentny dom (mieszkanie). To miejsce – w największym skrócie – które dostosowuje się do człowieka. I to na każdym z możliwych poziomów. Do człowieka i dla człowieka. Inteligentne domy wiążą się z tzw. internetem rzeczy i w przyszłości będą czymś oczywistym nie tylko dla osób starszych. Tyle tylko, że tak jak osoba w pełni sił obejdzie się bez udogodnień w swoim mieszkaniu, tak osoba starsza, z ograniczeniami fizycznymi a czasami także psychicznymi, może mieć z tym problem.

Kilka lat temu pracujący w brytyjskim Uniwersytecie Bath uczeni zabrali się za urządzanie wnętrz. Tym razem zamiast architektów czy dekoratorów pierwsze skrzypce grali jednak inżynierowie i informatycy. I tak powstało być może pierwsze mieszkanie nafaszerowane nowoczesnymi technologiami, które zostało zaprojektowane specjalnie dla osób, które z powodu demencji czy urazów cierpią na zaniki pamięci.

Osoba cierpiąca na zaburzenia pamięci czy ograniczoną zdolność do zapamiętywania informacji jest uzależniona od innych. Ktoś musi przypilnować czy podopieczny sam nie wychodzi z domu (często nie zdając sobie sprawy dokąd się wybiera), sprawdzić czy zamknął okna (szczególnie, gdy na zewnątrz jest zimno) lub czy zgasił światła, gdy idzie spać. Ktoś musi także skontrolować czy wyłączył kuchenkę po podgrzaniu obiadu albo zobaczyć czy nie odkręcił wody nad umywalką w łazience, a potem o tym zapomniał. Te, czy też inne czynności nie są zwykle uciążliwe, ale wymagają przez cały czas obecności innych. Nie zawsze jest to jednak możliwe. Często w takich przypadkach – dla własnego bezpieczeństwa – osoby z zaburzeniami pamięci wysyłane są do domów opieki lub domów spokojnej starości. Tam całodobową opiekę zapewnia im profesjonalna kadra. Ale czy jest ona rzeczywiście zawsze potrzebna ? Na miejsca w tego typu ośrodkach trzeba czasami długo czekać, a biorąc pod uwagę tempo starzenia się społeczeństw, w przyszłości czas oczekiwania może być jeszcze dłuższy. Jest jeszcze coś. Nie ulega wątpliwości, że zmiana miejsca zamieszkania, a przez to także środowiska, czy kręgu znajomych wpływa bardzo niekorzystnie na osoby starsze.

Dlatego powstało pierwsze na świecie mieszkanie przyjazne i bezpieczne dla osób z zaburzeniami pamięci. Zainstalowany w nim system składa się z sensorów, które połączone są w sieć z urządzeniami najczęściej używanymi w gospodarstwie domowym. Do sieci podłączone są także wszystkie włączniki światła oraz urządzenia „mówiące” i wyświetlające komunikaty. Poza tym czujniki umieszczone są w drzwiach wyjściowych i wszystkich oknach. Sercem systemu jest komputer, który analizuje wszystkie dostarczane mu dane. To on decyduje, czy zwrócić się do właściciela mieszkania, czy – szczególnie wtedy gdy kolejne komunikaty nie przynosiły skutku – zadzwonić po pomoc.

Konstruktorzy systemu podkreślają, że dla osób starszych czy z różnego typu urazami równie ważne jak rzeczywista opieka jest poczucie bezpieczeństwa. Pewność, że w razie wypadku odpowiednie służby zostaną automatycznie powiadomione i przyjdą z pomocą. Wielką zaletą zaprojektowanego systemu jest to, że w przyszłości będzie go można zamontować w całości lub w częściach w już istniejących mieszkaniach. Dotychczasowe próby stworzenia „inteligentnych”, naszpikowanych elektroniką domów wiązały się z koniecznością budowy ich od samych niemalże fundamentów. Teraz jest inaczej. Osoba mająca coraz większe problemy z koncentracją będzie mogła zainstalować sobie komponenty systemu w swoim własnym mieszkaniu. Nie będzie się także musiała obawiać generalnego remontu ścian czy okien. Wszystkie urządzenia działają w technologii bezprzewodowej i przekuwanie się przez mury w czasie ich instalacji nie jest konieczne.

Co w takim razie potrafi inteligentne mieszkanie dla osób starszych ? Jednym z największych zagrożeń dla kogoś kto ma kłopoty z koncentracją jest zostawienie włączonej kuchenki elektrycznej lub gazowej. Jeżeli czujniki wykryją taką sytuację zasygnalizują głosowo, że powinna ona zostać wyłączona. Jeżeli pierwsze ostrzeżenie nic nie pomoże, system je powtórzy. Jeżeli nawet to nie da odpowiedniego rezultatu, kuchenka zostanie automatycznie wyłączona. To samo stanie się, gdy włączą się czujniki dymu zainstalowane nad kuchenką. W tym przypadku komputer natychmiast zadzwoni do odpowiednich służb i powiadomi je o zdarzeniu. Cały czas – nawet po wyłączeniu kuchenki – system sprawdza jaka jest temperatura grzejników. Tak długo jak są one gorące, na zainstalowanym nad kuchenką ekranie wyświetlane będzie ostrzeżenie o ryzyku oparzenia. Komputer główny cały czas „wie”, w którym pokoju przebywa właściciel mieszkania. Jeżeli w środku nocy wyjdzie z łóżka i będzie zmierzał w kierunku łazienki, automatycznie zapali się w niej światło. Jeżeli po skorzystaniu z toalety osoba wróci do łóżka, a zapomni zgasić światło – to, po kilku minutach wyłączy się ono samo. Podobnie jak samoczynnie zakręci się kurek z wodą, gdy umywalka czy wanna zostanie w całości napełniona. Gdy w nocy właściciel postanowi pospacerować po swoim mieszkaniu, w pokojach, do których wejdzie, automatycznie będą się włączały światła, a w  tych, z których wyjdzie wyłączały. Oczywiście światła będą też mogły być włączane i wyłączane „ręcznie”. Jeżeli „nocne zwiedzanie” będzie trwało zbyt długo, system przez zamontowane w mieszkaniu głośniki zwróci właścicielowi uwagę, że czas iść już spać. Jeżeli ani ten, ani powtórzony po kilku chwilach komunikat nie odniesie skutku, komputer skontaktuje się telefonicznie z opiekunem. Tak samo zresztą zareaguje, gdy podopieczny o nietypowych (zadanych wcześniej) godzinach otworzy drzwi wejściowe do swojego mieszkania i będzie miał zamiar wyjść na zewnątrz. System poprosi o wejście z powrotem, a jeżeli to nie pomoże, skontaktuje się  z opiekunem.

System można rozbudowywać według potrzeb osoby z niego korzystającej. Komputer będzie przypominał o zażyciu lekarstw zalecanych przez lekarza. O inteligentnym domu możemy mówić wtedy, gdy wszystko co automatyczne, połączone jest w zintegrowany system zarządzania i nadzoru. Gdy właściciel słucha jakiejś muzyki szczególnie często, system wie, że to jego ulubiona. Oczywiście ulubioną (nawet w zależności od pory dnia) można zdefiniować samemu. System też wie, że właściciel lubi kawę rano, ale po południu herbatę. To można także zaprogramować, albo poczekać, aż odpowiedni program sam się tego nauczy. Wiele pomysłów zaprojektowanych z myślą o osobach starszych – nie mam co do tego żadnych wątpliwości – znajdzie powszechne zastosowanie. Jak chociażby system, który z chwilą wyjścia domownika, automatycznie zamknie główny zawód wody i gazu, wyłączy wszystkie zbędne obwody elektryczne i uzbroi alarm. To wszystko może stać się wtedy gdy system czujników sam wykryje, że w domu już nikogo nie ma, albo wtedy gdy domownik na progu zawoła „wychodzę !”. W inteligentnym domu, głosem będzie można załatwić wszystko. Choć to wydaje się być udogodnienie dla wszystkich, dla starszych będzie to szczególnie istotne. Seniorzy często mają kłopoty ze wzrokiem i mniej precyzyjne palce niż osoby młode. Włączanie opcji na panelu czy klawiaturze może być dla nich kłopotliwe.

Co ciekawe, inteligentne domy są nie tylko bardziej przyjazne i bezpieczniejsze, ale także dużo oszczędniejsze w utrzymaniu. Oszczędzają wodę, energię elektryczną, gaz, ale przede wszystkim czas właścicieli. A to znaczy, że są odpowiedzią nie tylko na wyzwanie związane z średnim wiekiem społeczeństw uprzemysłowionych, ale także na wyzwanie związane z ochroną środowiska i oszczędzaniem energii.  

>>> Polub FB.com/NaukaToLubie to miejsce w którym komentuję i popularyzuję naukę.
1 komentarz do Technologia demencji z pomocą

100 lat abstrakcji

Czas jest względny, a masa zakrzywia czasoprzestrzeń. To jedno zdanie jednych przyprawia o ból głowy, dla innych jest źródłem nieograniczonej fascynacji. Fascynacji, która trwa dokładnie 100 lat.

>>> Polub FB.com/NaukaToLubie to miejsce w którym komentuję i popularyzuję naukę.

Pióra i ołówki na teorii grawitacji połamało już wielu badaczy. To co wiemy, to prosty wzór, którego dzieci uczą się w szkole. Że siła grawitacji zależy od masy obiektów, które są jej źródłami (im obiekt cięższy, tym większa siła), oraz że słabnie wraz z zwiększającą się odległością pomiędzy tymi obiektami. Dzięki tej prostej zależności, udaje się doskonale przewidywać ruchy planet, satelitów, także zachowanie sporej części gwiazd w galaktyce. Sporej, ale nie wszystkich.

Tymi, których wytłumaczyć się nie da są np. kolizje gwiazd neutronowych, pulsary, czarne dziury czy wybuchy supernowych. Grawitacji nie sposób także „dopasować” do wielkiego wybuchu. A skoro od niego swój początek wziął czas i przestrzeń, nasze braki w rozumieniu grawitacji stają się kłopotliwe.

Dokładnie 100 lat temu Albert Einstein ogłosił (a konkretnie odczytał) Ogólną Teorię Względności. Jej manuskrypt (ma 46 stron) można dzisiaj zobaczyć w Bibliotece Narodowej Izraela. Dla postronnego obserwatora, niespecjalisty , notatki Einsteina mogą sprawiać wrażenie niewyraźnych bazgrołów zrobionych na pożółkłych kartkach. Są napisane bardzo drobnym maczkiem, często poprawiane, miejscami podkreślone, w innych miejscach przekreślone. Sporo w nich matematycznych wzorów. Niesamowite, jak wiele w fizyce czy w ogóle w postrzeganiu świata (wszechświata) zmieniło to, co 100 lat temu zostało zaprezentowane światu.

Ogólna Teoria Względności została ogłoszona w 1915 roku, gdy Albert Einstein przebywał w Niemczech. Już wtedy Einstein był znanym człowiekiem, a jego prace – choć przez bardzo nielicznych rozumiane – były w pewnym sensie kultowe. Stworzenie OTW nie było olśnieniem, jak wielu innych teorii fizycznych. Einstein pracował nad nią 9 lat. Czasami błądził, czasami się mylił. To była żmudna praca. OTW jest – jak sama nazwa wskazuje – uogólnieniem Szczególnej Teorii Względności Einsteina. Choć teoria Ogólna i Szczególna są dwoma najbardziej znanymi jego pracami, Einstein największe naukowe zaszczyty (Nagrodę Nobla) odebrał za prace nad zupełnie innym problem (konkretnie nad efektem fotoelektrycznym).

Ogólna Teoria Względności (OTW) jest w zasadzie teorią opisującą najbardziej namacalne dla nas oddziaływanie – grawitację. Z nią wiążą się takie wielkości jak masa, przestrzeń i czas. OTW jest bardzo skomplikowana. Nie sposób jej zrozumieć bez ogromnej wiedzy czysto matematycznej. Wynika z niej, że każda masa jest źródłem zakrzywienia otaczającej ją przestrzeni. Czym większa masa, tym większa siła grawitacji, czyli większe zakrzywienie przestrzeni. Jak to rozumieć? Gdy dwie osoby trzymają za rogi obrus jego powierzchnia jest płaska. Ale gdy na sam środek obrusu wrzucimy piłkę, obrus w miejscu w którym się ona znajduje lekko się „naciągnie” czy inaczej „zakrzywi”. Czym większa piłka, tym większe zakrzywienie. Gdy położymy na skraju obrusu mniejsza piłeczka, stoczy się do tego zakrzywienia, tak jak przyciągana grawitacyjnie asteroida „stoczy” się w kierunku Słońca. Tyle tylko, że obrus ma dwa wymiary, a przestrzeń wokół nas ma ich trzy. Ta nieintuicyjność (nie mylić z nielogicznością) to jeden z powodów dla których dwie teorie względności tak trudno zrozumieć. Drugim jest bardzo zaawansowana matematyka, której Einstein musiał użyć do rozwiązania swoich równań.

Gdy Einstein referował swoje pomysły na względność, był znany z zupełnie innych badań teoretycznych. Słuchano go więc z zaciekawianiem. Ale to zaciekawienie wynikało z szacunku do znanego fizyka a nie ze zrozumienia tego o czym mówił. W pewnym sensie tak jest do dzisiaj. Albert Einstein jest postacią kultową. Ale nie dlatego, że tak wielu ludzi rozumie Szczególną czy Ogólną Teorię Względności.  Tak naprawdę zaledwie garstka fizyków wie o co w niej chodzi. Nieco większa grupa rozumie co wynika z teorii Einsteina. Całkiem sporo fizyków na codzień wykorzystuje w swojej pracy naukowej zjawiska, które udało się dzięki teoriom Einsteina zrozumieć. Jednym z takich zjawisk są soczewki grawitacyjne. W zakrzywionej przestrzeni światło nie porusza się po liniach prostych, tylko krzywych. To dlatego światło dalekich galaktyk biegnące w okolicach dużych mas (czarnych dziur czy innych galaktyk) jest zakrzywione, tak samo jak światło przechodzące przez szklane soczewki. Dla astrofizyków i astronomów soczewki grawitacyjne to coś w rodzaju naturalnego teleskopu dzięki któremu mogą obserwować obiekty i zjawiska których inaczej nie udałoby się zaobserwować. Zakrzywiane światło to jednak dopiero początek wchodzenia w świat abstrakcji. Z równań Einsteina wynika także, że czas jest pojęciem względnym, że nie płynie dla nas wszystkich tak samo. Jego bieg jest zależny bowiem od siły grawitacji i od prędkości z jakim porusza się ciało. To z kolei wykorzystuje się w systemach globalnej lokalizacji (np. GPS).

Einstein był teoretykiem. Nie sprawdzał eksperymentalnie tego co wyliczył na drodze matematyki. Zresztą wtedy kiedy dokonywał swoich odkryć, nie było możliwości sprawdzenia ich poprawności. Urządzenia pomiarowe nie były dość czułe, a człowiek jeszcze nie latał w kosmos. To właśnie w przestrzeni pozaziemskiej wielokrotnie testowano wyliczenia Alberta Einsteina. Wszystkie dokładnie się zgadzają. No może za wyjątkiem jednej. Przewidywanych w Teorii Względności fal grawitacyjnych. Ale o nich napiszę innym razem 🙂 Tak samo jak o największej naukowej pomyłce Einsteina.

>>> Zapraszam na profil FB.com/NaukaToLubie (kliknij TUTAJ). To miejsce w którym staram się na bieżąco informować o nowościach i ciekawostkach ze świata nauki i technologii.

Brak komentarzy do 100 lat abstrakcji

Myśląca maszyna

Na samą myśl o tym, że komputer mógłby myśleć, myślącemu człowiekowi włosy stają dęba. A może wystarczy nauczyć maszynę korzystania z naszych myśli?

Myślenie maszyn to temat, który wywołuje sporo emocji. Czy zbudujemy kiedykolwiek sztuczny mózg? Czy maszyny (komputery, programy) mają świadomość? A może w przyszłości nas zastąpią? Cóż, zastępują już dzisiaj. I dobrze, że zastępują, w końcu po to je budujemy. Czy myślą? Nie da się odpowiedzieć na to pytanie, zanim nie sprecyzujemy dokładnie co to znaczy „myśleć”. Jeżeli oznacza „podejmować decyzje”, to tak, komputery potrafią to robić. Potrafią też się uczyć i wyciągać wnioski z przeszłości. Nie potrafią robić rzeczy abstrakcyjnych. I przede wszystkim nie mają poczucia osobowości, nie mają poczucia swojej odrębności i swoich własnych celów. Owszem maszyny robią wiele rzeczy celowych, ale realizują nie swoje cele, tylko cele konstruktora czy programisty.

Deep brain stimulator.

(credit:  Asylum Entertainment)

Deep brain stimulator.

(credit: Asylum Entertainment)

Łowienie sygnałów

Samoświadomość czy kreatywność wydają się być barierą, która jeszcze długo nie zostanie złamana. To czy powinna być złamana, to zupełnie inny temat. Ale być może nie ma potrzeby na siłę nadawać maszynom cech ludzkich mózgów, może wystarczy w jakiś sposób je z naszymi mózgami zintegrować? Różnice pomiędzy tym, jak działa nasz mózg i „mózg” maszyny są spore. Może warto się zastanowić nad tym, czy maszyna nie mogłaby w pewnym sensie skorzystać z tego co MY mamy w głowie. Ten sam problem można postawić inaczej. Czy nasz mózg jest w stanie dogadać się bezpośrednio z maszyną? Czy jest bezpośrednio w stanie przekazywać jej informacje albo nią sterować?

Słowo „bezpośrednio” ma tutaj kluczowe znaczenie. Nasze mózgi dogadują się z komputerem, ale pomiędzy umysłem a procesorem w maszynie jest cała masa stopni pośrednich. Np. palce piszącego na klawiaturze, sama klawiatura. W końcu język, w którym piszemy komendy (albo tekst). Te stopnie pośrednie powodują, że czas pomiędzy myślą, która zakwita nam w mózgu a jej „materializacją” bywa długi. Każdy stopień pośredni jest potencjalnym miejscem pojawienia się błędu. W końcu ile razy wpisywana przez klawiaturę komenda czy tekst zawierał literówki? Jest jeszcze coś. Nie każdy fizycznie jest w stanie obsługiwać komputer czy jakiekolwiek inne urządzenie elektroniczne. Zwłaszcza dla takich ludzi stworzono interfejs mózg – komputer (IBC). Urządzenie, które pozwala „zsynchronizować” mózg z komputerem, pozwalające wydawać komendy urządzeniom elektronicznym za pomocą fal mózgowych. Dzisiaj z IBC korzystają nie tylko niepełnosprawni, ale także gracze komputerowi. W przyszłości być może będzie to standardowy sposób obsługi elektroniki.

Jak to działa? Komórki nerwowe w mózgu człowieka porozumiewają się pomiędzy sobą poprzez przesyłanie impulsów elektrycznych. Te można z zewnątrz, czyli z powierzchni czaszki, rejestrować. W ostatnich latach nauczyliśmy się je także interpretować. To istne szukanie igły w stogu siana. Mózg każdej sekundy przetwarza miliony różnych informacji, przesyła miliony impulsów do mięśni rozlokowanych w całym ciele. Każdy taki sygnał pozostawia „ślad”, który można podsłuchać.

Neural net firing reversed.

(credit:  Asylum Entertainment)

Neural net firing reversed.

(credit: Asylum Entertainment)

Czujnik w okularach

Nie powiem, że potrafimy podsłuchać wszystko. To byłaby nieprawda. Mówiąc szczerze, jesteśmy dopiero na samym początku drogi. W przypadku IBC bardzo pomocna jest  świadomość użytkownika (pacjenta?) korzystającego z interfejsu. Człowiek ma bowiem zdolności do takiego aktywizowania mózgu, by sygnały z tym związane, można było wyraźniej „usłyszeć” na powierzchni czaszki. Dzięki temu, osoby sparaliżowane, myślami są w stanie poruszać mechanicznymi nogami (czyli tzw. egzoszkieletem) albo wózkiem inwalidzkim. W ten sam sposób człowiek ze sprawnie działającym mózgiem jest w stanie komunikować się z otoczeniem chociażby poprzez pisanie na ekranie, nawet gdy jest całkowicie sparaliżowany. Myśli o literach, a te wyświetlają się na odpowiednim urządzeniu.  W podobny sposób, w przyszłości być może będzie wyglądało sterowanie telefonem komórkowym czy jakimkolwiek innym urządzeniem. Pewną trudnością jest to, że – przynajmniej dzisiaj – po to, by wspomniane impulsy można było zarejestrować, do skóry głowy muszą być przyłożone elektrody. Albo korzystający z interfejsu człowiek musi mieć ubrany specjalny czepek z czujnikami. Ale w przyszłości być może wystarczą czujniki w okularach? Okularach, w których zainstalowana będzie kamera, a na szkłach wyświetlane będą dodatkowe informacje. Takie okulary już są i nazywają się GoogleGlass.

Złożony i skomplikowany

Interfejs mózg – komputer odbiera sygnały z powierzchni skóry, rejestruje je i interpretuje. Czy możliwe jest przesyłanie informacji w odwrotną stronę, czyli z jakiegoś urządzenia do mózgu? Na razie tego nie potrafimy, ale nie mam wątpliwości, że będziemy próbowali się tego nauczyć (znów, czy powinniśmy to robić, to zupełnie inny temat). To znacznie bardziej skomplikowane niż sczytywanie potencjałów elektrycznych z powierzchni czaszki. W którymś momencie tę barierę może przekroczymy i wtedy będziemy mieli dostęp do nieograniczonej ilości informacji nie poprzez urządzenia dodatkowe takie jak komputery, tablety czy smartfony. Wtedy do tych informacji będzie miał dostęp bezpośrednio nasz mózg. Na to jednak zbyt szybko się nie zanosi. Nie z powodu samej elektroniki, raczej z powodu naszego mózgu. Panuje dość powszechna zgoda, że to najbardziej skomplikowany i złożony system jaki znamy. Nie tylko na Ziemi, ale w ogóle. Choć od lat na badania mózgu przeznacza się ogromne kwoty pieniędzy, choć w ostatnich latach poczyniliśmy ogromne postępy, wciąż niewiele wiemy o CZYMŚ co waży pomiędzy 1,2 a 1,4 kg

>>> Zapraszam na profil FB.com/NaukaToLubie (kliknij TUTAJ). To miejsce w którym staram się na bieżąco informować o nowościach i ciekawostkach ze świata nauki i technologii.

Brak komentarzy do Myśląca maszyna

Jesteśmy w centrum?

Czy Ziemia leży w centrum wszechświata? To pytanie w XXI wieku może u niektórych wywołać  uśmiech politowania. Ale czy powinno?

Jesteśmy jedynym gatunkiem na Ziemi, który współtworzy środowisko w którym żyje. To ciekawe, bo to środowisko, które sami kreujemy, ma ogromny wpływ na kolejne pokolenia. Choć na Ziemi żyją tysiące, dziesiątki tysięcy gatunków zwierząt i roślin, tylko człowiek ma umiejętności, choć chyba powinienem napisać możliwości, by ziemię w tak ogromnym stopniu przekształcać. Jesteśmy niezwykłym gatunkiem, który żyje na niezwykłej planecie.

CopernicSystem

Rysunek Układu Słonecznego jaki pojawił się w dziele De revolutionibus orbium coelestium.

Przez setki lat, odpowiedź na tytułowe pytanie nie budziła żadnych wątpliwości. Ziemia była w centrum wszystkiego i centrum wszystkiego. Obiekty niebieskie (ze Słońcem i Księżycem włącznie) krążyły wokół naszej planety, a sama Ziemia była rusztowaniem o które opierała się cała reszta. Ten obraz runął około połowy XVI wieku. W 1543 roku w Norymberdze ukazało się dzieło kanonika Mikołaja Kopernika – astronoma, matematyka, ale także prawnika, lekarza i tłumacza. W De revolutionibus orbium coelestium – o obrotach sfer niebieskich – Kopernik obalił geocentryczną wizję świata i całkiem sprawnie (choć ze sporymi błędami) przedstawił system heliocentryczny. Ziemia przestała być w centrum. Jej miejsce zajęło Słońce. Oczywiście nikt wtedy nie myślał nawet o galaktykach, gwiazdach supernowych czy czarnych dziurach.

Dla Kopernika sytuacja była w zasadzie dosyć prosta. Słońce w centrum, a wszystko inne krążące wokoło. Mechanizm wszechświata wyglądał podobnie z tą tylko różnicą, że w samym jego centrum znajdowała się nie jak u starożytnych Ziemia, ale nasza dzienna gwiazda. Kilkadziesiąt lat po Koperniku, na początku XVII wieku obserwacje tego co znajduje się poza naszym układem planetarnym rozpoczął Galileusz. Pierwszą osobą, która przedstawiła koncepcję budowy galaktyki był urodzony w Królewcu filozof i matematyk, Immanuel Kant. Była połowa XVIII wieku i nikt poważny nie uznawał już Ziemi za geometryczne centrum wszechświata. Inaczej było jednak ze Słońcem. Wiedziano już o tym, że gwiazd w naszej galaktyce jest bardzo wiele. Wiedziano nawet że krążą one wokół jednego punktu. Bardzo długo uznawano jednak, że tym centralnym punktem jest właśnie Słońce i nasz układ planetarny.

BN-IB371_0424hu_J_20150423201321

Edwin Hubble z negatywem jednej z zaobserwowanych przez siebie galaktyk. źródło: www.wsj.com

Choć w XIX wieku Ziemia od wielu setek lat nie była już traktowana jako geometryczne centrum wszechświata, była jedyną znaną planetą co do której istniała pewność, że jest kolebką życia. Była też częścią jedynego znanego układu planetarnego. Poza Układem Słonecznym nie obserwowano żadnych planet. Ziemia nie leżała w centrum, ale była symbolicznym centrum. Na przełomie XVIII i XIX wieku najpierw Charles Messier, a później William Herschel skatalogowali setki i tysiące mgławic, które później, dzięki pracy amerykańskiego astronoma Edwina Hubble’a (lata 20te XX wieku) okazały się odległymi galaktykami. Odkrywano wiele, zaglądano coraz głębiej i dalej, ale jedno nie ulegało zmianie. W całym ogromnym wszechświecie, wszechświecie w którym istnieją miliardy galaktyk a każda jest domem dla setek miliardów gwiazd do 1990 roku istniało tylko dziewięć planet. Niesamowita historia !

Sytuacja uległa zmianie dokładnie 9 stycznia 1992 roku. To wtedy ukazała się w prestiżowym czasopiśmie Nature praca polskiego astronoma Aleksandra Wolszczana. Opisywała ona dokonane dwa lata wcześniej odkrycie trzech pierwszych planet poza Układem Słonecznym. Krążyły wokół pulsara PSR B1257+12, niecały 1000 lat świetlnych od Ziemi. Dzisiaj, 23 lat po tym odkryciu znanych jest prawie 2000 planet poza Układem Słonecznym, a planety pozasłoneczne, tzw. egzoplanety są odkrywane wręcz hurtowo.

The artist's illustration featured in the main part of this graphic depicts a star and its planet, WASP-18b, a giant exoplanet that orbits very close to it. A new study using Chandra data has shown that WASP-18b is making the star that it orbits act much older than it actually is.  The lower inset box reveals that no X-rays were detected during a long Chandra observation.  This is surprising given the age of the star, suggesting the planet is weakening the star's magnetic field through tidal forces.

To nie zdjęcie, tytlko artystyczna wizja ogromnej planety WASP-18b, która krąży bardzo blisko powierzchni swojej gwiazdy.

Planet jest sporo, ale czy one są takie jak Ziemia ? Nie! Po pierwsze przeważająca większość z nich jest dużo większa od Ziemi. To gazowe giganty takie jak „nasz” Jowisz i Saturn. Dużych planet odkrywamy tak dużo, bo znacznie łatwiej je wykryć. Ziemia różni się od innych jednak tym, że tutaj jest życie, a „tam” – niewiadomo. Co do tego, że proste bakteryjne życie istnieje w przestrzeni kosmicznej, praktycznie możemy mieć pewność, ale z życiem inteligentnym nie jest wcale tak prosto. Jest w tym pewien paradoks. Czym więcej wiem o życiu, tym chętniej przyznajemy, że to proste, jednokomórkowe jest wszechobecne i wszędobylskie. Proste formy mają niesamowitą zdolność do adaptowania się i do zasiedlania miejsc, które – jeszcze do niedawna byliśmy tego pewni – absolutnie nie nadają się do życia. Z życiem złożonym, nie mówiąc już o jego inteligentnej wersji, jest dokładnie na odwrót. Czym więcej wiemy, tym dłuższa staje się lista czynników, warunków, które muszą zostać spełnione, by życie jednokomórkowe wyewoluowało do wersji złożonej. Dzisiaj ta lista ma już kilkaset pozycji, wśród nich takie jak odpowiednia wielkość planety, odpowiednia odległość od gwiazdy i odpowiedni skład atmosfery. Te wspomniane warunki są w sumie logiczne. Ale dalej na tej liście jest pole magnetyczne i gorące jądro planety, siły pływowe, a więc tektonika płyt. Bardzo ważna jest aktywność wulkaniczna oraz wyładowania atmosferyczne.

Kiedyś powszechnie uważano, że Ziemia w skali kosmicznej jest ewenementem. Potem takie myślenie zarzucono. Gdybym napisał, że dzisiaj wraca się do tego, chyba bym przesadził. Ale faktycznie, coraz częściej zdajemy sobie sprawę z tego, że inteligentne istotny w kosmosie mogą być wielką rzadkością. I to pomimo tego, że planet we wszechświecie jest niepoliczalnie dużo. Czyżby więc Ziemia z ludźmi „na pokładzie” była egzemplarzem niepowtarzalnym? Na razie jest. Wiele, bardzo wiele wskazuje na to, że tak pozostanie jeszcze przez dość długi czas. A może nawet na zawsze.

2 komentarze do Jesteśmy w centrum?

Fagi – dobre wirusy

– Jak to się dzieje, że ci ludzie nie chorują – zastanawiał się widząc Hindusów kąpiących się i pijących wodę z Gangesu. Rzeki, która jest ściekiem. Więcej! wszystko wskazuje na to, że oni są przez to zdrowsi !

Bakterie stają się dla nas coraz groźniejsze. Coraz częściej zdarza się, że nie dają im rady nawet najbardziej zaawansowane terapie antybiotykowe. Sytuacja wymaga podjęcia niestandardowych metod. A może przeciwnie, wymaga powrotu do źródeł?

Ta historia rozpoczyna się w Indiach ostatnich lat XIX wieku. To wtedy przypłynął tam młody brytyjski biochemik i bakteriolog Ernest Hanbury Hankin. Ma jeden cel, walkę z cholerą, która miejscami przybiera rozmiary epidemii. Sukcesów nie ma praktycznie żadnych, a jego desperację potęguje fakt, że w Indiach zdają się nie działać reguły, których nauczył się w Anglii. Młody badacz zauważa bowiem, że na cholerę bardzo rzadko chorują ci, którzy kąpią się w rzece Ganges. Dla Hindusów sprawa jest oczywista, wody rzeki są święte, a każdy kto się w nich kąpie jest „chroniony”. Dla naukowca, sprawa jest trudna do zrozumienia. Przecież Ganges to ściek! To miejsce które powinno być źródłem problemu, a nie lekarstwem. Ku konsternacji większości Europejczyków, a już na pewno tych, którzy mieli wykształcenie medyczne czy biologiczne, Hindusi wodę z Gangesu pili. I? I nic im się nie działo. Jak to możliwe? Brytyjski naukowiec uważał, że w rzece musi być coś, co pijących jej wodę uodparnia. Fenomen dotyczył nie tylko wody w Gangesie, ale także w innych rzekach, równie zanieczyszczonych.

W 1896 roku Ernest Hanbury Hankin opublikował pracę naukową, w której stawiał tezę, że, w badanej przez niego wodzie istnieją czynniki antybakteryjne, które są na tyle małe, że nie sposób zatrzymać ich nawet na najdrobniejszych filtrach. Praca nie została jednak zauważona. Dopiero 20 lat później odkryto co tym czynnikiem jest. Dwa zespoły badaczy, brytyjski i francuski, odkryły bakteriofagi, czyli wirusy, które niszczą bakterie. Nazwa bakteriofag oznacza dosłownie „zjadacze bakterii”. W rzeczywistości wirusy nie pożerają bakterii. Ale o tym za chwilę. Dalsze badania pokazały, że w zasadzie każda bakteria ma swojego faga, czyli wirus, który bez większych problemów może sobie z nią poradzić. Pierwszy przypadek uleczenia wirusami zakażenia bakteryjnego (konkretnie chodziło o infekcję laseczką czerwonki, czyli siejącą śmierć dezynterią) miał miejsce w 1915 roku.

ganges

Zagadka: znajdź głowę chłopaka w śmieciach

Pierwszy nazwę bakteriofag zastosował pracujący w Paryżu Kanadyjczyk, Félix d’Herell. Nie jest ona do końca ścisła, bo sugeruje, że wirusy pożerają bakterie. W rzeczywistości wirusy niczego nie zjadają. Nie są organizmami żywymi, więc nie potrzebują źródła energii do zaspokajania swoich potrzeb. Jak w takim razie zabijają? Bakteriofagi, jak zresztą wszystkie wirusy, komórki żywych organizmów wykorzystują. Wirusy są kapsułkami zawierającymi materiał genetyczny. Nie potrafią same się poruszać. Posiadają jednak „klucze” do żywych komórek. Każda żywa komórka w swojej ścianie ma receptory. To coś w rodzaju zamka do drzwi. Ten, kto posiada klucz, może wejść do środka. Wirusy posiadają klucze, czyli białka pasujące do receptorów. Gdy cząsteczka wirusa znajdzie się w bezpośredniej bliskości komórki, jest bardzo prawdopodobne, że dojdzie do adsorpcji. Wirus otwiera zamek. Chwilę później następuje penetracja. Specjalną igiełką fag wkłuwa się do wnętrza bakterii i wstrzykuje tam swój materiał genetyczny. Komórka (w przypadku fagów komórka bakteryjna) nie ma pojęcia, że jest zainfekowana. Przecież wirus miał „legalne klucze”. Gdy materiał genetyczny znajdzie się w środku, dochodzi do tzw. replikacji genomu. Komórka replikuje wirusy z taką prędkością, że wkrótce zostaje – dosłownie – rozerwana z powodu ich natłoku w swoim wnętrzu. Od momentu „włożenia klucza do zamka” do unicestwienia bakterii mija nie więcej niż 30 minut! Każda zainfekowana komórka wyprodukuje kilkadziesiąt wirusów. A każdy z nich gotowy jest do ataku na nową bakterię.

W naturalnych warunkach pomiędzy bakteriami i wirusami ustala się pewna równowaga, ale gdyby tak wirusy antybakteryjne namnażać i traktować jako najlepszy z dostępnych antybiotyków? Wirusami leczono zanim, zanim ktokolwiek wiedział, czym są ci „niewidzialni” zabójcy bakterii. Félix d’Herelle leczył fagami śmiertelnie chorych na czerwonkę. „Ozdrowienie” następowało po kilkudziesięciu godzinach. Dzisiaj do koncepcji leczenia wirusami coraz częściej się wraca. Antybiotyki wydają się skuteczne, ale tylko na krótką metę. Bakterie potrafią się na nie uodparniać. W Polsce jedna trzecia szczepów dwoinki zapalenia płuc jest odporna na penicylinę. Na fagi nie da się uodpornić, bo te mutują tak samo szybko jak same bakterie. W Polsce znajduje się jeden z dwóch na świecie (i jedyny w Europie) ośrodek naukowy, który prowadzi terapię bakteriofagami. Kilka lat temu rozmawiałem z jego szefem, profesorem Andrzejem Górskim. Powiedział mi wtedy, że do Laboratorium Bakteriofagowego w Instytucie Immunologii i Terapii Doświadczalnej PAN we Wrocławiu zgłaszają się setki osób cierpiących na zakażenia, których żadne antybiotyki nie potrafią wyleczyć. Naukowcom z Wrocławia udaje to w ponad 80 procentach. W porównaniu z terapią antybiotykami, fagi są tańsze, a na pewno nie mniej skuteczne. Ponadto leczenie fagami nie powoduje skutków ubocznych, bo działanie wirusów jest ściśle ukierunkowane i wybiórcze. Określony bakteriofag atakuje tylko jeden gatunek bakterii. W ten sposób po terapii fagami oszczędzamy te „dobre bakterie”, np. z wnętrza układu pokarmowego. Tymczasem antybiotyki tak nie potrafią. – Czasami wystarczy kilkadziesiąt godzin, by osoba od lat cierpiąca na zakażenie uwolniła się od kłopotu. Leczymy nawet infekcje wywołane przez szczepy gronkowca złocistego – śmiercionośne bakterie, będące największym postrachem oddziałów intensywnej terapii – mówił mi prof. Górski.

Skoro mają tyle zalet, dlaczego bakteriofagami nie leczy się powszechnie? Przeszkodą jest prawo. Formalnie (w Unii Europejskiej i USA) przed skomercjalizowaniem, terapia musi być zarejestrowana, a jeszcze wcześniej poprzedzona badaniami klinicznymi. I tutaj pojawiają się problemy formalne. Terapia fagami nie jest zunifikowana, tylko po to by była skuteczna musi być tworzona dla każdego pacjenta osobno. Tego typu postępowanie wymyka się jednak normom, jakie ustalają prawnicy i urzędnicy. Nie bez znaczenia jest pewnie fakt, że przemysł farmaceutyczny czerpie ogromne korzyści z produkcji antybiotyków. Tańsza i w wielu przypadkach skuteczniejsza metoda leczenia fagami może być traktowana jako niechciana konkurencja. – Terapia fagowa to z formalnego punktu widzenia wciąż eksperyment, a do zaakceptowania nowości potrzeba czasu – powiedział mi kilka lat temu prof. Górski. Od tego czasu nic się nie zmieniło.

Drugi – poza Polską – ośrodek leczący fagami znajduje się w stolicy Gruzji, Tbilisi. Założył go zresztą Félix d’Herelle, ten sam, który nadał nazwę bakteriofagom. Ten zagorzały komunista pracował w Związku Radzieckim do śmierci. Gruziński instytut nie podlega pod prawo europejskie i amerykańskie, więc ma większą swobodę w działaniu, niż ośrodek we Wrocławiu. Kilka lat temu, Instytut z Gruzji założył filię w Meksyku, gdzie nie obowiązuje amerykańskie prawo, a bogatym (i chorym) Amerykanom znacznie łatwiej dojechać tam niż do Gruzji.

 

2 komentarze do Fagi – dobre wirusy

Fizyka tłumu

Zatłoczone miejsca mogą być bardzo niebezpieczne. Nie, nie z powodu kieszonkowców, tylko z powodu trudnych do opanowania reakcji tłumu. Duża grupa ludzi w określonych sytuacjach zachowuje się jak „jeden organizm” a nie jak grupa organizmów niezależnych.

Dwa dni temu, w Bydgoszczy, w czasie studenckiej imprezy wybuchła panika. Jedna osoba zginęła, a kilka kolejnych zostało rannych. Do dramatu doszło nie na dużej sali, tylko w wąskim przejściu. Kilkanaście dni wcześniej, w czasie hadżu – pielgrzymki wyznawców Allaha do Mekki, w tłumie zginęło około 500 osób. W styczniu 1990 roku, w tym samym miejscu zadeptano ponad 1500 ludzi. W czym jest problem? Ludzie w swoim zachowaniu podobni są do zwierząt, np. mrówek, ryb w ławicy czy ptaków w kluczu. Poruszają się w sposób uporządkowany i określony. Do czasu. Gdy wybucha panika, uporządkowanie ustępuje chaosowi. Wbrew pozorom ten chaos można ujarzmić… za pomocą równań matematycznych.

Szybko ale bezpiecznie

Z pozoru sytuacje takie jak w saudyjskiej Mekce zdarzają się rzadko. I całe szczęście. Ale nie chodzi tylko o tragedie w których giną ludzie. Gdy trzeba ewakuować centrum handlowe, liczy się każda chwila. Jak zaprojektować wyjścia ewakuacyjne? Zrobić jedno duże, czy kilka mniejszych? A kibice piłkarscy na dużym stadionie? Po skończonym meczu tysiące ludzi chce jak najszybciej dostać się do swoich samochodów czy do środków komunikacji publicznej. Jak oznaczyć ciągi komunikacyjne? Wypuszczać ludzi partiami czy po prostu otworzyć drzwi i „niech sami sobie radzą”. Problem jest ważny nawet dla linii lotniczych. I nie tylko w sytuacjach zagrożenia życia. Każda minuta postoju na płycie lotniska kosztuje. Jak pasażerów szybko „usadzić” na miejscu i co zrobić by po wylądowaniu jak najszybciej – bezpiecznie – opuścili oni samolot? Pytań jest naprawdę wiele. Tylko dlaczego mają na nie odpowiadać fizycy? Ano dlatego, że duża grupa ludzi podobna jest do płynu. Ten w niektórych sytuacjach porusza się przewidywalnie i wtedy mówimy o przepływie laminarnym, ale czasami ten porządek zamienia się w chaos i wtedy mówimy o przepływie turbulentnym. Fizycy tymi przepływami zajmują się od dawna, bo to od nich zależy np. opór z jakim musi poradzić sobie jadący autostradą samochód, bo to od nich zależy sprawność silnika odrzutowego samolotu. Od niedawna wiadomo jednak, że te same równania, które opisują mechanikę płynów, można stosować do dużych grup ludzi.

Mrówki też ludzie

Mrówki zwykle wybierają drogę… którą chodzi większość. „Domyślają się” – i słusznie – że kierunek który wybrało więcej mrówek jest z jakiś powodów bardziej atrakcyjny. I tak tworzą się tzw. mikrostużki, czyli drogi, które z jakichś powodów są przez mrówki preferowane. Podobnie zachowują się ryby w ławicy. I ludzie na chodniku. Nawet w dużym tłumie, nie poruszamy się całkowicie losowo i chaotycznie. Często, nawet nieświadomie, wybieramy drogę, którą idzie przed nami osoba poruszająca się w podobnym tempie co my. Gdy ktoś idzie wolniej, albo szybciej nie zwracamy na niego uwagi. Nasz mózg podświadomie śledzi tylko tych, którzy idą w naszym tempie. My sami też możemy być dla kogoś „przewodnikiem”, a ten ktoś dla kolejnej osoby. I już się tworzą mikrostrużki. To dlatego na szerokim trakcie ludzie idący w jednym kierunku jakoś automatycznie trzymają się jednej strony. Tylko co jakiś czas ktoś próbuje przebić się ”pod prąd”. Podstawowa i święta zasada jest taka, żeby tak projektować trakty, by ruch na nich mógł być płynny. I tak, lepiej, gdyby korytarz skręcał łukiem niż pod kątem prostym. Lepiej też by na skrzyżowaniu traktów było coś co trzeba okrążyć (fontanna, rzeźba,…), bo to zwiększa płynność ruchu. Niestety, te z pozoru proste zasady, gdy wybucha panika przestają obowiązywać i pojawia się chaos. Podobnie zresztą jak u mrówek, ryb w ławicy, a nawet u ptaków w stadzie. Za wszelką cenę nie można do tego dopuścić. Nie ma co liczyć na rozwagę czy trzymanie nerwów na wodzy. Ludzie w panice przestają zdawać sobie sprawę z tego co robią. Choć nie sposób przewidzieć, co zrobi konkretna osoba, naukowcy potrafią przewidzieć co będzie robiła duża grupa ludzi. Do tego zatrudniają największe komputery świata i… setki wolontariuszy. Ci, czasami sa narażeni na niebezpieczeństwo. W czasie próbnych ewakuacji jakie prowadzono w czasie budowy samolotu Airbus 380, z 900 ochotników, 30 zostało rannych w tym jedna osoba ciężko. Z międzynarodowych norm wynika, że samolot powinny być zaprojektowany w ten sposób, by ewakuacja wszystkich pasażerów nie trwała dłużej niż 90 sekund.

Dym i kamery

Gdy z końcówki palącego się knota świecy ulatnia się dym, początkowo jego strużka unosi się pionowo do góry. Można wręcz dostrzec równoległe do siebie pasma. To tzw. przepływ laminarny. Po kilkunastu centymetrach dym zaczyna jednak tworzyć zawirowania. Uporządkowana jeszcze przed chwilą stróżka staje się chaotyczna i nieprzewidywalna. Tak wygląda przepływ turbulentny. Naukowcy z Uniwersytetu w Dreźnie analizujący przypadki w których tłum zaczyna tratować ludzi, zauważyli, że zagrożenie pojawia się wtedy, gdy ludzie zaczynają poruszać się jak ciecz albo gaz w czasie przepływu turbulentnego. Tak długo, jak „przepływ” ludzi jest laminarny – nie ma problemu. Turbulentny, czyli chaotyczny przepływ pojawia się gdy wybucha panika, ale sam może być źródłem paniki. W Mekce droga pielgrzymów wiodła przez most Jamarat, który jest węższy niż droga do niego prowadząca. To zwężenie w przeszłości powodowało, że ludzie zaczynali poruszać się turbulentnie. Chaos powodował wybuch paniki, a panika – jeszcze większy chaos. Po sugestiach jakie niemieccy fizycy wysłali władzom Arabii Saudyjskiej, drogę pielgrzymów nieco przebudowano.

Co jeszcze może mieć znaczenie? Na przykład wyrwa w drodze, w zasadzie jakakolwiek przeszkoda. Ale także kłótnia czy bijatyka dwóch idących obok siebie osób. Schody, krawężnik, nawet moment w którym pieszy schyla się, by podnieść coś, co wypadło mu z ręki. Niemieccy badacze sugerują więc, by nad miejscami gdzie poruszają się duże grupy ludzi umieszczać kamery, które automatycznie będą wykrywały w których miejscach ruch zaczyna być turbulentny. Zanim dojdzie do tragedii (przecież z tyłu napierają kolejne masy ludzi), odpowiednie służby mogą zareagować. Mają na to od kilku, do kilkunastu minut.

Wąsko źle, szeroko też niedobrze

Ślepe stosowanie zasad jakie rządzą mechaniką płynów (analogia do dymu papierosowego) jest jednak skuteczne tylko do pewnego stopnia. Ludzie ze sobą współdziałają, oddziałują na siebie znacznie bardziej niż cząsteczki gazu czy płynu. W końcu widzą, co robią inni. Gdy wziąć pod uwagę to wszystko okazuje się, że pomieszczenie (pokój, stadion czy pokład samolotu) najszybciej pustoszeje, gdy … nikt się nie śpieszy. Tylko wtedy wyjście nie staje się wąskim gardłem. Gdy wzrasta prędkość ludzi idących ku wyjściu, drzwi „korkują się”, a ludzie opuszczają pomieszczenie grupkami. To spowalnia opuszczanie zagrożonego terenu. Dlatego lepiej jest projektować więcej węższych wyjść niż mniej szerszych. Ale tutaj – uwaga – sprawa jest bardziej złożona. Pomijając szczegóły (które choć bardzo ciekawe, zajęłyby tutaj zbyt dużo miejsca), okazuje się, że gdy ludzie współpracują z sobą (np. znajomi z pracy) szybciej wyjdą wąskim wyjściem. Gdy raczej konkurują o to kto szybciej się wydostanie, lepsze są wyjścia szerokie (chociażby miałoby ich być mniej). Gdy wyjścia są szerokie, dobrze przed nimi stawiać kolumny. Z symulacji komputerowych wynika, że w sytuacji krytycznej przed wyjściem rzadziej tworzą się wtedy kolejki, a w efekcie „przepływ” staje się bardziej laminarny. Z kolei przed wąskimi wyjściami dobrze jest zamontować równoległe  barierki (takie jak przy wejściu do metra), które spowodują, że już przed wejściem, ludzie będą szli w uporządkowanym szyku.

Kilka lat temu niemiecki rząd uruchomił projekt Hermes, w ramach którego powstał system kierujący tłumem. Kamery obserwują prędkość ludzi, a komputery za pomocą znaków świetlnych i dźwiękowych decydują którędy tłum prowadzić. Na stadionie czy w czasie dużej wystawy gdy trzeba zarządzić ewakuację, któreś z wyjść może być zablokowane (albo za bardzo oblegane). Wtedy kierowanie się w jego kierunku jest bardziej niebezpieczne niż nawet dołożenie drogi i udanie się do innego wyjścia. Dawanie ludziom jasnych sygnałów co mają robić w czasie zagrożenia jest niezwykle istotne. Zauważono (zresztą u zwierząt występuje ten sam mechanizm), że w sytuacjach kryzysowych podążamy raczej za tłumem, w grupie czujemy się bezpieczniej. Bez wyraźnej informacji duża grupa może przemieszczać się w kierunku jednego wyjścia („tam idą wszyscy, widocznie ktoś zna najlepszą drogę”), podczas gdy inne będą puste.

Dzisiaj jeszcze zbyt wcześnie by dogłębnie przeanalizować to co dwa dni temu stało się w Bydgoszczy. Przejście było wąskie, ludzi było dużo, okna były pozamykane. Brak tlenu przyspiesza podejmowanie irracjonalnych decyzji. Niektórzy świadkowie twierdzą, że ktoś w przejściu rozpylił gaz. Być może po to by uspokoić ludzi. Jeżeli tak było rzeczywiście, tylko pogorszył sytuację. Wyjaśnienie przyniesie śledztwo.

>>> Zapraszam na profil FB.com/NaukaToLubie (kliknij TUTAJ). To miejsce w którym staram się na bieżąco informować o nowościach i ciekawostkach ze świata nauki i technologii.

4 komentarze do Fizyka tłumu

Skąd jesteśmy, kim jesteśmy i dokąd zmierzamy?

O człowieku można mówić na wiele różnych sposobów. Inaczej opisują go atlasy anatomiczne, inaczej podręczniki do biochemii czy antropologii. Książka „Człowiek” nie jest atlasem opisującym każdą cząstkę ludzkiego ciała. Nie jest też podręcznikiem, który opowiada o reakcjach biochemicznych, które zachodzą w ludzkich komórkach. Jest próbą odpowiedzi na trzy krótkie pytania. Skąd jesteśmy, kim jesteśmy i dokąd zmierzamy? Łatwo takie pytania zadać, znacznie trudniej znaleźć na nie odpowiedzi.

Po „Kosmosie” przyszedł czas na „Człowieka” , czyli drugą część mojej trylogii. Opowieść o tym skąd jesteśmy, kim jesteśmy i dokąd zmierzamy?

rozkładówka - wstęp

O człowieku można mówić na wiele różnych sposobów. Inaczej opisują go atlasy anatomiczne, inaczej podręczniki do biochemii czy antropologii. Organizm człowieka jest „kosmicznie” skomplikowany i właśnie dlatego jest tak niezwykły. Książka „Człowiek” nie jest atlasem opisującym każdą cząstkę ludzkiego ciała. Nie jest też podręcznikiem, który opowiada o reakcjach biochemicznych, które zachodzą w ludzkich komórkach. Jest próbą odpowiedzi na trzy krótkie pytania. Skąd jesteśmy, kim jesteśmy i dokąd zmierzamy? Łatwo takie pytania zadać, znacznie trudniej znaleźć na nie odpowiedzi.

rozkładówka_Konarzewski

Kiedyś przeprowadzałem wywiad z neuropsychologiem. Zapytałem go, ile tak właściwie wiemy o ludzkim mózgu. Intuicja podpowiadała mi, że niewiele. Zakładałem, że profesor odpowie, że poznaliśmy nie więcej niż kilka procent wszystkich zagadnień związanych z mózgiem. A tymczasem odpowiedział: „gdyby zapytał mnie pan o to kilka lat temu, powiedziałbym, że nie więcej niż 10 procent, ale dzisiaj, po uruchomieniu kilku dużych międzynarodowych programów dotyczących badania mózgu, po ogromnej liczbie publikacji, jakie pojawiły się w ostatnich latach, twierdzę, że wiemy nie więcej niż 3-4 procent”. Ta odpowiedź jest zaskakująca tylko pozornie. W nauce bardzo często wraz ze wzrostem wiedzy, wzrasta także świadomość naszej niewiedzy. Naukowców i pasjonatów na całym świecie napędza nie to co jest znane, tylko właśnie to, co jest tajemnicą. Jako dziennikarz naukowy przyglądam się tym tajemnicom i czuję podekscytowanie. Ta książka jest pełna moich ekscytacji i fascynacji oraz prób znalezienia odpowiedzi na nurtujące mnie pytania.

rozkładówka_kaczmarzyk

Książka podzielona została podzielona na trzy części. W każdej z nich, oprócz mojego tekstu, znajduje się fascynujący wywiad z naukowcem. Rozmawiam o przeszłości, teraźniejszości i przyszłości człowieka. W wywiadach staram się uzyskać odpowiedzi na tytułowe pytania: skąd jesteśmy, kim jesteśmy i dokąd zmierzamy? Czy je uzyskuję? O tym każdy Czytelnik przekona się sam.

rozkładówka - tadeusiewicz

Człowiek to drugi tom trylogii, którą wymyśliłem w ubiegłym roku. Pierwszy tom, który ukazał się w 2014 roku był zatytułowany Kosmos. Opisuję w nim wszystko to, co jest większe od człowieka. Od Wszechświata począwszy, poprzez galaktyki i układy planetarne, a na planetach, w tym planecie Ziemi, skończywszy. Trzeci tom trylogii – Mikrokosmos – ukaże się w przyszłym roku.

Książka Człowiek została wydana nakładem Grupy Wydawniczej Foksal sp. z o.o.

Zapraszam do lektury

2 komentarze do Skąd jesteśmy, kim jesteśmy i dokąd zmierzamy?

Nobel za pasożyty…

… a właściwie za walkę z nimi. Laureatami Nagrody Nobla w 2015 w dziedzinie fizjologii i medycyny zostali: William C. Campbell, Satoshi Ōmura i Youyou Tu.

… a właściwie za walkę z nimi. Laureatami Nagrody Nobla w 2015 w dziedzinie fizjologii i medycyny zostali: William C. Campbell, Satoshi Ōmura i Youyou Tu

Dwóch pierwszych panów, Irlandczyk William C. Campbell i Japończyk Satoshi Ōmura zostało wyróżnionych za odkrycie leku na choroby wywołane przez nicienie. Im Komitet Noblowski zdecydował się przyznać połowę nagrody. Drugą połowę dostała Chinka Youyou Tu, która została doceniona za prace nad terapią przeciwko malarii. Youyou Tu ma dzisiaj 83 lata i prawie nie mówi po angielsku. Jej osiągnięcia w walce z malarią choć znane, zostały zapomniane. Nie ma się co dziwić. Komitet Noblowski docenił ją za stworzenie leku antymalarycznego funkcjonującego pod nazwą Artemeter. Youyou Tu wyekstrahowała go z 200 ziół, we wczesnych latach 70tych XX wieku, a więc 45 lat temu. Rzadko zdarza się, że Nagrodę Nobla otrzymuje się za tak odległe odkrycie. Artemeter znacząco obniża śmiertelność pacjentów cierpiących na malarię.

1094px-Soybean_cyst_nematode_and_egg_SEM

Osobnik młodociany i cytrynkowata cysta mątwika Heterodera glycines wypełniona larwami. Źródło: wiki

Z kolei panowie Campbell i Omura zostali nagrodzeni za odkrycia dotyczące nowych terapii chorób, wywołanych przez pasożyty ludzkie – nicienie. Chodzi m.in. o takie choroby jak słoniowacizna czy ślepota rzeczna. Chorób wywołanych przez nicienie jest bardzo dużo i występują najczęściej w tropikalnych rejonach świata w których poziom życia jest zdecydowanie niższy niż w Europie czy USA. Nie znaczy to oczywiście, że w bogatych krajach Zachodu nie występują choroby pasożytnicze, ale jest ich nieporównywalnie mniej.

– Tegoroczni laureaci Nobla opracowali terapie, które zrewolucjonizowały leczenie niektórych z najbardziej wyniszczających chorób pasożytniczych – takie zdanie znalazło się w uzasadnieniu Komitetu Noblowskiego. Odkrycia tegorocznych laureatów „dały ludzkości nowe mocne narzędzia do walki z tymi ciężkimi schorzeniami, na które zapadają setki milionów ludzi rocznie”.

Tomasz Rożek

Brak komentarzy do Nobel za pasożyty…

Czujnik w nas

W Szwajcarii stworzono czujnik, który wszczepiony pod skórę jest w stanie kontrolować kilka parametrów życiowych równocześnie. Kilka lat temu pisałem o takich czujnikach jak o dalekiej przyszłości.

W Szwajcarii stworzono czujnik, który wszczepiony pod skórę jest w stanie kontrolować kilka parametrów życiowych równocześnie. Kilka lat temu pisałem o takich czujnikach jak o dalekiej przyszłości.

Czujnik, a właściwie elektroniczny chip, powstał w laboratoriach politechniki w Lozannie EPFL (École polytechnique fédérale de Lausanne). Ma wielkość paznokcia w małym palcu i nie trzeba wymieniać mu baterii. Ładuje się go przez indukcję, przez skórę. Wszystko, co zbada i zmierzy, przesyła bezprzewodowo do smartfona. Jest to bodaj pierwsze urządzenie tego typu, które może być wykorzystywane komercyjnie u pacjentów. Poprzednie konstrukcje nie były co prawda większe, ale miały ogromną wadę – badały tylko jeden parametr, tylko jedną zmienną. Ten równocześnie rejestruje ich kilka.

Od czego się zaczęło?

Czujnik, o którym mowa, wpisuje się w rozwój dziedziny zwanej nanotechnologią. Co prawda urządzenia nano są znacznie, znacznie mniejsze, ale bardzo szybki wyścig do miniaturyzacji zawdzięczamy właśnie nanotechnologii. Za ojca tej dziedziny uważany jest genialny fizyk Richard Feynman. Uczestniczył w pracach nad budową pierwszej bomby atomowej (projekt Manhattan), a po wojnie pracował na najlepszych uniwersytetach amerykańskich. Zajmował się kwantową teorią pola i grawitacji, fizyką cząstek i nadprzewodnictwem. To on jako pierwszy podał koncepcję komputera kwantowego i – w 1960 roku – zapowiedział powstanie nowej dziedziny nauki – nanotechnologii. W 1965 r. otrzymał Nagrodę Nobla z fizyki. Feynman wielokrotnie zwracał uwagę na to, że przyszłość będzie nano, że zrozumienie tego, co dzieje się w nanoświecie, świecie na poziomie pojedynczych cząstek i atomów, będzie kluczowe dla naszego przyszłego rozwoju.

Trudno oczywiście dokładnie określić, kiedy nanotechnologia rzeczywiście powstała, ale nie ma wątpliwości, że wiele dziedzin przemysłu coraz chętniej zwraca głowę w kierunku ekstremalnej miniaturyzacji. Jedną z dziedzin, które robią to szczególnie często, jest medycyna. Nanomedycyna dzisiaj rozwija się w dwóch kierunkach. Jeden to próby (coraz częściej udane) stworzenia nanocząsteczek, które będą nośnikami leków, a nawet genów. Wnikając do organizmu, będą uwalniać przenoszony czynnik dokładnie w tym miejscu i dokładnie o tym czasie, jaki jest optymalny. Drugi kierunek to nanosensory. Te mogą być wykorzystywane nie tylko w medycynie, ale także na przykład w ochronie środowiska. Dobrym przykładem jest nanosensor służący do analizy krwi. Z zewnątrz wygląda jak siateczka z ogromną ilością otworów. W rzeczywistości to mikroskopijne kanaliki krzemowe, w których znajdują się przeciwciała wyłapujące komórki nowotworowe. Analiza przeciwciał pozwala stwierdzić, czy w krwi znajdują się komórki rakowe, a jeżeli tak, to ile i jakie. Taka informacja nie może być pozyskana w trakcie standardowej analizy, bo komórek nowotworowych w krwi jest bardzo mało. Co ciekawe, testowana metoda jest dużo tańsza niż dzisiaj stosowane, a do analizy wystarczy jedna, dosłownie, kropla krwi.

Myszy już mają

Nanomedycyna jednoznacznie kojarzy się jednak z budową nanorobotów, które wpuszczone do ludzkiego krwiobiegu będą nie tylko monitorowały funkcje życiowe, ale także reagowały na stany kryzysowe organizmu. Te skojarzenia – przynajmniej na razie – są całkowicie chybione. Co nie znaczy oczywiście, że prace nad miniaturyzacją robotów nie są prowadzone. Już dzisiaj tworzone są roboty, których rozmiary umożliwiają użycie ich w rzeczywistych warunkach szpitalnych. Na przykład kapsułka monitorująca wnętrze układu trawiennego skonstruowana przez japońską firmę Denso Research jest wielkości standardowej tabletki. Jest wyposażona we własne zasilanie i kamerę CCD wysokiej rozdzielczości oraz urządzenie do przesyłania informacji drogą radiową do urządzenia bazowego. Po połknięciu „kapsułka endoskopowa” przekazuje wysokiej jakości obraz w czasie rzeczywistym. Nie ma własnego napędu, porusza się pod wpływem… siły grawitacji i perystaltyki jelit. Ale na rynku są już urządzenia niewiele większe, które mogą poruszać się samodzielnie, choć na razie jeszcze nie w układzie krwionośnym. Kilka lat temu na jednej z konferencji nanotechnologicznych pokazano nanosilnik, który jest mniejszy od główki od szpilki. Jego koła napędowe były 100 razy cieńsze niż kartka papieru, a ich średnica mniejsza niż średnica ludzkiego włosa. Silnik obracał się z częstotliwością jednego obrotu na sekundę i teoretycznie mógłby być elementem systemu napędowego jakiegoś małego urządzenia pływającego. Zanim te powstaną, miną jeszcze lata. Wcześniej do medycyny wejdą inteligentne czujniki, które być może będą wszczepiane pod skórę na dłuższy czas osobom o podwyższonym ryzyku zdrowotnym. Takim czujnikiem jest wspomniany sensor stworzony w Lozannie. Ma wielkość poniżej centymetra i w czasie rzeczywistym monitoruje obecność oraz stężenie kilku molekuł. Może badać odczyn (pH), temperaturę, ale przede wszystkim cholesterol, glukozę, poziom tlenu oraz stężenie przynajmniej kilku leków. To ostatnie będzie szczególnie ważne dla osób, które z powodu swojej choroby muszą regularnie zażywać jakieś medykamenty. Ich przedawkowanie jest wtedy bardzo łatwe. Pełna kontrola nad poziomem substancji czynnej we krwi jest bardzo istotna. Sensor został przetestowany na myszach, a testy kliniczne na ludziach rozpoczną się za kilka lat.

Brak komentarzy do Czujnik w nas

Muzyka to drgania

Dla niektórych muzyków informacja o tym, że całe swoje życie poświęcają produkcji drgań może być niemiłym zaskoczeniem. Setki, tysiące godzin prób, ból, łzy i emocje, a wszystko po to, by cząsteczki powietrza wyprowadzić z położenia równowagi.

Dla niektórych muzyków informacja o tym, że całe swoje życie poświęcają produkcji drgań może być niemiłym zaskoczeniem. To samo dotyczy także tych, którzy śpiewają. Setki, tysiące godzin prób, ból, łzy i emocje, a wszystko po to, by cząsteczki powietrza wyprowadzić z położenia równowagi.

Co to znaczy z położenia równowagi? To w przypadku cząsteczek powietrza, niezbyt fortunne stwierdzenie. Tlen, azot, wodór – atomy tych i wielu innych pierwiastków wchodzących w skład powietrza i tak nigdy nie są w spoczynku. Poruszają się chociażby pod wpływem różnicy temperatur czy ciśnienia (jedno z drugim jest zresztą powiązane). Jeżeli ktoś nie wierzy, niech spojrzy za okno, a najlepiej nich wyjdzie na świeże powietrze. Wiatr to właśnie ruch cząsteczek powietrza. Zimą wbijający się w ubranie jak szpilki, latem zwykle przyjemnie schładzający naszą skórę. Co ten ruch ma wspólnego z dźwiękami? Nic. Gdy wieje wiatr, cząsteczki powietrza przemieszczają się z miejsca na miejsce, jak samochody jadące szeroką autostradą. Z dźwiękami jest inaczej. Tutaj ruch bardziej przypomina zakorkowane miasto, gdzie na ulicach samochody stoją zderzak w zderzak. Albo nie, przypomina klik-klaka. Kulka z brzegu zostaje odchylona i uderza w swoją sąsiadkę, a ta w kolejną itd. Ale środkowe kulki zmieniają położenie tak nieznacznie, że nawet tego nie widać. Co nie przeszkadza im przekazywać energię. To przekazywanie energii od jednej kulki, do kolejnej dojdzie w końcu do ostatniej, która energicznie odskakuje. Podobnie jest z dźwiękiem. Cząsteczki powietrza przekazują sobie energię dźwięku tak jak kuleczki klik – laka. Z tą różnicą, że kuleczek w popularnej zabawce jest najwyżej kilka, a cząsteczek powietrza pomiędzy źródłem dźwięku a naszym uchem mogą być setki milionów.

Gęściej znaczy szybciej

Dźwięk rozchodzi się oczywiście nie tylko w powietrzu, nie tylko w gazach, ale także w cieczach i ciałach stałych. Czym gęstszy jest ośrodek, tym dźwięk szybciej się w nim rozchodzi. Na pozór to nielogiczne, ale gdyby się dłużej zastanowić… Skoro cząsteczki przekazują energię dźwięku nie jak posłańcy poruszający się na dużych odległościach, tylko raczej jak ludzie czekający w kolejce, czym bliżej siebie będą cząsteczki, tym szybciej dźwięk będzie przekazywany. Tym więcej energii zostanie przekazanej dalej. W powietrzu dźwięk porusza się z prędkością około 1200 km/h. W wodzie prędkość dźwięku jest prawie 5 razy większa i wynosi około 5400 km/h, a w stali wibracje poruszają się z prędkością bliską 18 000 km/h. Z drugiej strony, gdy cząsteczek nie ma wcale, albo gdy są bardzo daleko od siebie, dźwięk nie jest przekazywany w ogóle. W próżni panuje idealna cisza.

Dźwięki można wytwarzać na wiele różnych sposobów. Wytworzenie, to zwykle jednak za mało. Żeby były słyszalne, trzeba je wzmocnić. I mowa tutaj nie o mikrofonach i głośnikach, tylko o wzmacnianiu dźwięków przez same instrumenty. Człowiek wydaje dźwięki bo powietrze wychodzące z płuc, wprawia w drgania cienkie błony zwane strunami głosowymi. Dźwięki wydawane przez człowieka wzmacniane są w klatce piersiowej. W wielu instrumentach dźwięk wzmacnia pudło rezonansowe. W innych, są za to odpowiedzialne tzw. fale stojące. Sporo w tym fizyki, ale ciekawsze od tego jest to, co dzieje się z dźwiękiem po „opuszczeniu” instrumentu.

To oczywiste że drgania mogą być mocniejsze, albo słabsze. Wtedy dźwięk jest głośniejszy, albo cichszy. Ale to nie jedyna cecha drgań. W końcu ten sam dźwięk grany na skrzypcach i na pianinie różnią się od siebie. Falę wyobrażamy sobie jako sinusoidę (góry i doliny). To wyobrażenie jest jak najbardziej prawidłowe, tyle tylko, że trochę wyidealizowane. W rzeczywistości „górki” i „doliny” nie są gładziutkie, tylko składają się z wielu mniejszych „góreczek”. To w tych nieregularnościach zawarta jest informacja o dźwiękach. Nie o ich głośności, ale o ich brzmieniu. Jak to rozumieć, że w czymś zawarta jest informacja o brzmieniu?

Kostki na całe życie

W końcu fala akustyczna (czyli drganie od cząsteczki do cząsteczki) dojdzie do ucha, a konkretnie do błony bębenkowej. Od środka jest ona połączona z trzema kosteczkami – młoteczkiem, kowadełkiem i strzemiączkiem. To najmniejsze kości w całym ciele człowieka. I co ciekawe, od urodzenia do śmierci nie zmieniają one swoich rozmiarów. Nie rosną – jak wszystkie inne kości naszego organizmu. Trzy wspomniane kosteczki przenoszą drgania błony bębenkowej w głąb ucha, ale to nie jedyna ich funkcja. Są tak ze sobą połączone (na zasadzie dźwigni), że znacząco te drgania wzmacniają. Aż o 20 razy!

Kosteczki słuchowe przenoszą drgania do ślimaka. To zakręcony kanał, który jest wypełniony płynem. We wnętrzu kanału znajdują się czułe na drgania cieczy komórki. Wibracje powietrza na zewnątrz ucha, przez zmyślny system zamieniane są na wibracje płynu wypełniającego ślimak. A tam, drgania płynu zamieniane są na impulsy nerwowe. I w zasadzie dopiero od tego momentu można mówić o „słyszeniu”. Ucho nie słyszy, tylko zamienia drgania cząsteczek powietrza na impulsy elektryczne. To mózg tym impulsom nadaje znaczenie i interpretacja. To dopiero w zakamarkach mózgu odpowiedniej sekwencji impulsów elektrycznych przypisywane są dźwięki skrzypiec czy trąbki. To mózg, a nie ucho rozróżnia i potrafi nazwać te same dźwięki grane przez różne instrumenty.

Słuch jest pierwszym zmysłem człowieka. Już w pierwszych tygodniach życia płodowego, wykształcają się organy słuchowe. Długo przed porodem, dziecko słyszy. Słuch jest jedynym zmysłem, który tak wcześnie pozwala poznać dziecku świat zewnętrzny. Zaraz po porodzie dziecko prawie nie widzi. Słyszy doskonale i odczuwa zapachy. Od kilku lat wiadomo, że dziecko uczy się naśladować dźwięki, jakie słyszało jeszcze przed urodzeniem. W czasopiśmie Current Biology grupa francuskich i niemieckich uczonych opublikowała raport z którego wynika, że zaraz po urodzeniu dzieci płaczą zgodnie z melodią języka biologicznej matki. Francuskie noworodki na przykład płakały z intonacją wznoszącą się, a niemieckie z intonacją opadającą. To odzwierciedla melodię charakterystyczną dla tych języków. Dziecko rozwijając się w łonie matki, choć nie rozumie znaczenia słów, uczy się naśladować melodykę języka. Po co? Inne badania wskazują, że gdy płacz dziecka ma podobną „strukturę” jak język matki, noworodkowi łatwiej jest przyciągnąć uwagę swojej rodzicielki.

Muzyka to drgania cząsteczek powietrza. Brzmi wręcz banalnie prosto. Ale z prostotą ma niewiele wspólnego. Te drgania, ich wydobywanie, przenoszenie, rejestrowanie i interpretacja, to jedno z najciekawszych zagadnień w przyrodzie.

Brak komentarzy do Muzyka to drgania

Type on the field below and hit Enter/Return to search

WP2Social Auto Publish Powered By : XYZScripts.com
Skip to content