Nauka To Lubię

Oficjalna strona Tomasza Rożka

Tag: człowiek

Czy wiemy, co one tam robią?

Czy mamy świadomość, co nasze dzieci robią w internecie? Oczywiście, że nie mamy. Ufamy, że nie robią nic głupiego. Zaufanie to podstawa wychowania. Ale może czasami ufając, warto sprawdzić? Dla ich dobra.

Czy my, rodzice, mamy świadomość, co nasze dzieci robią w internecie? To pytanie retoryczne. Oczywiście, że nie mamy o tym pojęcia. Ufamy, że nie robią nic głupiego. Zaufanie to podstawa wychowania. Ale może czasami ufając, warto sprawdzić? Dla ich dobra.
 
Nigdy nie mogłem zrozumieć, skąd wzięło się całkowicie błędne przekonanie, że internet daje anonimowość. Jaką anonimowość? Przecież człowiek jest bardziej anonimowy gdy chodzi po dużym mieście z zawieszoną na szyi tabliczką na której jest jego imię i nazwisko, adres, data urodzenia i numer buta. W internecie nic nie jest anonimowe, nigdy anonimowe nie było i nigdy takie nie będzie. A mimo to, część z nas uważa, że może pozostać bezkarna robiąc głupie rzeczy.
Znam przypadek dziewczynki, w zasadzie nastolatki, którą jej klasowi rówieśnicy wpisami w internecie doprowadzili na skraj rozpaczy. Jechali tak ostro, że dziewczyna nie wytrzymała i gdyby nie wsparcie rodziców i dość zdecydowana reakcja, mogłoby dojść do tragicznych skutków. Przekleństwa i wulgarne przezwiska przez kilka dni padały na forum klasy i nikt nie reagował. Choć czytało wielu. Niektórzy się dołączali, inni tylko (a może aż?) milczeli. Prowodyrów było dwoje. Koleżanka, siedząca w pierwszej ławce i kolega, wzorowy uczeń, sportowiec. Rodzice byli w szoku. Dziwili się, bo przecież ich dzieci… no kto by pomyślał? Oni chyba powinni pomyśleć.
 
Z jakiegoś powodu nasze dzieci nie rozumieją, a i my mamy z tym kłopot, że świat nie dzieli się na ten prawdziwy realny i ten udawany cyfrowy. W tym realnym nie wypada komuś napluć w twarz, nie wypada go zwyzywać i oskarżyć np. o handel swoim ciałem. Ale w tym udawanym wszystko wolno. Bo co? Bo nikt się nie dowie? Bo nikt nie zapamięta? Bo nie uda się sprawdzić? Bo nikt nie potraktuje tego poważnie? Bo mniej zaboli? Co za brednie! Internet pamięta wszystko. Temu młodemu, zdolnemu sportowcowi, ktoś może za kilka lat zrujnować karierę przypominając głupotę młodości. Tej młodej dziewczynie, ktoś może przypomnieć wulgaryzmy gdy będzie starała się o pierwszą pracę. W świecie analogowym wspomnienia, ekscesy i wybryki mogą ulec zapomnieniu. W Internecie nigdy.
 
My, drodzy rodzice, nie mamy bladego pojęcia co nasze dzieci robią w internecie. Zabronić? Broń Boże. Uczyć i mieć pełną świadomość możliwości i zagrożeń. A tak na początek, pierwsze ćwiczenie. Wiecie ile kont wasze dzieci mają na popularnych serwisach społecznościowych? Ile z nich znacie? Ile to konta ukryte zakładane pod pseudonimem? Czy wiecie jakich słów, jakich zwrotów najczęściej wyszukują w przeglądarkach internetowych? Czy wiecie kogo oglądają na platformach video? Przecież wielokrotnie, z tymi osobami „spędzają” więcej czasu niż z wami. Kontrolować na każdym kroku? To moim zdaniem niewykonalne. Jasne że ufać, ale też pamiętać, że ludzie (może szczególnie ci młodzi) robią głupie rzeczy. Te w internecie, nigdy nie zostaną zapomniane. Więc może dobrze, dla ich dobra, ufając, choć czasami sprawdzić.
1 komentarz do Czy wiemy, co one tam robią?

Zakażenia w szpitalach poważnym problemem

Brudne ręce personelu medycznego, skażone otoczenie chorego, zatrudnianie osób nieprzygotowanych do pracy w szpitalach wskazują, jak bardzo nieskuteczny jest w niektórych placówkach system przeciwdziałania zakażeniom wewnątrzszpitalnym ostrzega NIK. Tymczasem szacuje się, że efektywne systemy kontroli zakażeń mogą zmniejszyć ryzyko ich wystąpienia od 55% do 70%.

Brudne ręce personelu medycznego, skażone otoczenie chorego, zatrudnianie osób nieprzygotowanych do pracy w szpitalach wskazują, jak bardzo nieskuteczny jest w niektórych placówkach system przeciwdziałania zakażeniom wewnątrzszpitalnym ostrzega NIK. Z najnowszego raportu Izby wynika, że wzrost liczby pacjentów m.in zarażonych lekoodpornymi szczepami bakterii Klebsiella Pneumoniae NDM(+) w 2016 r. był niemal trzykrotnie wyższy niż w 2015 r. Niestety NIK nie może podać kompletnych danych, bowiem funkcjonujące w kontrolowanych szpitalach systemy monitorowania i raportowania o zakażeniach nie dostarczały pełnych danych. Przekazane zestawienia w ocenie Izby mogą być znacznie zaniżone.

Zakażenia szpitalne związane z udzielaniem świadczeń zdrowotnych stanowią poważny problem wszystkich szpitali, nawet w krajach o najwyższych standardach opieki zdrowotnej. Dotyczą od 5 do 10 % osób leczonych szpitalnie. Zakładając, że w polskich szpitalach ulega zakażeniom tylko 5% procent pacjentów to i tak daje to ok. 400 tys. osób. Źródłem przenoszenia bakterii mogą być m. in. brudne ręce personelu medycznego, niejałowy sprzęt, skażone otoczenie chorego, przyjmowanie pacjentów wymagających szczególnych warunków hospitalizacji bez ich zapewnienia, zatrudnianie osób nieprzygotowanych do pracy w szpitalach.

Do grupy osób najbardziej narażonych należą pacjenci np. po przeszczepach, z zaburzeniami odporności po terapii przeciwnowotworowej, po rozległych oparzeniach, dzieci do pierwszego roku życia i osoby starsze. Zakażenia szpitalne wydłużają pobyt w szpitalu, powodują powikłania prowadzące często do niepełnosprawności, przez co zwiększają koszty leczenia. Koszty generują też roszczenia pacjentów, którzy potrafią udowodnić, że zostali zakażeni z winy szpitala.

Narzędziem służącym ograniczeniu przypadków zakażeń szpitalnych powinien być prawidłowo działający system zapobiegania i zwalczania zakażeń, utworzony w szpitalu na podstawie istniejących przepisów prawa. Szacuje się, że efektywne systemy kontroli zakażeń mogą zmniejszyć ryzyko ich wystąpienia od 55% do 70%. Kontrolą objęto 18 szpitali (17 działających jako samodzielny publiczny zakład opieki zdrowotnej utworzony przez samorząd i jeden szpital działający w formie spółki prawa handlowego) oraz 4 stacje sanitarno-epidemiologiczne finansowane z budżetu państwa w okresie od 2015 r. do końca I półrocza 2017 r.

Najważniejsze ustalenia kontroli

W kontrolowanych szpitalach odnotowano wzrost liczby pacjentów, u których zdiagnozowano zakażenie szpitalne o 8,5%, mimo, że liczba wszystkich hospitalizowanych pacjentów w tym samym okresie spadła o 1,9%. Przykładem szybkiego wzrostu liczby zakażonych pacjentów jest jeden ze szpitali na Mazowszu. Tam od stycznia 2015 r. do czerwca 2017 r. współczynnik zachorowalności wzrósł niemal dwukrotnie z 1,14% do  2,25% (współczynnik pokazuje liczbę zakażonych na 100 pacjentów hospitalizowanych). Najwyższy wzrost, jak wykazała NIK był na Oddziale Anestezjologii i Intensywnej Terapii ( z poziomu 27,35% w 2015 r. do 34,02 % w 2016 r. aż do 41,35 % w 2017 r. Na innych oddziałach też odnotowano wzrosty ale nie tak gwałtowne. Jak wyjaśnił zastępca dyrektora ds. lecznictwa szpitala wzrost liczby zarejestrowanych zakażeń nie jest spowodowany rzeczywistą liczbą zachorowań ale poprawą dostarczanych danych. NIK nie kwestionuje, że na wzrost współczynnika zachorowań mogło wpłynąć ujawnienie przez Zespół Kontroli Zakażeń Szpitalnych większej liczby zakażeń, jednak dynamika wzrostu budzi zaniepokojenie i zdaniem NIK wymaga pogłębionej analizy przyczyn ich występowania.

Izba zwraca też uwagę na prawie trzykrotny wzrost (o 278,7%) między 2015 a 2016 rokiem zakażeń lekoopornymi bakteriami Klebsiella Pneumoniae NDM(+). Najwięcej pacjentów hospitalizowano w województwie mazowieckim 2 757 osób, najmniej w pomorskim i małopolskim po 7 pacjentów. Z informacji Konsultanta Krajowego w dziedzinie mikrobiologii lekarskiej wynika, że ta bakteria w 2015 r. stanowiła najpoważniejszy problem medyczny i epidemiologiczny, dotyczący w szczególności szpitali warszawskich. Charakteryzuje się niezwykle niebezpieczną lekoopornością (na niemal wszystkie antybiotyki). Jednocześnie potrafi się szybko rozprzestrzeniać i utrzymywać w przewodzie pokarmowym przez kilka lat. W latach 2015 – 2017 (I półrocze) w województwie mazowieckim liczba hospitalizowanych pacjentów z jej powodu wynosiła odpowiednio 404, 1316 i 1037.

Poważny problem stanowi też sepsa (posocznica), która jest zespołem objawów spowodowanym nadmierną reakcją organizmu  na zakażenie (organizm walcząc z zakażeniem zaczyna niszczyć zdrowe organy). Sepsa stanowi bezpośrednie zagrożenie dla życia. W jej przebiegu dochodzi do niewydolności nerek, wątroby, serca, płuc. Najważniejsze w leczeniu jest możliwie najszybsze podanie antybiotyków. Z danych Narodowego Funduszu Zdrowia wynika, że w badanym przez NIK okresie liczba dorosłych hospitalizowanych z powodu sepsy wyniosła: 2015 r. – 19 053, 2016 r. – 21 522 a w pierwszej połowie 2017 r. – 10 962. Najwięcej, bo prawie jedną piątą (18,5%) leczono w województwie mazowieckim. W tym okresie Narodowy Fundusz Zdrowia zapłacił za leczenie sepsy w ramach kontraktów prawie 450 milionów złotych.

Zdaniem NIK, prowadzenie rejestru sepsy pozwoliłoby na uzyskanie wiarygodnych danych o rozpoznanych przypadkach, niezbędnych do analiz jej objawów, sposobów leczenia i poziomu śmiertelności. 

Na wysoki poziom zakażeń, w ocenie NIK, ma wpływ brak wyspecjalizowanego personelu medycznego. W składach Zespołów Kontroli Zakażeń Szpitalnych, powołanych w szpitalach (we wszystkich 18 kontrolowanych takie istniały) brakowało lekarza o wymaganej specjalności, odpowiedniej liczby pielęgniarek epidemiologicznych oraz specjalisty do spraw mikrobiologii.

Na dzień 30 czerwca 2017 r. w Polsce było zawodowo czynnych tylko 110 lekarzy specjalistów w dziedzinie mikrobiologii, w tym 61 w wieku powyżej 55 lat. Według NIK, taka sytuacja nie daje gwarancji należytego sprawowania ciągłego i bieżącego nadzoru epidemiologicznego. 

Wśród krajów europejskich Polska zajmujeostatnie miejsce pod względem praktykujących lekarzy specjalistów w dziedzinie mikrobiologia – bakteriologia. Niewiele lepiej jest z epidemiologami. W całej Polsce pracuje ich 219, najwięcej w województwie mazowieckim 57, najmniej w opolskim – 1.

Brakuje też pielęgniarek epidemiologicznych. To osoba uczestnicząca w szeroko pojętym zwalczaniu zakażeń, m. in. kontrolująca stan sanitarno – epidemiologiczny szpitala, prowadząca rejestr zakażeń, szkolenia personelu, nadzorująca i monitorująca pracę personelu, uczestnicząca w planowaniu opieki nad pacjentem z zakażeniem szpitalnym. Zgodnie z ustawą o zwalczaniu zakażeń  liczba pielęgniarek epidemiologicznych powinna być nie mniejsza niż 1 na 200 łóżek szpitalnych.  W 6 kontrolowanych szpitalach posiadających powyżej 200 łóżek nie zapewniono ustawowej liczby takich pielęgniarek. W dwóch mazowieckich szpitalach w skład Zespołu Kontroli Zakażeń Szpitalnych powołano tylko po jednej pielęgniarce, mimo, że szpitale te posiadały odpowiednio 354 i 564 łóżka. Dyrektor jednego z nich brak drugiej pielęgniarki tłumaczył trudnościami finansowymi. Jednak, w trakcie kontroli NIK zamieszczone zostało internetowe ogłoszenie o naborze na stanowisko pielęgniarki epidemiologicznej. Dyrektor drugiego poinformował, że też trwa nabór na to stanowisko. Zdaniem NIK, bezpośrednia podległość pielęgniarki epidemiologicznej kierownikowi danej jednostki zapewniłaby jej samodzielność w realizacji obowiązków i wzmocniłaby jej pozycję w kontaktach z personelem lekarskim.

Wiele uchybień dostrzeżonych przez NIK dotyczyło działalności Zespołów Kontroli Zakażeń Szpitalnych. W trzech szpitalach Zespół nie wywiązywał się z ustawowego obowiązku konsultowania osób podejrzanych o zakażenie lub chorobę zakaźną oraz tych, u których je wykryto. W pięciu brakowało dokumentacji o przeprowadzeniu takich konsultacji.

Odrębną sprawą jest dokumentowanie w szpitalach zakażeń.Analiza kart rejestracji wykazała, że były one sporządzane przez lekarzy nierzetelnie, często z pominięciem wielu danych.NIK skontrolowała 696 losowo wybranych kart. W 18 % z nich nie opisano czynników ryzyka, w 23 % nie podano zastosowanego leczenia antybiotykowego, w ponad 15 % nie odnotowano wykonania badania mikrobiologicznego, w 4 % nie określono postaci klinicznej zakażenia a w 3 % nie podano danych pacjenta. Ponadto 246 kart lekarze wystawili z opóźnieniem sięgającym do 288 dni. W dwóch szpitalach w ogóle nie prowadzono takiego rejestru, co było niezgodne z ustawą o zwalczaniu zakażeń. W jednym ze szpitali w województwie kujawsko – pomorskim nie prowadzono rejestru zakażeń i czynników alarmowych a wyniki badań mikrobiologicznych były rejestrowane w zeszytach prowadzonych na poszczególnych oddziałach. W dwóch przypadkach nie wykazano ujawnionych w badaniach patogenów alarmowych. Adnotacje nie zawierały m.in. daty otrzymania wyniku badań, informacji o potwierdzeniu lub braku wystąpienia patogenu alarmowego czyli drobnoustroju wyjątkowo opornego na działanie leków. Adnotacje obejmowały tylko liczbę stwierdzonych i rozpoznanych zakażeń. W jednym ze śląskich szpitali od 5 lipca do 30 października 2017 r. nie prowadzono rejestru z powodu awarii systemu informatycznego. W czasie kontroli NIK rejestr uruchomiono i do 9 listopada 2017 r. wprowadzono dane 284 pacjentów z 2016 r. W ocenie Izby sporządzanie kart rejestracji z opóźnieniem nie pozwalało na bieżące prowadzenie rejestru zakażeń i utrudniało wiarygodne określenie sytuacji epidemiologicznej szpitala.

A to w konsekwencji doprowadziło do braku precyzyjnych danych o sytuacji epidemiologicznej kraju. Według danych Narodowego Funduszu Zdrowia, w okresie objętym kontrolą (od 2015 r. do końca I półrocza 2017 r.) hospitalizowanych z powodu sepsy było 51 537 pacjentów a według danych Instytutu Zdrowia Publicznego – Państwowego Zakładu Higieny – 2 640. Tymczasem, w każdym z 18 skontrolowanych przez NIK szpitalu wystąpiły przypadki sepsy, w sumie 937 zachorowań.

Centrum Systemów Informacyjnych Ochrony Zdrowia, które gromadzi informacje z rocznych sprawozdań przesyłanych przez szpitale, wskazuje, że w 528 szpitalach stacjonarnych spośród 936 funkcjonujących w Polsce, a więc w ponad połowie, na koniec 2016 r. nie wykazano danych o pacjentach leczonych z powodu zakażenia i zgonów z tego powodu. Nieprawidłowości związane z wykazywaniem błędnych danych stwierdzono w siedmiu placówkach.

NIK ustaliła, że w kontrolowanych szpitalach liczba zakażeń związanych z udzielaniem świadczeń łącznie wyniosła 11 916. Natomiast zakażenie szpitalne zdiagnozowano u 11 488 pacjentów. Jako bezpośrednią przyczynę zgonu, zakażenie szpitalne wskazano  219 pacjentów, tj. ok. 1 % ogólnej liczby zgonów (22 167).

O braku wiarygodnych danych świadczą przeprowadzone tzw. badania punktowe. To badania zorganizowane w Polsce zgodnie z zaleceniem Rady Europy. Koordynowali je naukowcy z Collegium Medicum w Bydgoszczy, Uniwersytetu Mikołaja Kopernika w Toruniu i Narodowego Instytutu Leków w Warszawie.  Te badania punktowe wykazały, że liczba zakażeń szpitalnych może być nawet 5-krotnie wyższa, niż wynika to z danych Ministerstwa Zdrowia prezentowanych w mapach potrzeb zdrowotnych.

W Polsce w kontrolowanym okresie mogło dojść do ok. 400 tys. zakażeń rocznie.A to przekłada się na wydatki. Niestety żaden z kontrolowanych szpitali nie dysponował precyzyjnymi danymi dotyczącymi kosztów poniesionych w związku z wystąpieniem zakażenia. Analizy były prowadzone jedynie przez część szpitali, a koszty wyliczano w sposób uproszczony.  W 7 z kontrolowanych szpitali nie prowadzono ewidencji księgowej kosztów związanych z leczeniem zakażeń, np. w jednym ze szpitali w województwie warmińsko – mazurskim nie było danych dotyczących m.in. szacunkowych kosztów związanych z przedłużeniem leczenia pacjentów, u których wystąpiło zakażenie. Dyrektor tłumaczył tę sytuację niedoskonałością posiadanych narzędzi informatycznych. W pozostałych 11 szacunkowe koszty związane z przedłużeniem leczenia w kontrolowanych szpitalach wyniosły grubo ponad 85 milionów zł.

Zakażenia powodują wydłużenie czasu pobytu chorego w szpitalu. Średni pobyt  wynosił nieco ponad 5 i pół dnia. Zakażenie wydłużało ten czas do ponad 16 dni. Jak wynika z wyjaśnień dyrektorów szpitali, wydłużony czas leczenia jest głównym czynnikiem wpływającym na koszty leczenia pacjenta z zakażeniem.

Nie wszystkie szpitale realizowały zalecenia i decyzje organów Państwowej Inspekcji Sanitarnej w wyznaczonym terminie. Trzeba jednak przyznać, że większość podjęła działania w tym kierunku.

NIK zwraca też uwagę na niedostateczną liczbę badań mikrobiologicznych a to one pozwalają wcześnie wykrywać zakażenia i ustalać skuteczne antybiotyki. Średnia liczba takich badań w przeliczeniu na 1 łóżko szpitalne w danym roku była ok. dwukrotnie niższa niż w krajach Unii.

W trakcie kontroli okazało się, że 3 szpitale nie mają izolatek co jest niezgodne z ustawą o zwalczaniu zakażeń.

W cieple, wilgoci i brudzie bakterie, wirusy, grzyby  znajdują znakomite warunki do przetrwania i namnażania. Dlatego tak istotną rolę w zapobieganiu zakażeniom odgrywa czystość np. instalacji wentylacyjnych i klimatyzacji. Niestety w 5 szpitalach, jak ustaliła NIK, nie dokonywano okresowych przeglądów takich urządzeń zgodnie z zaleceniami producenta oraz nie dokumentowano czynności serwisowych. W jednym z mazowieckich szpitali nie zapewniono skutecznej wentylacji w pomieszczeniach sanitarno – higienicznych i łazienkach dla pacjentów. Brakowało też dokumentacji z okresowych przeglądów, czyszczenia, dezynfekcji bądź napraw urządzeń wentylacyjnych. Także w tym szpitalu powiatowy inspektor sanitarny nakazał doprowadzenie jakości wody do stosownych wymagań. W połowie kontrolowanych szpitali w ciepłej wodzie przekroczona była dopuszczalna norma obecności pałeczek Legionella.

Wnioski

Ustalenia kontroli NIK wskazują na konieczne wprowadzenie systemowych zmian, które powinny wpłynąć na poprawę sytuacji epidemiologicznej w polskich szpitalach. Kontrola wykazała, że mechanizm zapobiegania zakażeniom szpitalnym nie jest skuteczny a to stanowi zagrożenie dla zdrowia i życia pacjentów. Zła sytuacja finansowa części szpitali oraz niedobór wykwalifikowanej kadry medycznej powoduje, że nałożone przez prawo obowiązki nie są wykonywane rzetelnie co spowodowało rozprzestrzenienie się w kilku regionach Polski lekoopornych bakterii. Wadliwie działający system zbierania danych o zakażeniach doprowadził do braku pełnego obrazu skali zakażeń i rodzaju patogenów. NIK skierowała swoje wnioski do ministra zdrowia, kierowników szpitali i Inspekcji Sanitarnej.

17 MAJA 2018 07:00

Tekst i ilustracje pochodzą ze strony www.NIK.gov.pl . Pełny tekst raportu można znaleźć TUTAJ

 

Brak komentarzy do Zakażenia w szpitalach poważnym problemem

Najgroźniejsza broń biologiczna

Gdybym miał powiedzieć, którego rodzaju broni masowego rażenia boję się najbardziej, powiedziałbym, że biologicznej. Moim zdaniem, jest ona bardziej perfidna, niż chemiczna i atomowa.

Gdybym miał powiedzieć, którego rodzaju broni masowego rażenia boję się najbardziej, powiedziałbym, że biologicznej. Moim zdaniem jest ona bardziej perfidna niż broń jądrowa i chemiczna.

Zobacz odcinek:       https://youtu.be/raMiib2O28k

Tworząc ranking najgroźniejszych rodzajów broni zacząłem się zastanawiać, jakie kryteria powinienem wziąć pod uwagę. Na pewno skalę i skuteczność rażenia, koszty produkcji i dostępność komponentów, zaawansowanie technologiczne i łatwość zatrudnienia specjalistów. Nie bez znaczenia jest także to czy po użyciu można zająć zdobyty teren, czy też trzeba latami czekać, aż „czynnik zabijający” się zneutralizuje.

Organizmy chorobotwórcze, które wywołują tak groźne choroby jak cholerę, ospę, dur brzuszny, plamisty, dżumę czy żółtą febrę, a także grypę można zdobyć stosunkowo łatwo w licznych bankach genetycznych, znajdujących się przy dużych ośrodkach naukowych. Znane są przypadki kiedy państwom rządzonym przez dyktatorów, chorobotwórcze bakterie czy wirusy dostarczała firma kurierska. Koszty produkcji broni biologicznej są bardzo małe.

Do rozmnażania bakterii wystarczy wiedza zdobyta na podstawowym kursie biologii, a można to robić w niewielkim laboratorium, które można umieścić właściwie wszędzie. Do rozmnażania na masową skalę groźnych organizmów można użyć kadzi, które wykorzystuje się np. do … warzenie piwa.

Broń biologiczna jest bardziej perfidna niż chemiczna. Można rozsiać nad wybranym terenem bakterie, które np., zniszczą uprawy i doprowadzając mieszkańców do głodu, albo gospodarkę do upadku. To się nazywa terroryzm socjoekonomiczny. W taki sam sposób można zabić wszystkie zwierzęta hodowlane. Zarazki nie muszą być zrzucane z samolotów, mogą być roznoszone przez owady czy gryzonie. W rzeczywistości historia zna takie przypadki.

W 1940 roku, na chińskie miasta, Japończycy rozrzucili zakażone dżumą pchły, wywołując epidemię. Ale to nie był pierwszy przypadek użycia broni biologicznej. W starożytności zatruwano studnie wrzucając do nich zdechłe zwierzęta, a nierzadko zdarzało się, że w czasie oblężenia z katapult w kierunku miast wystrzeliwano zwłoki ludzi czy zwierząt, które zmarły na jakąś chorobę zakaźną. W czasie jednej z wojen pod koniec XV wieku Hiszpanie skazili wino w Neapolu krwią trędowatych.

Bardzo trudno powiedzieć kiedy po raz ostatni mieliśmy do czynienia z atakiem bronią biologiczną. W zależności od wykorzystanego patogenu, od ataku do epidemii może minąć nawet kilka tygodni. W innych przypadkach skutki chorobotwórcze mogą nastąpić niemalże natychmiast po ataku. Nawet gdybyśmy wiedzieli że właśnie zrzucono na nas, wpuszczono do wody w wodociągach, albo do wentylacji w budynku chorobotwórcze bakterie, niewiele możemy zrobić. Szybka i wysoka dawka antybiotyków? Tak, ale tylko wtedy, gdy wiemy czym zaatakowano. A określenie tego wcale nie jest takie proste. Testy wyszkolonych grup ludzi (muszą jeszcze znajdować się gdzieś w pobliżu) mogą trwać nawet kilka godzin, a jest to czas w którym większość bakterii już się w organizmie „zadomowiła”. Nawet jednak, gdyby od razu było wiadomo jakimi bakteriami zaatakowano, z symulacji robionych w USA wynika, że skuteczny atak biologiczny bakteriami wąglika tylko na jedno większe miasto zaowocowałby zużyciem całych krajowych zapasów antybiotyków w ciągu dwóch tygodni.

A co się stanie gdy na czynnik biologiczny nie ma antybiotyków? Jeden z twórców radzieckiego programu broni biologicznej Ken Alibek po ucieczce do USA mówił wprost, że celem radzieckich naukowców pracujących nad bronią biologiczną było produkowanie takich bakterii i wirusów, na które nie ma szczepionek ani antybiotyków. W praktyce jedna grupa naukowców produkowała metodami inżynierii genetycznej zabójczy organizm, a druga próbowała znaleźć antidotum. Jak się to NIE udawało, uznawano czynnik za idealny do użycia. Usilnie pracowano – a może dalej się to robi – nad zwiększeniem tzw. wirulencji bakterii czy wirusów, których naturalną szkodliwość uznano za niewystarczającą. Wirulencja to zdolności do wniknięcia, namnożenia się oraz uszkodzenia tkanek. Stwarzano także szczepy, które w naturze nie występują, łącząc np. najbardziej groźne cechy dwóch bakterii. Można było mieć pewność, że wróg na pewno nie ma na taki czynnik ani szczepionki ani antybiotyku. W ten sposób powstawały nowe odmiany wirusa ospy i wirusa Marburg.

Broń biologiczna jest groźniejsza od chemicznej jeszcze pod jednym względem. Jest samopowielająca się. Jej zabójcze działanie może się potęgować z biegiem czasu.Drobnoustroje rozsiane podczas ataku biologicznego rozmnażają się w organizmach ofiar i dalej rozprzestrzeniają się same. Tak właściwie wcale nie trzeba dużej ilości bakterii, żeby zarazić sporą grupę ludzi. Niewielka ilość bakterii wąglika – które w formie przetrwalnikowej wyglądają jak kakao – można przetransportować wszędzie. Nawet najbardziej drobiazgowe kontrole nic tutaj nie pomogą.

Broń biologiczna ma jednak dosyć istotną wadę z punktu widzenia prowadzenia wojny. Na długi czas może skazić zaatakowany teren. Brytyjczycy w czasie testów skuteczności laseczek wąglika pod koniec II Wojny Światowej skazili na 50 lat tereny szkockiej wyspy Gruinard. Oczywiście z punktu widzenia terrorystów, skażenie to żadna wada. Terroryści zwykle nie zajmują zaatakowanych przez siebie terenów.

Podsumowując. Broń biologiczna jest łatwa w użyciu i transporcie. Można ją – np. wąglik – przesłać nawet listem. Sama się powiela a jej wyprodukowanie – mówię tutaj o najbardziej dostępnych szczepach – nie wymaga dużej wiedzy. Dla terrorystów jest mniej dostępna niż niektóre trujące gazy, a jej sporym minusem jest to że zostawia za sobą skażony teren. Z kolei plusem jest to, że używający tej broni może zostać niewykryty. Śmierć ludzi, zwierząt, zagłada upraw może wystąpić wiele dni a nawet tygodni po użyciu tej broni.

Brak komentarzy do Najgroźniejsza broń biologiczna

Najnowocześniejsza broń chemiczna

Jak działa broń chemiczna? Szybko i boleśnie. Bardzo boleśnie i bardzo okrutnie. Gdy po raz pierwszy na masową skalę zastosowali ją Niemcy w czasie I Wojny Światowej, cześć niemieckich dowódców meldowała do sztabu, że stosowanie takiej broni to hańba dla prawdziwych żołnierzy.

Jak działa broń chemiczna? Szybko i boleśnie. Bardzo boleśnie i bardzo okrutnie. Gdy po raz pierwszy na masową skalę zastosowali ją Niemcy w czasie I Wojny Światowej, cześć niemieckich dowódców meldowała do sztabu, że stosowanie takiej broni to hańba dla prawdziwych żołnierzy.

Teoretycznie broni chemicznej nie wolno badać ani produkować. Tak mówią międzynarodowe traktaty. W praktyce w ostatnich latach miało miejsce przynajmniej kilka ataków chemicznych. Ostatni, kilka tygodni temu miał miejsce w Syrii. Sposoby działania broni chemicznej są różne bo wiele zależy od zastosowanej substancji. Generalnie jednak wszystkie gazy bojowe dzieli się na pięć kategorii.

I Wojna Światowa. Jeden z pierwszych (a może pierwszy) atak gazowy z użyciem chloru. Gaz wypuszczano z butli zakopanych w ziemi.

Pierwszym gazem bojowym zastosowanym na polu walki był chlor. Wykorzystali go Niemcy podczas I Wojny Światowej. Chlor, ale też fosgen należy do środków krztuszących. Ich działanie polega głównie na podrażnieniu i paraliżu dróg oddechowych. W skutek tego dochodzi do ich śmiertelnego oparzenia wewnętrznych organów. Środki działające na drogi oddechowe są mało skuteczne, gdy żołnierze mają maski. W pierwszej wojnie światowej maski wprowadzono jednak dopiero po tym jak dziesiątki tysięcy ludzi w konwulsjach udusiło się w okopach.

Druga grupa to środki duszące. Wbrew nazwie nie chodzi jednak o sparaliżowanie układu oddechowego, ale o zablokowanie hemoglobiny, cząsteczki znajdującej się w czerwonej krwince, której celem jest roznoszenie tlenu po organizmie. Człowiek oddycha normalnie, ale w ciągu kilkudziesięciu sekund i tak się dusi. Tlen nie jest z płuc transportowany, a dość okrutna śmierć następuje z powodu obumierania mózgu. Środkiem duszącym jest Cyklon-B, którym zabijano w komorach gazowych, ale także cyjanowodór, który Niemcy stosowali w czasie II wojny światowej.

Trzecia i chyba najgroźniejsza bo najskuteczniejsza grupa to środki paralityczno-drgawkowe. Blokują one komunikację pomiędzy komórkami nerwowymi. To tak jak gdyby duży organizm jakim jest miasto odciąć od sieci elektrycznej i telekomunikacyjnej. Totalny chaos informacyjny i paraliż. Przykładami środków paralityczno-drgawkowych są tabun, sarin, soman czy VX. Sarinu użyły kilka lat temu wojska rządowe w Syrii. W wyniku ataku zmarło około 1700 cywilów.

Grupę czwartą stanowią środki parzące. Takim jest np. gaz musztardowy zwany także Iperytem od nazwy miejscowości w Belgii, gdzie w I Wojnie Światowej został po raz pierwszy użyty. W ciągu kilkunastu minut zmarło wtedy w męczarniach kilkadziesiąt tysięcy Brytyjczyków i Francuzów. W wyniku jednego ataku. Grupa podobna a może i większa zmarła w kolejnych dniach i tygodniach. Niemieccy naukowcy szukali gazu, który będzie zabijał przez skórę nawet tych,
którzy mają maski. I tak wynaleźli gaz musztardowy.

I ostatnia grupa to środki halucynogenne. One nie zabijają, ale powodują czasową niedyspozycję. Do tej grupy zalicza się LSD czy BZ, czyli Chinuklidynobenzylan, który był stosowany przez Amerykanów w Wietnamie.

Bojowym środkiem trującym może być wiele związków, które powszechnie są wykorzystywane w przemyśle chemicznym czy medycynie. Ich nie trzeba produkować, je wystarczy kupić i użyć. Dobrym przykładem może być fosgen. Wykorzystuje się go w przemyśle tekstylnym i farmaceutycznym. Gdyby wpuścić go do wentylacji wieżowca, jeden litr w kilka chwil uśmierciłby on tysiące ludzi. Inny przykład to jad kiełbasiany inaczej zwany botuliną. W medycynie kosmetycznej niewielkie ilości tej toksyny wstrzykuje się pod skórę by pozbyć się zmarszczek. To tzw. botox. Dorosły człowiek umiera w męczarniach po wchłonięciu milionowych części grama tej trucizny. Cyjanowodór używa się w przemyśle a iperytem
traktowano komórki rakowe.
Broń chemiczna – z punktu widzenia atakującego – ma wiele innych zalet. Tak szybko jak się pojawia, tak samo szybko znika. Np. sarin jest niebezpieczny zaledwie przez 4 godziny. Iperyt staje się nieszkodliwy po najwyżej kilku dniach. Dodatkową zaletą broni chemicznej jest to, że po jej użyciu wybucha panika. A skutki paniki mogą być groźniejsze od samego ataku.

Reasumując. Z trzech broni masowego rażenia, czyli broni jądrowej, biologicznej i chemicznej, to ta ostatnia jest najtańsza w produkcji i wymaga najmniejszej wiedzy. Choć to dotyczy raczej ataków terrorystycznych, w niektórych sytuacjach wcale nie trzeba się o trujący gaz starać, a wystarczy w odpowiednim momencie wysadzić cysternę przewożącą chemikalia. Cysterny z chlorem czy amoniakiem przejeżdżają przez centra wielu dużych miast.
Ostatnie ataki bronią chemiczną miały miejsce w Syrii, gdzie armia rządowa przy współpracy z armią rosyjską zrzuciła na miasto Duma kilka, może kilkanaście ładunków wypełnionych gazem. Świadkowie mówili, że w powietrzu zaczął się unosić jabłkowy zapach. To sarin. Najpierw pojawia się poczucie niepokoju, potem zwężone źrenice, drgawki, ślinotok i paraliż mięśni, w tym mięśni oddechowych, w końcu śmierć w konwulsjach. Podobnie opisywano ataki, jakie przed wielu laty przeprowadzali na kurdyjskie wioski żołnierza Saddama Husajna.

Profesor Fritz Haber, twórca pierwszych gazów bojowych. Z wykształcenia chemik, po I Wojnie Światowej został uhonorowany Nagrodą Nobla z chemii.

I na koniec jeszcze jedno.
Broń chemiczną zawdzięczamy prof. Fritzowi Haberowi. Po przegranej przez Niemcy I wojnie, Haber był pewien aresztowania i sądu wojennego. Tymczasem rok po zakończeniu wojny, został laureatem nagrody Nobla z chemii. Dzięki tej nagrodzie i powszechnemu szacunkowi Heber mógł kontynuować swoje prace a w ich efekcie wynalazł m.in. cyklon B.

2 komentarze do Najnowocześniejsza broń chemiczna

Fizyk który nie znał granic

14 marca, zmarł urodzony 76 lat temu fizyk, Stephen Hawking. Człowiek odważny i wybitny, znany na całym świecie nie tylko z powodu teorii fizycznych, którymi się zajmował. Gdyby chcieć powiedzieć o nim jedno zdanie. Brzmiałoby ono… człowiek, który nie znał granic.

14 marca, zmarł urodzony 76 lat temu fizyk, Stephen Hawking. Człowiek odważny i wybitny, znany na całym świecie nie tylko z powodu teorii fizycznych, którymi się zajmował. Gdyby chcieć powiedzieć o nim jedno zdanie. Brzmiałoby ono… człowiek, który nie znał granic.

A granice, akurat Hawking powinien znać doskonale. Od wczesnej młodości cierpiał na stwardnienie zanikowe boczne. Choroba doprowadziła go do stanu, w którym w żadnym aspekcie życia nie był samodzielny. W żadnym, z wyjątkiem myślenia. I tutaj znowu wracamy do braku granic. Stephen Hawking był matematykiem i fizykiem teoretykiem. Zajmował się tematami tak abstrakcyjnymi, że nawet dla kolegów po fachu jego prace były niezwykle skomplikowane. Przez 40 lat swojej naukowej kariery opracował hipotezę parowania czarnych dziur, zajmował się grawitacją kwantową i opracował twierdzenie dotyczące osobliwości. Czyli takich obszarów, miejsc w których przyspieszenie grawitacyjne, albo gęstość materii mają nieskończoną wartość. W osobliwości mają nie działać prawa przyrody które znamy z naszego nie-osobliwego otoczenia.

Jak wszyscy mylił się i błądził. Wielu z tych rzeczy którymi się zajmował, nie potwierdziło się eksperymentalnie. Ale tak właśnie działa nauka. Teoretycy szukają, fizycy eksperymentalni, próbują podważyć. Zresztą podważaniem zajmował się i sam Hawking. Wielokrotnie mówił, że zabawa sztuczną inteligencję jest bardzo groźna. Mówił też, że nie mamy wyjścia, w dłuższej perspektywie, musimy opuścić Ziemię. Zresztą uważał, że kosmos jest pełen życia. „Na mój matematyczny rozum, same liczby sprawiają, że myślenie o istotach pozaziemskich jest całkowicie racjonalne. Prawdziwym wyzwaniem jest dowiedzieć się, jak te istoty mogą wyglądać – powiedział kiedyś.

Dla szerszego odbiorcy Stephen Hawking nie był jednak znany ani z prac o czarnych dziurach, ani z rachunków dotyczących osobliwości, ani tym bardziej z hipotez dotyczących grawitacji kwantowej. Był znany jako autor książki Krótka Historia Czasu, którą wydał w 1988 roku. Krótko po jej wydaniu powiedział, że jego marzeniem było napisanie książki o fizyce, którą będą sprzedawali na lotniskach. I dopiął swego. Jego książka przez wiele tygodni nie schodziła z listy bestsellerów w wielu krajach świata.

Dziesięć lat temu, obchodząc swoje 65 urodziny Hawking powiedział, że weźmie udział w suborbitalnym locie, że chce poczuć nieważkość. I poczuł. Zaledwie kilka miesięcy później fizyk znalazł się na pokładzie specjalnie dostosowanego do tego typu eksperymentów Boeinga 727. Samolot 8 razy wznosił się na wysokość około 8 kilometrów, a następnie „wyłączał” silniki i spadał w dół. Dzięki temu, biorący udział w eksperymencie ludzie, czuli w nim nieważkość. W ten sposób szkoli się ludzi, którzy zostaną wysłani w kosmos. Hawking nie zdążył polecieć na orbitę, ale spełnił swoje marzenie. W wielu wywiadach później wspominał, że w nieważkości, po raz pierwszy od 40 lat mógł się poruszać bez wózka inwalidzkiego. I znowu przekroczył granicę, która dla osób całkowicie sparaliżowanych, byłą dotychczas nieprzekraczalna.

5 komentarzy do Fizyk który nie znał granic

Robimy krzywdę naszym dzieciom

Dzieci w ostatnich klasach szkół podstawowych są przeciążone pracą. Nie mają czasu na pogłębianie swoich zainteresowań. Chcielibyśmy, żeby ciekawość dodawała im skrzydeł, tyle tylko, że ich plecaki są tak ciężkie, że nie sposób oderwać się z nimi od twardej ziemi.

Dzieci w ostatnich klasach szkół podstawowych są przeciążone pracą. Nie mają czasu na pogłębianie swoich zainteresowań. Chcielibyśmy, żeby ciekawość dodawała im skrzydeł, tyle tylko, że ich plecaki są tak ciężkie, że nie sposób oderwać się z nimi od twardej ziemi.

Kiedyś postanowiłem zapytać kilka osób o źródło ich pasji. Pisałem wtedy książkę o wybitnych polskich naukowcach, o badaczach, którzy uprawiają naukę na światowym poziomie. Co otworzyło ich głowy? Co napędzało ich do zdobywania wiedzy? Co spowodowało, że zainteresowali się genetyką, meteorologią, medycyną, fizyką,…? Okazało się, że za każdym razem była to książka. Nie szkoła, tylko książka wykraczająca poza szkolny program. Czasami podarowana przez rodziców, czasami znaleziona w bibliotece, czasami otrzymana jako nagroda w jakimś konkursie.

Szkoła może człowieka zainspirować, ale sama szkoła to za mało, żeby podtrzymać tę inspirację. Historie naukowców z którymi rozmawiałem były niemal identyczne. Najczęściej książkę, która jak się później okazywało miała wpływ na kierunek rozwoju zawodowego, ci ludzie dostawali gdy byli jeszcze w szkole podstawowej. To wtedy rodzą się pasje, które – jeżeli odpowiednio prowadzone i podsycane – pozostają na całe życie. Po latach nie pamiętamy prawych dopływów Wisły, długości głównych rzek w Polsce czy rodzajów gleb. Po latach pamiętamy okładkę książki, która zmieniła sposób w jaki postrzegamy świat. Pamiętamy rozkład ilustracji na poszczególnych stronach i kolor grzbietu.

Rozmowy z naukowcami o książkach przypominają mi się za każdym razem, gdy muszę swoim dzieciom zabraniać czytania książek. Czy dobrze robię? Uczniowie w 7 klasie mają w tygodniu 38 godzin lekcji. To prawie tyle ile etat dorosłego człowieka. Ja w ich wieku miałem w tygodniu o około 10 godzin mniej! Po powrocie do domu, dzieci muszą odrobić zadania domowe i przygotować się do sprawdzianów i kartkówek na kolejne dni. Ich plecaki są tak ciężkie, że około czwartku słyszę, że bolą je już plecy. Gdy kolejny dzień wracają o 15:30, znowu po ośmiu lekcjach, wyglądają nie jak dzieci, tylko jak cyborgi. Nie mają nawet siły na to, żeby pobiegać. Czy w Ministerstwie Edukacji naprawdę nie ma nikogo kto wie, że taki wysiłek jest ponad dziecięce możliwości? Gdy chcą psychicznie odpocząć, gdy chcą zrobić coś innego niż nauka i przeglądanie zeszytów – przynajmniej moje dzieci – biorą do ręki książkę. Tyle tylko, że w trakcie tygodnia wybór jest prosty. Jak będą czytały, nie zdążą się nauczyć na sprawdzian. Albo będą rozwijały pasje, albo będą – często tylko pamięciowo – przyswajały szkolne informacje. W takim trybie nie ma czasu na naukę instrumentu, na kółka zainteresowań czy pójście do muzeum. W takim trybie nie ma czasu na zabawę. Naprawdę nie wiecie państwo z Ministerstwa, że zabawa rozwija? W takim trybie z trudem udaje się znaleźć czas na dodatkowy angielski. Ale tylko wtedy, gdy obiad będzie zjedzony w biegu, niemalże na stojąco.

Czego oczekujemy od młodego człowieka? Tego, żeby umiał czy tego, żeby rozumiał? Tego, żeby ciekawość dodawała mu skrzydeł, czy tego, żeby plecak pokrzywił mu kręgosłup? Chcemy tworzyć armię zmęczonych robotów czy nowoczesne społeczeństwo ciekawych świata ludzi, którzy z pasją budują rakiety, badają geny, piszą wiersze i odkrywają nowe lądy? Czy ktokolwiek w Ministerstwie Edukacji zadaje sobie takie pytania? Robimy krzywdę naszym dzieciom.

Tomasz Rożek

 

Tekst ukazał się w tygodniku Gość Niedzielny

22 komentarze do Robimy krzywdę naszym dzieciom

Karmienie piersią zmniejsza ryzyko cukrzycy

Karmienie dziecka piersią przez ponad sześć miesięcy niemal o połowę obniża u kobiety ryzyko zachorowania na cukrzycę typu 2 – wykazało trwające 30 lat badanie, które publikuje pismo “JAMA Internal Medicine”.

Karmienie dziecka piersią przez ponad sześć miesięcy niemal o połowę obniża u kobiety ryzyko zachorowania na cukrzycę typu 2 – wykazało trwające 30 lat badanie, które publikuje pismo “JAMA Internal Medicine”.

„Zaobserwowaliśmy bardzo silną zależność między okresem, w którym kobieta karmi piersią, a spadkiem ryzyka rozwoju cukrzycy, nawet po uwzględnieniu wszystkich możliwych czynników ryzyka” – skomentowała kierująca badaniami dr Erica P. Gunderson z Kaiser Permanente Division of Research w Oakland (Kalifornia, USA).

Jej zespół przeanalizował dane zebrane wśród 1238 kobiet, uczestniczek badania na temat czynników ryzyka rozwoju choroby wieńcowej – Coronary Artery Risk Development in Young Adults (CARDIA). W momencie włączenia do niego panie były w wieku od 18. do 30 lat i żadna z nich nie miała cukrzycy. W ciągu kolejnych 30 lat, kiedy śledzono stan ich zdrowia, każda kobieta urodziła co najmniej jedno dziecko oraz była poddawana badaniom w kierunku cukrzycy (do siedmiu razy w ciągu całego badania). Uczestniczki udzielały też informacji na temat stylu życia – w tym diety i aktywności fizycznej oraz na temat okresu, w którym karmiły piersią swoje dziecko. W analizie uwzględniono czynniki ryzyka zachorowania na cukrzycę występujące u nich przed ciążą, takie jak otyłość, poziom glukozy na czczo, styl życia, historia występowania cukrzycy w rodzinie, a także zaburzenia metabolizmu podczas ciąży.

Kobiety, które karmiły piersią przez ponad sześć miesięcy były o 47 proc. mniej narażone na rozwój cukrzycy typu 2 w późniejszych latach, w porównaniu z tymi, które nie karmiły wcale. U pań karmiących sześć miesięcy lub krócej spadek ryzyka był mniejszy – o 25 proc.

Długofalowe korzyści z karmienia piersią były widoczne zarówno u kobiet rasy białej, jak i czarnej, niezależnie od tego, czy wystąpiła u nich cukrzyca ciążowa (która zwiększa ryzyko zachorowania na cukrzycę typu 2 w przyszłości). U kobiet rasy czarnej trzykrotnie częściej rozwijała się cukrzyca w ciągu 30 lat badania, jednocześnie rzadziej karmiły one piersią niż kobiety rasy białej.

„Częstość zachorowania na cukrzycę spadała stopniowo wraz z wydłużaniem się okresu karmienia piersią, niezależnie od rasy, wystąpienia cukrzycy ciążowej, stylu życia, rozmiarów ciała i innych metabolicznych czynników ryzyka ocenianych przed ciążą, co sugeruje biologiczny charakter mechanizmu leżącego u podłoża tej zależności” – skomentowała dr Gunderson.

Naukowcy uważają, że może chodzić m.in. o wpływ hormonów produkowanych podczas laktacji na komórki trzustki, które wydzielają insulinę i w ten sposób regulują poziom glukozy we krwi.

Wiedzieliśmy od dłuższego czasu, że karmienie piersią daje wiele korzyści zarówno matce, jak i dzieciom” – przypomniała niebiorąca udziału w badaniu Tracy Flanagan, dyrektor oddziału ds. zdrowia kobiet w Kaiser Permanente Northern California.

Badania wskazują na przykład, że kobiety, które karmiły dziecko piersią są mniej zagrożone zachorowaniem na raka piersi, z kolei dzieci karmione mlekiem mamy są w przyszłości mniej narażone na alergie i astmę, choroby serca, nadciśnienie, otyłość i inne zaburzenia metabolizmu.

W opinii Flanagan wyniki najnowszego badania dostarczają kolejnego argumentu, dla którego „lekarze, pielęgniarki, a także szpitale i decydenci, powinni wspierać kobiety w tym, by karmiły piersią tak długo, jak to możliwe”. (PAP)

Brak komentarzy do Karmienie piersią zmniejsza ryzyko cukrzycy

RNA w 3D

Już 1 mln razy badacze i osoby z całego świata wykorzystały RNAComposer – publicznie dostępny, skuteczny poznański system do modelowania struktury 3D RNA. A to nie jedyny polski sukces w badaniach nad wyznaczaniem struktury RNA.

Już 1 mln razy badacze i osoby z całego świata wykorzystały RNAComposer – publicznie dostępny, skuteczny poznański system do modelowania struktury 3D RNA. A to nie jedyny polski sukces w badaniach nad wyznaczaniem struktury RNA.

RNA to cząsteczki kwasu rybonukleinowego. Bez nich komórka nie mogłaby produkować białek – cząsteczek, które są istotne dla budowy i funkcjonowania komórek. Rodzajów RNA jest sporo i pełnią one w komórce różne funkcje.

I tak np. matrycowe RNA są pośrednikami, dzięki którym z DNA daje się wyciągnąć informacje – przepis na białka. Z rybosomowych RNA zbudowane są rybosomy – komórkowe centra produkcji białek. A transferowe RNA mają przynosić do tych centrów odpowiednie aminokwasy – jednostki budulcowe białek.

Model struktury 3D RNA wirusa Zika wygenerowany przez RNAComposer na podstawie sekwencji. Obecnie struktura ta jest już określona eksperymentalnie i jest zdeponowana w bazie struktur PDB. Źródło: Marta Szachniuk

 

Cząsteczkę RNA tworzy zwykle nić składająca się z połączonych ze sobą reszt nukleotydowych (w skrócie: A, C, G, U). Nawet jeśli rozszyfruje się ich kolejność w łańcuchu RNA, czyli określi sekwencję, nie jest pewne, jak cała cząsteczka układa się w przestrzeni. Bo cząsteczki RNA – w przeciwieństwie do kabla od słuchawek wrzuconych do plecaka – nie zwijają się w przypadkowe supły. Istnieją pewne reguły, które pozwalają przewidzieć, jaki kształt przybierze dana cząsteczka. W rozwikłaniu tego zagadnienia pomocne okazują się komputerowe metody do przewidywania struktur 3D RNA.

Dr hab. Marta Szachniuk wspólnie z zespołem prof. Ryszarda Adamiaka z Instytutu Chemii Bioorganicznej PAN w Poznaniu opracowała darmowy, publicznie dostępny system RNAComposer. Do systemu wprowadza się sekwencję RNA (lub informację o oddziaływaniach między resztami nukleotydowymi, czyli tzw. strukturę drugorzędową), a on w ciągu kilku/kilkunastu sekund oblicza i prezentuje trójwymiarowy model cząsteczki. Program sprawnie radzi sobie zarówno z krótkimi, jak i bardzo długimi łańcuchami cząsteczek RNA o skomplikowanej architekturze. – Wielu naukowców z całego świata używa programu RNAComposer, żeby uzyskiwać pierwsze wyobrażenie tego, jak wyglądać może w 3D cząsteczka, którą badają. Nasz system od 2012 r. wykonał już 1 mln predykcji” – opowiada dr hab. Marta Szachniuk.

To nie jest jedyny system informatyczny do predykcji struktury 3D RNA. Takich automatycznych systemów jest kilka. Poza tym przewidywaniem struktur RNA zajmują się zespoły badawcze wspomagające się badaniami eksperymentalnymi.

Aby porównać skuteczność różnych metod wyznaczania kształtu RNA w przestrzeni 3D, od 2010 roku organizowany jest konkurs RNA-Puzzles. Chodzi w nim o to, by mając zadaną sekwencję RNA, jak najdokładniej wyznaczyć strukturę cząsteczki. Modele przewidziane przez uczestników konkursu porównywane są następnie z wynikami eksperymentów chemicznych i biologicznych prowadzących do określenia struktury. Konkurs organizowany jest obecnie w dwóch kategoriach: serwerów, które automatycznie generują wyniki, oraz w kategorii predykcji ludzkich, gdzie modele powstają w wyniku integracji obliczeń komputerowych i eksperymentów laboratoryjnych. „Jesteśmy najlepsi w kategorii automatycznych systemów do predykcji 3D RNA” – podkreśla dr Szachniuk.

System RNAComposer powstał dzięki temu, że od dekady zespół z ECBiG skrzętnie gromadził ogromną bazę danych dotyczących RNA. W bazie RNA FRABASE zebrano informacje z ogromnej liczby eksperymentów. Takich, z których można było wyciągnąć wnioski o strukturze przestrzennej molekuł RNA. Baza ta jest ciągle aktualizowana i każdy może z niej bezpłatnie skorzystać. „To popularne narzędzie. Wiemy nawet, że na zagranicznych uczelniach korzystają z niej np. studenci w ramach badań i studiów przygotowujących do zawodu bioinformatyka czy biologa” – opowiada dr Szachniuk. Baza ta pomaga m.in. wyszukiwać czy w różnych cząsteczkach powtarzają się jakieś konkretne przestrzenne wzorce.

Polska na światowej mapie badań nad strukturą RNA jest widoczna także dzięki badaniom innych zespołów. Ważną postacią jest tu m.in. prof. Ryszard Kierzek z Instytutu Chemii Bioorganicznej PAN w Poznaniu. Jego prace pozwoliły określić termodynamiczne reguły fałdowania RNA. Nowatorskimi badaniami nad wyznaczaniem struktury RNA zajmuje się również zespół prof. Janusza Bujnickiego z Międzynarodowego Instytutu Biologii Molekularnej i Komórkowej w Warszawie.

PAP – Nauka w Polsce

1 komentarz do RNA w 3D

Pożary widziane z kosmosu

W Kalifornii od kilku tygodni szaleją pożary. Serwisy telewizyjne czy internetowe pełne są apokaliptycznych zdjęć, ale ja postanowiłem pokazać wam zdjęcia z kosmosu. Są straszne i… hipnotyzujące.

W Kalifornii od kilku tygodni szaleją pożary. Serwisy telewizyjne czy internetowe pełne są apokaliptycznych zdjęć, ale ja postanowiłem pokazać wam zdjęcia z kosmosu. Są straszne i… hipnotyzujące.

 

Pożary zniszczyły albo niszczą setki tysięcy hektarów lasu. W sumie z domów ewakuowano kilkaset tysięcy ludzi. Ogień dotarł już do Los Angeles, płonie dzielnica Bel Air na terenie której znajduje się kampus znanego na całym świecie Uniwersytetu Kalifornijskiego.

Pożary w tej części Stanów to żadna nowość, ale tegoroczne są szczególnie groźne, bo towarzyszy im suchy i gorący wiatr fenowy, który wieje w porywach z prędkością do 130 km/h. Taki wiatr w południowej Kalifornii wieje od października do marca, z północnego wschodu, od strony gór Sierra Nevada.

Wiatrem fenowym jest np. nasz wiatr halny, czyli ciepły, suchy i porywisty wiatr, wiejący ku dolinom. Taki wiatr powstaje na skutek różnic ciśnienia pomiędzy jedną a drugą stroną grzbietu górskiego. Po nawietrznej stronie grzbietu powietrze unosi się ochładzając oraz pozbywając się pary wodnej. Po stronie zawietrznej powietrze opada ocieplając się.

A wracając do pożarów w Kalifornii. W tym roku są one tak dotkliwe także dlatego, że wczesną wiosną w Kalifornii spadły wyjątkowo obfite deszcze. To spowodowało szybki wzrost niskiej roślinności porastającej zbocza. Od marca jest tam jednak susza. NASA szacuje, że mamy właśnie do czynienia z okresem dziesięciu najsuchszych miesięcy w historii Południowej Kalifornii. Od 10 miesięcy nie spadła tam nawet jedna kropla wody. Ta niska, bujna na wiosnę, ale teraz wysuszona na proch roślinność stała się doskonałą pożywką dla pożarów.

Dzisiaj w Kalifornii szaleje sześć dużych pożarów i kilka mniejszych. Spaliło się kilkaset domów i setki tysięcy hektarów lasu. Straty liczone są w setkach miliardów dolarów.

Zdjęcia w większości zostały zrobione przez spektroradiometr obrazu (MODIS) na pokładzie satelity NASA oraz Multi Spectral Imager (MSI) z satelity Sentinel-2 Europejskiej Agencji Kosmicznej.

A photo taken from the International Space Station and moved on social media by astronaut Randy Bresnik shows smoke rising from wildfire burning in Southern California, U.S., December 6, 2017. Courtesy @AstroKomrade/NASA/Handout via REUTERS ATTENTION EDITORS – THIS IMAGE HAS BEEN SUPPLIED BY A THIRD PARTY. – RC11C90C8420

Przy okazji, zapraszam do subskrypcji mojego kanału na YT ( youtube.com/NaukaToLubie ) i polubienia fanpaga na Facebooku ( facebook.com/NaukaToLubie )

Brak komentarzy do Pożary widziane z kosmosu

Mechanizm samobójczego naśladownictwa

Czyli inaczej efekt Wertera jest znany od wielu lat. Media powinny z wielką powściągliwością pisać o zbrodniach, aktach terroryzmu i samobójstwach. Inaczej biorą na siebie ciężar odpowiedzialności za naśladowców. 

Czyli inaczej efekt Wertera jest znany od wielu lat. Media powinny z wielką powściągliwością pisać o zbrodniach, aktach terroryzmu i samobójstwach. Inaczej biorą na siebie ciężar odpowiedzialności za naśladowców. 

Gdy w mediach pojawia się dużo relacji dotyczących samobójstwa, gdy z tematu robi się główną informację dnia, gdy osoby znane gratulują samobójcy odwagi i determinacji, wzrasta prawdopodobieństwo kolejnych tragedii. Niewiele rzeczy tak jasno jak efekt Wertera ilustruje ogromną odpowiedzialność mediów i pracujących w nich dziennikarzy. Ta odpowiedzialność leży także na naszych barkach. To przecież my linkujemy, komentujemy i udostępniających treści, za które jesteśmy odpowiedzialni.  Światowa Organizacja Zdrowia kilka lat temu stworzyła nawet dokument z wytycznymi dla dziennikarzy jak pisać o samobójstwach, tak, żeby nie prowokować naśladowców.

Statystycznie rzecz ujmując, wzrost samobójstw następujący kilka, kilkanaście dni od nagłośnienia analogicznej tragedii. Z badań wynika, że szczególnie wyraźnie jest widoczny, gdy samobójstwo popełni znana osoba (np. gwiazda filmowa), lub gdy czyn osoby popełniającej samobójstwo jest usprawiedliwiany. Efekt Wertera zauważono także w stosunku do terroryzmu. Czym więcej informacji a aktach terroru, tym częściej się one zdarzają. Gdy przeanalizowano ponad 60 tysięcy zamachów terrorystycznych jakie miały miejsce na całym świecie w latach 1970 – 2002 i skorelowano je z częstotliwością oraz długością ukazujących się na ich temat materiałów prasowych, odkryto, że każde dodatkowe doniesienie o zamachu terrorystycznym zwiększało prawdopodobieństwo zamachów w kolejnym tygodniu o od kilku do kilkunastu procent.

Człowiekiem, który wprowadził do literatury określenie „efekt Wertera” był amerykański socjolog David Philips. Swoje badania prowadził w latach 70tych XX wieku. Już wtedy zauważono, że efekt jest wzmacniany gdy opisy śmierci podaje się ze szczegółami. Gdy samobójca umiera długo i w cierpieniu, gdy upublicznia się wizerunek zrozpaczonych krewnych samobójcy, gdy publikuje się list w których samobójca wyjaśnia swoje motywy i gdy te motywy poddaje się w mediach analizie. Psychologowie twierdzą, że w tym jest tak duży „potencjał identyfikacyjny”, że osoby o słabszej osobowości, osoby, które już wcześniej rozważały samobójstwo są tymi informacjami wręcz popychane do tragicznych czynów.

Obszerną rozmowę na temat efektu Wertera, kilka lat temu (w 2011 roku) opublikował portal Polityka.pl

– Jak to działa? – pytała w wywiadzie Joanna Cieśla.

(prof. Bartosz Łoza – kierownik Kliniki Psychiatrii Warszawskiego Uniwersytetu Medycznego.): Większość z nas bez głębszej refleksji wchłania papkę newsową, którą przekazują nam media, zwłaszcza te szybkie, operujące skrótami. Działa tu mechanizm modelowania – mamy podaną całą gotową historię – o prawdziwym człowieku, prawdziwym życiu, prawdziwych decyzjach, z początkiem i końcem. Nie musimy wkładać żadnego wysiłku w to, żeby ją śledzić, siedzimy w fotelu, a ona jest nam opowiadana. Staje się szczególnie wiarygodna dzięki wykorzystaniu takich technik jak nakręcone drżącą ręką filmy przysłane przez widzów, relacje i amatorskie zdjęcia internautów. To wszystko potwierdza, że to prawda, nie jakaś kreacja. 

Następnie prof. Bartosz Łoza wyjaśnia na czym polega owo modelowanie. Mówi, że osoby z podobnymi problemami co samobójca, rozważające już wcześniej tragiczne w skutkach kroki, dochodzą do wniosku, że skoro samobójca się zabił, one także mogą to zrobić.

– Informacja o zbrodni sprawia, że wszyscy stajemy się gorsi? – pytała Joanna Cieśla z Polityki.

– Niestety. Nie chcę zabrzmieć jak kaznodzieja, ale zło będzie rodzić zło. Wyjaśnia to nie tylko mechanizm modelowania, ale i teoria analizy transakcyjnej amerykańskiego psychoanalityka Erica Berne. Zgodnie z nią nasze emocje, moralność zależą od „głasków”, którymi nieustannie się wymieniamy z innymi ludźmi. Dobry głask to pochwała, zły głask – gdy ktoś na mnie burknął w autobusie. Mogę odburknąć – wtedy oddam negatywny głask. To taka waluta emocjonalna. Nasze portfele są pełne tej waluty, którą przez całe życie wymieniamy się z innymi ludźmi – odpowiada prof. Łoza.

W kolejnych częściach wywiadu profesor tłumaczy, że w tak destrukcyjny sposób działają na nas przede wszystkim informacje prawdziwe. Stąd często emitowane filmy w których dochodzi do strzelanin czy innych zbrodni nie mają wpływu na wzrost przestępczości. Natomiast relacjonowanie zbrodni czy tragedii, które rzeczywiście miały miejsce, szczególnie, gdy te relacje są bardzo emocjonalne, mogą nakłaniać do samobójczych kroków.

Efekt Wertera swoją nazwę zawdzięcza imieniu głównego bohatera napisanej przez Goethego powieści „Cierpienia młodego Wertera”. Po jej wydaniu (w 1774 roku) bodaj po raz pierwszy zauważono tzw. mechanizm samobójczego naśladownictwa.

Historia nieszczęśliwie zakochanego Wertera, który ostatecznie popełnił samobójstwo, pchnęła tysiące młodych ludzi nie tylko w Niemczech ale i w wielu innych krajach Europy do odebrania sobie życia.

2 komentarze do Mechanizm samobójczego naśladownictwa

Ukryta komnata

Ukryta komnata, promienie kosmiczne i piramidy. Nie, to nie jest streszczenie taniego filmu science-fiction. Streszczenie tekstu z Nature

To podobno pierwsze znalezisko w piramidzie Cheopsa od XIX. I to od razu z grubej rury. Magazyn Nature napisał, że w jednym z najbardziej monumentalnych grobowców odkryto tajemniczą komnatę. Jej długość jest szacowana na kilkadziesiąt metrów, a o tym, że w ogóle istnieje dowiedziano się dzięki analizie… promieni kosmicznych. Jak tego dokonano?

Czerwoną strzałką zaznaczyłem odkrytą komnatę 

Składnikiem  strumienia cząstek, które docierają do nas z kosmosu są miony. A ściślej mówiąc, miony powstają jako cząstki wtórne w wyniku rozpadu mezonów w wyższych warstwach ziemskiej atmosfery. Miony mają cechy elektronów, ale są ponad 200 razy od nich cięższe. Strumień mionów jest dość duży, bo w każdej sekundzie, przez metr kwadratowy powierzchni Ziemi przelatuje ich prawie 200. Miony nie omijają także nas, ale nie są dla nas groźne. Od jakiegoś czasu fizycy nauczyli się je wykorzystywać praktycznie.

 

Wiadomo ile mionów leci na nasze głowy. Jeżeli na ich drodze postawimy przeszkodę, część z nich, w niej ugrzęźnie. Im gęstsza ta przeszkoda, tym ugrzęźnie ich więcej. Ustawiając w odpowiedni sposób detektory mionów, jesteśmy w stanie wykonać trójwymiarowy obraz skanowanego obiektu. Zasada działania tego pomiaru jest identyczna co działania tomografu komputerowego. Jest źródło promieniowania (promienie Roentgena, zwane promieniami X) i są detektory. Robiąc odpowiednio dużo pomiarów pod różnymi kątami, jesteśmy w stanie z dużą precyzją określić kształt, budowę i strukturę tych części ludzkiego ciała, które dla oka lekarza są zakryte.

>>> Więcej naukowych informacji na FB.com/NaukaToLubie.

W przypadku piramidy Cheopsa w Gizie nie było lekarzy, tylko fizycy i archeologowie, nie było promieni X, tylko kosmiczne miony. Nie było tomografu medycznego, tylko zmyślny system detektorów. Ale udało się dokonać tego samego. Znaleziono obiekt, a właściwie pustą przestrzeń, która wcześniej była przed wzrokiem badaczy zakryta.

Nie wiadomo czym jest tajemnicza komnata. Rozdzielczość tej metody jest zbyt mała, by stwierdzić czy znajdują się w niej jakieś obiekty. Może więc być pusta. Ale może też być pełna skarbów. Pusta przestrzeń znajduje się nad tzw. Wielką Galerią, czyli korytarzem prowadzącym do Komory Królewskiej. Nie wiadomo też, czy komnata (pusta przestrzeń) była zamurowana na etapie budowy piramidy, czy ktokolwiek po jej wybudowaniu do niej zaglądał. Piramida Cheopsa powstała w okresie tzw. Starego Państwa, czyli około 2560 roku p.n.e. Budowano ją zaledwie przez 20 lat. Jak na metody i technologie jakimi wtedy dysponowano, to tempo ekspresowe.

>>> Więcej naukowych informacji na FB.com/NaukaToLubie.

7 komentarzy do Ukryta komnata

Za dużo liczb.

To nie tak, że nie mamy lekarstwa na raka z powodu prostej niewiedzy. To nie tak, że zatruwamy środowisko z powodu niedoborów energii. Dzisiejszy świat cierpi z powodu nadmiaru. Niemal wszystkiego. Szczególnie nadmiaru danych.

To nie tak, że nie mamy lekarstwa na raka z powodu prostej niewiedzy. To nie tak, że zatruwamy środowisko z powodu niedoborów energii. Dzisiejszy świat cierpi z powodu nadmiaru. Niemal wszystkiego.

Lek na raka, szczepionka przeciwko malarii czy panaceum na choroby serca i nadwagę nie zostaną odkryte, dopóki nie nauczymy się wyciągać wniosków z bardzo dużej ilości danych. Danych wszelakiego rodzaju. Statystycznych, środowiskowych czy tych medycznych. Danych jest tak wiele, że nie sposób sobie z nimi poradzić. Chyba że do ich analizy zatrudnimy komputery.

Lek z komputera

W zasadzie od wielu lat to się już dzieje. Z danych, które do nich napływają, komputery wyciągają wnioski, a te są następnie wykorzystywane w życiu codziennym. Tak, to komputery regulują światłami na skrzyżowaniach dużego miasta. To, czy włączyć na którymś zielone, czy pozostawić czerwone, zależy od natężenia ruchu w całym mieście, od priorytetowych szlaków komunikacyjnych, od prac drogowych na szlakach alternatywnych, a nawet od tego, czy w kierunku miasta zbliża się np. burza. Człowiek nie poradziłby sobie z tak dużą ilością danych, nie byłby w stanie podejmować na ich podstawie decyzji.

escherichia-coli-1441194-1279x1229

Takich przykładów jak ruch w mieście jest znacznie, znacznie więcej. Podobnie działają systemy ruchu lotniczego, ale także linie produkcyjne w fabrykach czy systemy do analizy danych w laboratoriach naukowych, np. podczas projektowania leków. Żeby wprowadzić na rynek nowy lek, trzeba sprawdzić tysiące, a czasami miliony różnych kombinacji cząsteczek chemicznych. Każda najmniejsza zmiana budowy cząsteczki chemicznej leku, czasami oznaczająca „przestawienie” jednego atomu, może zmieniać jego działanie. Nie sposób eksperymentalnie sprawdzić wszystkich możliwych kombinacji, bo trwałoby to latami i kosztowałoby miliardy. Także tutaj z pomocą przychodzą komputery, które same dochodzą do pewnych wniosków, same domyślają się efektu. Do ostatecznego sprawdzenia pozostają tylko te wersje cząsteczki chemicznej, które – zdaniem oprogramowania – budzą największe nadzieje. I tak, od ruchu ulicznego, poprzez medycynę, bezpieczeństwo, fizykę (nikt już dzisiaj nie projektuje eksperymentów naukowych bez wcześniejszego uruchomienia symulacji komputerowych oraz systemów analizujących ogromne pakiety danych), telekomunikację, po zmiany społeczne… Wszędzie mamy za dużo danych, za dużo informacji, z którymi jakoś musimy sobie poradzić. Na szczęście nie jesteśmy sami, pomaga nam w tym tak zwana sztuczna inteligencja.

Podatki w Brazylii

Dlaczego tak zwana? Bo pomiędzy inteligencją człowieka czy nawet zwierzęcia a inteligencją maszyny jest sporo różnic. U nas inteligencja wiąże się w jakiś sposób ze świadomością i emocjami. U maszyn tylko (albo aż) – z umiejętnością uczenia się i wyciągania wniosków. Wielu ludzi boi się sztucznej inteligencji, bo przypisuje jej cechy, które mają inteligentni ludzie. Inteligentni, choć nie zawsze prawi. Stąd wizje buntujących się komputerów czy systemów, które mają swoje własne zdanie. Oczywiście odmienne od naszego. Ten bunt – jak się obawiamy – nie będzie polegał na tym, że nasze komputery zaczną nam robić głupie żarty, tylko na tym, że np. system komputerowy odetnie zasilanie energetyczne dużego miasta. To byłaby prawdziwa tragedia, tyle tylko, że w praktyce taka sytuacja dzisiaj jest niemożliwa. Nie dlatego, że systemy komputerowe nie rządzą zasilaniem, ale dlatego, że nie mają one woli i świadomości. Nie robią z własnej inicjatywy niczego, na co nie pozwoli im programista. Człowiek inteligentny to ktoś, o kim powiemy, że jest samodzielny i aktywny. Sztuczna inteligencja jest czymś, co jest bierne i podporządkowane człowiekowi. Owszem, radzi sobie świetnie z tasowaniem dużej ilości informacji, z sortowaniem ich i wyciąganiem z nich wniosków, ale nie potrafi choć na milimetr wyjść poza to, na co pozwoli jej programista.

Polska firma Cognitum stworzyła system, który jako jeden z najlepszych na świecie potrafi znajdować regularności czy wzory w dużych zbiorach danych. Jak mówią jego twórcy, ich system „pozwala wiązać fakty w morzu danych”. I robi to tak dobrze, że został włączony w ogromny program, którego celem jest wykrywanie nieprawidłowości podatkowych w… Brazylii. Wyłudzenia podatków można wykryć, analizując faktury, tyle tylko, że w tak dużym kraju jak Brazylia codziennie dochodzi do milionów transakcji. To powoduje, że w praktyce praca człowieka, a nawet tysiąca ludzi, jest skazana na porażkę. Co innego, jeśli chodzi o system komputerowy, który te faktury sprawdza i wyłapuje nieprawidłowości. W czasie rzeczywistym! Dzięki polskim programistom powstał system, który zainstalowano w urzędach skarbowych w całym kraju. Wyłapuje on nieprawidłowości od razu po tym, jak faktura zostanie wczytana do systemu. Co ciekawe, człowiek posługujący się systemem wcale nie musi być programistą. Z programem może się porozumieć, wpisując komendy w języku nieodbiegającym od tego, którym posługujemy się w rozmowie z innymi ludźmi. Może też te komendy po prostu wymówić. Program zrozumie.

Samo z siebie?

Ważną cechą systemu zaprojektowanego przez Cognitum jest to, że uczy się i potrafi wyciągać wnioski. Dzięki temu, jeżeli ktoś choć raz zastosował jakąś metodę na oszukanie urzędu podatkowego i ten trik zostanie wykryty, ta sama sztuczka już nigdy więcej się nie uda. Podobne metody można stosować do walki z bakteriami. One też mogą atakować na wiele różnych sposobów. Człowiek próbuje przewidzieć wszystkie drogi ataku, ale sprawdzenie tych scenariuszy trwałoby bardzo długo. Co innego, gdy do pomocy zaprosi się odpowiednio zaprojektowany system komputerowy. Mówimy o nim, że jest wyposażony w sztuczną inteligencję, ale tak naprawdę powinno się mówić o programach wyposażonych w umiejętność nauki i wyciągania wniosków.

digital-dreams-1155928-1280x960

Nasz mózg działa inaczej niż komputer, a inteligencja u ludzi i ta sztuczna, czyli komputerowa, to dwie różne rzeczy. Dlaczego tak się dzieje? Dlaczego komputerom nie potrafimy nadać cech naszej inteligencji, z poczuciem osobowości i z własnymi celami włącznie? Po pierwsze, wcale nie jestem przekonany, że to dobry pomysł. A po drugie… Trudno nadawać maszynom cechy, których nie rozumie się u siebie. Nie wiemy, czym jest świadomość, poczucie odrębności. Nie potrafimy tego zdefiniować na poziomie nauk ścisłych. Nie wiemy, które „obwody” w naszym mózgu za to odpowiadają, a więc nie wiemy, jak tą cechą obdarzyć maszyny. Czy kiedyś tę barierę przełamiemy? Czy kiedyś maszyny staną się naprawdę (tak po ludzku) inteligentne? Nie da się tego wykluczyć. Przy czym dzisiaj wydaje się, że są dwie drogi do osiągnięcia tego celu. Będzie to możliwe, gdy sami zrozumiemy, na czym polega nasza świadomość. Gdy tak się stanie, będziemy mogli podjąć decyzję, czy nowo poznaną cechą obdarować maszyny. Jest jednak jeszcze druga opcja. Być może świadomość i poczucie odrębności pojawiają się „same z siebie”, gdy mózg staje się skomplikowany. Może to efekt skali? Może wraz z rozbudową systemów informatycznych, wraz z coraz większym skomplikowaniem programów samoświadomość maszyn pojawi się sama? Bez naszego bezpośredniego udziału i bez naszej wiedzy?

Współczesny świat produkuje tak wiele informacji, że bez pomocy programów, które się uczą i które wyciągają z tej nauki wnioski, nie jesteśmy już w stanie funkcjonować. Tego już się nie cofnie. A jaka będzie przyszłość? Okaże się jutro.

 

Tekst ukazał się w tygodniku Gość Niedzielny
Brak komentarzy do Za dużo liczb.

Uważaj jak chodzisz

Ze sposobu w jaki się poruszamy, naukowcy potrafią wyciągnąć zadziwiającą ilość informacji. Osoby, które obserwują model chodu charakterystyczny dla mężczyzn mają wrażenie, że postać się do nich zbliża. Równocześnie gdy obserwują chód żeński, wydaje im się, że postać się oddala.

Ze sposobu w jaki się poruszamy, naukowcy potrafią wyciągnąć zadziwiającą ilość informacji. Osoby, które obserwują model chodu charakterystyczny dla mężczyzn mają wrażenie, że postać się do nich zbliża. Równocześnie gdy obserwują chód żeński, wydaje im się, że postać się oddala.

Amerykańska firma Visionics opracowała system który potrafi analizować twarze. Zainstalowany w centrum monitoringu miejskiego (czy lotniskowego) „wyławia” z tłumu przechodniów osoby które ma w swojej bazie danych. Rozpoznaje je po rozstawie oczu, kształcie ust czy wysokości czoła. Czy istnieje lepszy sposób na znalezienie osoby poszukiwanej ?

Chód świetlnych punkcików

Oprogramowanie Visionics, ale także aplikacje wielu innych firm zajmujących się szeroko rozumianym bezpieczeństwem, potrafi znacznie więcej. Automatycznie wykrywa osoby, po… sposobie chodzenia. Może np. z tłumu wyłowić osobę, która pod kurtką niesie coś ciężkiego. Jak to robi ? Za dogłębne przeanalizowanie chodu kobiet i mężczyzn zabrali się badacze z Southern Cross Univeristy w Coffs Harbour (w Australii). Wyniki ich badań opublikował tygodnik „New Scientist” oraz czasopismo „Current Biology” (vol 18, R728-R729). Czy kobiety i mężczyźni poruszają się inaczej ? To oczywiste, ale jak matematycznie opisać i zmierzyć te różnice ? Najpierw naukowcy sfilmowali chód 50 kobiet i 50 mężczyzn, a następnie, komputerowo każdy staw (biodrowy, barkowy, łokciowy,…) badanej osoby zaznaczyli jako świecący punkt. Z filmu przedstawiającego poruszającą się postać powstała animacja poruszających się punktów świetlnych, a równocześnie biblioteka chodów ludzkich. Zbiór sposobów w jakich poruszają się ludzie.

Okazało się, że nawet powierzchowna analiza pozwala wyłapać charakterystyczne cechy męskiego i żeńskiego chodu. To ważne, bo jeżeli problem da się opisać matematycznie, jest też nadzieja, że uda się go przełożyć na język rozumiany przez komputery. Po sposobie chodzenia można też określić wiek obserwowanego. Głębsza analiza pozwala powiedzieć w jakim jest nastroju i czy jest zmęczony, jakie ma wady postawy i czy dźwiga coś ciężkiego. Stosunkowo łatwo jest też określić czy obserwowany kuleje czy tylko udaje (to ważne wtedy gdy ktoś chciałby zmylić system monitoringu). Te wszystkie informacje są niezwykle ważne dla służb, która zajmują się bezpieczeństwem, ale mogą być też wykorzystywane przez psychologów.

Odchodzi czy przychodzi

Szef grupy badaczy Rick van der Zwan chód najbardziej kobiecy porównał do poruszania się koni w czasie parady. Zauważył, że panie podnoszą wysoko kolana a stopy stawiają jedna za drugą w tej samej linii. Jak zatem wygląda chód typowo męski ? Wg autorów badań można go porównać do toczenia się.

Przy okazji badań badacze zauważyli bardzo ciekawą prawidłowość. Osoby, które obserwują model chodu charakterystyczny dla mężczyzn mają wrażenie, że postać się do nich zbliża. Równocześnie gdy obserwują chód żeński, wydaje im się, że postać się oddala. Dlaczego tak się dzieje ? Trudno powiedzieć, ale autorzy spekulują, że odpowiedzi należy szukać w ewolucji. – Gdy zauważymy mężczyznę i nie mamy pewności czy się do nas zbliża czy oddala, lepiej założyć to pierwsze – powiedział Zwan. Dlaczego ? Bo naszym dalekim przodkom bezpieczniej było w takiej sytuacji przygotować się do ucieczki albo konfrontacji niż później żałować. Dlaczego w takim razie chód kobiecy kojarzy nam się z oddalającą postacią ? Choć to znowu przypuszczenie, autorzy także w tym przypadku wskazują na ewolucję. „Kiedy jest się małym dzieckiem i nie do końca jest się pewnym czy mama stoi przodem do nas czy odchodzi, prawdopodobnie bezpieczniej jest założyć, że jednak odchodzi, aby być gotowym do pójścia za nią” – tłumaczy van der Zwan.

Kto zwraca uwagę na chód ? Modelki, aktorzy,… Okazuje się, że nawet ze stawiania nogi za nogą specjaliści potrafią wyciągnąć zaskakujące wnioski. Wnioski dotyczące nas dzisiaj i nas przed wieloma wiekami.

Tomasz Rożek

Brak komentarzy do Uważaj jak chodzisz

Smog? Bez spiny, jest super!

Na portalu TwojaPogoda.pl pojawił się kilka dni temu artykuł pt. „Histeria z powodu smogu. Kto ją wywołuje i dlaczego?” No właśnie. Kto histeryzuje? Po co? I kto na tym zyskuje?

Na portalu TwojaPogoda.pl pojawił się kilka dni temu artykuł pt. „Histeria z powodu smogu. Kto ją wywołuje i dlaczego?” No właśnie. Kto histeryzuje? Po co? I kto na tym zyskuje?

Pod artykułem nie podpisał się autor, wiec rozumiem, że to tekst redakcyjny. Dziwię się, że portal, który sam wielokrotnie ostrzegał przed powietrzem złej jakości (np. „Rekordowy smog spowija Polskę. Trujący każdy wdech” z 2017-01-08), sam wielokrotnie opisywał tragiczne skutki oddychania zatrutym powietrzem (np. „Smog w stolicy Iranu zabija tysiące ludzi” z 2007-08-03), dzisiaj postanowił odwrócić smoga ogonem.

Zrzut ekranu 2017-02-19 o 18_Fotora

Tekst można streścić do następujących punktów:

  1. Kiedyś było gorzej.
  2. Na Zachodzie wcale nie jest tak czysto.
  3. Ekologiczne lobby jest na pasku producentów pieców.
  4. Smogu nie trzeba się obawiać.

No to po kolei.

Ad1. Kiedyś było gorzej. Tak, kiedyś było znacznie gorzej. Choć to dzisiaj jest więcej rakotwórczych dioksyn i furanów niż kiedyś. Ale nawet gdyby dzisiaj stężenia wszystkich szkodliwych substancji były niższe niż powiedzmy 20 lat temu, czy to automatycznie oznacza że jest super? No nie. Trzeba spojrzeć w statystyki i w pomiary. I okazuje się, że super nie jest. Że jest źle. I to bardzo. To, że niektórzy obudzili się dopiero wczoraj nie oznacza że kiedyś smogu nie było. Oznacza tylko… że niektórzy obudzili się wczoraj. Ani mniej, ani więcej. Organizacje ekologiczne od wielu lat mówią o zatrutym powietrzu. Tyle tylko, że dotychczas niewielu tego słuchało. W tym roku media informują o smogu częściej niż w poprzednich latach. Dlaczego? Dlatego, że Internet o tym więcej pisze, bo świadomość ludzi wzrosła. To system naczyń połączonych. Odczuwam osobistą satysfakcje, że i ja w budzeniu tej świadomości miałem swój udział publikując prosty pokaz z wacikiem i odkurzaczem. Zrobiłem to w pierwszych dniach stycznia. Choć powietrze było dużo gorsze w listopadzie i grudniu, przeważająca większość materiałów w mediach została zrobiona dopiero w styczniu. Do dzisiaj na różnych platformach moje video zobaczyło ponad 2 mln ludzi. Od tego czasu ten sam pokaz był powtarzany kilkukrotnie we wszystkich serwisach informacyjnych głównych stacji telewizyjnych.

>>> Więcej naukowych informacji na FB.com/NaukaToLubie.

Ad2. Na Zachodzie wcale nie jest tak czysto. Szczerze. Co mnie obchodzi jakie jest powietrze w Londynie, Brukseli czy Paryżu? Oddycham powietrzem w Warszawie albo na Śląsku. I to mnie obchodzi. Argumentowanie, że nie ma co panikować, bo za granicą nie jest wcale tak zielono jak mogłoby się wydawać, jest poniżej poziomu piwnicy.

Ale, podejmując wyzwanie… Jakość powietrza w stolicach zachodniej Europy jest dużo lepsza niż w miastach Polski. Znane są zestawienia mówiące, że to nasze miasta są w czołówce najbrudniejszych miast kontynentu. To, że w Niemczech spala się więcej węgla nie oznacza, że ten węgiel w większym stopniu zanieczyszcza powietrze. Bo,

  • w Niemczech węgiel nie jest palony w prywatnych piecach tylko w elektrowniach i elektrociepłowniach, a te zakłady (także w Polsce) mają filtry i nie dokładają się do smogu. Tymczasem w Polsce sporo węgla spala się w prywatnych piecach.
  • W Polsce nie obowiązują żadne normy dotyczące jakości węgla. W efekcie to u nas spala się węgiel wydobywany np. w Czechach, który tam nie mógłby zostać sprzedany.

Już wiesz redakcjo dlaczego argument o ilości spalanego w Niemczech i Polsce węgla jest jak kulą w płot?

>>> Więcej naukowych informacji na FB.com/NaukaToLubie.

Ad3. Ekologiczne lobby jest na pasku producentów pieców. Gdy pisałem o elektrowniach jądrowych (uważam, że w Polsce powinny powstać), słyszałem, że jestem przeciwko górnictwu na pasku lobby jądrowego. Teraz słyszę, że opłaca mnie lobby producentów węglowych pieców, bo piszę i alarmuję na temat złej jakości powietrza. Robię to zresztą od wielu lat każdego roku w czasie sezonu grzewczego. W międzyczasie byłem na pasku przemysłu farmaceutycznego (tak, uważam, że szczepionki to jedno z największych osiągnieć ludzkości), oraz przemysłu biotechnologicznego (tak, nie znajduję naukowych dowodów przeciwko GMO).

Zarzucenie komuś, że jest skorumpowany jest bajecznie proste, ale intelektualnie dość małe. Redakcja TwojaPogoda.pl naprawdę wierzy, że ci, którzy ostrzegają przed złej jakości powietrzem są kupieni przez producentów nowoczesnych pieców? Dodam tylko, że po to by ulżyć powietrzu nie trzeba koniecznie pieca wymieniać. Dużo da przeczyszczenie przewodów kominowych. Sporo da odczyszczenie przed sezonem grzewczym, a nawet w trakcie jego trwania samego pieca i odpowiedni sposób składania ognia w piecu. Te czynności nic nie kosztują, a pozwalają oszczędzić pieniądze bo podnoszą sprawność pieca i instalacji. Nie jest wiec prawdą, że smog można zlikwidować tylko wymieniając stary piec na nowiutki. Jest wiele innych rozwiązań, a niektóre z nich przynoszą oszczędności. No ale tego z tekstu o histerii smogowej się nie dowiemy. Nie możemy się dowiedzieć, bo to złamałoby linię argumentacji redakcji, że ci, którzy piszą i mówią o smogu są w kieszeni producentów drogich pieców.

>>> Więcej naukowych informacji na FB.com/NaukaToLubie.

Ad4. Smogu nie trzeba się obawiać. Redakcja portalu twierdzi, że cała ta histeria ze smogiem została „opracowana przez niektóre organizacje” i „wcale nie chodzi [w niej]o ochronę naszego zdrowia”.

Był taki czas, kiedy uważano, że zdrowe jest naświetlanie się promieniami jonizującymi. I choć w pewnym momencie stało się jasne, że te mogą być źródłem raka, wiele osób dalej się naświetlało. Był taki czas, gdy twierdzono, że zdrowe jest palenie papierosów. Firmy tytoniowe przedstawiały opracowania które tego dowodziły. Przez lata dowodzono też, że ołów z benzyny nie ma nic wspólnego ze złym stanem zdrowia ludzi wdychających spaliny albo mieszkających niedaleko szlaków komunikacyjnych. Dzisiaj benzyny są bezołowiowe, na paczkach papierosów są ostrzeżenia o nowotworach spowodowanych paleniem a źródła promieniowania jonizującego są zamykane w pancernych szafach żeby nie wpadły w niepowołane ręce.

Nie ma w naszym ciele organu czy układu, który nie byłby narażony z powodu powietrza złej jakości. Są na to tysiące naukowych dowodów. Serce, płuca, ale także mózg. Układ hormonalny, układ nerwowy, krwionośny… Tam gdzie powietrze jest bardziej zanieczyszczone jest mniejsza masa urodzeniowa dzieci, a ludzie żyją krócej. Ocenia się że w Polsce każdego roku umiera z powodu powietrza złej jakości ponad 40 tys. osób. Szczególnie narażeni są chorzy (np. na astmę), osoby starsze i dzieci. „Smogu nie trzeba się obawiać”? W tekście z TwojaPogoda.pl znalazł się właśnie taki śródtytuł. Trzeba, i to bardzo. Dobrze, że coraz lepiej zdajemy sobie z tego sprawę. To, że są ludzie czy firmy, które na rosnącej świadomości robią pieniądze, to naturalne i oczywiste. Są firmy, które robią pieniądze na produkcji samochodowych pasów bezpieczeństwa i systemów ABS, choć gdy je wprowadzano mówiło się że to tylko sposób na wyciąganie pieniędzy z kieszeni klienta. Tam gdzie jest popyt tam pojawia się i podaż. Od nas, klientów, zależy czy damy się nabierać na tanie  sztuczki (np. maseczki) czy zdecydujemy się na rozwiązania, które problem rozwiązują choć w części.

Zanim zakończę, chciałbym jeszcze wyjaśnić trzy kwestie.

  1. Węgiel nie jest źródłem smogu. Źródłem smogu jest palenie węglem niskiej jakości i śmieciami w piecach, które nie są odpowiednio przygotowane do eksploatacji. Takie są fakty. Mówienie więc, że walka ze smogiem to walka z węglem jest bzdurą i niepotrzebnie rozgrzewa emocje. W Polsce kilka milionów ludzi żyje dzięki przemysłowi wydobywczemu. Ten przemysł jest przestarzały i zżerany wewnętrznymi problemami. Nie da się jednak (z wielu różnych powodów) po prostu wszystkich kopalń zamknąć. Węgiel może być czarnym złotem o ile wykorzystamy go w sposób nowoczesny i innowacyjny. Np. gazując pod ziemią, budując instalacje niskoemisyjne czy zeroemisyjne. Podkreślanie, że walka o czyste powietrze to walka z węglem, powoduje u milionów ludzi żyjących z wydobycia węgla (i przemysłu który z tym jest związany) automatyczną niechęć do działań mających na celu poprawę jakości powietrza.
  1. Wiarygodność pomiaru. „Jeśli na jednej ulicy pomiary wskazują na duże skażenie powietrza, wcale nie oznacza to, że w Twojej okolicy jest równie niebezpiecznie.” Nieprawdą jest, co pisze redakcja TwojaPogoda.pl, że pomiaru z jednej stacji nie można stosować do całego miasta. W przeciwieństwie do temperatury, która rzeczywiście może się szybko zmieniać, zanieczyszczenie powietrza jest dość jednorodne na większym obszarze. W Polsce nie mamy niedoboru stacji pomiarowych. A na tak duże miasto jak np. Warszawa wystarczy ich kilka, by wiarygodnie przedstawić jakość powietrza w mieście. Nawet jeżeli na danym obszarze znajdują się pojedyncze punkty pomiarowe, odpowiednie algorytmy (biorące pod uwagę wiele zmiennych) wyliczają stężenie prawdopodobne. Jest ono (a robi się takie testy) bardzo bliskie stężeniom rzeczywistym. Warto rzeczywiście zwrócić uwagę, by dane na których się opieramy (w tym dane w aplikacjach w telefonach komórkowych) pochodziły z oficjalnych stacji, a nie były zniekształcane przez mierniki prywatne albo komercyjne, których dokładność jest zła, albo bardzo zła.
  1. Skarga na Polskę. Niektóre organizacje ekologiczne za zanieczyszczone powietrze postanowiły złożyć na Polskę skargę do Komisji Europejskiej. Taki ruch uważam za totalnie antyskuteczny. Smogu nie pozbędziemy się (nie zminimalizujemy) dekretami rządu czy uchwałami samorządu, bo smog powstaje nie w dużych zakładach przemysłowych tylko w naszych prywatnych kominach i rurach wydechowych. Komisja Europejska może nałożyć na nas karę i co? I to nas, Polaków, przekona do zmiany głupich i szkodliwych przyzwyczajeń? Myślę, że raczej utwierdzi w przekonaniu, że Bruksela znowu nas atakuje. I z całą pewnością atakuje dlatego, że chce położyć łapę na naszym węglu. Składając skargę do Komisji Europejskiej niektóre organizacje ekologiczne właśnie dały do ręki argument tym, którzy ze smogiem nie mają zamiaru walczyć. Sorry, taki mamy klimat. 

Tomasz Rożek

>>> Więcej naukowych informacji na FB.com/NaukaToLubie.

3 komentarze do Smog? Bez spiny, jest super!

Type on the field below and hit Enter/Return to search