Nauka To Lubię

Oficjalna strona Tomasza Rożka

Tag: rak

Zakażenia w szpitalach poważnym problemem

Brudne ręce personelu medycznego, skażone otoczenie chorego, zatrudnianie osób nieprzygotowanych do pracy w szpitalach wskazują, jak bardzo nieskuteczny jest w niektórych placówkach system przeciwdziałania zakażeniom wewnątrzszpitalnym ostrzega NIK. Tymczasem szacuje się, że efektywne systemy kontroli zakażeń mogą zmniejszyć ryzyko ich wystąpienia od 55% do 70%.

Brudne ręce personelu medycznego, skażone otoczenie chorego, zatrudnianie osób nieprzygotowanych do pracy w szpitalach wskazują, jak bardzo nieskuteczny jest w niektórych placówkach system przeciwdziałania zakażeniom wewnątrzszpitalnym ostrzega NIK. Z najnowszego raportu Izby wynika, że wzrost liczby pacjentów m.in zarażonych lekoodpornymi szczepami bakterii Klebsiella Pneumoniae NDM(+) w 2016 r. był niemal trzykrotnie wyższy niż w 2015 r. Niestety NIK nie może podać kompletnych danych, bowiem funkcjonujące w kontrolowanych szpitalach systemy monitorowania i raportowania o zakażeniach nie dostarczały pełnych danych. Przekazane zestawienia w ocenie Izby mogą być znacznie zaniżone.

Zakażenia szpitalne związane z udzielaniem świadczeń zdrowotnych stanowią poważny problem wszystkich szpitali, nawet w krajach o najwyższych standardach opieki zdrowotnej. Dotyczą od 5 do 10 % osób leczonych szpitalnie. Zakładając, że w polskich szpitalach ulega zakażeniom tylko 5% procent pacjentów to i tak daje to ok. 400 tys. osób. Źródłem przenoszenia bakterii mogą być m. in. brudne ręce personelu medycznego, niejałowy sprzęt, skażone otoczenie chorego, przyjmowanie pacjentów wymagających szczególnych warunków hospitalizacji bez ich zapewnienia, zatrudnianie osób nieprzygotowanych do pracy w szpitalach.

Do grupy osób najbardziej narażonych należą pacjenci np. po przeszczepach, z zaburzeniami odporności po terapii przeciwnowotworowej, po rozległych oparzeniach, dzieci do pierwszego roku życia i osoby starsze. Zakażenia szpitalne wydłużają pobyt w szpitalu, powodują powikłania prowadzące często do niepełnosprawności, przez co zwiększają koszty leczenia. Koszty generują też roszczenia pacjentów, którzy potrafią udowodnić, że zostali zakażeni z winy szpitala.

Narzędziem służącym ograniczeniu przypadków zakażeń szpitalnych powinien być prawidłowo działający system zapobiegania i zwalczania zakażeń, utworzony w szpitalu na podstawie istniejących przepisów prawa. Szacuje się, że efektywne systemy kontroli zakażeń mogą zmniejszyć ryzyko ich wystąpienia od 55% do 70%. Kontrolą objęto 18 szpitali (17 działających jako samodzielny publiczny zakład opieki zdrowotnej utworzony przez samorząd i jeden szpital działający w formie spółki prawa handlowego) oraz 4 stacje sanitarno-epidemiologiczne finansowane z budżetu państwa w okresie od 2015 r. do końca I półrocza 2017 r.

Najważniejsze ustalenia kontroli

W kontrolowanych szpitalach odnotowano wzrost liczby pacjentów, u których zdiagnozowano zakażenie szpitalne o 8,5%, mimo, że liczba wszystkich hospitalizowanych pacjentów w tym samym okresie spadła o 1,9%. Przykładem szybkiego wzrostu liczby zakażonych pacjentów jest jeden ze szpitali na Mazowszu. Tam od stycznia 2015 r. do czerwca 2017 r. współczynnik zachorowalności wzrósł niemal dwukrotnie z 1,14% do  2,25% (współczynnik pokazuje liczbę zakażonych na 100 pacjentów hospitalizowanych). Najwyższy wzrost, jak wykazała NIK był na Oddziale Anestezjologii i Intensywnej Terapii ( z poziomu 27,35% w 2015 r. do 34,02 % w 2016 r. aż do 41,35 % w 2017 r. Na innych oddziałach też odnotowano wzrosty ale nie tak gwałtowne. Jak wyjaśnił zastępca dyrektora ds. lecznictwa szpitala wzrost liczby zarejestrowanych zakażeń nie jest spowodowany rzeczywistą liczbą zachorowań ale poprawą dostarczanych danych. NIK nie kwestionuje, że na wzrost współczynnika zachorowań mogło wpłynąć ujawnienie przez Zespół Kontroli Zakażeń Szpitalnych większej liczby zakażeń, jednak dynamika wzrostu budzi zaniepokojenie i zdaniem NIK wymaga pogłębionej analizy przyczyn ich występowania.

Izba zwraca też uwagę na prawie trzykrotny wzrost (o 278,7%) między 2015 a 2016 rokiem zakażeń lekoopornymi bakteriami Klebsiella Pneumoniae NDM(+). Najwięcej pacjentów hospitalizowano w województwie mazowieckim 2 757 osób, najmniej w pomorskim i małopolskim po 7 pacjentów. Z informacji Konsultanta Krajowego w dziedzinie mikrobiologii lekarskiej wynika, że ta bakteria w 2015 r. stanowiła najpoważniejszy problem medyczny i epidemiologiczny, dotyczący w szczególności szpitali warszawskich. Charakteryzuje się niezwykle niebezpieczną lekoopornością (na niemal wszystkie antybiotyki). Jednocześnie potrafi się szybko rozprzestrzeniać i utrzymywać w przewodzie pokarmowym przez kilka lat. W latach 2015 – 2017 (I półrocze) w województwie mazowieckim liczba hospitalizowanych pacjentów z jej powodu wynosiła odpowiednio 404, 1316 i 1037.

Poważny problem stanowi też sepsa (posocznica), która jest zespołem objawów spowodowanym nadmierną reakcją organizmu  na zakażenie (organizm walcząc z zakażeniem zaczyna niszczyć zdrowe organy). Sepsa stanowi bezpośrednie zagrożenie dla życia. W jej przebiegu dochodzi do niewydolności nerek, wątroby, serca, płuc. Najważniejsze w leczeniu jest możliwie najszybsze podanie antybiotyków. Z danych Narodowego Funduszu Zdrowia wynika, że w badanym przez NIK okresie liczba dorosłych hospitalizowanych z powodu sepsy wyniosła: 2015 r. – 19 053, 2016 r. – 21 522 a w pierwszej połowie 2017 r. – 10 962. Najwięcej, bo prawie jedną piątą (18,5%) leczono w województwie mazowieckim. W tym okresie Narodowy Fundusz Zdrowia zapłacił za leczenie sepsy w ramach kontraktów prawie 450 milionów złotych.

Zdaniem NIK, prowadzenie rejestru sepsy pozwoliłoby na uzyskanie wiarygodnych danych o rozpoznanych przypadkach, niezbędnych do analiz jej objawów, sposobów leczenia i poziomu śmiertelności. 

Na wysoki poziom zakażeń, w ocenie NIK, ma wpływ brak wyspecjalizowanego personelu medycznego. W składach Zespołów Kontroli Zakażeń Szpitalnych, powołanych w szpitalach (we wszystkich 18 kontrolowanych takie istniały) brakowało lekarza o wymaganej specjalności, odpowiedniej liczby pielęgniarek epidemiologicznych oraz specjalisty do spraw mikrobiologii.

Na dzień 30 czerwca 2017 r. w Polsce było zawodowo czynnych tylko 110 lekarzy specjalistów w dziedzinie mikrobiologii, w tym 61 w wieku powyżej 55 lat. Według NIK, taka sytuacja nie daje gwarancji należytego sprawowania ciągłego i bieżącego nadzoru epidemiologicznego. 

Wśród krajów europejskich Polska zajmujeostatnie miejsce pod względem praktykujących lekarzy specjalistów w dziedzinie mikrobiologia – bakteriologia. Niewiele lepiej jest z epidemiologami. W całej Polsce pracuje ich 219, najwięcej w województwie mazowieckim 57, najmniej w opolskim – 1.

Brakuje też pielęgniarek epidemiologicznych. To osoba uczestnicząca w szeroko pojętym zwalczaniu zakażeń, m. in. kontrolująca stan sanitarno – epidemiologiczny szpitala, prowadząca rejestr zakażeń, szkolenia personelu, nadzorująca i monitorująca pracę personelu, uczestnicząca w planowaniu opieki nad pacjentem z zakażeniem szpitalnym. Zgodnie z ustawą o zwalczaniu zakażeń  liczba pielęgniarek epidemiologicznych powinna być nie mniejsza niż 1 na 200 łóżek szpitalnych.  W 6 kontrolowanych szpitalach posiadających powyżej 200 łóżek nie zapewniono ustawowej liczby takich pielęgniarek. W dwóch mazowieckich szpitalach w skład Zespołu Kontroli Zakażeń Szpitalnych powołano tylko po jednej pielęgniarce, mimo, że szpitale te posiadały odpowiednio 354 i 564 łóżka. Dyrektor jednego z nich brak drugiej pielęgniarki tłumaczył trudnościami finansowymi. Jednak, w trakcie kontroli NIK zamieszczone zostało internetowe ogłoszenie o naborze na stanowisko pielęgniarki epidemiologicznej. Dyrektor drugiego poinformował, że też trwa nabór na to stanowisko. Zdaniem NIK, bezpośrednia podległość pielęgniarki epidemiologicznej kierownikowi danej jednostki zapewniłaby jej samodzielność w realizacji obowiązków i wzmocniłaby jej pozycję w kontaktach z personelem lekarskim.

Wiele uchybień dostrzeżonych przez NIK dotyczyło działalności Zespołów Kontroli Zakażeń Szpitalnych. W trzech szpitalach Zespół nie wywiązywał się z ustawowego obowiązku konsultowania osób podejrzanych o zakażenie lub chorobę zakaźną oraz tych, u których je wykryto. W pięciu brakowało dokumentacji o przeprowadzeniu takich konsultacji.

Odrębną sprawą jest dokumentowanie w szpitalach zakażeń.Analiza kart rejestracji wykazała, że były one sporządzane przez lekarzy nierzetelnie, często z pominięciem wielu danych.NIK skontrolowała 696 losowo wybranych kart. W 18 % z nich nie opisano czynników ryzyka, w 23 % nie podano zastosowanego leczenia antybiotykowego, w ponad 15 % nie odnotowano wykonania badania mikrobiologicznego, w 4 % nie określono postaci klinicznej zakażenia a w 3 % nie podano danych pacjenta. Ponadto 246 kart lekarze wystawili z opóźnieniem sięgającym do 288 dni. W dwóch szpitalach w ogóle nie prowadzono takiego rejestru, co było niezgodne z ustawą o zwalczaniu zakażeń. W jednym ze szpitali w województwie kujawsko – pomorskim nie prowadzono rejestru zakażeń i czynników alarmowych a wyniki badań mikrobiologicznych były rejestrowane w zeszytach prowadzonych na poszczególnych oddziałach. W dwóch przypadkach nie wykazano ujawnionych w badaniach patogenów alarmowych. Adnotacje nie zawierały m.in. daty otrzymania wyniku badań, informacji o potwierdzeniu lub braku wystąpienia patogenu alarmowego czyli drobnoustroju wyjątkowo opornego na działanie leków. Adnotacje obejmowały tylko liczbę stwierdzonych i rozpoznanych zakażeń. W jednym ze śląskich szpitali od 5 lipca do 30 października 2017 r. nie prowadzono rejestru z powodu awarii systemu informatycznego. W czasie kontroli NIK rejestr uruchomiono i do 9 listopada 2017 r. wprowadzono dane 284 pacjentów z 2016 r. W ocenie Izby sporządzanie kart rejestracji z opóźnieniem nie pozwalało na bieżące prowadzenie rejestru zakażeń i utrudniało wiarygodne określenie sytuacji epidemiologicznej szpitala.

A to w konsekwencji doprowadziło do braku precyzyjnych danych o sytuacji epidemiologicznej kraju. Według danych Narodowego Funduszu Zdrowia, w okresie objętym kontrolą (od 2015 r. do końca I półrocza 2017 r.) hospitalizowanych z powodu sepsy było 51 537 pacjentów a według danych Instytutu Zdrowia Publicznego – Państwowego Zakładu Higieny – 2 640. Tymczasem, w każdym z 18 skontrolowanych przez NIK szpitalu wystąpiły przypadki sepsy, w sumie 937 zachorowań.

Centrum Systemów Informacyjnych Ochrony Zdrowia, które gromadzi informacje z rocznych sprawozdań przesyłanych przez szpitale, wskazuje, że w 528 szpitalach stacjonarnych spośród 936 funkcjonujących w Polsce, a więc w ponad połowie, na koniec 2016 r. nie wykazano danych o pacjentach leczonych z powodu zakażenia i zgonów z tego powodu. Nieprawidłowości związane z wykazywaniem błędnych danych stwierdzono w siedmiu placówkach.

NIK ustaliła, że w kontrolowanych szpitalach liczba zakażeń związanych z udzielaniem świadczeń łącznie wyniosła 11 916. Natomiast zakażenie szpitalne zdiagnozowano u 11 488 pacjentów. Jako bezpośrednią przyczynę zgonu, zakażenie szpitalne wskazano  219 pacjentów, tj. ok. 1 % ogólnej liczby zgonów (22 167).

O braku wiarygodnych danych świadczą przeprowadzone tzw. badania punktowe. To badania zorganizowane w Polsce zgodnie z zaleceniem Rady Europy. Koordynowali je naukowcy z Collegium Medicum w Bydgoszczy, Uniwersytetu Mikołaja Kopernika w Toruniu i Narodowego Instytutu Leków w Warszawie.  Te badania punktowe wykazały, że liczba zakażeń szpitalnych może być nawet 5-krotnie wyższa, niż wynika to z danych Ministerstwa Zdrowia prezentowanych w mapach potrzeb zdrowotnych.

W Polsce w kontrolowanym okresie mogło dojść do ok. 400 tys. zakażeń rocznie.A to przekłada się na wydatki. Niestety żaden z kontrolowanych szpitali nie dysponował precyzyjnymi danymi dotyczącymi kosztów poniesionych w związku z wystąpieniem zakażenia. Analizy były prowadzone jedynie przez część szpitali, a koszty wyliczano w sposób uproszczony.  W 7 z kontrolowanych szpitali nie prowadzono ewidencji księgowej kosztów związanych z leczeniem zakażeń, np. w jednym ze szpitali w województwie warmińsko – mazurskim nie było danych dotyczących m.in. szacunkowych kosztów związanych z przedłużeniem leczenia pacjentów, u których wystąpiło zakażenie. Dyrektor tłumaczył tę sytuację niedoskonałością posiadanych narzędzi informatycznych. W pozostałych 11 szacunkowe koszty związane z przedłużeniem leczenia w kontrolowanych szpitalach wyniosły grubo ponad 85 milionów zł.

Zakażenia powodują wydłużenie czasu pobytu chorego w szpitalu. Średni pobyt  wynosił nieco ponad 5 i pół dnia. Zakażenie wydłużało ten czas do ponad 16 dni. Jak wynika z wyjaśnień dyrektorów szpitali, wydłużony czas leczenia jest głównym czynnikiem wpływającym na koszty leczenia pacjenta z zakażeniem.

Nie wszystkie szpitale realizowały zalecenia i decyzje organów Państwowej Inspekcji Sanitarnej w wyznaczonym terminie. Trzeba jednak przyznać, że większość podjęła działania w tym kierunku.

NIK zwraca też uwagę na niedostateczną liczbę badań mikrobiologicznych a to one pozwalają wcześnie wykrywać zakażenia i ustalać skuteczne antybiotyki. Średnia liczba takich badań w przeliczeniu na 1 łóżko szpitalne w danym roku była ok. dwukrotnie niższa niż w krajach Unii.

W trakcie kontroli okazało się, że 3 szpitale nie mają izolatek co jest niezgodne z ustawą o zwalczaniu zakażeń.

W cieple, wilgoci i brudzie bakterie, wirusy, grzyby  znajdują znakomite warunki do przetrwania i namnażania. Dlatego tak istotną rolę w zapobieganiu zakażeniom odgrywa czystość np. instalacji wentylacyjnych i klimatyzacji. Niestety w 5 szpitalach, jak ustaliła NIK, nie dokonywano okresowych przeglądów takich urządzeń zgodnie z zaleceniami producenta oraz nie dokumentowano czynności serwisowych. W jednym z mazowieckich szpitali nie zapewniono skutecznej wentylacji w pomieszczeniach sanitarno – higienicznych i łazienkach dla pacjentów. Brakowało też dokumentacji z okresowych przeglądów, czyszczenia, dezynfekcji bądź napraw urządzeń wentylacyjnych. Także w tym szpitalu powiatowy inspektor sanitarny nakazał doprowadzenie jakości wody do stosownych wymagań. W połowie kontrolowanych szpitali w ciepłej wodzie przekroczona była dopuszczalna norma obecności pałeczek Legionella.

Wnioski

Ustalenia kontroli NIK wskazują na konieczne wprowadzenie systemowych zmian, które powinny wpłynąć na poprawę sytuacji epidemiologicznej w polskich szpitalach. Kontrola wykazała, że mechanizm zapobiegania zakażeniom szpitalnym nie jest skuteczny a to stanowi zagrożenie dla zdrowia i życia pacjentów. Zła sytuacja finansowa części szpitali oraz niedobór wykwalifikowanej kadry medycznej powoduje, że nałożone przez prawo obowiązki nie są wykonywane rzetelnie co spowodowało rozprzestrzenienie się w kilku regionach Polski lekoopornych bakterii. Wadliwie działający system zbierania danych o zakażeniach doprowadził do braku pełnego obrazu skali zakażeń i rodzaju patogenów. NIK skierowała swoje wnioski do ministra zdrowia, kierowników szpitali i Inspekcji Sanitarnej.

17 MAJA 2018 07:00

Tekst i ilustracje pochodzą ze strony www.NIK.gov.pl . Pełny tekst raportu można znaleźć TUTAJ

 

Brak komentarzy do Zakażenia w szpitalach poważnym problemem

Najgroźniejsza broń biologiczna

Gdybym miał powiedzieć, którego rodzaju broni masowego rażenia boję się najbardziej, powiedziałbym, że biologicznej. Moim zdaniem, jest ona bardziej perfidna, niż chemiczna i atomowa.

Gdybym miał powiedzieć, którego rodzaju broni masowego rażenia boję się najbardziej, powiedziałbym, że biologicznej. Moim zdaniem jest ona bardziej perfidna niż broń jądrowa i chemiczna.

Zobacz odcinek:       https://youtu.be/raMiib2O28k

Tworząc ranking najgroźniejszych rodzajów broni zacząłem się zastanawiać, jakie kryteria powinienem wziąć pod uwagę. Na pewno skalę i skuteczność rażenia, koszty produkcji i dostępność komponentów, zaawansowanie technologiczne i łatwość zatrudnienia specjalistów. Nie bez znaczenia jest także to czy po użyciu można zająć zdobyty teren, czy też trzeba latami czekać, aż „czynnik zabijający” się zneutralizuje.

Organizmy chorobotwórcze, które wywołują tak groźne choroby jak cholerę, ospę, dur brzuszny, plamisty, dżumę czy żółtą febrę, a także grypę można zdobyć stosunkowo łatwo w licznych bankach genetycznych, znajdujących się przy dużych ośrodkach naukowych. Znane są przypadki kiedy państwom rządzonym przez dyktatorów, chorobotwórcze bakterie czy wirusy dostarczała firma kurierska. Koszty produkcji broni biologicznej są bardzo małe.

Do rozmnażania bakterii wystarczy wiedza zdobyta na podstawowym kursie biologii, a można to robić w niewielkim laboratorium, które można umieścić właściwie wszędzie. Do rozmnażania na masową skalę groźnych organizmów można użyć kadzi, które wykorzystuje się np. do … warzenie piwa.

Broń biologiczna jest bardziej perfidna niż chemiczna. Można rozsiać nad wybranym terenem bakterie, które np., zniszczą uprawy i doprowadzając mieszkańców do głodu, albo gospodarkę do upadku. To się nazywa terroryzm socjoekonomiczny. W taki sam sposób można zabić wszystkie zwierzęta hodowlane. Zarazki nie muszą być zrzucane z samolotów, mogą być roznoszone przez owady czy gryzonie. W rzeczywistości historia zna takie przypadki.

W 1940 roku, na chińskie miasta, Japończycy rozrzucili zakażone dżumą pchły, wywołując epidemię. Ale to nie był pierwszy przypadek użycia broni biologicznej. W starożytności zatruwano studnie wrzucając do nich zdechłe zwierzęta, a nierzadko zdarzało się, że w czasie oblężenia z katapult w kierunku miast wystrzeliwano zwłoki ludzi czy zwierząt, które zmarły na jakąś chorobę zakaźną. W czasie jednej z wojen pod koniec XV wieku Hiszpanie skazili wino w Neapolu krwią trędowatych.

Bardzo trudno powiedzieć kiedy po raz ostatni mieliśmy do czynienia z atakiem bronią biologiczną. W zależności od wykorzystanego patogenu, od ataku do epidemii może minąć nawet kilka tygodni. W innych przypadkach skutki chorobotwórcze mogą nastąpić niemalże natychmiast po ataku. Nawet gdybyśmy wiedzieli że właśnie zrzucono na nas, wpuszczono do wody w wodociągach, albo do wentylacji w budynku chorobotwórcze bakterie, niewiele możemy zrobić. Szybka i wysoka dawka antybiotyków? Tak, ale tylko wtedy, gdy wiemy czym zaatakowano. A określenie tego wcale nie jest takie proste. Testy wyszkolonych grup ludzi (muszą jeszcze znajdować się gdzieś w pobliżu) mogą trwać nawet kilka godzin, a jest to czas w którym większość bakterii już się w organizmie „zadomowiła”. Nawet jednak, gdyby od razu było wiadomo jakimi bakteriami zaatakowano, z symulacji robionych w USA wynika, że skuteczny atak biologiczny bakteriami wąglika tylko na jedno większe miasto zaowocowałby zużyciem całych krajowych zapasów antybiotyków w ciągu dwóch tygodni.

A co się stanie gdy na czynnik biologiczny nie ma antybiotyków? Jeden z twórców radzieckiego programu broni biologicznej Ken Alibek po ucieczce do USA mówił wprost, że celem radzieckich naukowców pracujących nad bronią biologiczną było produkowanie takich bakterii i wirusów, na które nie ma szczepionek ani antybiotyków. W praktyce jedna grupa naukowców produkowała metodami inżynierii genetycznej zabójczy organizm, a druga próbowała znaleźć antidotum. Jak się to NIE udawało, uznawano czynnik za idealny do użycia. Usilnie pracowano – a może dalej się to robi – nad zwiększeniem tzw. wirulencji bakterii czy wirusów, których naturalną szkodliwość uznano za niewystarczającą. Wirulencja to zdolności do wniknięcia, namnożenia się oraz uszkodzenia tkanek. Stwarzano także szczepy, które w naturze nie występują, łącząc np. najbardziej groźne cechy dwóch bakterii. Można było mieć pewność, że wróg na pewno nie ma na taki czynnik ani szczepionki ani antybiotyku. W ten sposób powstawały nowe odmiany wirusa ospy i wirusa Marburg.

Broń biologiczna jest groźniejsza od chemicznej jeszcze pod jednym względem. Jest samopowielająca się. Jej zabójcze działanie może się potęgować z biegiem czasu.Drobnoustroje rozsiane podczas ataku biologicznego rozmnażają się w organizmach ofiar i dalej rozprzestrzeniają się same. Tak właściwie wcale nie trzeba dużej ilości bakterii, żeby zarazić sporą grupę ludzi. Niewielka ilość bakterii wąglika – które w formie przetrwalnikowej wyglądają jak kakao – można przetransportować wszędzie. Nawet najbardziej drobiazgowe kontrole nic tutaj nie pomogą.

Broń biologiczna ma jednak dosyć istotną wadę z punktu widzenia prowadzenia wojny. Na długi czas może skazić zaatakowany teren. Brytyjczycy w czasie testów skuteczności laseczek wąglika pod koniec II Wojny Światowej skazili na 50 lat tereny szkockiej wyspy Gruinard. Oczywiście z punktu widzenia terrorystów, skażenie to żadna wada. Terroryści zwykle nie zajmują zaatakowanych przez siebie terenów.

Podsumowując. Broń biologiczna jest łatwa w użyciu i transporcie. Można ją – np. wąglik – przesłać nawet listem. Sama się powiela a jej wyprodukowanie – mówię tutaj o najbardziej dostępnych szczepach – nie wymaga dużej wiedzy. Dla terrorystów jest mniej dostępna niż niektóre trujące gazy, a jej sporym minusem jest to że zostawia za sobą skażony teren. Z kolei plusem jest to, że używający tej broni może zostać niewykryty. Śmierć ludzi, zwierząt, zagłada upraw może wystąpić wiele dni a nawet tygodni po użyciu tej broni.

Brak komentarzy do Najgroźniejsza broń biologiczna

Najnowocześniejsza broń chemiczna

Jak działa broń chemiczna? Szybko i boleśnie. Bardzo boleśnie i bardzo okrutnie. Gdy po raz pierwszy na masową skalę zastosowali ją Niemcy w czasie I Wojny Światowej, cześć niemieckich dowódców meldowała do sztabu, że stosowanie takiej broni to hańba dla prawdziwych żołnierzy.

Jak działa broń chemiczna? Szybko i boleśnie. Bardzo boleśnie i bardzo okrutnie. Gdy po raz pierwszy na masową skalę zastosowali ją Niemcy w czasie I Wojny Światowej, cześć niemieckich dowódców meldowała do sztabu, że stosowanie takiej broni to hańba dla prawdziwych żołnierzy.

Teoretycznie broni chemicznej nie wolno badać ani produkować. Tak mówią międzynarodowe traktaty. W praktyce w ostatnich latach miało miejsce przynajmniej kilka ataków chemicznych. Ostatni, kilka tygodni temu miał miejsce w Syrii. Sposoby działania broni chemicznej są różne bo wiele zależy od zastosowanej substancji. Generalnie jednak wszystkie gazy bojowe dzieli się na pięć kategorii.

I Wojna Światowa. Jeden z pierwszych (a może pierwszy) atak gazowy z użyciem chloru. Gaz wypuszczano z butli zakopanych w ziemi.

Pierwszym gazem bojowym zastosowanym na polu walki był chlor. Wykorzystali go Niemcy podczas I Wojny Światowej. Chlor, ale też fosgen należy do środków krztuszących. Ich działanie polega głównie na podrażnieniu i paraliżu dróg oddechowych. W skutek tego dochodzi do ich śmiertelnego oparzenia wewnętrznych organów. Środki działające na drogi oddechowe są mało skuteczne, gdy żołnierze mają maski. W pierwszej wojnie światowej maski wprowadzono jednak dopiero po tym jak dziesiątki tysięcy ludzi w konwulsjach udusiło się w okopach.

Druga grupa to środki duszące. Wbrew nazwie nie chodzi jednak o sparaliżowanie układu oddechowego, ale o zablokowanie hemoglobiny, cząsteczki znajdującej się w czerwonej krwince, której celem jest roznoszenie tlenu po organizmie. Człowiek oddycha normalnie, ale w ciągu kilkudziesięciu sekund i tak się dusi. Tlen nie jest z płuc transportowany, a dość okrutna śmierć następuje z powodu obumierania mózgu. Środkiem duszącym jest Cyklon-B, którym zabijano w komorach gazowych, ale także cyjanowodór, który Niemcy stosowali w czasie II wojny światowej.

Trzecia i chyba najgroźniejsza bo najskuteczniejsza grupa to środki paralityczno-drgawkowe. Blokują one komunikację pomiędzy komórkami nerwowymi. To tak jak gdyby duży organizm jakim jest miasto odciąć od sieci elektrycznej i telekomunikacyjnej. Totalny chaos informacyjny i paraliż. Przykładami środków paralityczno-drgawkowych są tabun, sarin, soman czy VX. Sarinu użyły kilka lat temu wojska rządowe w Syrii. W wyniku ataku zmarło około 1700 cywilów.

Grupę czwartą stanowią środki parzące. Takim jest np. gaz musztardowy zwany także Iperytem od nazwy miejscowości w Belgii, gdzie w I Wojnie Światowej został po raz pierwszy użyty. W ciągu kilkunastu minut zmarło wtedy w męczarniach kilkadziesiąt tysięcy Brytyjczyków i Francuzów. W wyniku jednego ataku. Grupa podobna a może i większa zmarła w kolejnych dniach i tygodniach. Niemieccy naukowcy szukali gazu, który będzie zabijał przez skórę nawet tych,
którzy mają maski. I tak wynaleźli gaz musztardowy.

I ostatnia grupa to środki halucynogenne. One nie zabijają, ale powodują czasową niedyspozycję. Do tej grupy zalicza się LSD czy BZ, czyli Chinuklidynobenzylan, który był stosowany przez Amerykanów w Wietnamie.

Bojowym środkiem trującym może być wiele związków, które powszechnie są wykorzystywane w przemyśle chemicznym czy medycynie. Ich nie trzeba produkować, je wystarczy kupić i użyć. Dobrym przykładem może być fosgen. Wykorzystuje się go w przemyśle tekstylnym i farmaceutycznym. Gdyby wpuścić go do wentylacji wieżowca, jeden litr w kilka chwil uśmierciłby on tysiące ludzi. Inny przykład to jad kiełbasiany inaczej zwany botuliną. W medycynie kosmetycznej niewielkie ilości tej toksyny wstrzykuje się pod skórę by pozbyć się zmarszczek. To tzw. botox. Dorosły człowiek umiera w męczarniach po wchłonięciu milionowych części grama tej trucizny. Cyjanowodór używa się w przemyśle a iperytem
traktowano komórki rakowe.
Broń chemiczna – z punktu widzenia atakującego – ma wiele innych zalet. Tak szybko jak się pojawia, tak samo szybko znika. Np. sarin jest niebezpieczny zaledwie przez 4 godziny. Iperyt staje się nieszkodliwy po najwyżej kilku dniach. Dodatkową zaletą broni chemicznej jest to, że po jej użyciu wybucha panika. A skutki paniki mogą być groźniejsze od samego ataku.

Reasumując. Z trzech broni masowego rażenia, czyli broni jądrowej, biologicznej i chemicznej, to ta ostatnia jest najtańsza w produkcji i wymaga najmniejszej wiedzy. Choć to dotyczy raczej ataków terrorystycznych, w niektórych sytuacjach wcale nie trzeba się o trujący gaz starać, a wystarczy w odpowiednim momencie wysadzić cysternę przewożącą chemikalia. Cysterny z chlorem czy amoniakiem przejeżdżają przez centra wielu dużych miast.
Ostatnie ataki bronią chemiczną miały miejsce w Syrii, gdzie armia rządowa przy współpracy z armią rosyjską zrzuciła na miasto Duma kilka, może kilkanaście ładunków wypełnionych gazem. Świadkowie mówili, że w powietrzu zaczął się unosić jabłkowy zapach. To sarin. Najpierw pojawia się poczucie niepokoju, potem zwężone źrenice, drgawki, ślinotok i paraliż mięśni, w tym mięśni oddechowych, w końcu śmierć w konwulsjach. Podobnie opisywano ataki, jakie przed wielu laty przeprowadzali na kurdyjskie wioski żołnierza Saddama Husajna.

Profesor Fritz Haber, twórca pierwszych gazów bojowych. Z wykształcenia chemik, po I Wojnie Światowej został uhonorowany Nagrodą Nobla z chemii.

I na koniec jeszcze jedno.
Broń chemiczną zawdzięczamy prof. Fritzowi Haberowi. Po przegranej przez Niemcy I wojnie, Haber był pewien aresztowania i sądu wojennego. Tymczasem rok po zakończeniu wojny, został laureatem nagrody Nobla z chemii. Dzięki tej nagrodzie i powszechnemu szacunkowi Heber mógł kontynuować swoje prace a w ich efekcie wynalazł m.in. cyklon B.

3 komentarze do Najnowocześniejsza broń chemiczna

Karmienie piersią zmniejsza ryzyko cukrzycy

Karmienie dziecka piersią przez ponad sześć miesięcy niemal o połowę obniża u kobiety ryzyko zachorowania na cukrzycę typu 2 – wykazało trwające 30 lat badanie, które publikuje pismo “JAMA Internal Medicine”.

Karmienie dziecka piersią przez ponad sześć miesięcy niemal o połowę obniża u kobiety ryzyko zachorowania na cukrzycę typu 2 – wykazało trwające 30 lat badanie, które publikuje pismo “JAMA Internal Medicine”.

„Zaobserwowaliśmy bardzo silną zależność między okresem, w którym kobieta karmi piersią, a spadkiem ryzyka rozwoju cukrzycy, nawet po uwzględnieniu wszystkich możliwych czynników ryzyka” – skomentowała kierująca badaniami dr Erica P. Gunderson z Kaiser Permanente Division of Research w Oakland (Kalifornia, USA).

Jej zespół przeanalizował dane zebrane wśród 1238 kobiet, uczestniczek badania na temat czynników ryzyka rozwoju choroby wieńcowej – Coronary Artery Risk Development in Young Adults (CARDIA). W momencie włączenia do niego panie były w wieku od 18. do 30 lat i żadna z nich nie miała cukrzycy. W ciągu kolejnych 30 lat, kiedy śledzono stan ich zdrowia, każda kobieta urodziła co najmniej jedno dziecko oraz była poddawana badaniom w kierunku cukrzycy (do siedmiu razy w ciągu całego badania). Uczestniczki udzielały też informacji na temat stylu życia – w tym diety i aktywności fizycznej oraz na temat okresu, w którym karmiły piersią swoje dziecko. W analizie uwzględniono czynniki ryzyka zachorowania na cukrzycę występujące u nich przed ciążą, takie jak otyłość, poziom glukozy na czczo, styl życia, historia występowania cukrzycy w rodzinie, a także zaburzenia metabolizmu podczas ciąży.

Kobiety, które karmiły piersią przez ponad sześć miesięcy były o 47 proc. mniej narażone na rozwój cukrzycy typu 2 w późniejszych latach, w porównaniu z tymi, które nie karmiły wcale. U pań karmiących sześć miesięcy lub krócej spadek ryzyka był mniejszy – o 25 proc.

Długofalowe korzyści z karmienia piersią były widoczne zarówno u kobiet rasy białej, jak i czarnej, niezależnie od tego, czy wystąpiła u nich cukrzyca ciążowa (która zwiększa ryzyko zachorowania na cukrzycę typu 2 w przyszłości). U kobiet rasy czarnej trzykrotnie częściej rozwijała się cukrzyca w ciągu 30 lat badania, jednocześnie rzadziej karmiły one piersią niż kobiety rasy białej.

„Częstość zachorowania na cukrzycę spadała stopniowo wraz z wydłużaniem się okresu karmienia piersią, niezależnie od rasy, wystąpienia cukrzycy ciążowej, stylu życia, rozmiarów ciała i innych metabolicznych czynników ryzyka ocenianych przed ciążą, co sugeruje biologiczny charakter mechanizmu leżącego u podłoża tej zależności” – skomentowała dr Gunderson.

Naukowcy uważają, że może chodzić m.in. o wpływ hormonów produkowanych podczas laktacji na komórki trzustki, które wydzielają insulinę i w ten sposób regulują poziom glukozy we krwi.

Wiedzieliśmy od dłuższego czasu, że karmienie piersią daje wiele korzyści zarówno matce, jak i dzieciom” – przypomniała niebiorąca udziału w badaniu Tracy Flanagan, dyrektor oddziału ds. zdrowia kobiet w Kaiser Permanente Northern California.

Badania wskazują na przykład, że kobiety, które karmiły dziecko piersią są mniej zagrożone zachorowaniem na raka piersi, z kolei dzieci karmione mlekiem mamy są w przyszłości mniej narażone na alergie i astmę, choroby serca, nadciśnienie, otyłość i inne zaburzenia metabolizmu.

W opinii Flanagan wyniki najnowszego badania dostarczają kolejnego argumentu, dla którego „lekarze, pielęgniarki, a także szpitale i decydenci, powinni wspierać kobiety w tym, by karmiły piersią tak długo, jak to możliwe”. (PAP)

Brak komentarzy do Karmienie piersią zmniejsza ryzyko cukrzycy

RNA w 3D

Już 1 mln razy badacze i osoby z całego świata wykorzystały RNAComposer – publicznie dostępny, skuteczny poznański system do modelowania struktury 3D RNA. A to nie jedyny polski sukces w badaniach nad wyznaczaniem struktury RNA.

Już 1 mln razy badacze i osoby z całego świata wykorzystały RNAComposer – publicznie dostępny, skuteczny poznański system do modelowania struktury 3D RNA. A to nie jedyny polski sukces w badaniach nad wyznaczaniem struktury RNA.

RNA to cząsteczki kwasu rybonukleinowego. Bez nich komórka nie mogłaby produkować białek – cząsteczek, które są istotne dla budowy i funkcjonowania komórek. Rodzajów RNA jest sporo i pełnią one w komórce różne funkcje.

I tak np. matrycowe RNA są pośrednikami, dzięki którym z DNA daje się wyciągnąć informacje – przepis na białka. Z rybosomowych RNA zbudowane są rybosomy – komórkowe centra produkcji białek. A transferowe RNA mają przynosić do tych centrów odpowiednie aminokwasy – jednostki budulcowe białek.

Model struktury 3D RNA wirusa Zika wygenerowany przez RNAComposer na podstawie sekwencji. Obecnie struktura ta jest już określona eksperymentalnie i jest zdeponowana w bazie struktur PDB. Źródło: Marta Szachniuk

 

Cząsteczkę RNA tworzy zwykle nić składająca się z połączonych ze sobą reszt nukleotydowych (w skrócie: A, C, G, U). Nawet jeśli rozszyfruje się ich kolejność w łańcuchu RNA, czyli określi sekwencję, nie jest pewne, jak cała cząsteczka układa się w przestrzeni. Bo cząsteczki RNA – w przeciwieństwie do kabla od słuchawek wrzuconych do plecaka – nie zwijają się w przypadkowe supły. Istnieją pewne reguły, które pozwalają przewidzieć, jaki kształt przybierze dana cząsteczka. W rozwikłaniu tego zagadnienia pomocne okazują się komputerowe metody do przewidywania struktur 3D RNA.

Dr hab. Marta Szachniuk wspólnie z zespołem prof. Ryszarda Adamiaka z Instytutu Chemii Bioorganicznej PAN w Poznaniu opracowała darmowy, publicznie dostępny system RNAComposer. Do systemu wprowadza się sekwencję RNA (lub informację o oddziaływaniach między resztami nukleotydowymi, czyli tzw. strukturę drugorzędową), a on w ciągu kilku/kilkunastu sekund oblicza i prezentuje trójwymiarowy model cząsteczki. Program sprawnie radzi sobie zarówno z krótkimi, jak i bardzo długimi łańcuchami cząsteczek RNA o skomplikowanej architekturze. – Wielu naukowców z całego świata używa programu RNAComposer, żeby uzyskiwać pierwsze wyobrażenie tego, jak wyglądać może w 3D cząsteczka, którą badają. Nasz system od 2012 r. wykonał już 1 mln predykcji” – opowiada dr hab. Marta Szachniuk.

To nie jest jedyny system informatyczny do predykcji struktury 3D RNA. Takich automatycznych systemów jest kilka. Poza tym przewidywaniem struktur RNA zajmują się zespoły badawcze wspomagające się badaniami eksperymentalnymi.

Aby porównać skuteczność różnych metod wyznaczania kształtu RNA w przestrzeni 3D, od 2010 roku organizowany jest konkurs RNA-Puzzles. Chodzi w nim o to, by mając zadaną sekwencję RNA, jak najdokładniej wyznaczyć strukturę cząsteczki. Modele przewidziane przez uczestników konkursu porównywane są następnie z wynikami eksperymentów chemicznych i biologicznych prowadzących do określenia struktury. Konkurs organizowany jest obecnie w dwóch kategoriach: serwerów, które automatycznie generują wyniki, oraz w kategorii predykcji ludzkich, gdzie modele powstają w wyniku integracji obliczeń komputerowych i eksperymentów laboratoryjnych. „Jesteśmy najlepsi w kategorii automatycznych systemów do predykcji 3D RNA” – podkreśla dr Szachniuk.

System RNAComposer powstał dzięki temu, że od dekady zespół z ECBiG skrzętnie gromadził ogromną bazę danych dotyczących RNA. W bazie RNA FRABASE zebrano informacje z ogromnej liczby eksperymentów. Takich, z których można było wyciągnąć wnioski o strukturze przestrzennej molekuł RNA. Baza ta jest ciągle aktualizowana i każdy może z niej bezpłatnie skorzystać. „To popularne narzędzie. Wiemy nawet, że na zagranicznych uczelniach korzystają z niej np. studenci w ramach badań i studiów przygotowujących do zawodu bioinformatyka czy biologa” – opowiada dr Szachniuk. Baza ta pomaga m.in. wyszukiwać czy w różnych cząsteczkach powtarzają się jakieś konkretne przestrzenne wzorce.

Polska na światowej mapie badań nad strukturą RNA jest widoczna także dzięki badaniom innych zespołów. Ważną postacią jest tu m.in. prof. Ryszard Kierzek z Instytutu Chemii Bioorganicznej PAN w Poznaniu. Jego prace pozwoliły określić termodynamiczne reguły fałdowania RNA. Nowatorskimi badaniami nad wyznaczaniem struktury RNA zajmuje się również zespół prof. Janusza Bujnickiego z Międzynarodowego Instytutu Biologii Molekularnej i Komórkowej w Warszawie.

PAP – Nauka w Polsce

1 komentarz do RNA w 3D

Co najbardziej skraca życie Polakom? Przeanalizowały to badaczki z Łodzi

Rak płuc kradnie już Polkom więcej lat życia niż rak piersi. A u mężczyzn roczna liczba samobójstw przerasta liczbę ofiar wypadków komunikacyjnych. Badaczki z Łodzi przyjrzały się, dlaczego Polacy nie…

Rak płuc kradnie już Polkom więcej lat życia niż rak piersi. A u mężczyzn roczna liczba samobójstw przerasta liczbę ofiar wypadków komunikacyjnych. Badaczki z Łodzi przyjrzały się, dlaczego Polacy nie żyją tak długo, jakby mogli.

„Chciałyśmy zbadać, które przyczyny zgonu są teraz w Polsce najbardziej istotne z ekonomicznego i społecznego punktu widzenia. I jak to się zmieniło w ciągu 15 lat XXI wieku” – opowiada w rozmowie z PAP dr Małgorzata Pikala z Uniwersytetu Medycznego w Łodzi. Jej badania – prowadzone wspólnie z prof. Ireną Maniecką-Bryła z łódzkiego UM – publikowane były w prestiżowym „Scientific Reports”. 

Badaczki z łódzkiego UM zanalizowały dane z GUS na temat wszystkich zgonów Polaków w latach 2000-2014. Średnia długość życia mężczyzn w Polsce w 2014 r. wynosiła 73,7 lat, a kobiet – 81,7. Od 2000 r. te średnie wzrosły odpowiednio o 4,1 i 3,7 lat. Jednakże pomimo tych pozytywnych zmian, długość trwania życia Polaków różni się na niekorzyść od większości krajów europejskich. Wśród 44 krajów Europy Polska zajmowała pod tym względem w 2014 roku 28. miejsce w grupie mężczyzn i 25. miejsce w grupie kobiet.

JAK POLICZYĆ UTRACONE LATA ŻYCIA?

Badaczki analizując przyczyny tych zgonów i ich znaczenie dla społeczeństwa zastosowały zamiast tradycyjnych współczynników zgonów współczynnik SEYLL – oparty o utracone lata życia. To współczynnik dość nowy, ale stosowany już na świecie, m.in. przez Światową Organizację Zdrowia. SEYLL – w uproszczeniu – uwzględnia, ile lat utraciła przedwcześnie zmarła osoba. „Kiedyś uwzględniało się w tym współczynniku długość życia w Japonii, bo Japończycy biją rekordy w długowieczności. Teraz oblicza się to według specjalnych tablic, skonstruowanych w oparciu o najniższe obserwowane wskaźniki umieralności dla każdej grupy wieku w krajach liczących ponad 5 milionów ludności” – mówi dr Pikala. Tablice te wykazują, ile powinna – w modelowej sytuacji – przeżyć osoba w danym wieku. Według tego wskaźnika np. śmierć noworodka oznacza 86 utraconych lat życia, 30-latka to 54 lat straty, 60-latka – 27 lat, a 100-latka to 2 utracone lata życia.

„Utracone lata życia są o tyle lepszym miernikiem, że bardziej uwzględniają skutki społeczne i ekonomiczne przedwczesnej umieralności” – mówi badaczka z łódzkiego UM. I podaje przykład, że zgony osób młodych są dla społeczeństwa większym obciążeniem niż osób w sędziwym wieku.

Z wyliczeń wynika, że w przeliczeniu na 10 tys. mieszkańców Polski w 2000 r. mężczyźni tracili 2500 lat życia, a w 2014 r. mniej, bo prawie 2200 lat. U kobiet współczynnik ten wynosił odpowiednio 1430 i 1270 lat. Najwięksi złodzieje życia w Polsce to choroby układu krążenia, nowotwory złośliwe, zewnętrzne przyczyny zgonów (w tym przede wszystkim wypadki komunikacyjne i samobójstwa) oraz choroby układów trawiennego i oddechowego.

TRZY GRUPY PRZYCZYN

Naukowcy podzielili przyczyny zgonu na trzy najważniejsze grupy. W pierwszej grupie są m.in. choroby zakaźne, pasożytnicze, związane z ciążą i porodem, a także niedożywieniem. „To grupa istotna w krajach słabo rozwiniętych, ale w Polsce – najrzadziej spotykana” – skomentowała dr Pikala. Drugą grupą przyczyn zgonów są przewlekłe choroby niezakaźne – m.in. nowotwory czy choroby układu krążenia. „To najczęstszy powód zgonów w krajach rozwiniętych, również w Polsce” – powiedziała rozmówczyni PAP. Trzecia zaś grupa to zewnętrzne przyczyny zgonu – wypadki, samobójstwa.

PROSIMY NIE PALIĆ!

Druga grupa przyczyn śmierci – przewlekłe choroby niezakaźne – to w Polsce prawie 80 proc. wszystkich utraconych lat życia mężczyzn i 90 proc. utraconych lat kobiet. Chociaż współczynnik SEYLL w przypadku tych przyczyn spada (to dobry znak), są grupy osób, w których obserwuje się niekorzystne zmiany. „Na przykład zwiększa się liczba lat życia utraconych przez kobiety z powodu nowotworów, zwłaszcza raka płuc” – opowiada dr Pikala. I dodaje: „Zaskakujące jest, że odsetek lat życia utraconych z powodu raka płuc jest wyższy niż z powodu raka piersi. Do niedawna było odwrotnie” – opowiada badaczka.

A to oczywiście sprawka papierosów. Dr Pikala opowiada, że w ostatnim 15-leciu odsetek palących mężczyzn spadł z 43 do 33 proc. A odsetek palących kobiet się nie zmienił – utrzymuje się na poziomie 23 proc. To, że rak płuc u kobiet jest teraz silniej widoczny w przyczynach zgonu, ma też związek z kulturą palenia. Co druga kobieta, która urodziła się między 1940 a 1960 r. jest (lub była) palaczką. „Dopiero teraz – obserwując przyczyny zgonów – widzimy skutki tak wysokiego odsetka palaczek z tamtych roczników” – opowiada dr Pikala.

U MĘŻCZYZN SAMOBÓJSTW WIĘCEJ NIŻ WYPADKÓW

Zewnętrzne przyczyny zgonów (trzecia grupa) odpowiadają za 15,7 proc. utraconych lat życia u mężczyzn i 5,3 proc. u kobiet. W tej grupie przyczyn najwięcej lat zabierają Polakom wypadki komunikacyjne. „Ale tu mamy trendy spadkowe” – komentuje dr Pikala. Ale dodaje, że już w przypadku samobójstw o korzystnych zmianach raczej nie może być mowy. Problem dotyczy zwłaszcza samobójstw mężczyzn mieszkających w małych miasteczkach i na wsiach. „Od 2006 r. wśród mężczyzn liczba zgonów z powodu samobójstw przekracza liczbę ofiar wypadków komunikacyjnych. Podobne tendencje obserwuje się i w innych krajach Europy Wschodniej” – mówi statystyk.

„To przez wielu autorów tłumaczonych jest tym, że na skutek zmian społeczno-ekonomicznych wielu mężczyzn odczuwa zmniejszanie swoich szans na rynku pracy, co często jest przez nich postrzegane jako wykluczenie społeczne i może prowadzić do samobójstw” – opowiada. Sugeruje, że liczba samobójstw może się też wiązać z rosnącą ilością wypijanego alkoholu. W Polsce spożycie alkoholu na 1 mieszkańca od 2000 r. systematycznie rośnie: od 7,1 l do 9,4 l czystego alkoholu w 2014 r. Jak zwraca uwagę dr Pikala, statystyki zawyżane są przez mieszkających w mniejszych miastach i wsiach mężczyzn z wykształceniem średnim i podstawowym.

SZCZEPIENIA – ZALEGŁOŚĆ DO NADROBIENIA

Jeśli chodzi o grupę zgonów związaną z chorobami zakaźnymi, niedożywieniem, ciążą i połogiem (pierwsza grupa zgonów) – mamy tu – jeśli chodzi o współczynnik SEYLL – trend spadkowy. „Niemniej jednak mamy problem dotyczący zakażeń górnych i dolnych dróg oddechowych. Tu obserwujemy trend rosnący” – opowiada dr Pikala. I dodaje: „autorzy różnych opracowań tłumaczą to między innymi niechęcią Polaków do szczepień przeciw grypie”. Podczas gdy Rada Europejska rekomenduje, by szczepiło się 75 proc. obywateli, statystyki pokazują, że przeciw grypie szczepi się nie więcej niż 5 proc. Polaków. To nie zapewnia wystarczającej redukcji zachorowań.

Zapytana o to, jak Polacy mogą zadbać o to, by ich życie trwało jak najdłużej, dr Pikala odpowiada: „Porady są proste: prowadzić zdrowy tryb życia, nie mieć nałogów, dbać o aktywność fizyczną, regularnie się badać oraz szczepić”.

PAP – Nauka w Polsce, Ludwika Tomala

Źródło: www.naukawpolsce.pap.pl

8 komentarzy do Co najbardziej skraca życie Polakom? Przeanalizowały to badaczki z Łodzi

Samouczące się systemy informatyczne pomocą dla radiologów

Samouczące się systemy informatyczne, które na podstawie zgromadzonych danych i doświadczeń potrafią automatycznie analizować również nowe dane, mogą się okazać pomocne w pracy radiologów. Tego typu rozwiązanie powstaje właśnie w…

Samouczące się systemy informatyczne, które na podstawie zgromadzonych danych i doświadczeń potrafią automatycznie analizować również nowe dane, mogą się okazać pomocne w pracy radiologów. Tego typu rozwiązanie powstaje właśnie w Gliwicach. Pilotaż planowany jest na przyszły rok.

Chodzi o system do diagnostyki nowotworów i analizy zmian nowotworowych, oparty o obrazowanie dynamiczne po wzmocnieniu kontrastowym.

„To projekt innowacyjny na skalę świata. Być może takie badania są prowadzone w innych ośrodkach na świecie, ale to jest rzecz bardzo nowa, która bardzo może skrócić i ułatwić (kompleksową – przyp. PAP) analizę takich danych medycznych, np. w zastosowaniach onkologicznych (…). Mam nadzieję, że wdrożenie wyników tego projektu stanie się przełomem” – powiedział PAP dr Jakub Nalepa z Wydziału Automatyki, Elektroniki i Informatyki Politechniki Śląskiej w Gliwicach.

Trzonem tego innowacyjnego rozwiązania są techniki uczenia maszynowego (ang. machine learning). Jak tłumaczył Nalepa, systemy informatyczne budowane w oparciu o dotychczas zgromadzone i „zrozumiane” dane (np. obrazy medyczne) pozwalają na skrócenie czasu analizy nowych danych.

Naukowiec wskazał, że techniki uczenia maszynowego mogą być wykorzystywane np. do automatycznej segmentacji obrazów medycznych. „Na podstawie danych, które już mamy – to są dane historyczne – możemy stworzyć klasyfikator, który pozwoli na automatyczną analizę nowych obrazów, które nie były dotychczas +widziane+ przez taki system w czasie +treningu+. Możemy w ten sposób skrócić analizę, która musiałaby być wykonana przez człowieka, a jeżeli skracamy analizę obrazów medycznych, skracamy też czas potrzebny do diagnozy” – tłumaczył Nalepa, który jest jednocześnie kierownikiem ds. badań w tym projekcie z ramienia firmy Future Processing.

Innymi słowy – techniki uczenia maszynowego pozwalają na stworzenie takich algorytmów, które na podstawie opisanych wcześniej danych automatycznie „dostosowują się” do nowych danych, wykorzystując zgromadzone doświadczenia.

Wspomniany system dotyczący obrazowania dynamicznego powstaje we współpracy firmy Future Processing z Centrum Onkologii – Instytutem im. Marii Skłodowskiej-Curie w Gliwicach.

Jak podał Nalepa, obrazowanie dynamiczne po wzmocnieniu kontrastowym polega na skanowaniu wybranego obszaru ciała i analizie dynamiki przepływu środka kontrastowego u pacjenta. Pozwala to na wyznaczenie biomarkerów, opisujących charakterystykę i stopień zaawansowania nowotworu, umożliwiając ocenę ryzyka u pacjentów z chorobą nowotworową.

Dzięki segmentacji tego rodzaju danych medycznych można znaleźć w tych obrazach pewne „podejrzane” obszary, które wymagają dalszej analizy przez radiologa.

„Nasz system na pewno nie zastąpi pracy radiologa, ale będzie mógł pomóc w znalezieniu pewnych +podejrzanych+ regionów w obrazach, które powinny być jeszcze dokładniej sprawdzone” – podkreślił Nalepa.

Projekt badawczo-rozwojowy to nie tylko wyzwania medyczne, ale przede wszystkim algorytmiczne. Wśród nich naukowiec wymienił analizę trudnych danych, czyli zagadnienie z zakresu „big data”. Tłumaczył, że chodzi tu nie tylko o dużą ilość tych danych, duży ich rozmiar, ale też ich heterogeniczność, czyli niejednorodność, a także o dane, których jakość nie jest pewna.

Nalepa zaznaczył więc, że zbudowanie takich systemów klasyfikacyjnych opartych o dane o zróżnicowanej jakości jest w praktyce bardzo trudne i wymaga dobrze przemyślanego wstępnego przetwarzania i selekcji danych, które są najbardziej reprezentatywne, np. dla pewnego rodzaju zmian nowotworowych.

Badania nad tym systemem są jeszcze prowadzone. „Mamy nadzieję, że już w przyszłym roku będziemy gotowi do pierwszych, pilotażowych wdrożeń. Wprowadzenie nowego produktu medycznego na rynek jest długim i żmudnym procesem, dlatego że należy udowodnić, że to, co opracowaliśmy rzeczywiście może być użyte w codziennej praktyce onkologicznej” – zaznaczył Nalepa.

W jego ocenie zapotrzebowanie na tego typu pomoc dla radiologów i fizyków medycznych jest nie tylko w Polsce. „Współpracujemy z ludźmi z Cambridge, więc widzimy, że nie tylko w Polsce jest zapotrzebowanie na tego rodzaju rozwiązania i mam nadzieję, że to w przyszłości zaprocentuje, przede wszystkim dla pacjentów” – podsumował.

Projekt ten o budżecie w wysokości 19 mln zł uzyskał dofinansowanie z Narodowego Centrum Badań i Rozwoju w wysokości 9 mln zł.

W październiku dr Jakub Nalepa otrzymał Nagrodę im. Witolda Lipskiego, przyznawaną młodym polskim uczonym zajmującym się informatyką.(PAP)

autor: Agnieszka Kliks-Pudlik

akp/ agt/

 

 

 

Źródło: www.naukawpolsce.pap.pl

Brak komentarzy do Samouczące się systemy informatyczne pomocą dla radiologów

Komórki nowotworowe niszczone z pomocą nanocząstek – projekt łódzkich naukowców

Łódzcy naukowcy opracowali metodę termicznego niszczenia rozsianych komórek nowotworowych z użyciem nanocząstek. Całe piękno tej metody polega na tym, że niszczymy tylko komórki zwyrodniałe – mówi współtwórca rozwiązania prof. Zbigniew…

Łódzcy naukowcy opracowali metodę termicznego niszczenia rozsianych komórek nowotworowych z użyciem nanocząstek. Całe piękno tej metody polega na tym, że niszczymy tylko komórki zwyrodniałe – mówi współtwórca rozwiązania prof. Zbigniew Kołaciński z Instytutu Mechatroniki i Systemów Informatycznych PŁ.

Przy zastosowaniu tej metody przepływające w układzie krwionośnym nanorurki odnajdują guza nowotworowego zawierającego zdegenerowane komórki i się do nich przyczepiają. Napromieniowanie tkanki falą elektromagnetyczną powoduje nagrzanie komórek nowotworowych powyżej temperatury ich apoptozy wywołując nekrozę, czyli śmierć komórek – mówił PAP współtwórca rozwiązania prof. Zbigniew Kołaciński z Instytutu Mechatroniki i Systemów Informatycznych Politechniki Łódzkiej.

Opracowanie metody niszczenie rozsianych komórek nowotworowych jelita grubego z użyciem nanocząstek to rezultat projektu sponsorowanego przez NCBiR, zrealizowanego w Politechnice Łódzkiej, z udziałem Uniwersytetu Medycznego w Łodzi oraz firmy AMEPOX.

Prof. Kołaciński podkreślił, że naukowcy zajmujący się nanotechnologią wychodzą naprzeciw niedoskonałościom obecnie stosowanych metod leczenia raka – leczenia chirurgicznego, w przypadku którego pacjenci zgłaszają się do lekarza zbyt późno, dlatego często jest to leczenie jedynie paliatywne, czyli przeciwbólowe, a także chemioterapii i radioterapii, których stosowanie niszczy niestety także komórki zdrowe.

„Powstała wśród naukowców, którzy zajmują się nanotechnologią, chęć wprowadzenia nanocząstek do likwidacji komórek rakowych. Te nanocząstki muszą być zasobnikami leków lub innych elementów, które potrafią zniszczyć komórki rakowe” – wyjaśnił prof. Kołaciński.

Na Politechnice Łódzkiej opracowano metodę otrzymywania takich nanozasobników poprzez syntezę nanorurek węglowych różnymi metodami: łukową, metodą plazmy mikrofalowej oraz chemicznego osadzania z fazy gazowej. Nanorurki zawierają w sobie ferromagnetyk np. żelazo, które można następnie rozgrzać przy pomocy fali elektromagnetycznej.

„Jeżeli taki zasobnik wprowadzimy do organizmu i przyłączymy go do komórek rakowych, spełni on rolę mikroźródła grzejnego, które zniszczy te komórki. Jest to zniszczenie całkowite, bo jeżeli temperatura komórki nowotworowej przekroczy 42 stopni C, następuje jej nekroza” – podkreślił prof. Kołaciński.

Martwe komórki nowotworowe są wydalane z organizmu, a komórki zdrowe pozostają dalej żywe. „Całe piękno tej metody polega na tym, że niszczymy tylko komórki zwyrodniałe” – ocenił naukowiec.

Łódzcy uczeni opracowali metodę adresowania nanorurek węglowych jako zasobników do komórek rakowych przy pomocy przyłączonych do kwasu foliowego specyficznych ligandów, które mają zdolność znajdowania komórek rakowych. Takie zasobniki mogą być wstrzykiwane do organizmu, bądź podawane przez skórę lub w formie tabletki. Badacze opracowali także urządzenie do hipertermii, czyli nagrzewania komórek falą elektromagnetyczną.

Nanozasobniki biegną w układzie krwionośnym i odnajdują chore komórki – uruchamiany jest wówczas proces termoablacji tzn. nagrzewania polem elektromagnetycznym. ”Chore komórki podlegają napromieniowaniu falą elektromagnetyczną o wysokiej częstotliwości radiowej, która podgrzewa żelazo w procesie hipertermii niszczącej komórki rakowe” – dodał naukowiec.

Do tego celu łódzcy naukowcy wykorzystują generatory o częstotliwości radiowej pracujące w zakresie od setek kiloherców do rzędu kilkudziesięciu megaherców. „Opracowaliśmy urządzenie do hipertermii, czyli nagrzewania komórek falą elektromagnetyczną, które wraz z patentem adresującym zasobniki do komórek rakowych, tworzy całość, która likwiduje wyłącznie zwyrodniałe komórki” – podkreślił prof. Kołaciński.

Metoda naukowców z PŁ została przebadana na komórkach nowotworowych jelita grubego. Konieczne są jeszcze testy na zwierzętach i testy kliniczne. W końcowej fazie wdrożenia klinicznego projektu naukowcy planują umieszczenie całego człowieka w urządzeniu emitującym kontrolowane dawki pola elektromagnetycznego o częstotliwości radiowej.

Prof. Kołaciński liczy na to, że za 10 lat ta metoda ta będzie skutecznie stosowana w określonych typach nowotworów. „Na pewno nie do wszystkich typów, natomiast w określonych typach nowotworów zostanie sprawdzona i będzie mogła być stosowana” – ocenił naukowiec. (PAP)

szu/ ksk/ zan/

 

Źródło: www.naukawpolsce.pap.pl

Brak komentarzy do Komórki nowotworowe niszczone z pomocą nanocząstek – projekt łódzkich naukowców

Smog? Bez spiny, jest super!

Na portalu TwojaPogoda.pl pojawił się kilka dni temu artykuł pt. „Histeria z powodu smogu. Kto ją wywołuje i dlaczego?” No właśnie. Kto histeryzuje? Po co? I kto na tym zyskuje?

Na portalu TwojaPogoda.pl pojawił się kilka dni temu artykuł pt. „Histeria z powodu smogu. Kto ją wywołuje i dlaczego?” No właśnie. Kto histeryzuje? Po co? I kto na tym zyskuje?

Pod artykułem nie podpisał się autor, wiec rozumiem, że to tekst redakcyjny. Dziwię się, że portal, który sam wielokrotnie ostrzegał przed powietrzem złej jakości (np. „Rekordowy smog spowija Polskę. Trujący każdy wdech” z 2017-01-08), sam wielokrotnie opisywał tragiczne skutki oddychania zatrutym powietrzem (np. „Smog w stolicy Iranu zabija tysiące ludzi” z 2007-08-03), dzisiaj postanowił odwrócić smoga ogonem.

Zrzut ekranu 2017-02-19 o 18_Fotora

Tekst można streścić do następujących punktów:

  1. Kiedyś było gorzej.
  2. Na Zachodzie wcale nie jest tak czysto.
  3. Ekologiczne lobby jest na pasku producentów pieców.
  4. Smogu nie trzeba się obawiać.

No to po kolei.

Ad1. Kiedyś było gorzej. Tak, kiedyś było znacznie gorzej. Choć to dzisiaj jest więcej rakotwórczych dioksyn i furanów niż kiedyś. Ale nawet gdyby dzisiaj stężenia wszystkich szkodliwych substancji były niższe niż powiedzmy 20 lat temu, czy to automatycznie oznacza że jest super? No nie. Trzeba spojrzeć w statystyki i w pomiary. I okazuje się, że super nie jest. Że jest źle. I to bardzo. To, że niektórzy obudzili się dopiero wczoraj nie oznacza że kiedyś smogu nie było. Oznacza tylko… że niektórzy obudzili się wczoraj. Ani mniej, ani więcej. Organizacje ekologiczne od wielu lat mówią o zatrutym powietrzu. Tyle tylko, że dotychczas niewielu tego słuchało. W tym roku media informują o smogu częściej niż w poprzednich latach. Dlaczego? Dlatego, że Internet o tym więcej pisze, bo świadomość ludzi wzrosła. To system naczyń połączonych. Odczuwam osobistą satysfakcje, że i ja w budzeniu tej świadomości miałem swój udział publikując prosty pokaz z wacikiem i odkurzaczem. Zrobiłem to w pierwszych dniach stycznia. Choć powietrze było dużo gorsze w listopadzie i grudniu, przeważająca większość materiałów w mediach została zrobiona dopiero w styczniu. Do dzisiaj na różnych platformach moje video zobaczyło ponad 2 mln ludzi. Od tego czasu ten sam pokaz był powtarzany kilkukrotnie we wszystkich serwisach informacyjnych głównych stacji telewizyjnych.

>>> Więcej naukowych informacji na FB.com/NaukaToLubie.

Ad2. Na Zachodzie wcale nie jest tak czysto. Szczerze. Co mnie obchodzi jakie jest powietrze w Londynie, Brukseli czy Paryżu? Oddycham powietrzem w Warszawie albo na Śląsku. I to mnie obchodzi. Argumentowanie, że nie ma co panikować, bo za granicą nie jest wcale tak zielono jak mogłoby się wydawać, jest poniżej poziomu piwnicy.

Ale, podejmując wyzwanie… Jakość powietrza w stolicach zachodniej Europy jest dużo lepsza niż w miastach Polski. Znane są zestawienia mówiące, że to nasze miasta są w czołówce najbrudniejszych miast kontynentu. To, że w Niemczech spala się więcej węgla nie oznacza, że ten węgiel w większym stopniu zanieczyszcza powietrze. Bo,

  • w Niemczech węgiel nie jest palony w prywatnych piecach tylko w elektrowniach i elektrociepłowniach, a te zakłady (także w Polsce) mają filtry i nie dokładają się do smogu. Tymczasem w Polsce sporo węgla spala się w prywatnych piecach.
  • W Polsce nie obowiązują żadne normy dotyczące jakości węgla. W efekcie to u nas spala się węgiel wydobywany np. w Czechach, który tam nie mógłby zostać sprzedany.

Już wiesz redakcjo dlaczego argument o ilości spalanego w Niemczech i Polsce węgla jest jak kulą w płot?

>>> Więcej naukowych informacji na FB.com/NaukaToLubie.

Ad3. Ekologiczne lobby jest na pasku producentów pieców. Gdy pisałem o elektrowniach jądrowych (uważam, że w Polsce powinny powstać), słyszałem, że jestem przeciwko górnictwu na pasku lobby jądrowego. Teraz słyszę, że opłaca mnie lobby producentów węglowych pieców, bo piszę i alarmuję na temat złej jakości powietrza. Robię to zresztą od wielu lat każdego roku w czasie sezonu grzewczego. W międzyczasie byłem na pasku przemysłu farmaceutycznego (tak, uważam, że szczepionki to jedno z największych osiągnieć ludzkości), oraz przemysłu biotechnologicznego (tak, nie znajduję naukowych dowodów przeciwko GMO).

Zarzucenie komuś, że jest skorumpowany jest bajecznie proste, ale intelektualnie dość małe. Redakcja TwojaPogoda.pl naprawdę wierzy, że ci, którzy ostrzegają przed złej jakości powietrzem są kupieni przez producentów nowoczesnych pieców? Dodam tylko, że po to by ulżyć powietrzu nie trzeba koniecznie pieca wymieniać. Dużo da przeczyszczenie przewodów kominowych. Sporo da odczyszczenie przed sezonem grzewczym, a nawet w trakcie jego trwania samego pieca i odpowiedni sposób składania ognia w piecu. Te czynności nic nie kosztują, a pozwalają oszczędzić pieniądze bo podnoszą sprawność pieca i instalacji. Nie jest wiec prawdą, że smog można zlikwidować tylko wymieniając stary piec na nowiutki. Jest wiele innych rozwiązań, a niektóre z nich przynoszą oszczędności. No ale tego z tekstu o histerii smogowej się nie dowiemy. Nie możemy się dowiedzieć, bo to złamałoby linię argumentacji redakcji, że ci, którzy piszą i mówią o smogu są w kieszeni producentów drogich pieców.

>>> Więcej naukowych informacji na FB.com/NaukaToLubie.

Ad4. Smogu nie trzeba się obawiać. Redakcja portalu twierdzi, że cała ta histeria ze smogiem została „opracowana przez niektóre organizacje” i „wcale nie chodzi [w niej]o ochronę naszego zdrowia”.

Był taki czas, kiedy uważano, że zdrowe jest naświetlanie się promieniami jonizującymi. I choć w pewnym momencie stało się jasne, że te mogą być źródłem raka, wiele osób dalej się naświetlało. Był taki czas, gdy twierdzono, że zdrowe jest palenie papierosów. Firmy tytoniowe przedstawiały opracowania które tego dowodziły. Przez lata dowodzono też, że ołów z benzyny nie ma nic wspólnego ze złym stanem zdrowia ludzi wdychających spaliny albo mieszkających niedaleko szlaków komunikacyjnych. Dzisiaj benzyny są bezołowiowe, na paczkach papierosów są ostrzeżenia o nowotworach spowodowanych paleniem a źródła promieniowania jonizującego są zamykane w pancernych szafach żeby nie wpadły w niepowołane ręce.

Nie ma w naszym ciele organu czy układu, który nie byłby narażony z powodu powietrza złej jakości. Są na to tysiące naukowych dowodów. Serce, płuca, ale także mózg. Układ hormonalny, układ nerwowy, krwionośny… Tam gdzie powietrze jest bardziej zanieczyszczone jest mniejsza masa urodzeniowa dzieci, a ludzie żyją krócej. Ocenia się że w Polsce każdego roku umiera z powodu powietrza złej jakości ponad 40 tys. osób. Szczególnie narażeni są chorzy (np. na astmę), osoby starsze i dzieci. „Smogu nie trzeba się obawiać”? W tekście z TwojaPogoda.pl znalazł się właśnie taki śródtytuł. Trzeba, i to bardzo. Dobrze, że coraz lepiej zdajemy sobie z tego sprawę. To, że są ludzie czy firmy, które na rosnącej świadomości robią pieniądze, to naturalne i oczywiste. Są firmy, które robią pieniądze na produkcji samochodowych pasów bezpieczeństwa i systemów ABS, choć gdy je wprowadzano mówiło się że to tylko sposób na wyciąganie pieniędzy z kieszeni klienta. Tam gdzie jest popyt tam pojawia się i podaż. Od nas, klientów, zależy czy damy się nabierać na tanie  sztuczki (np. maseczki) czy zdecydujemy się na rozwiązania, które problem rozwiązują choć w części.

Zanim zakończę, chciałbym jeszcze wyjaśnić trzy kwestie.

  1. Węgiel nie jest źródłem smogu. Źródłem smogu jest palenie węglem niskiej jakości i śmieciami w piecach, które nie są odpowiednio przygotowane do eksploatacji. Takie są fakty. Mówienie więc, że walka ze smogiem to walka z węglem jest bzdurą i niepotrzebnie rozgrzewa emocje. W Polsce kilka milionów ludzi żyje dzięki przemysłowi wydobywczemu. Ten przemysł jest przestarzały i zżerany wewnętrznymi problemami. Nie da się jednak (z wielu różnych powodów) po prostu wszystkich kopalń zamknąć. Węgiel może być czarnym złotem o ile wykorzystamy go w sposób nowoczesny i innowacyjny. Np. gazując pod ziemią, budując instalacje niskoemisyjne czy zeroemisyjne. Podkreślanie, że walka o czyste powietrze to walka z węglem, powoduje u milionów ludzi żyjących z wydobycia węgla (i przemysłu który z tym jest związany) automatyczną niechęć do działań mających na celu poprawę jakości powietrza.
  1. Wiarygodność pomiaru. „Jeśli na jednej ulicy pomiary wskazują na duże skażenie powietrza, wcale nie oznacza to, że w Twojej okolicy jest równie niebezpiecznie.” Nieprawdą jest, co pisze redakcja TwojaPogoda.pl, że pomiaru z jednej stacji nie można stosować do całego miasta. W przeciwieństwie do temperatury, która rzeczywiście może się szybko zmieniać, zanieczyszczenie powietrza jest dość jednorodne na większym obszarze. W Polsce nie mamy niedoboru stacji pomiarowych. A na tak duże miasto jak np. Warszawa wystarczy ich kilka, by wiarygodnie przedstawić jakość powietrza w mieście. Nawet jeżeli na danym obszarze znajdują się pojedyncze punkty pomiarowe, odpowiednie algorytmy (biorące pod uwagę wiele zmiennych) wyliczają stężenie prawdopodobne. Jest ono (a robi się takie testy) bardzo bliskie stężeniom rzeczywistym. Warto rzeczywiście zwrócić uwagę, by dane na których się opieramy (w tym dane w aplikacjach w telefonach komórkowych) pochodziły z oficjalnych stacji, a nie były zniekształcane przez mierniki prywatne albo komercyjne, których dokładność jest zła, albo bardzo zła.
  1. Skarga na Polskę. Niektóre organizacje ekologiczne za zanieczyszczone powietrze postanowiły złożyć na Polskę skargę do Komisji Europejskiej. Taki ruch uważam za totalnie antyskuteczny. Smogu nie pozbędziemy się (nie zminimalizujemy) dekretami rządu czy uchwałami samorządu, bo smog powstaje nie w dużych zakładach przemysłowych tylko w naszych prywatnych kominach i rurach wydechowych. Komisja Europejska może nałożyć na nas karę i co? I to nas, Polaków, przekona do zmiany głupich i szkodliwych przyzwyczajeń? Myślę, że raczej utwierdzi w przekonaniu, że Bruksela znowu nas atakuje. I z całą pewnością atakuje dlatego, że chce położyć łapę na naszym węglu. Składając skargę do Komisji Europejskiej niektóre organizacje ekologiczne właśnie dały do ręki argument tym, którzy ze smogiem nie mają zamiaru walczyć. Sorry, taki mamy klimat. 

Tomasz Rożek

>>> Więcej naukowych informacji na FB.com/NaukaToLubie.

3 komentarze do Smog? Bez spiny, jest super!

Nie wyrzucaj baterii!

Każdy powinien wiedzieć, że zużytych baterii czy akumulatorów nie wolno wyrzucać do śmieci komunalnych, tylko trzeba zanosić do specjalnie przygotowanych pojemników. Ale czy wiemy dlaczego należy tak postępować?

Każdy powinien wiedzieć, że zużytych baterii czy akumulatorów nie wolno wyrzucać do śmieci komunalnych, tylko trzeba zanosić do specjalnie przygotowanych pojemników. Ale czy wiemy dlaczego należy tak postępować?

Rocznie zużywamy prawie 300 milionów baterii. 90 proc. z nich to baterie jednorazowe. Zwykle gdy przestają działać, po prostu je wyrzucamy. W ten sposób do środowiska naturalnego trafiają tak trujące związki i pierwiastki jak ołów, kadm, nikiel, rtęć, lit i mangan. To czynniki silnie trujące. Wpływają negatywnie nie tylko na człowieka, ale na całe środowisko.

>>> Więcej naukowych informacji na FB.com/NaukaToLubie

Z wielu szkodliwych substancji czy pierwiastków z których zbudowane są wyrzucane baterie, najgorszy wpływ na zdrowie i życie człowieka mają ołów, kadm i rtęć.

Ołów – jest pierwiastkiem trującym. Związki ołowiu mają negatywny wpływ na praktycznie wszystkie komórki i narządy. Jest szczególnie niebezpieczny dla dzieci i młodzieży.

Kadm – jest jeszcze bardziej toksyczny niż ołów. Niezależnie od tego w jaki sposób dostanie się do organizmu, jest magazynowany w wątrobie, nerkach, trzustce i płucach. Jest źródłem anemii.

Rtęć – związki tego pierwiastka są silnie trujące i mają dewastujący wpływ na ośrodkowy układ nerwowy. Szalony Kapelusznik, to jedna z postaci występującej w Alicji z Krainy Czarów. Kapelusznicy często cierpieli na choroby psychiczne, bo w procesie uzyskiwania filcu były używane związki rtęci.

Jedynym sposobem na zneutralizowanie zagrożenia jest utylizacja zużytych baterii w wyspecjalizowanych zakładach przeróbki odpadów niebezpiecznych. Tam stosowana jest albo metoda mechaniczna, czyli w skrócie mówiąc rozdrabnianie baterii i oddzielanie od siebie poszczególnych ich części, albo metoda termiczna, która polega na wytapianiu szkodliwych metali w temperaturze około 1400 st C. Trzecia jest metoda hydrometalurgiczna, która polega na chemicznym przetworzeniu baterii. Traktując je kwasami lub zasadami, wytapia się metale czy związki, które są szkodliwe.  Proces recyklingu odbywa się w warunkach kontrolowanych, a odpowiednie zabezpieczenia nie pozwalają by niebezpieczne związki trafiły do środowiska naturalnego.

>>> Więcej naukowych informacji na FB.com/NaukaToLubie

Niezależnie od stosowanej metody, takie metale jak kadm, ołów, rtęć, nikiel czy lit, mogą być ponownie użyte.

PS. Zdaję sobie sprawę z tego, że tym wpisem absolutnie nie wyczerpuję tematu recyclingu baterii. Kiedyś napiszę o tym więcej. Po prostu dzisiaj wymieniałem dzieciom baterie w aparacie fotograficznym i zdałem sobie sprawę z tego jak dużo baterii zużywamy. Swoją drogą, coraz częściej myślę, że osoba (firma), która wymyśli sposób na wydajne i „zdrowe” dla środowiska magazynowanie energii elektrycznej, będzie autorem jednego z największych wynalazków wszech czasów.

9 komentarzy do Nie wyrzucaj baterii!

Jak działa alkohol?

Alkohol szkodzi zdrowiu. To hasło zna prawie każdy. Co dzieje się z alkoholem w organizmie człowieka? I co dzieje się z organizmem po spożyciu alkoholu.

Przełykany alkohol zaczyna być wchłaniany już jamie ustnej i przełyku. Najwięcej etanolu dostaje się jednak do krwi przez ścianki żołądka i jelita cienkiego. W tym drugim zaburza on zwykłe wchłanianie substancji odżywczych, a w żołądku może wywoływać stany zapalne. Mowa oczywiście o nadmiarze alkoholu oraz częstym i regularnym jego spożywaniu. Za wyjątkiem sytuacji chorobowych, niewielkie ilości alkoholu, np. lampka wina do kolacji czy kufel piwa wypity w czasie grilla – nikomu nie zaszkodzą. Przeciwnie mogą pomóc, alkohol jest antyoksydantem, czyli „likwiduje” wolne rodniki, które wpływają na starzenie się komórek. Mowa oczywiście o niewielkich ilościach alkoholu, a nie o jego nadużywaniu.

>>> Więcej naukowych ciekawostek na FB.com/NaukaToLubie

Potrzeba energii

A co dzieje się z alkoholem już wchłoniętym do krwi? Jest rozprowadzany po całym organizmie. Po to by rozłożyć cząsteczkę etanolu, potrzeba energii. Spada więc stężenie cukru we krwi. To może prowadzić do zawrotów głowy i drżenia rąk. Dokładnie tak samo organizm zacznie reagować na niski poziom cukrów gdy… przestaniemy jeść. Przy okazji obniżania poziomu cukru we krwi, wzrasta jej ciśnienie. Na ten proces wpływa jeszcze jeden mechanizm. Krew regularnie jest przepompowywana przez nerki. Te działają jak filtr i pozbywają się tego, co dla organizmu jest niepotrzebne albo szkodliwe. Do filtrowania etanolu nerki potrzebują bardzo dużej ilości wody. To właśnie dlatego, po spożyciu alkoholu oddajemy znacznie więcej moczu niż po wypiciu takiej samej ilości np. wody. Wypicie 250 ml wina, oznacza, że w ciągu 2-3 godzin pozbędziemy się przynajmniej 500 ml wody. Niebezpieczne odwodnienie organizmu po spożyciu dużej ilości alkoholu jest realnym zagrożeniem. A wypicie nadmiernej jego ilości zawsze kończy się pragnieniem i nieprzyjemnym wrażeniem suchości w ustach. Pragnienie jest jednym z elementów tzw. kaca, czyli zespołu objawów poalkoholowych.

Najbardziej obciążona po spożywaniu alkoholu jest jednak wątroba. Tylko 2 proc. spożytego alkoholu jest usuwanego z organizmu w niezmienionej postaci. Reszta, czyli 98 proc. jest najpierw metabolizowana. Zajmuje się tym właśnie wątroba. To proces bardzo obciążający i długi. Dlatego właśnie efekty spożycia alkoholu utrzymują się tak długo. Alkohol krąży we krwi przez kilka, kilkanaście a w skrajnych wypadkach nawet kilkadziesiąt godzin. Na dodatek sposób metabolizmu alkoholu jest dla organizmu bardzo niebezpieczny. W wątrobie etanol jest utleniany do aldehydu octowego, który jest wielokrotnie bardziej trujący niż sam alkohol. I to aldehyd uszkadza wątrobę. W skrajnych wypadkach w wątrobie mogą się pojawić komórki rakowe, znacznie częściej dochodzi do marskości wątroby czyli do zniszczenia struktury tego narządu. Bardzo często nadmiar alkoholu może doprowadzić do niewydolności wątroby. Zresztą aldehyd octowy niekorzystnie wpływa nie tylko na wątrobę, ale także na mózg. Nudności, bóle głowy i wymioty (czyli pozostałe objawy kaca) to efekt wpływu aldehydu na ludzki organizm a nie alkoholu.

>>> Więcej naukowych ciekawostek na FB.com/NaukaToLubie

Pijany mózg

Mówiąc o wpływie alkoholu na organizm człowieka najczęściej mamy jednak na myśli nie obniżenie poziomu cukru we krwi czy rujnowanie wątroby, tylko trudności w utrzymaniu równowagi, niewyraźne widzenie i mówienie oraz zwolniony czas reakcji. Skąd biorą się te objawy? Alkohol reaguje z substancjami, które w mózgu są odpowiedzialne za aktywność komórek nerwowych. Neurony stają się bardziej „ociężałe” nawet po wypiciu niewielkiej ilości alkoholu. Zmiany stężenia takich substancji jak kwas gamma-aminomasłowy, glutaminian czy serotonina nie tylko spowalniają działanie neuronów, ale zaburzają pracę niektórych części mózgu. Głównie w korze mózgowej, w której „znajduje się” odpowiedzialne zachowanie i logiczne myślenie. Mniejsza ilość serotoniny w podwzgórzu i w przysadce mózgowej skutkuje wylewnością i ogólnym rozluźnieniem. To dlatego pod wpływem alkoholu łatwiej zdradza się sekrety, łatwiej zaprzyjaźnia się z innymi. Krótko mówiąc znikają bariery. Alkohol wzmaga też pociąg seksualny, ale nadmiar alkoholu wpływa na takie rozluźnienie mięśni, że może skutkować problemami ze wzwodem.

Najbardziej niebezpieczne dla otoczenia są jednak konsekwencje działania alkoholu na móżdżek, tą część mózgu, która jest odpowiedzialna za koordynację ruchów i utrzymanie równowagi. To dlatego osoba pijana nie jest w stanie prosto chodzić, ma problemy np. z trafieniem kluczem do dziurki w zamku albo z dotknięciem palcem czubka swojego nosa. Osoba pijana za kierownicą samochodu nie potrafi omijać przeszkód, nie potrafi skoordynować swoich ruchów, nie jest w stanie prawidłowo ocenić odległości i szybkości. W największym skrócie jest całkowicie nieprzewidywalnym uczestnikiem ruchu na drodze. Alkohol zaburza także działanie rdzenia przedłużonego. Efektem tego – przy dużych dawkach alkoholu – jest ogólne otępienie, senność i spowolnienie reakcji.

Ile można wypić?

Organizm potrzebuje dużej ilości energii do oczyszczenia się z alkoholu. To dlatego jego wysoki poziom we krwi wywołuje dosyć szybko uczucie głodu. I tak na prawdę tylko dostarczenie dużej ilości węglowodanów ma wpływ na szybkość trawienia alkoholu. Chcąc szybko wytrzeźwieć, trzeba dużo jeść. Wszystkie inne metody, medykamenty, picie dużej ilości innych płynów czy robienie ćwiczeń fizycznych nie mają na trzeźwość żadnego wpływu.

A ile alkoholu można wypić, by móc normalnie funkcjonować? A co to znaczy normalnie? Nawet niewielka ilość alkoholu ma wpływ na nasze zachowanie, ma wpływ na pracę mózgu. Kwestią sporną pozostaje czy wpływ np. lampki wina jest zauważalny. Czy stanowi już jakiekolwiek zagrożenie. Są kraje w których prawo określa akceptowalny poziom alkoholu u kierowców na zero. Innymi słowy, np. na Węgrzech, na Słowacji czy w Czechach nie wolno mieć ani grama alkoholu we krwi. W Polsce (ale także w Szwecji i Norwegii) można prowadzić samochód mając 0,2 promila alkoholu we krwi. To – w porównaniu z innymi krajami europejskimi – dosyć restrykcyjna norma. Ale od 0,3 promila alkoholu we krwi zauważa się wpływające na zachowanie rozproszenie uwagi. Od 0,8 promila zauważalne jest już upośledzenie koordynacji ruchowo – wzrokowej. W przeważającej większości krajów Europy limit wynosi 0,5 promila, choć np. w Luksemburgu, Irlandii, Wielkiej Brytanii i na Malcie prawo dopuszcza prowadzenie samochodu z 0,8 promilem alkoholu we krwi.

A wracając na polskie drogi. Pomijając dyskusję nad tym czy polskie uregulowania prawne mają sens czy nie, ile można wypić, by nie przekroczyć limitu 0,2 promila alkoholu we krwi? Trudno o jednoznaczną odpowiedź. Wpływ alkoholu na organizm jest zależny od wielu czynników. Od stresu, zmęczenia czy różnego rodzaju dolegliwości zdrowotnych. Ale także od zażywanych leków czy od używek takich jak papierosy czy kawa. Lepiej więc nie ryzykować wsiadając za kierownicę nawet po jednym małym piwie. Lepiej odczekać. Przyjmuje się, że organizm potrzebuje godziny na pozbycie się 10 gramów czystego alkoholu. Tego w dużym (pół litrowym) piwie jest około 25 gramów. Krótko mówiąc, wsiadając za kierownicę 3 godziny po wypiciu kufla piwa, możemy być pewni, że alkomat policyjny wskaże poziom zero. I jeszcze jedno. Prawie 80 proc nietrzeźwych złapanych przez policję to kierowcy którzy pili alkohol poprzedniego dnia. Po wypiciu dużej ilości mocnego alkoholu trzeba dać organizmowi przynajmniej dobę na to, by całkowicie usunął alkohol z krwi. Tego procesu nie przyspieszy ani sen, ani zimny prysznic ani reklamowane środki farmaceutyczne.

>>> Więcej naukowych ciekawostek na FB.com/NaukaToLubie

Tekst ukazał się w tygodniku Gość Niedzielny
6 komentarzy do Jak działa alkohol?

Choinka – sztuczna czy prawdziwa?

Dla tych, którzy jeszcze nie kupili bożonarodzeniowej choinki mam radę. Jeżeli nie chcecie być na bakier z ekologią, kupcie drzewko naturalne. Na pewno nie spowoduje to żadnej katastrofy ekologicznej. Leśnicy twierdzą, że naturalne choinki mają tyle samo zalet, co sztuczne wad.

 

Ścinanie choinki przed świętami, tak jak zabijanie karpia, przedstawiane jest jak zbrodnia na środowisku naturalnym. Bo wiadomo karp to odczuwające ból zwierzę, a choinka to potencjalny las.  Gdy dorośnie, będzie cieszył oko i produkował tlen. Ten obraz jest fałszywy.

>>> Więcej naukowych ciekawostek na FB.com/NaukaToLubie

Drzewka na ścięcie

Co roku oficjalnie wycina się w całym kraju kilkadziesiąt tysięcy drzewek, najczęściej sosen i świerków. Pochodzą one ze szkółek, zakładanych na terenach otwartych albo pod liniami wysokiego i średniego napięcia. Tam gdzie nie może powstać las. Niektóre drzewka pochodzą z lasów już istniejących, ale leśnicy wycinają je w ramach… zabiegów pielęgnacyjnych. Sosny i świerki hodowane są także na prywatnych gruntach nieprzydatnych rolnictwu, ale takich na których ich właściciele nie chcą mieć lasu. W skrócie mówiąc drzewka które można legalnie kupić w sklepie, na targowiskach czy przy supermarketach są i tak skazane na ścięcie. Są sadzone na ścięcie. Jeżeli nie zostaną kupione przy okazji Świąt Bożego Narodzenia, zostaną wycięte później i wyrzucone. Pod liniami energetycznymi nie mogą rosnąć wysokie drzewa.

Alternatywą dla naturalnych drzewek bożonarodzeniowy są choinki sztuczne, plastikowe. Przed świętami pojawiają się akcje w czasie których radykalne organizacje ekologiczne przekonują, że kupowanie sztucznej choinki jest oznaką dbałości o środowisko naturalne. Specjaliści przekonują, że nic bardziej błędnego. Proces produkcji plastiku jest dla środowiska naturalnego dużym obciążeniem. Większość choinek jest produkowanych w Chinach, gdzie dbałość o środowisko nikogo nie interesuje. W procesie produkcji materiałów plastikowych (PCW) powstają szkodliwe pyły i gazy. Potrzebna jest także spora ilość energii i wody. A jeżeli mówimy o konsumpcji energii, musimy mieć z tyłu głowy emisję CO2.

Las w domu

Po kilkunastu dniach, igły naturalnej choinki zaczynają opadać i drzewko nadaje się do wyrzucenia. Ci, którzy mają swój własny ogród mogą przed świętami kupić drzewko naturalne w donicy i zasadzić je na wiosnę. Trzeba jednak pamiętać, że nie zawsze takie drzewko się przyjmie, skoro całą zimę spędziło w ciepłym mieszkaniu. Ci, którzy nie mają swoich ogródków, ściętą i już przysuszoną choinkę muszą wyrzucić do kompostownika, albo zanieść do punktu zbierania choinek, które powstają w niektórych miastach (np. w Warszawie). Suchą choinkę można też spalić. Przy tym wydziela się oczywiście CO2, ale jest to ten sam dwutlenek węgla, który drzewko pochłonęło w czasie wzrostu. Pochłaniało związki węgla i „wyrzucało” do atmosfery tlen. Na kompoście czy na wysypisku śmieci wyrzucone drzewko szybko się rozkłada. Skumulowane w nim związki chemiczne stają się z powrotem częścią obiegu materii w przyrodzie. Z kolei korzenie wyciętego drzewka wzbogacają glebę w tzw. próchnicę.

To prawda, że choinka sztuczna wystarcza na kilka lat. Z czasem blaknie jednak jej kolor i w końcu też trzeba ją wyrzucić. Najgorsze co można zrobić, to wrzucić ją do pieca. Spalany plastik jest źródłem rakotwórczych związków, które rozpylają się w atmosferze i dostają się do organizmu w czasie oddychania. Plastikowego drzewko na wysypisko śmieci będzie się rozkładało przez kilkaset lat. Najlepszym wyjście jest wrzucenie go do pojemnika na odpady segregowane. To może być jednak o tyle problematyczne, że sztuczne choinki najczęściej mają metalowy stelaż.

Pomijając fakt, że drzewko naturalne pachnie lasem, żywicą a plastikowe nie. Że ma naturalny kolor, który trudno odtworzyć nawet najlepszej imitacji. Pomijając to wszystko co dla wielu osób jest ważne, choć subiektywne i niemierzalne. Drzewka plastikowe szkodzą środowisku, a choinki naturalne – nie z powodów obiektywnych.

>>> Więcej naukowych ciekawostek na FB.com/NaukaToLubie

A tak a propos. Wiecie dlaczego choinka zruca igły? Naukowcy z Université Laval w Kanadzie odkryli, że za opadanie igieł odpowiada roślinny hormon etylen. W czasie testów zmierzono, że gałązki jodły balsamicznej (Abies balsamea) zaczęły zrzucać igły po około 14 dniach od ścięcia. Trzy dni wcześniej drzewko zaczęło intensywnie wydzielać etylen. Po 40 dniach, na testowanych drzewkach nie było ani jednej igły. Gdy badacze rozpylili w pomieszczeniu gdzie badano jodły 1-metylocyklopropen (1-MCP), związek hamujący działanie etylenu, igły „wisiały” na drzewku nie jak wcześniej 40 dni, tylko 73 dni. Zastosowanie innego związku, aminoetoksywinyloglicyny (AVG) wydłużyło ten okres jeszcze bardziej, do 87 dni. Przez cały ten wydłużony czas gałązki choinki wyglądały świeżo, jak gdyby drzewko było dopiero co ścięte.  Związek 1-MCP od dawna stosuje się w przechowalniach owoców, np. jabłek. Gdyby rozpylać go w magazynach, albo samochodach wiozących drzewka na targowiska, drzewka mogłyby przetrwać dużo dłużej. Choć z drugiej strony po co komu bożonarodzeniowa choinka w marcu?

3 komentarze do Choinka – sztuczna czy prawdziwa?

TworzyMy atmosferę

To my tworzymy atmosferę, którą później oddychamy. Albo – trzeba niestety to przyznać – atmosferę, którą się podtruwamy. Na przełomie jesieni i zimy jakość powietrza w Polsce jest dramatyczna!  

>>> Polub FB.com/NaukaToLubie to miejsce w którym komentuję i popularyzuję naukę.

Jakość powietrza na przełomie jesieni i zimy jest najgorsza, bo wtedy powietrze jest wilgotne a szkodliwe cząsteczki mają się o co „zawiesić”. Gdy przychodzi sroga zima zanieczyszczenia są mniej szkodliwe, bo są szybko rozwiewane. W czasie mrozu powietrze jest suche (woda osiada jako szron albo śnieg) a to znaczy, że czystsze.

Kraków – brudne miasto

Dowodów na to, że zatrute powietrze powoduje wiele groźnych chorób jest tak wiele, że aż trudno zrozumieć dlaczego wciąż tak mało energii poświęcamy jego ochronie. Z badań ankietowych wynika, że aż 81 proc. pytanych nie uważa zanieczyszczenia powietrza za problem miejsca w którym mieszka. Fakty są jednak takie, że poziom zanieczyszczenia powietrza w Polsce jest jednym z najwyższych w Unii Europejskiej. Pod względem stężenia pyłu zawieszonego PM10 wywołującego m.in. astmę, alergię i niewydolność układu oddechowego w całej Europie gorsza sytuacja niż w Polsce jest tylko w niektórych częściach Bułgarii. W przypadku pyłu PM2,5 stężenie w polskim powietrzu jest najwyższe spośród wszystkich krajów w Europie, które dostarczyły dane. Podobnie jest ze stężeniem rakotwórczego benzopirenu. Gdy Polskę podzielono na 46 stref w których badano jakość powietrza, okazało się, że aż w 42 poziom benzopirenu był przekroczony. Wczytywanie się w statystyki, liczby, tabelki i wykresy może przyprawić o ból głowy. Okazuje się bowiem, że wśród 10 europejskich miast z najwyższym stężeniem pyłów zawieszonych, aż 6 to miasta polskie; Kraków, Nowy Sącz, Gliwice, Zabrze, Sosnowiec i Katowice. Bezsprzecznym liderem na liście miast z największym zanieczyszczeniem jest od lat Kraków. Tam liczba dni w roku w których normy jakości powietrza są przekroczone wynosi 151. Kraków jest trzecim najbardziej zanieczyszczonym miastem europejskim. Brudne powietrze to nie tylko takie w którym przekroczone są normy stężania pyłów zawieszonych czy wielopierścieniowych węglowodorów aromatycznych (WWA), w tym benzopirenu (te powstają w wyniku niecałkowitego spalania np. drewna, śmieci czy paliw samochodowych). My i nasze dzieci (także te, które jeszcze się nie urodziły) oddychamy tlenkami azotu (główne źródło to spaliny samochodowe), tlenkami siarki (spalanie paliw kopalnych), przynajmniej kilkoma metalami ciężkimi np. kadmem, rtęcią, ołowiem, a także tlenkiem węgla.

Piece i samochody

Źródła poszczególnych zanieczyszczeń występujących w atmosferze są różne, ale w brew pozorom nie są one związane z przemysłem. Głównym ich źródłem jesteśmy my sami, a konkretnie indywidualne ogrzewanie domów i mieszkań oraz transport drogowy. Ponad 49 proc. gospodarstw domowych ma własne piece centralnego ogrzewania. Samo to nie byłoby problemem gdyby nie fakt, że przeważająca większość tych pieców to proste konstrukcje, które można scharakteryzować dwoma określeniami: są wszystkopalne i bardzo mało wydajne. Duża ilość paliwa, którą trzeba zużyć oraz fakt, że często używane jest w nich paliwo niskiej jakości powodują, że duże miasta w Polsce w okresie jesienno – zimowym praktycznie są cały czas zasnute mgłą. Swoje dokładają także samochody. Liczba samochodów osobowych zarejestrowanych w Polsce wynosi 520 pojazdów na 1000 mieszkańców a to więcej niż średnia europejska. Nie jest to bynajmniej powód do dumy. Spory odsetek samochodów na naszych drogach nie zostałby zarejestrowany w innych unijnych krajach. Także ze względu na toksyczność spalin.

>>> Polub FB.com/NaukaToLubie to miejsce w którym komentuję i popularyzuję naukę.

O szkodliwości zanieczyszczonego powietrza można by pisać długie elaboraty. W zasadzie nie ma organu, nie ma układu w naszym ciele, który nie byłby uszkadzany przez związki chemiczne zawarte w zanieczyszczeniach. Przyjmuje się, że z powodu zanieczyszczenia powietrza umiera w Polsce ponad 40 tys. osób rocznie. To ponad 12 razy więcej osób niż ginie wskutek wypadków drogowych! Grupami szczególnie narażonymi są dzieci i osoby starsze. Zanieczyszczenia bardzo negatywnie wpływają na rozwój dziecka przed urodzeniem. Prowadzone także w Polsce badania jednoznacznie wskazywały, że dzieci, których matki w okresie ciąży przebywały na terenach o dużym zanieczyszczeniu powietrza, miały mniejszą masę urodzeniową, były bardziej podatne na zapalenia dolnych i górnych dróg oddechowych i nawracające zapalenie płuc w okresie niemowlęcym i późniejszym, a nawet wykazywały gorszy rozwój umysłowy.

To problem każdego!

W sondażu przeprowadzonym na zlecenie Ministerstwa Środowiska w sierpniu 2015 r. czystość powietrza była wymieniana jako jedna z trzech – obok bezpieczeństwa na drogach i poziomu przestępczości – najważniejszych kwestii, od których zależy komfort życia w danej miejscowości. Problem z tym, że większość pytanych nie widzi tego problemu w miejscowości w której mieszka. Temat dla nich istnieje, ale jest abstrakcyjny, mają go inni. Prawda jest inna. Nawet w wypoczynkowych miejscowościach jak Zakopane czy Sopot jakość powietrza jest koszmarna. Tymczasem problem w dużej części można rozwiązać bez dodatkowych inwestycji czy zwiększania rachunki np. za ogrzewanie. Wystarczy zmienić własne nawyki. Kupno węgla o odpowiednich parametrach to pozornie wyższy wydatek. Lepszy węgiel ma jednak wyższą wartość opałową, czyli trzeba go zużyć mniej by wyprodukować podobna ilość ciepła. Nic nie kosztuje dbanie o sprawność domowego pieca przez regularne czyszczenie go. Nic nie kosztuje (można dzięki temu nawet zaoszczędzić), zamiana w mieście samochodu na komunikacje miejską albo rower.

A miejsce śmieci… jest w śmietniku. Inaczej pozostałości z ich spalania, będę kumulowały się w naszych płucach. Polacy w domowych piecach spalają rocznie do 2 mln ton odpadów. W konsekwencji do atmosfery i do naszych płuc trafiają m.in. toksyczne dioksyny, furany, cyjanowodór.

>>> Polub FB.com/NaukaToLubie to miejsce w którym komentuję i popularyzuję naukę.

 

Tekst został opublikowany w tygodniku Gość Niedzielny.
2 komentarze do TworzyMy atmosferę

Czujnik w nas

W Szwajcarii stworzono czujnik, który wszczepiony pod skórę jest w stanie kontrolować kilka parametrów życiowych równocześnie. Kilka lat temu pisałem o takich czujnikach jak o dalekiej przyszłości.

W Szwajcarii stworzono czujnik, który wszczepiony pod skórę jest w stanie kontrolować kilka parametrów życiowych równocześnie. Kilka lat temu pisałem o takich czujnikach jak o dalekiej przyszłości.

Czujnik, a właściwie elektroniczny chip, powstał w laboratoriach politechniki w Lozannie EPFL (École polytechnique fédérale de Lausanne). Ma wielkość paznokcia w małym palcu i nie trzeba wymieniać mu baterii. Ładuje się go przez indukcję, przez skórę. Wszystko, co zbada i zmierzy, przesyła bezprzewodowo do smartfona. Jest to bodaj pierwsze urządzenie tego typu, które może być wykorzystywane komercyjnie u pacjentów. Poprzednie konstrukcje nie były co prawda większe, ale miały ogromną wadę – badały tylko jeden parametr, tylko jedną zmienną. Ten równocześnie rejestruje ich kilka.

Od czego się zaczęło?

Czujnik, o którym mowa, wpisuje się w rozwój dziedziny zwanej nanotechnologią. Co prawda urządzenia nano są znacznie, znacznie mniejsze, ale bardzo szybki wyścig do miniaturyzacji zawdzięczamy właśnie nanotechnologii. Za ojca tej dziedziny uważany jest genialny fizyk Richard Feynman. Uczestniczył w pracach nad budową pierwszej bomby atomowej (projekt Manhattan), a po wojnie pracował na najlepszych uniwersytetach amerykańskich. Zajmował się kwantową teorią pola i grawitacji, fizyką cząstek i nadprzewodnictwem. To on jako pierwszy podał koncepcję komputera kwantowego i – w 1960 roku – zapowiedział powstanie nowej dziedziny nauki – nanotechnologii. W 1965 r. otrzymał Nagrodę Nobla z fizyki. Feynman wielokrotnie zwracał uwagę na to, że przyszłość będzie nano, że zrozumienie tego, co dzieje się w nanoświecie, świecie na poziomie pojedynczych cząstek i atomów, będzie kluczowe dla naszego przyszłego rozwoju.

Trudno oczywiście dokładnie określić, kiedy nanotechnologia rzeczywiście powstała, ale nie ma wątpliwości, że wiele dziedzin przemysłu coraz chętniej zwraca głowę w kierunku ekstremalnej miniaturyzacji. Jedną z dziedzin, które robią to szczególnie często, jest medycyna. Nanomedycyna dzisiaj rozwija się w dwóch kierunkach. Jeden to próby (coraz częściej udane) stworzenia nanocząsteczek, które będą nośnikami leków, a nawet genów. Wnikając do organizmu, będą uwalniać przenoszony czynnik dokładnie w tym miejscu i dokładnie o tym czasie, jaki jest optymalny. Drugi kierunek to nanosensory. Te mogą być wykorzystywane nie tylko w medycynie, ale także na przykład w ochronie środowiska. Dobrym przykładem jest nanosensor służący do analizy krwi. Z zewnątrz wygląda jak siateczka z ogromną ilością otworów. W rzeczywistości to mikroskopijne kanaliki krzemowe, w których znajdują się przeciwciała wyłapujące komórki nowotworowe. Analiza przeciwciał pozwala stwierdzić, czy w krwi znajdują się komórki rakowe, a jeżeli tak, to ile i jakie. Taka informacja nie może być pozyskana w trakcie standardowej analizy, bo komórek nowotworowych w krwi jest bardzo mało. Co ciekawe, testowana metoda jest dużo tańsza niż dzisiaj stosowane, a do analizy wystarczy jedna, dosłownie, kropla krwi.

Myszy już mają

Nanomedycyna jednoznacznie kojarzy się jednak z budową nanorobotów, które wpuszczone do ludzkiego krwiobiegu będą nie tylko monitorowały funkcje życiowe, ale także reagowały na stany kryzysowe organizmu. Te skojarzenia – przynajmniej na razie – są całkowicie chybione. Co nie znaczy oczywiście, że prace nad miniaturyzacją robotów nie są prowadzone. Już dzisiaj tworzone są roboty, których rozmiary umożliwiają użycie ich w rzeczywistych warunkach szpitalnych. Na przykład kapsułka monitorująca wnętrze układu trawiennego skonstruowana przez japońską firmę Denso Research jest wielkości standardowej tabletki. Jest wyposażona we własne zasilanie i kamerę CCD wysokiej rozdzielczości oraz urządzenie do przesyłania informacji drogą radiową do urządzenia bazowego. Po połknięciu „kapsułka endoskopowa” przekazuje wysokiej jakości obraz w czasie rzeczywistym. Nie ma własnego napędu, porusza się pod wpływem… siły grawitacji i perystaltyki jelit. Ale na rynku są już urządzenia niewiele większe, które mogą poruszać się samodzielnie, choć na razie jeszcze nie w układzie krwionośnym. Kilka lat temu na jednej z konferencji nanotechnologicznych pokazano nanosilnik, który jest mniejszy od główki od szpilki. Jego koła napędowe były 100 razy cieńsze niż kartka papieru, a ich średnica mniejsza niż średnica ludzkiego włosa. Silnik obracał się z częstotliwością jednego obrotu na sekundę i teoretycznie mógłby być elementem systemu napędowego jakiegoś małego urządzenia pływającego. Zanim te powstaną, miną jeszcze lata. Wcześniej do medycyny wejdą inteligentne czujniki, które być może będą wszczepiane pod skórę na dłuższy czas osobom o podwyższonym ryzyku zdrowotnym. Takim czujnikiem jest wspomniany sensor stworzony w Lozannie. Ma wielkość poniżej centymetra i w czasie rzeczywistym monitoruje obecność oraz stężenie kilku molekuł. Może badać odczyn (pH), temperaturę, ale przede wszystkim cholesterol, glukozę, poziom tlenu oraz stężenie przynajmniej kilku leków. To ostatnie będzie szczególnie ważne dla osób, które z powodu swojej choroby muszą regularnie zażywać jakieś medykamenty. Ich przedawkowanie jest wtedy bardzo łatwe. Pełna kontrola nad poziomem substancji czynnej we krwi jest bardzo istotna. Sensor został przetestowany na myszach, a testy kliniczne na ludziach rozpoczną się za kilka lat.

Brak komentarzy do Czujnik w nas

Type on the field below and hit Enter/Return to search