Nauka To Lubię

Oficjalna strona Tomasza Rożka

Tag: DNA

Zakażenia w szpitalach poważnym problemem

Brudne ręce personelu medycznego, skażone otoczenie chorego, zatrudnianie osób nieprzygotowanych do pracy w szpitalach wskazują, jak bardzo nieskuteczny jest w niektórych placówkach system przeciwdziałania zakażeniom wewnątrzszpitalnym ostrzega NIK. Tymczasem szacuje się, że efektywne systemy kontroli zakażeń mogą zmniejszyć ryzyko ich wystąpienia od 55% do 70%.

Brudne ręce personelu medycznego, skażone otoczenie chorego, zatrudnianie osób nieprzygotowanych do pracy w szpitalach wskazują, jak bardzo nieskuteczny jest w niektórych placówkach system przeciwdziałania zakażeniom wewnątrzszpitalnym ostrzega NIK. Z najnowszego raportu Izby wynika, że wzrost liczby pacjentów m.in zarażonych lekoodpornymi szczepami bakterii Klebsiella Pneumoniae NDM(+) w 2016 r. był niemal trzykrotnie wyższy niż w 2015 r. Niestety NIK nie może podać kompletnych danych, bowiem funkcjonujące w kontrolowanych szpitalach systemy monitorowania i raportowania o zakażeniach nie dostarczały pełnych danych. Przekazane zestawienia w ocenie Izby mogą być znacznie zaniżone.

Zakażenia szpitalne związane z udzielaniem świadczeń zdrowotnych stanowią poważny problem wszystkich szpitali, nawet w krajach o najwyższych standardach opieki zdrowotnej. Dotyczą od 5 do 10 % osób leczonych szpitalnie. Zakładając, że w polskich szpitalach ulega zakażeniom tylko 5% procent pacjentów to i tak daje to ok. 400 tys. osób. Źródłem przenoszenia bakterii mogą być m. in. brudne ręce personelu medycznego, niejałowy sprzęt, skażone otoczenie chorego, przyjmowanie pacjentów wymagających szczególnych warunków hospitalizacji bez ich zapewnienia, zatrudnianie osób nieprzygotowanych do pracy w szpitalach.

Do grupy osób najbardziej narażonych należą pacjenci np. po przeszczepach, z zaburzeniami odporności po terapii przeciwnowotworowej, po rozległych oparzeniach, dzieci do pierwszego roku życia i osoby starsze. Zakażenia szpitalne wydłużają pobyt w szpitalu, powodują powikłania prowadzące często do niepełnosprawności, przez co zwiększają koszty leczenia. Koszty generują też roszczenia pacjentów, którzy potrafią udowodnić, że zostali zakażeni z winy szpitala.

Narzędziem służącym ograniczeniu przypadków zakażeń szpitalnych powinien być prawidłowo działający system zapobiegania i zwalczania zakażeń, utworzony w szpitalu na podstawie istniejących przepisów prawa. Szacuje się, że efektywne systemy kontroli zakażeń mogą zmniejszyć ryzyko ich wystąpienia od 55% do 70%. Kontrolą objęto 18 szpitali (17 działających jako samodzielny publiczny zakład opieki zdrowotnej utworzony przez samorząd i jeden szpital działający w formie spółki prawa handlowego) oraz 4 stacje sanitarno-epidemiologiczne finansowane z budżetu państwa w okresie od 2015 r. do końca I półrocza 2017 r.

Najważniejsze ustalenia kontroli

W kontrolowanych szpitalach odnotowano wzrost liczby pacjentów, u których zdiagnozowano zakażenie szpitalne o 8,5%, mimo, że liczba wszystkich hospitalizowanych pacjentów w tym samym okresie spadła o 1,9%. Przykładem szybkiego wzrostu liczby zakażonych pacjentów jest jeden ze szpitali na Mazowszu. Tam od stycznia 2015 r. do czerwca 2017 r. współczynnik zachorowalności wzrósł niemal dwukrotnie z 1,14% do  2,25% (współczynnik pokazuje liczbę zakażonych na 100 pacjentów hospitalizowanych). Najwyższy wzrost, jak wykazała NIK był na Oddziale Anestezjologii i Intensywnej Terapii ( z poziomu 27,35% w 2015 r. do 34,02 % w 2016 r. aż do 41,35 % w 2017 r. Na innych oddziałach też odnotowano wzrosty ale nie tak gwałtowne. Jak wyjaśnił zastępca dyrektora ds. lecznictwa szpitala wzrost liczby zarejestrowanych zakażeń nie jest spowodowany rzeczywistą liczbą zachorowań ale poprawą dostarczanych danych. NIK nie kwestionuje, że na wzrost współczynnika zachorowań mogło wpłynąć ujawnienie przez Zespół Kontroli Zakażeń Szpitalnych większej liczby zakażeń, jednak dynamika wzrostu budzi zaniepokojenie i zdaniem NIK wymaga pogłębionej analizy przyczyn ich występowania.

Izba zwraca też uwagę na prawie trzykrotny wzrost (o 278,7%) między 2015 a 2016 rokiem zakażeń lekoopornymi bakteriami Klebsiella Pneumoniae NDM(+). Najwięcej pacjentów hospitalizowano w województwie mazowieckim 2 757 osób, najmniej w pomorskim i małopolskim po 7 pacjentów. Z informacji Konsultanta Krajowego w dziedzinie mikrobiologii lekarskiej wynika, że ta bakteria w 2015 r. stanowiła najpoważniejszy problem medyczny i epidemiologiczny, dotyczący w szczególności szpitali warszawskich. Charakteryzuje się niezwykle niebezpieczną lekoopornością (na niemal wszystkie antybiotyki). Jednocześnie potrafi się szybko rozprzestrzeniać i utrzymywać w przewodzie pokarmowym przez kilka lat. W latach 2015 – 2017 (I półrocze) w województwie mazowieckim liczba hospitalizowanych pacjentów z jej powodu wynosiła odpowiednio 404, 1316 i 1037.

Poważny problem stanowi też sepsa (posocznica), która jest zespołem objawów spowodowanym nadmierną reakcją organizmu  na zakażenie (organizm walcząc z zakażeniem zaczyna niszczyć zdrowe organy). Sepsa stanowi bezpośrednie zagrożenie dla życia. W jej przebiegu dochodzi do niewydolności nerek, wątroby, serca, płuc. Najważniejsze w leczeniu jest możliwie najszybsze podanie antybiotyków. Z danych Narodowego Funduszu Zdrowia wynika, że w badanym przez NIK okresie liczba dorosłych hospitalizowanych z powodu sepsy wyniosła: 2015 r. – 19 053, 2016 r. – 21 522 a w pierwszej połowie 2017 r. – 10 962. Najwięcej, bo prawie jedną piątą (18,5%) leczono w województwie mazowieckim. W tym okresie Narodowy Fundusz Zdrowia zapłacił za leczenie sepsy w ramach kontraktów prawie 450 milionów złotych.

Zdaniem NIK, prowadzenie rejestru sepsy pozwoliłoby na uzyskanie wiarygodnych danych o rozpoznanych przypadkach, niezbędnych do analiz jej objawów, sposobów leczenia i poziomu śmiertelności. 

Na wysoki poziom zakażeń, w ocenie NIK, ma wpływ brak wyspecjalizowanego personelu medycznego. W składach Zespołów Kontroli Zakażeń Szpitalnych, powołanych w szpitalach (we wszystkich 18 kontrolowanych takie istniały) brakowało lekarza o wymaganej specjalności, odpowiedniej liczby pielęgniarek epidemiologicznych oraz specjalisty do spraw mikrobiologii.

Na dzień 30 czerwca 2017 r. w Polsce było zawodowo czynnych tylko 110 lekarzy specjalistów w dziedzinie mikrobiologii, w tym 61 w wieku powyżej 55 lat. Według NIK, taka sytuacja nie daje gwarancji należytego sprawowania ciągłego i bieżącego nadzoru epidemiologicznego. 

Wśród krajów europejskich Polska zajmujeostatnie miejsce pod względem praktykujących lekarzy specjalistów w dziedzinie mikrobiologia – bakteriologia. Niewiele lepiej jest z epidemiologami. W całej Polsce pracuje ich 219, najwięcej w województwie mazowieckim 57, najmniej w opolskim – 1.

Brakuje też pielęgniarek epidemiologicznych. To osoba uczestnicząca w szeroko pojętym zwalczaniu zakażeń, m. in. kontrolująca stan sanitarno – epidemiologiczny szpitala, prowadząca rejestr zakażeń, szkolenia personelu, nadzorująca i monitorująca pracę personelu, uczestnicząca w planowaniu opieki nad pacjentem z zakażeniem szpitalnym. Zgodnie z ustawą o zwalczaniu zakażeń  liczba pielęgniarek epidemiologicznych powinna być nie mniejsza niż 1 na 200 łóżek szpitalnych.  W 6 kontrolowanych szpitalach posiadających powyżej 200 łóżek nie zapewniono ustawowej liczby takich pielęgniarek. W dwóch mazowieckich szpitalach w skład Zespołu Kontroli Zakażeń Szpitalnych powołano tylko po jednej pielęgniarce, mimo, że szpitale te posiadały odpowiednio 354 i 564 łóżka. Dyrektor jednego z nich brak drugiej pielęgniarki tłumaczył trudnościami finansowymi. Jednak, w trakcie kontroli NIK zamieszczone zostało internetowe ogłoszenie o naborze na stanowisko pielęgniarki epidemiologicznej. Dyrektor drugiego poinformował, że też trwa nabór na to stanowisko. Zdaniem NIK, bezpośrednia podległość pielęgniarki epidemiologicznej kierownikowi danej jednostki zapewniłaby jej samodzielność w realizacji obowiązków i wzmocniłaby jej pozycję w kontaktach z personelem lekarskim.

Wiele uchybień dostrzeżonych przez NIK dotyczyło działalności Zespołów Kontroli Zakażeń Szpitalnych. W trzech szpitalach Zespół nie wywiązywał się z ustawowego obowiązku konsultowania osób podejrzanych o zakażenie lub chorobę zakaźną oraz tych, u których je wykryto. W pięciu brakowało dokumentacji o przeprowadzeniu takich konsultacji.

Odrębną sprawą jest dokumentowanie w szpitalach zakażeń.Analiza kart rejestracji wykazała, że były one sporządzane przez lekarzy nierzetelnie, często z pominięciem wielu danych.NIK skontrolowała 696 losowo wybranych kart. W 18 % z nich nie opisano czynników ryzyka, w 23 % nie podano zastosowanego leczenia antybiotykowego, w ponad 15 % nie odnotowano wykonania badania mikrobiologicznego, w 4 % nie określono postaci klinicznej zakażenia a w 3 % nie podano danych pacjenta. Ponadto 246 kart lekarze wystawili z opóźnieniem sięgającym do 288 dni. W dwóch szpitalach w ogóle nie prowadzono takiego rejestru, co było niezgodne z ustawą o zwalczaniu zakażeń. W jednym ze szpitali w województwie kujawsko – pomorskim nie prowadzono rejestru zakażeń i czynników alarmowych a wyniki badań mikrobiologicznych były rejestrowane w zeszytach prowadzonych na poszczególnych oddziałach. W dwóch przypadkach nie wykazano ujawnionych w badaniach patogenów alarmowych. Adnotacje nie zawierały m.in. daty otrzymania wyniku badań, informacji o potwierdzeniu lub braku wystąpienia patogenu alarmowego czyli drobnoustroju wyjątkowo opornego na działanie leków. Adnotacje obejmowały tylko liczbę stwierdzonych i rozpoznanych zakażeń. W jednym ze śląskich szpitali od 5 lipca do 30 października 2017 r. nie prowadzono rejestru z powodu awarii systemu informatycznego. W czasie kontroli NIK rejestr uruchomiono i do 9 listopada 2017 r. wprowadzono dane 284 pacjentów z 2016 r. W ocenie Izby sporządzanie kart rejestracji z opóźnieniem nie pozwalało na bieżące prowadzenie rejestru zakażeń i utrudniało wiarygodne określenie sytuacji epidemiologicznej szpitala.

A to w konsekwencji doprowadziło do braku precyzyjnych danych o sytuacji epidemiologicznej kraju. Według danych Narodowego Funduszu Zdrowia, w okresie objętym kontrolą (od 2015 r. do końca I półrocza 2017 r.) hospitalizowanych z powodu sepsy było 51 537 pacjentów a według danych Instytutu Zdrowia Publicznego – Państwowego Zakładu Higieny – 2 640. Tymczasem, w każdym z 18 skontrolowanych przez NIK szpitalu wystąpiły przypadki sepsy, w sumie 937 zachorowań.

Centrum Systemów Informacyjnych Ochrony Zdrowia, które gromadzi informacje z rocznych sprawozdań przesyłanych przez szpitale, wskazuje, że w 528 szpitalach stacjonarnych spośród 936 funkcjonujących w Polsce, a więc w ponad połowie, na koniec 2016 r. nie wykazano danych o pacjentach leczonych z powodu zakażenia i zgonów z tego powodu. Nieprawidłowości związane z wykazywaniem błędnych danych stwierdzono w siedmiu placówkach.

NIK ustaliła, że w kontrolowanych szpitalach liczba zakażeń związanych z udzielaniem świadczeń łącznie wyniosła 11 916. Natomiast zakażenie szpitalne zdiagnozowano u 11 488 pacjentów. Jako bezpośrednią przyczynę zgonu, zakażenie szpitalne wskazano  219 pacjentów, tj. ok. 1 % ogólnej liczby zgonów (22 167).

O braku wiarygodnych danych świadczą przeprowadzone tzw. badania punktowe. To badania zorganizowane w Polsce zgodnie z zaleceniem Rady Europy. Koordynowali je naukowcy z Collegium Medicum w Bydgoszczy, Uniwersytetu Mikołaja Kopernika w Toruniu i Narodowego Instytutu Leków w Warszawie.  Te badania punktowe wykazały, że liczba zakażeń szpitalnych może być nawet 5-krotnie wyższa, niż wynika to z danych Ministerstwa Zdrowia prezentowanych w mapach potrzeb zdrowotnych.

W Polsce w kontrolowanym okresie mogło dojść do ok. 400 tys. zakażeń rocznie.A to przekłada się na wydatki. Niestety żaden z kontrolowanych szpitali nie dysponował precyzyjnymi danymi dotyczącymi kosztów poniesionych w związku z wystąpieniem zakażenia. Analizy były prowadzone jedynie przez część szpitali, a koszty wyliczano w sposób uproszczony.  W 7 z kontrolowanych szpitali nie prowadzono ewidencji księgowej kosztów związanych z leczeniem zakażeń, np. w jednym ze szpitali w województwie warmińsko – mazurskim nie było danych dotyczących m.in. szacunkowych kosztów związanych z przedłużeniem leczenia pacjentów, u których wystąpiło zakażenie. Dyrektor tłumaczył tę sytuację niedoskonałością posiadanych narzędzi informatycznych. W pozostałych 11 szacunkowe koszty związane z przedłużeniem leczenia w kontrolowanych szpitalach wyniosły grubo ponad 85 milionów zł.

Zakażenia powodują wydłużenie czasu pobytu chorego w szpitalu. Średni pobyt  wynosił nieco ponad 5 i pół dnia. Zakażenie wydłużało ten czas do ponad 16 dni. Jak wynika z wyjaśnień dyrektorów szpitali, wydłużony czas leczenia jest głównym czynnikiem wpływającym na koszty leczenia pacjenta z zakażeniem.

Nie wszystkie szpitale realizowały zalecenia i decyzje organów Państwowej Inspekcji Sanitarnej w wyznaczonym terminie. Trzeba jednak przyznać, że większość podjęła działania w tym kierunku.

NIK zwraca też uwagę na niedostateczną liczbę badań mikrobiologicznych a to one pozwalają wcześnie wykrywać zakażenia i ustalać skuteczne antybiotyki. Średnia liczba takich badań w przeliczeniu na 1 łóżko szpitalne w danym roku była ok. dwukrotnie niższa niż w krajach Unii.

W trakcie kontroli okazało się, że 3 szpitale nie mają izolatek co jest niezgodne z ustawą o zwalczaniu zakażeń.

W cieple, wilgoci i brudzie bakterie, wirusy, grzyby  znajdują znakomite warunki do przetrwania i namnażania. Dlatego tak istotną rolę w zapobieganiu zakażeniom odgrywa czystość np. instalacji wentylacyjnych i klimatyzacji. Niestety w 5 szpitalach, jak ustaliła NIK, nie dokonywano okresowych przeglądów takich urządzeń zgodnie z zaleceniami producenta oraz nie dokumentowano czynności serwisowych. W jednym z mazowieckich szpitali nie zapewniono skutecznej wentylacji w pomieszczeniach sanitarno – higienicznych i łazienkach dla pacjentów. Brakowało też dokumentacji z okresowych przeglądów, czyszczenia, dezynfekcji bądź napraw urządzeń wentylacyjnych. Także w tym szpitalu powiatowy inspektor sanitarny nakazał doprowadzenie jakości wody do stosownych wymagań. W połowie kontrolowanych szpitali w ciepłej wodzie przekroczona była dopuszczalna norma obecności pałeczek Legionella.

Wnioski

Ustalenia kontroli NIK wskazują na konieczne wprowadzenie systemowych zmian, które powinny wpłynąć na poprawę sytuacji epidemiologicznej w polskich szpitalach. Kontrola wykazała, że mechanizm zapobiegania zakażeniom szpitalnym nie jest skuteczny a to stanowi zagrożenie dla zdrowia i życia pacjentów. Zła sytuacja finansowa części szpitali oraz niedobór wykwalifikowanej kadry medycznej powoduje, że nałożone przez prawo obowiązki nie są wykonywane rzetelnie co spowodowało rozprzestrzenienie się w kilku regionach Polski lekoopornych bakterii. Wadliwie działający system zbierania danych o zakażeniach doprowadził do braku pełnego obrazu skali zakażeń i rodzaju patogenów. NIK skierowała swoje wnioski do ministra zdrowia, kierowników szpitali i Inspekcji Sanitarnej.

17 MAJA 2018 07:00

Tekst i ilustracje pochodzą ze strony www.NIK.gov.pl . Pełny tekst raportu można znaleźć TUTAJ

 

Brak komentarzy do Zakażenia w szpitalach poważnym problemem

Karmienie piersią zmniejsza ryzyko cukrzycy

Karmienie dziecka piersią przez ponad sześć miesięcy niemal o połowę obniża u kobiety ryzyko zachorowania na cukrzycę typu 2 – wykazało trwające 30 lat badanie, które publikuje pismo “JAMA Internal Medicine”.

Karmienie dziecka piersią przez ponad sześć miesięcy niemal o połowę obniża u kobiety ryzyko zachorowania na cukrzycę typu 2 – wykazało trwające 30 lat badanie, które publikuje pismo “JAMA Internal Medicine”.

„Zaobserwowaliśmy bardzo silną zależność między okresem, w którym kobieta karmi piersią, a spadkiem ryzyka rozwoju cukrzycy, nawet po uwzględnieniu wszystkich możliwych czynników ryzyka” – skomentowała kierująca badaniami dr Erica P. Gunderson z Kaiser Permanente Division of Research w Oakland (Kalifornia, USA).

Jej zespół przeanalizował dane zebrane wśród 1238 kobiet, uczestniczek badania na temat czynników ryzyka rozwoju choroby wieńcowej – Coronary Artery Risk Development in Young Adults (CARDIA). W momencie włączenia do niego panie były w wieku od 18. do 30 lat i żadna z nich nie miała cukrzycy. W ciągu kolejnych 30 lat, kiedy śledzono stan ich zdrowia, każda kobieta urodziła co najmniej jedno dziecko oraz była poddawana badaniom w kierunku cukrzycy (do siedmiu razy w ciągu całego badania). Uczestniczki udzielały też informacji na temat stylu życia – w tym diety i aktywności fizycznej oraz na temat okresu, w którym karmiły piersią swoje dziecko. W analizie uwzględniono czynniki ryzyka zachorowania na cukrzycę występujące u nich przed ciążą, takie jak otyłość, poziom glukozy na czczo, styl życia, historia występowania cukrzycy w rodzinie, a także zaburzenia metabolizmu podczas ciąży.

Kobiety, które karmiły piersią przez ponad sześć miesięcy były o 47 proc. mniej narażone na rozwój cukrzycy typu 2 w późniejszych latach, w porównaniu z tymi, które nie karmiły wcale. U pań karmiących sześć miesięcy lub krócej spadek ryzyka był mniejszy – o 25 proc.

Długofalowe korzyści z karmienia piersią były widoczne zarówno u kobiet rasy białej, jak i czarnej, niezależnie od tego, czy wystąpiła u nich cukrzyca ciążowa (która zwiększa ryzyko zachorowania na cukrzycę typu 2 w przyszłości). U kobiet rasy czarnej trzykrotnie częściej rozwijała się cukrzyca w ciągu 30 lat badania, jednocześnie rzadziej karmiły one piersią niż kobiety rasy białej.

„Częstość zachorowania na cukrzycę spadała stopniowo wraz z wydłużaniem się okresu karmienia piersią, niezależnie od rasy, wystąpienia cukrzycy ciążowej, stylu życia, rozmiarów ciała i innych metabolicznych czynników ryzyka ocenianych przed ciążą, co sugeruje biologiczny charakter mechanizmu leżącego u podłoża tej zależności” – skomentowała dr Gunderson.

Naukowcy uważają, że może chodzić m.in. o wpływ hormonów produkowanych podczas laktacji na komórki trzustki, które wydzielają insulinę i w ten sposób regulują poziom glukozy we krwi.

Wiedzieliśmy od dłuższego czasu, że karmienie piersią daje wiele korzyści zarówno matce, jak i dzieciom” – przypomniała niebiorąca udziału w badaniu Tracy Flanagan, dyrektor oddziału ds. zdrowia kobiet w Kaiser Permanente Northern California.

Badania wskazują na przykład, że kobiety, które karmiły dziecko piersią są mniej zagrożone zachorowaniem na raka piersi, z kolei dzieci karmione mlekiem mamy są w przyszłości mniej narażone na alergie i astmę, choroby serca, nadciśnienie, otyłość i inne zaburzenia metabolizmu.

W opinii Flanagan wyniki najnowszego badania dostarczają kolejnego argumentu, dla którego „lekarze, pielęgniarki, a także szpitale i decydenci, powinni wspierać kobiety w tym, by karmiły piersią tak długo, jak to możliwe”. (PAP)

Brak komentarzy do Karmienie piersią zmniejsza ryzyko cukrzycy

RNA w 3D

Już 1 mln razy badacze i osoby z całego świata wykorzystały RNAComposer – publicznie dostępny, skuteczny poznański system do modelowania struktury 3D RNA. A to nie jedyny polski sukces w badaniach nad wyznaczaniem struktury RNA.

Już 1 mln razy badacze i osoby z całego świata wykorzystały RNAComposer – publicznie dostępny, skuteczny poznański system do modelowania struktury 3D RNA. A to nie jedyny polski sukces w badaniach nad wyznaczaniem struktury RNA.

RNA to cząsteczki kwasu rybonukleinowego. Bez nich komórka nie mogłaby produkować białek – cząsteczek, które są istotne dla budowy i funkcjonowania komórek. Rodzajów RNA jest sporo i pełnią one w komórce różne funkcje.

I tak np. matrycowe RNA są pośrednikami, dzięki którym z DNA daje się wyciągnąć informacje – przepis na białka. Z rybosomowych RNA zbudowane są rybosomy – komórkowe centra produkcji białek. A transferowe RNA mają przynosić do tych centrów odpowiednie aminokwasy – jednostki budulcowe białek.

Model struktury 3D RNA wirusa Zika wygenerowany przez RNAComposer na podstawie sekwencji. Obecnie struktura ta jest już określona eksperymentalnie i jest zdeponowana w bazie struktur PDB. Źródło: Marta Szachniuk

 

Cząsteczkę RNA tworzy zwykle nić składająca się z połączonych ze sobą reszt nukleotydowych (w skrócie: A, C, G, U). Nawet jeśli rozszyfruje się ich kolejność w łańcuchu RNA, czyli określi sekwencję, nie jest pewne, jak cała cząsteczka układa się w przestrzeni. Bo cząsteczki RNA – w przeciwieństwie do kabla od słuchawek wrzuconych do plecaka – nie zwijają się w przypadkowe supły. Istnieją pewne reguły, które pozwalają przewidzieć, jaki kształt przybierze dana cząsteczka. W rozwikłaniu tego zagadnienia pomocne okazują się komputerowe metody do przewidywania struktur 3D RNA.

Dr hab. Marta Szachniuk wspólnie z zespołem prof. Ryszarda Adamiaka z Instytutu Chemii Bioorganicznej PAN w Poznaniu opracowała darmowy, publicznie dostępny system RNAComposer. Do systemu wprowadza się sekwencję RNA (lub informację o oddziaływaniach między resztami nukleotydowymi, czyli tzw. strukturę drugorzędową), a on w ciągu kilku/kilkunastu sekund oblicza i prezentuje trójwymiarowy model cząsteczki. Program sprawnie radzi sobie zarówno z krótkimi, jak i bardzo długimi łańcuchami cząsteczek RNA o skomplikowanej architekturze. – Wielu naukowców z całego świata używa programu RNAComposer, żeby uzyskiwać pierwsze wyobrażenie tego, jak wyglądać może w 3D cząsteczka, którą badają. Nasz system od 2012 r. wykonał już 1 mln predykcji” – opowiada dr hab. Marta Szachniuk.

To nie jest jedyny system informatyczny do predykcji struktury 3D RNA. Takich automatycznych systemów jest kilka. Poza tym przewidywaniem struktur RNA zajmują się zespoły badawcze wspomagające się badaniami eksperymentalnymi.

Aby porównać skuteczność różnych metod wyznaczania kształtu RNA w przestrzeni 3D, od 2010 roku organizowany jest konkurs RNA-Puzzles. Chodzi w nim o to, by mając zadaną sekwencję RNA, jak najdokładniej wyznaczyć strukturę cząsteczki. Modele przewidziane przez uczestników konkursu porównywane są następnie z wynikami eksperymentów chemicznych i biologicznych prowadzących do określenia struktury. Konkurs organizowany jest obecnie w dwóch kategoriach: serwerów, które automatycznie generują wyniki, oraz w kategorii predykcji ludzkich, gdzie modele powstają w wyniku integracji obliczeń komputerowych i eksperymentów laboratoryjnych. „Jesteśmy najlepsi w kategorii automatycznych systemów do predykcji 3D RNA” – podkreśla dr Szachniuk.

System RNAComposer powstał dzięki temu, że od dekady zespół z ECBiG skrzętnie gromadził ogromną bazę danych dotyczących RNA. W bazie RNA FRABASE zebrano informacje z ogromnej liczby eksperymentów. Takich, z których można było wyciągnąć wnioski o strukturze przestrzennej molekuł RNA. Baza ta jest ciągle aktualizowana i każdy może z niej bezpłatnie skorzystać. „To popularne narzędzie. Wiemy nawet, że na zagranicznych uczelniach korzystają z niej np. studenci w ramach badań i studiów przygotowujących do zawodu bioinformatyka czy biologa” – opowiada dr Szachniuk. Baza ta pomaga m.in. wyszukiwać czy w różnych cząsteczkach powtarzają się jakieś konkretne przestrzenne wzorce.

Polska na światowej mapie badań nad strukturą RNA jest widoczna także dzięki badaniom innych zespołów. Ważną postacią jest tu m.in. prof. Ryszard Kierzek z Instytutu Chemii Bioorganicznej PAN w Poznaniu. Jego prace pozwoliły określić termodynamiczne reguły fałdowania RNA. Nowatorskimi badaniami nad wyznaczaniem struktury RNA zajmuje się również zespół prof. Janusza Bujnickiego z Międzynarodowego Instytutu Biologii Molekularnej i Komórkowej w Warszawie.

PAP – Nauka w Polsce

Brak komentarzy do RNA w 3D

Świat między 44 zerami

W 2013 roku, na maturze z języka polskiego, uczniowie analizowali wstęp do mojej książki „Nauka po prostu. Wywiady z wybitnymi”. Rozwiązałem test maturalny stworzony do mojego tekstu i zdobyłem… około 70 proc. punktów. Dlaczego nie 100 proc? Części pytań nie zrozumiałem, część moich odpowiedzi nie trafiła w klucz. W skrócie z tekstu który sam zrozumiałem rozumiem ok. 70 proc. Nie świadczy to chyba o mnie najlepiej. Dzisiaj – nie tylko maturzystom – ten tekst przypominam.

W 2013 roku, na maturze z języka polskiego, uczniowie analizowali wstęp do mojej książki  „Nauka po prostu. Wywiady z wybitnymi”. Rozwiązałem test maturalny stworzony do mojego tekstu i zdobyłem… około 70 proc. punktów. Dlaczego nie 100 proc? Części pytań nie zrozumiałem, część moich odpowiedzi nie trafiła w klucz. W skrócie z tekstu który sam zrozumiałem rozumiem ok. 70 proc. Nie świadczy to chyba o mnie najlepiej. Dzisiaj – nie tylko maturzystom – ten tekst przypominam.

**************

Świat między 44 zerami

Widzialny Wszechświat ma rozmiar kilkunastu miliardów lat świetlnych. To około 1026 (1 z 26 zerami) metra. Z kolei najmniejsze struktury, których istnienia jesteśmy pewni, to budujące między innymi protony i neutrony kwarki. Mają rozmiar kilku attometrów, czyli 10-18 metra. Najmniejsze i największe obserwowane przez człowieka obiekty dzielą od siebie aż 44 rzędy wielkości! Kwarki są o 100 000 000 000 000 000 000 000 000 000 000 000 000 000 000 razy mniejsze od największego obiektu dociekań naukowców. Nasz świat mieści się w tych 44 zerach. Są w nim cząstki elementarne, żywe organizmy i ich DNA, Ziemia i inne planety. Są gwiazdy, galaktyki i gromady galaktyk. A gdzieś w środku jest człowiek. Jedyna znana istota, która chce wiedzieć i chce to wszystko zrozumieć.

Świat, ten zamknięty „między 44 zerami”, jest skonstruowany według uniwersalnych reguł. Człowiek ich nie tworzy, najwyżej odkrywa i nazywa. Na razie znamy je wycinkowo, choć chcielibyśmy oczywiście ogarniać w całości. Marzy nam się też, by w pełni je wykorzystywać. Nanotechnolodzy chcieliby tworzyć komputery oparte na węglu i projektować cząsteczki leków atom po atomie. Na razie jednak nie wiedzą jak. Biotechnolodzy chcą nadawać żywym organizmom dowolne cechy, chcą hodować tkanki, a może nawet całe organy, z jednej tylko komórki. Inni chcą poznać tajemnice mózgu (by skuteczniej się z nim komunikować), początków materii (by znaleźć źródło niewyczerpywalnej energii) czy klimatu (by zapobiegać ekstremalnym zjawiskom pogodowym).

Odkrywamy coraz więcej i nieustannie jesteśmy zaskakiwani złożonością świata, w którym żyjemy. Odkrywamy coraz więcej, a ciągle tyle pozostaje do poznania i zrozumienia. Horyzont poznania wcale się nie przybliża, gorzej … można odnieść wrażenie, że się oddala.  Nie przeszkadza nam to jednak marzyć.

Świat przyszłości, świat czasów, w których jeżeli wszystkie reguły zostaną poznane (czy to w ogóle kiedykolwiek nastąpi?), będzie światem dostosowanym przez człowieka do człowieka – tylko czy w ostatecznym rachunku dla człowieka. To wizja bardzo odległa, ale przecież zmierzamy ku niej od zawsze. Zaglądamy za horyzont zdarzeń w poszukiwaniu mechanizmów, które za tym wszystkim stoją, bo chcemy je wykorzystywać po swojemu, albo inaczej, na swój użytek. Coraz częściej zresztą nam się to udaje. Tymi mechanizmami, trybami i zębatkami są naukowe prawa przyrody. Nauczyliśmy się kontrolować reakcje jądrowe i dlatego potrafimy korzystać z energii atomowej. Wybudowaliśmy urządzenia, które odczytują niektóre intencje mózgu i dlatego możemy pomagać osobom niepełnosprawnym. W końcu dzięki poznaniu właściwości materii w skali mikro budujemy komputery, a zrozumienie sposobu zapisu informacji w naszym DNA już niedługo zaowocuje terapiami genowymi. To wszystko, te niewątpliwe osiągnięcia ludzkiego intelektu, nie zmieniają jednak faktu, że do poznania wszystkich reguł rządzących przyrodą (a może jest tylko jedna reguła uniwersalna, która stosuje się do wszystkiego?) sporo nam jeszcze brakuje. Czy w związku z tym warto zaprzątać sobie głowę refleksją nad przyszłością? Nad kierunkiem i tempem rozwoju nauki? Może lepiej upajać się wizją świata ułożonego, oswojonego, dostosowanego? Wizją świata przyszłości. Powód jest – jak sądzę – jeden. Uczymy się przez eksperyment. Rozwój sam się nie dzieje, a bez prób i bez błędów nie ma postępu. No właśnie – błędów. O te najłatwiej w pośpiechu. Świat rozwija się dzisiaj szybciej niż kiedykolwiek wcześniej, szybciej niż refleksja nad nim. Nie ma tygodnia bez spektakularnego odkrycia, bez przesunięcia granicy poznania. Wszystko dzieje się tak szybko, że słowo drukowane już dawno przestało nadążać. Wypiera je słowo wyświetlane na ekranie. Już nawet nie komputera stojącego na biurku, ale coraz częściej telefonu komórkowego, albo czegoś co telefonem jest tylko przy okazji.

Nasz świat jest pędzącym pociągiem, w którym siedzimy i patrzymy za okno. Wszystko jest zamazane. Nie widać szczegółów, nie ma czasu na analizę detali. Pędzimy do przodu. To wspaniałe… ale trzeba uważać. W przeszłości na przykład w czasie wojen i rewolucji zdarzało się, że gdy historia przyspieszała brakowało czasu na refleksję. Rzeczy działy się tak szybko, że konsekwencje czynów i decyzji czasami uświadamiano sobie zbyt późno. Wchodząc więc w erę „nano” czy „cyber” warto byłoby zdawać sobie sprawę ze wszystkich ewentualnych konsekwencji. Dopiero ta wiedza pozwala na w pełni świadome funkcjonowanie w dzisiejszym świecie. Skąd ją czerpać? Najlepiej u źródła.

Na początku XXI wieku żyjemy w świecie nieustannie kształtowanym, wręcz kreowanym przez naukę i technologię. W każdej epoce życie jednostki w jakimś stopniu zależało od postępu cywilizacji, ale nigdy nie zależało aż tak bardzo jak obecnie. Miasto bez prądu czy komunikacja bez Internetu nie istnieją. Nie potrafimy żyć bez prądu, Internetu, telefonu komórkowego i komputera. I nie chodzi o naszą wygodę czy przyzwyczajenia, ale o przetrwanie. Bez sieci komputerowej i komórkowej nie działają systemy sterujące pracą elektrowni, oczyszczalni ścieków, uzdatniania wody czy komunikacji (metro, tramwaje, koleje). Niedługo nie będzie istniała elektronika bez nanotechnologii i medycyna bez biotechnologii, a może nawet cybernetyki. Coraz częściej osobom chorym i niepełnosprawnym pomaga się wszczepiając zaawansowane technologiczne implanty i protezy. Niektórym to ratuje życie, innym ułatwia i czyni znośniejszym. Ale wszystkich w pewnym sensie uzależnia od technologii.

Być może z powodu wspomnianego uzależnienia naszego świata od osiągnięć naukowych, może dosłownego rozumienia słowa „demokracja”, a może z powodu asekuranckiej postawy polityków, coraz częściej od nie-specjalistów wymaga się zajmowania stanowiska w sprawach bezpośrednio związanych z nauką. Nigdy wcześniej tak nie było. W niektórych krajach to w referendach ważą się losy biotechnologii i energetyki. W innych pyta się obywateli o status ludzkiego embriona albo o moment, w którym można przerwać ludzkie życie. Tam gdzie formalnie plebiscytu nie ma, rządzący i tak przed podjęciem jakiejkolwiek decyzji przyglądają się słupkom sondaży. Zdanie naukowców, specjalistów zdaje się mieć mniejszą wartość niż opinie elektoratu, często manipulowanego przez sprawnych lobbystów.

W interesie wszystkich jest, by każdy obywatel, a nie tylko osoba z wykształceniem kierunkowym, mógł zabrać świadomy głos w toczących się dzisiaj na wielu frontach debatach z naukowym tłem. Gdy w każdych kolejnych wyborach frekwencja jest coraz niższa, mówi się o zagrożeniu demokracji. Zagrożeniem jest także to, że tak niewiele osób zdaje sobie sprawę z kierunków naszego rozwoju, z szans jakie przed nami stoją i z zagrożeń z nimi związanych. Jeden z moich rozmówców stwierdził, że naukowcy powinni uprawiać naukę, politycy powinni na nią dawać pieniądze, a społeczeństwo powinno kontrolować i jednych i drugich.  Gdy rządzący przed wieloma laty Niemcami kanclerz Gerhard Schroeder poszukiwał oszczędności i chciał obciąć nakłady na naukę, został powszechnie skrytykowany. W mediach pojawiały się nawet sondaże społeczne, z których wynikało, że Niemcy nie chcą w ten sposób oszczędzać. Nasi sąsiedzi zdają sobie po prostu sprawę z tego, że inwestowanie w naukę oznacza rozwój. Społeczeństwo może pośrednio – przez wybieranych polityków – wpływać na kierunek rozwoju nauki. O ile ma wiedzę, która umożliwia podjęcie świadomej decyzji. U nas nakłady na naukę czy nowe technologie nigdy nie były tematem debaty publicznej. Ani w czasie kampanii wyborczych, ani poza nimi. Dlaczego tak się dzieje? W powszechnym odczuciu polski naukowiec to ktoś zamknięty w hermetycznym laboratorium. Ktoś całkowicie oderwany od dnia codziennego. Przyjęło się u nas myśleć, że nauka ma swego rodzaju autonomię, jest niezależna od rzeczywistości. Niestety niebezpieczną konsekwencją takiej opinii jest przekonanie, że uprawianie nauki to sztuka dla sztuki. Trudno sobie wyobrazić większy absurd. Życie nie biegnie innym torem niż najnowsze osiągnięcia i technologie. Przeciwnie. Te obydwie dziedziny są ze sobą ściśle związane. Ale – i znowu wracamy do tego samego – skąd mamy o tym wiedzieć? Jak mamy wpływać na szybkość i kierunek zmian, skoro nie mamy o nich większego pojęcia? Warto wiedzieć więcej. I warto zajrzeć do źródeł.

Tomasz Rożek

 

Brak komentarzy do Świat między 44 zerami

Nie wyrzucaj baterii!

Każdy powinien wiedzieć, że zużytych baterii czy akumulatorów nie wolno wyrzucać do śmieci komunalnych, tylko trzeba zanosić do specjalnie przygotowanych pojemników. Ale czy wiemy dlaczego należy tak postępować?

Każdy powinien wiedzieć, że zużytych baterii czy akumulatorów nie wolno wyrzucać do śmieci komunalnych, tylko trzeba zanosić do specjalnie przygotowanych pojemników. Ale czy wiemy dlaczego należy tak postępować?

Rocznie zużywamy prawie 300 milionów baterii. 90 proc. z nich to baterie jednorazowe. Zwykle gdy przestają działać, po prostu je wyrzucamy. W ten sposób do środowiska naturalnego trafiają tak trujące związki i pierwiastki jak ołów, kadm, nikiel, rtęć, lit i mangan. To czynniki silnie trujące. Wpływają negatywnie nie tylko na człowieka, ale na całe środowisko.

>>> Więcej naukowych informacji na FB.com/NaukaToLubie

Z wielu szkodliwych substancji czy pierwiastków z których zbudowane są wyrzucane baterie, najgorszy wpływ na zdrowie i życie człowieka mają ołów, kadm i rtęć.

Ołów – jest pierwiastkiem trującym. Związki ołowiu mają negatywny wpływ na praktycznie wszystkie komórki i narządy. Jest szczególnie niebezpieczny dla dzieci i młodzieży.

Kadm – jest jeszcze bardziej toksyczny niż ołów. Niezależnie od tego w jaki sposób dostanie się do organizmu, jest magazynowany w wątrobie, nerkach, trzustce i płucach. Jest źródłem anemii.

Rtęć – związki tego pierwiastka są silnie trujące i mają dewastujący wpływ na ośrodkowy układ nerwowy. Szalony Kapelusznik, to jedna z postaci występującej w Alicji z Krainy Czarów. Kapelusznicy często cierpieli na choroby psychiczne, bo w procesie uzyskiwania filcu były używane związki rtęci.

Jedynym sposobem na zneutralizowanie zagrożenia jest utylizacja zużytych baterii w wyspecjalizowanych zakładach przeróbki odpadów niebezpiecznych. Tam stosowana jest albo metoda mechaniczna, czyli w skrócie mówiąc rozdrabnianie baterii i oddzielanie od siebie poszczególnych ich części, albo metoda termiczna, która polega na wytapianiu szkodliwych metali w temperaturze około 1400 st C. Trzecia jest metoda hydrometalurgiczna, która polega na chemicznym przetworzeniu baterii. Traktując je kwasami lub zasadami, wytapia się metale czy związki, które są szkodliwe.  Proces recyklingu odbywa się w warunkach kontrolowanych, a odpowiednie zabezpieczenia nie pozwalają by niebezpieczne związki trafiły do środowiska naturalnego.

>>> Więcej naukowych informacji na FB.com/NaukaToLubie

Niezależnie od stosowanej metody, takie metale jak kadm, ołów, rtęć, nikiel czy lit, mogą być ponownie użyte.

PS. Zdaję sobie sprawę z tego, że tym wpisem absolutnie nie wyczerpuję tematu recyclingu baterii. Kiedyś napiszę o tym więcej. Po prostu dzisiaj wymieniałem dzieciom baterie w aparacie fotograficznym i zdałem sobie sprawę z tego jak dużo baterii zużywamy. Swoją drogą, coraz częściej myślę, że osoba (firma), która wymyśli sposób na wydajne i „zdrowe” dla środowiska magazynowanie energii elektrycznej, będzie autorem jednego z największych wynalazków wszech czasów.

9 komentarzy do Nie wyrzucaj baterii!

Burza w sercu

Zakochanie to biochemia, genetyka i cała masa czynników które moglibyśmy nazwać „naukowymi”. Zakochane mózgu bada się najbardziej zaawansowanymi technikami jakie zna medycyna.

Połowa lutego to czas w którym o miłości i zakochaniu mówi się szczególnie często. Oczywiście za sprawą dnia świętego Walentego (czyli Walentynek), który w pop-kulturze jest szczególnie czczony przez zakochanych. Nieczęsto wspomina się o tym, że święty Walenty jest także patronem psychicznie chorych (epilepsję do niedawna nazywano chorobą Św. Walentego), a szkoda. Z naukowego punktu widzenia to co dzieje się w chwili zakochania ma sporo wspólnego z czystym szaleństwem. I rzeczywiście, u osób zakochanych obserwuje się mocne ukrwienie tej części mózgu, która jest odpowiedzialna za zachowania obsesyjne.

Kurierzy w mózgu

To nie tak, że o zakochaniu wiemy wszystko, to nie tak, że to co dzieje się w sercu, mózgu czy brzuchu zakochanego, potrafimy wyrazić równaniami fizycznymi czy reakcjami biochemicznymi. Wciąż sporo w tym tajemnicy. Dlaczego zakochujemy się w tej, a nie w innej osobie? Dlaczego czasami zauroczenie zamienia się w trwające dziesiątki lat głęboki i szczere uczucie, a czasami mija jak śnieg wiosną? Tego nie wiemy. Pozostaje operowanie danymi statystycznymi, uśrednieniami i szacunkami.

>>> Więcej naukowych informacji na FB.com/NaukaToLubie

Z biochemicznego punktu widzenia za stan zakochania, który czasami porównuje się do stanu odurzenia jakimiś środkami, odpowiedzialne są przynajmniej trzy neurotransmitery (neuroprzekaźniki). To związki chemiczne, których cząsteczki działają trochę jak kurierzy w firmie, czyli przenoszą informacje z miejsca na miejsce. I tak jak w dużym wieżowcu kurierzy kursują pomiędzy biurkami, pokojami, korytarzami, piętrami czy nawet budynkami, tak w mózgu, linia startowa dla cząsteczki neuroprzekaźnika to dendryt, a meta to akson. Dendryty i aksony to „wypustki” komórek nerwowych. Impulsy elektryczne są przenoszone po zewnętrznej powierzchni komórki nerwowej, ale to neurotransmitery przenoszą informacje pomiędzy sąsiadującymi komórkami. W praktyce, impuls elektryczny (sygnał fizyczny) na zakończeniu każdej wypustki jest „tłumaczony” na sygnał chemiczny przenoszony przez neurotransmitery do kolejnej wypustki. Tam z powrotem chemia „zamienia się” w fizykę i w kolejnej komórce impuls elektryczny wędruje dalej. Neurotransmiterów jest bardzo dużo, ale w procesie zakochania uaktywniają się głównie trzy. Dopamina, serotonina i oksytocyna. Ta pierwsza pobudza te same części mózgu, które są pobudzane przez niektóre narkotyki. Powoduje, że świat wydaje się być bezproblemowy i piękny. Dopamina zmusza do aktywności, do działania. W skrócie… zakochany nie jest w stanie usiedzieć na miejscu. Potrzebuje swojego bodźca. Głosu, obrazu, zapachu osoby w której się zakochał. Ten bodziec uwalnia w mózgu nową porcję dopaminy. To dlatego zakochani zerkają na siebie ukradkiem.

Podczas gdy dopamina nas pobudza, drugi neuroprzekaźnik, serotonina, nas uspokaja. W końcu jest też oksytocyna. Ona pomaga nam nawiązywać relacje z drugą osobą. I dotyczy to nie tylko zakochanych. Oksytocyna jest uwalniana u matki np. podczas ssania piersi przez jej dziecko. Oksytocyna czyni nas bardziej uległymi, bardziej skorymi do współpracy i współodczuwania oraz ufnymi. Ale także bardziej szczodrymi (prezenty!) i zazdrosnymi.

Wieczna tajemnica?

Trzy wspomniane wyżej neuroprzekaźniki powodują, że świat wydaje się być różowy, bezproblemowy a osoba w którą jesteśmy zapatrzeni wydaje się nie mieć wad. Tym bardziej, że przytłumiona jest ta racjonalna część mózgu. Oczywiście nie u wszystkich działa to w ten sam sposób. Generalnie jednak, to mężczyźni szybciej się zakochują i szybciej odkochują. Kobiety są bardziej zrównoważone w tym względzie. Z czego to wynika? Teorii jest kilka, ale jedna z nich (tzw. teoria inwestycji rodzicielskiej) mówi, że skoro panie ponoszą większy biologiczny ciężar wydania na świat potomstwa, zostały obdarzone cechami, które proces zakochania się jakoś racjonalizują. To jak gdyby mieć w mózgu dodatkowe hamulce. Zgodnie z tą teorią, mężczyźni nie muszą mieć tych hamulców, bo… w sumie nie ponoszą odpowiedzialności biologicznej za przelotne romanse.

>>> Więcej naukowych informacji na FB.com/NaukaToLubie

Na koniec jeszcze garść wyników badań statystycznych. Nie jest prawdą, że w miłości przeciwieństwa się przyciągają. Prawdą za to jest, że mężczyźni znacznie większą wagę przywiązują do wyglądu kobiety niż kobiety do wyglądu mężczyzny. Z jednym wyjątkiem, zarówno płeć piękna, jak i brzydka za bardziej atrakcyjne uważa osoby z dużymi oczami. Może dlatego panie optycznie powiększają sobie oczy makijażem? A może osoby zakochane wydaję się być atrakcyjniejsze, bo w okresie zauroczenia mają rozszerzone źrenice?

Zakochanie to biochemia, genetyka i cała masa czynników które moglibyśmy nazwać „naukowymi”. Zakochane mózgu bada się najbardziej zaawansowanymi technikami jakie zna medycyna. Dzięki rezonansowi magnetycznemu jesteśmy w stanie odróżnić zakochanie od pożądania. To kwestia dokładnej obserwacji tzw. pola brzusznego nakrywki, które wchodzi w skład tzw. układu nagrody. Rumieniące się policzki (uczucie gorąca włącza system chłodzenia), pocące się dłonie, drżący głos… ale to wciąż za mało, by zrozumieć to co dzieje się w głowie zakochanego. Czy kiedykolwiek zrozumiemy? Mam nadzieję że nie. Mam nadzieję, że miłość i zakochanie pozostaną przynajmniej trochę tajemnicze.

>>> Więcej naukowych informacji na FB.com/NaukaToLubie

Tekst ukazał się w tygodniku Gość Niedzielny

Brak komentarzy do Burza w sercu

TworzyMy atmosferę

To my tworzymy atmosferę, którą później oddychamy. Albo – trzeba niestety to przyznać – atmosferę, którą się podtruwamy. Na przełomie jesieni i zimy jakość powietrza w Polsce jest dramatyczna!  

>>> Polub FB.com/NaukaToLubie to miejsce w którym komentuję i popularyzuję naukę.

Jakość powietrza na przełomie jesieni i zimy jest najgorsza, bo wtedy powietrze jest wilgotne a szkodliwe cząsteczki mają się o co „zawiesić”. Gdy przychodzi sroga zima zanieczyszczenia są mniej szkodliwe, bo są szybko rozwiewane. W czasie mrozu powietrze jest suche (woda osiada jako szron albo śnieg) a to znaczy, że czystsze.

Kraków – brudne miasto

Dowodów na to, że zatrute powietrze powoduje wiele groźnych chorób jest tak wiele, że aż trudno zrozumieć dlaczego wciąż tak mało energii poświęcamy jego ochronie. Z badań ankietowych wynika, że aż 81 proc. pytanych nie uważa zanieczyszczenia powietrza za problem miejsca w którym mieszka. Fakty są jednak takie, że poziom zanieczyszczenia powietrza w Polsce jest jednym z najwyższych w Unii Europejskiej. Pod względem stężenia pyłu zawieszonego PM10 wywołującego m.in. astmę, alergię i niewydolność układu oddechowego w całej Europie gorsza sytuacja niż w Polsce jest tylko w niektórych częściach Bułgarii. W przypadku pyłu PM2,5 stężenie w polskim powietrzu jest najwyższe spośród wszystkich krajów w Europie, które dostarczyły dane. Podobnie jest ze stężeniem rakotwórczego benzopirenu. Gdy Polskę podzielono na 46 stref w których badano jakość powietrza, okazało się, że aż w 42 poziom benzopirenu był przekroczony. Wczytywanie się w statystyki, liczby, tabelki i wykresy może przyprawić o ból głowy. Okazuje się bowiem, że wśród 10 europejskich miast z najwyższym stężeniem pyłów zawieszonych, aż 6 to miasta polskie; Kraków, Nowy Sącz, Gliwice, Zabrze, Sosnowiec i Katowice. Bezsprzecznym liderem na liście miast z największym zanieczyszczeniem jest od lat Kraków. Tam liczba dni w roku w których normy jakości powietrza są przekroczone wynosi 151. Kraków jest trzecim najbardziej zanieczyszczonym miastem europejskim. Brudne powietrze to nie tylko takie w którym przekroczone są normy stężania pyłów zawieszonych czy wielopierścieniowych węglowodorów aromatycznych (WWA), w tym benzopirenu (te powstają w wyniku niecałkowitego spalania np. drewna, śmieci czy paliw samochodowych). My i nasze dzieci (także te, które jeszcze się nie urodziły) oddychamy tlenkami azotu (główne źródło to spaliny samochodowe), tlenkami siarki (spalanie paliw kopalnych), przynajmniej kilkoma metalami ciężkimi np. kadmem, rtęcią, ołowiem, a także tlenkiem węgla.

Piece i samochody

Źródła poszczególnych zanieczyszczeń występujących w atmosferze są różne, ale w brew pozorom nie są one związane z przemysłem. Głównym ich źródłem jesteśmy my sami, a konkretnie indywidualne ogrzewanie domów i mieszkań oraz transport drogowy. Ponad 49 proc. gospodarstw domowych ma własne piece centralnego ogrzewania. Samo to nie byłoby problemem gdyby nie fakt, że przeważająca większość tych pieców to proste konstrukcje, które można scharakteryzować dwoma określeniami: są wszystkopalne i bardzo mało wydajne. Duża ilość paliwa, którą trzeba zużyć oraz fakt, że często używane jest w nich paliwo niskiej jakości powodują, że duże miasta w Polsce w okresie jesienno – zimowym praktycznie są cały czas zasnute mgłą. Swoje dokładają także samochody. Liczba samochodów osobowych zarejestrowanych w Polsce wynosi 520 pojazdów na 1000 mieszkańców a to więcej niż średnia europejska. Nie jest to bynajmniej powód do dumy. Spory odsetek samochodów na naszych drogach nie zostałby zarejestrowany w innych unijnych krajach. Także ze względu na toksyczność spalin.

>>> Polub FB.com/NaukaToLubie to miejsce w którym komentuję i popularyzuję naukę.

O szkodliwości zanieczyszczonego powietrza można by pisać długie elaboraty. W zasadzie nie ma organu, nie ma układu w naszym ciele, który nie byłby uszkadzany przez związki chemiczne zawarte w zanieczyszczeniach. Przyjmuje się, że z powodu zanieczyszczenia powietrza umiera w Polsce ponad 40 tys. osób rocznie. To ponad 12 razy więcej osób niż ginie wskutek wypadków drogowych! Grupami szczególnie narażonymi są dzieci i osoby starsze. Zanieczyszczenia bardzo negatywnie wpływają na rozwój dziecka przed urodzeniem. Prowadzone także w Polsce badania jednoznacznie wskazywały, że dzieci, których matki w okresie ciąży przebywały na terenach o dużym zanieczyszczeniu powietrza, miały mniejszą masę urodzeniową, były bardziej podatne na zapalenia dolnych i górnych dróg oddechowych i nawracające zapalenie płuc w okresie niemowlęcym i późniejszym, a nawet wykazywały gorszy rozwój umysłowy.

To problem każdego!

W sondażu przeprowadzonym na zlecenie Ministerstwa Środowiska w sierpniu 2015 r. czystość powietrza była wymieniana jako jedna z trzech – obok bezpieczeństwa na drogach i poziomu przestępczości – najważniejszych kwestii, od których zależy komfort życia w danej miejscowości. Problem z tym, że większość pytanych nie widzi tego problemu w miejscowości w której mieszka. Temat dla nich istnieje, ale jest abstrakcyjny, mają go inni. Prawda jest inna. Nawet w wypoczynkowych miejscowościach jak Zakopane czy Sopot jakość powietrza jest koszmarna. Tymczasem problem w dużej części można rozwiązać bez dodatkowych inwestycji czy zwiększania rachunki np. za ogrzewanie. Wystarczy zmienić własne nawyki. Kupno węgla o odpowiednich parametrach to pozornie wyższy wydatek. Lepszy węgiel ma jednak wyższą wartość opałową, czyli trzeba go zużyć mniej by wyprodukować podobna ilość ciepła. Nic nie kosztuje dbanie o sprawność domowego pieca przez regularne czyszczenie go. Nic nie kosztuje (można dzięki temu nawet zaoszczędzić), zamiana w mieście samochodu na komunikacje miejską albo rower.

A miejsce śmieci… jest w śmietniku. Inaczej pozostałości z ich spalania, będę kumulowały się w naszych płucach. Polacy w domowych piecach spalają rocznie do 2 mln ton odpadów. W konsekwencji do atmosfery i do naszych płuc trafiają m.in. toksyczne dioksyny, furany, cyjanowodór.

>>> Polub FB.com/NaukaToLubie to miejsce w którym komentuję i popularyzuję naukę.

 

Tekst został opublikowany w tygodniku Gość Niedzielny.
2 komentarze do TworzyMy atmosferę

Myśląca maszyna

Na samą myśl o tym, że komputer mógłby myśleć, myślącemu człowiekowi włosy stają dęba. A może wystarczy nauczyć maszynę korzystania z naszych myśli?

Myślenie maszyn to temat, który wywołuje sporo emocji. Czy zbudujemy kiedykolwiek sztuczny mózg? Czy maszyny (komputery, programy) mają świadomość? A może w przyszłości nas zastąpią? Cóż, zastępują już dzisiaj. I dobrze, że zastępują, w końcu po to je budujemy. Czy myślą? Nie da się odpowiedzieć na to pytanie, zanim nie sprecyzujemy dokładnie co to znaczy „myśleć”. Jeżeli oznacza „podejmować decyzje”, to tak, komputery potrafią to robić. Potrafią też się uczyć i wyciągać wnioski z przeszłości. Nie potrafią robić rzeczy abstrakcyjnych. I przede wszystkim nie mają poczucia osobowości, nie mają poczucia swojej odrębności i swoich własnych celów. Owszem maszyny robią wiele rzeczy celowych, ale realizują nie swoje cele, tylko cele konstruktora czy programisty.

Deep brain stimulator.

(credit:  Asylum Entertainment)

Deep brain stimulator.

(credit: Asylum Entertainment)

Łowienie sygnałów

Samoświadomość czy kreatywność wydają się być barierą, która jeszcze długo nie zostanie złamana. To czy powinna być złamana, to zupełnie inny temat. Ale być może nie ma potrzeby na siłę nadawać maszynom cech ludzkich mózgów, może wystarczy w jakiś sposób je z naszymi mózgami zintegrować? Różnice pomiędzy tym, jak działa nasz mózg i „mózg” maszyny są spore. Może warto się zastanowić nad tym, czy maszyna nie mogłaby w pewnym sensie skorzystać z tego co MY mamy w głowie. Ten sam problem można postawić inaczej. Czy nasz mózg jest w stanie dogadać się bezpośrednio z maszyną? Czy jest bezpośrednio w stanie przekazywać jej informacje albo nią sterować?

Słowo „bezpośrednio” ma tutaj kluczowe znaczenie. Nasze mózgi dogadują się z komputerem, ale pomiędzy umysłem a procesorem w maszynie jest cała masa stopni pośrednich. Np. palce piszącego na klawiaturze, sama klawiatura. W końcu język, w którym piszemy komendy (albo tekst). Te stopnie pośrednie powodują, że czas pomiędzy myślą, która zakwita nam w mózgu a jej „materializacją” bywa długi. Każdy stopień pośredni jest potencjalnym miejscem pojawienia się błędu. W końcu ile razy wpisywana przez klawiaturę komenda czy tekst zawierał literówki? Jest jeszcze coś. Nie każdy fizycznie jest w stanie obsługiwać komputer czy jakiekolwiek inne urządzenie elektroniczne. Zwłaszcza dla takich ludzi stworzono interfejs mózg – komputer (IBC). Urządzenie, które pozwala „zsynchronizować” mózg z komputerem, pozwalające wydawać komendy urządzeniom elektronicznym za pomocą fal mózgowych. Dzisiaj z IBC korzystają nie tylko niepełnosprawni, ale także gracze komputerowi. W przyszłości być może będzie to standardowy sposób obsługi elektroniki.

Jak to działa? Komórki nerwowe w mózgu człowieka porozumiewają się pomiędzy sobą poprzez przesyłanie impulsów elektrycznych. Te można z zewnątrz, czyli z powierzchni czaszki, rejestrować. W ostatnich latach nauczyliśmy się je także interpretować. To istne szukanie igły w stogu siana. Mózg każdej sekundy przetwarza miliony różnych informacji, przesyła miliony impulsów do mięśni rozlokowanych w całym ciele. Każdy taki sygnał pozostawia „ślad”, który można podsłuchać.

Neural net firing reversed.

(credit:  Asylum Entertainment)

Neural net firing reversed.

(credit: Asylum Entertainment)

Czujnik w okularach

Nie powiem, że potrafimy podsłuchać wszystko. To byłaby nieprawda. Mówiąc szczerze, jesteśmy dopiero na samym początku drogi. W przypadku IBC bardzo pomocna jest  świadomość użytkownika (pacjenta?) korzystającego z interfejsu. Człowiek ma bowiem zdolności do takiego aktywizowania mózgu, by sygnały z tym związane, można było wyraźniej „usłyszeć” na powierzchni czaszki. Dzięki temu, osoby sparaliżowane, myślami są w stanie poruszać mechanicznymi nogami (czyli tzw. egzoszkieletem) albo wózkiem inwalidzkim. W ten sam sposób człowiek ze sprawnie działającym mózgiem jest w stanie komunikować się z otoczeniem chociażby poprzez pisanie na ekranie, nawet gdy jest całkowicie sparaliżowany. Myśli o literach, a te wyświetlają się na odpowiednim urządzeniu.  W podobny sposób, w przyszłości być może będzie wyglądało sterowanie telefonem komórkowym czy jakimkolwiek innym urządzeniem. Pewną trudnością jest to, że – przynajmniej dzisiaj – po to, by wspomniane impulsy można było zarejestrować, do skóry głowy muszą być przyłożone elektrody. Albo korzystający z interfejsu człowiek musi mieć ubrany specjalny czepek z czujnikami. Ale w przyszłości być może wystarczą czujniki w okularach? Okularach, w których zainstalowana będzie kamera, a na szkłach wyświetlane będą dodatkowe informacje. Takie okulary już są i nazywają się GoogleGlass.

Złożony i skomplikowany

Interfejs mózg – komputer odbiera sygnały z powierzchni skóry, rejestruje je i interpretuje. Czy możliwe jest przesyłanie informacji w odwrotną stronę, czyli z jakiegoś urządzenia do mózgu? Na razie tego nie potrafimy, ale nie mam wątpliwości, że będziemy próbowali się tego nauczyć (znów, czy powinniśmy to robić, to zupełnie inny temat). To znacznie bardziej skomplikowane niż sczytywanie potencjałów elektrycznych z powierzchni czaszki. W którymś momencie tę barierę może przekroczymy i wtedy będziemy mieli dostęp do nieograniczonej ilości informacji nie poprzez urządzenia dodatkowe takie jak komputery, tablety czy smartfony. Wtedy do tych informacji będzie miał dostęp bezpośrednio nasz mózg. Na to jednak zbyt szybko się nie zanosi. Nie z powodu samej elektroniki, raczej z powodu naszego mózgu. Panuje dość powszechna zgoda, że to najbardziej skomplikowany i złożony system jaki znamy. Nie tylko na Ziemi, ale w ogóle. Choć od lat na badania mózgu przeznacza się ogromne kwoty pieniędzy, choć w ostatnich latach poczyniliśmy ogromne postępy, wciąż niewiele wiemy o CZYMŚ co waży pomiędzy 1,2 a 1,4 kg

>>> Zapraszam na profil FB.com/NaukaToLubie (kliknij TUTAJ). To miejsce w którym staram się na bieżąco informować o nowościach i ciekawostkach ze świata nauki i technologii.

Brak komentarzy do Myśląca maszyna

Fagi – dobre wirusy

– Jak to się dzieje, że ci ludzie nie chorują – zastanawiał się widząc Hindusów kąpiących się i pijących wodę z Gangesu. Rzeki, która jest ściekiem. Więcej! wszystko wskazuje na to, że oni są przez to zdrowsi !

Bakterie stają się dla nas coraz groźniejsze. Coraz częściej zdarza się, że nie dają im rady nawet najbardziej zaawansowane terapie antybiotykowe. Sytuacja wymaga podjęcia niestandardowych metod. A może przeciwnie, wymaga powrotu do źródeł?

Ta historia rozpoczyna się w Indiach ostatnich lat XIX wieku. To wtedy przypłynął tam młody brytyjski biochemik i bakteriolog Ernest Hanbury Hankin. Ma jeden cel, walkę z cholerą, która miejscami przybiera rozmiary epidemii. Sukcesów nie ma praktycznie żadnych, a jego desperację potęguje fakt, że w Indiach zdają się nie działać reguły, których nauczył się w Anglii. Młody badacz zauważa bowiem, że na cholerę bardzo rzadko chorują ci, którzy kąpią się w rzece Ganges. Dla Hindusów sprawa jest oczywista, wody rzeki są święte, a każdy kto się w nich kąpie jest „chroniony”. Dla naukowca, sprawa jest trudna do zrozumienia. Przecież Ganges to ściek! To miejsce które powinno być źródłem problemu, a nie lekarstwem. Ku konsternacji większości Europejczyków, a już na pewno tych, którzy mieli wykształcenie medyczne czy biologiczne, Hindusi wodę z Gangesu pili. I? I nic im się nie działo. Jak to możliwe? Brytyjski naukowiec uważał, że w rzece musi być coś, co pijących jej wodę uodparnia. Fenomen dotyczył nie tylko wody w Gangesie, ale także w innych rzekach, równie zanieczyszczonych.

W 1896 roku Ernest Hanbury Hankin opublikował pracę naukową, w której stawiał tezę, że, w badanej przez niego wodzie istnieją czynniki antybakteryjne, które są na tyle małe, że nie sposób zatrzymać ich nawet na najdrobniejszych filtrach. Praca nie została jednak zauważona. Dopiero 20 lat później odkryto co tym czynnikiem jest. Dwa zespoły badaczy, brytyjski i francuski, odkryły bakteriofagi, czyli wirusy, które niszczą bakterie. Nazwa bakteriofag oznacza dosłownie „zjadacze bakterii”. W rzeczywistości wirusy nie pożerają bakterii. Ale o tym za chwilę. Dalsze badania pokazały, że w zasadzie każda bakteria ma swojego faga, czyli wirus, który bez większych problemów może sobie z nią poradzić. Pierwszy przypadek uleczenia wirusami zakażenia bakteryjnego (konkretnie chodziło o infekcję laseczką czerwonki, czyli siejącą śmierć dezynterią) miał miejsce w 1915 roku.

ganges

Zagadka: znajdź głowę chłopaka w śmieciach

Pierwszy nazwę bakteriofag zastosował pracujący w Paryżu Kanadyjczyk, Félix d’Herell. Nie jest ona do końca ścisła, bo sugeruje, że wirusy pożerają bakterie. W rzeczywistości wirusy niczego nie zjadają. Nie są organizmami żywymi, więc nie potrzebują źródła energii do zaspokajania swoich potrzeb. Jak w takim razie zabijają? Bakteriofagi, jak zresztą wszystkie wirusy, komórki żywych organizmów wykorzystują. Wirusy są kapsułkami zawierającymi materiał genetyczny. Nie potrafią same się poruszać. Posiadają jednak „klucze” do żywych komórek. Każda żywa komórka w swojej ścianie ma receptory. To coś w rodzaju zamka do drzwi. Ten, kto posiada klucz, może wejść do środka. Wirusy posiadają klucze, czyli białka pasujące do receptorów. Gdy cząsteczka wirusa znajdzie się w bezpośredniej bliskości komórki, jest bardzo prawdopodobne, że dojdzie do adsorpcji. Wirus otwiera zamek. Chwilę później następuje penetracja. Specjalną igiełką fag wkłuwa się do wnętrza bakterii i wstrzykuje tam swój materiał genetyczny. Komórka (w przypadku fagów komórka bakteryjna) nie ma pojęcia, że jest zainfekowana. Przecież wirus miał „legalne klucze”. Gdy materiał genetyczny znajdzie się w środku, dochodzi do tzw. replikacji genomu. Komórka replikuje wirusy z taką prędkością, że wkrótce zostaje – dosłownie – rozerwana z powodu ich natłoku w swoim wnętrzu. Od momentu „włożenia klucza do zamka” do unicestwienia bakterii mija nie więcej niż 30 minut! Każda zainfekowana komórka wyprodukuje kilkadziesiąt wirusów. A każdy z nich gotowy jest do ataku na nową bakterię.

W naturalnych warunkach pomiędzy bakteriami i wirusami ustala się pewna równowaga, ale gdyby tak wirusy antybakteryjne namnażać i traktować jako najlepszy z dostępnych antybiotyków? Wirusami leczono zanim, zanim ktokolwiek wiedział, czym są ci „niewidzialni” zabójcy bakterii. Félix d’Herelle leczył fagami śmiertelnie chorych na czerwonkę. „Ozdrowienie” następowało po kilkudziesięciu godzinach. Dzisiaj do koncepcji leczenia wirusami coraz częściej się wraca. Antybiotyki wydają się skuteczne, ale tylko na krótką metę. Bakterie potrafią się na nie uodparniać. W Polsce jedna trzecia szczepów dwoinki zapalenia płuc jest odporna na penicylinę. Na fagi nie da się uodpornić, bo te mutują tak samo szybko jak same bakterie. W Polsce znajduje się jeden z dwóch na świecie (i jedyny w Europie) ośrodek naukowy, który prowadzi terapię bakteriofagami. Kilka lat temu rozmawiałem z jego szefem, profesorem Andrzejem Górskim. Powiedział mi wtedy, że do Laboratorium Bakteriofagowego w Instytucie Immunologii i Terapii Doświadczalnej PAN we Wrocławiu zgłaszają się setki osób cierpiących na zakażenia, których żadne antybiotyki nie potrafią wyleczyć. Naukowcom z Wrocławia udaje to w ponad 80 procentach. W porównaniu z terapią antybiotykami, fagi są tańsze, a na pewno nie mniej skuteczne. Ponadto leczenie fagami nie powoduje skutków ubocznych, bo działanie wirusów jest ściśle ukierunkowane i wybiórcze. Określony bakteriofag atakuje tylko jeden gatunek bakterii. W ten sposób po terapii fagami oszczędzamy te „dobre bakterie”, np. z wnętrza układu pokarmowego. Tymczasem antybiotyki tak nie potrafią. – Czasami wystarczy kilkadziesiąt godzin, by osoba od lat cierpiąca na zakażenie uwolniła się od kłopotu. Leczymy nawet infekcje wywołane przez szczepy gronkowca złocistego – śmiercionośne bakterie, będące największym postrachem oddziałów intensywnej terapii – mówił mi prof. Górski.

Skoro mają tyle zalet, dlaczego bakteriofagami nie leczy się powszechnie? Przeszkodą jest prawo. Formalnie (w Unii Europejskiej i USA) przed skomercjalizowaniem, terapia musi być zarejestrowana, a jeszcze wcześniej poprzedzona badaniami klinicznymi. I tutaj pojawiają się problemy formalne. Terapia fagami nie jest zunifikowana, tylko po to by była skuteczna musi być tworzona dla każdego pacjenta osobno. Tego typu postępowanie wymyka się jednak normom, jakie ustalają prawnicy i urzędnicy. Nie bez znaczenia jest pewnie fakt, że przemysł farmaceutyczny czerpie ogromne korzyści z produkcji antybiotyków. Tańsza i w wielu przypadkach skuteczniejsza metoda leczenia fagami może być traktowana jako niechciana konkurencja. – Terapia fagowa to z formalnego punktu widzenia wciąż eksperyment, a do zaakceptowania nowości potrzeba czasu – powiedział mi kilka lat temu prof. Górski. Od tego czasu nic się nie zmieniło.

Drugi – poza Polską – ośrodek leczący fagami znajduje się w stolicy Gruzji, Tbilisi. Założył go zresztą Félix d’Herelle, ten sam, który nadał nazwę bakteriofagom. Ten zagorzały komunista pracował w Związku Radzieckim do śmierci. Gruziński instytut nie podlega pod prawo europejskie i amerykańskie, więc ma większą swobodę w działaniu, niż ośrodek we Wrocławiu. Kilka lat temu, Instytut z Gruzji założył filię w Meksyku, gdzie nie obowiązuje amerykańskie prawo, a bogatym (i chorym) Amerykanom znacznie łatwiej dojechać tam niż do Gruzji.

 

1 komentarz do Fagi – dobre wirusy

Skąd jesteśmy, kim jesteśmy i dokąd zmierzamy?

O człowieku można mówić na wiele różnych sposobów. Inaczej opisują go atlasy anatomiczne, inaczej podręczniki do biochemii czy antropologii. Książka „Człowiek” nie jest atlasem opisującym każdą cząstkę ludzkiego ciała. Nie jest też podręcznikiem, który opowiada o reakcjach biochemicznych, które zachodzą w ludzkich komórkach. Jest próbą odpowiedzi na trzy krótkie pytania. Skąd jesteśmy, kim jesteśmy i dokąd zmierzamy? Łatwo takie pytania zadać, znacznie trudniej znaleźć na nie odpowiedzi.

Po „Kosmosie” przyszedł czas na „Człowieka” , czyli drugą część mojej trylogii. Opowieść o tym skąd jesteśmy, kim jesteśmy i dokąd zmierzamy?

rozkładówka - wstęp

O człowieku można mówić na wiele różnych sposobów. Inaczej opisują go atlasy anatomiczne, inaczej podręczniki do biochemii czy antropologii. Organizm człowieka jest „kosmicznie” skomplikowany i właśnie dlatego jest tak niezwykły. Książka „Człowiek” nie jest atlasem opisującym każdą cząstkę ludzkiego ciała. Nie jest też podręcznikiem, który opowiada o reakcjach biochemicznych, które zachodzą w ludzkich komórkach. Jest próbą odpowiedzi na trzy krótkie pytania. Skąd jesteśmy, kim jesteśmy i dokąd zmierzamy? Łatwo takie pytania zadać, znacznie trudniej znaleźć na nie odpowiedzi.

rozkładówka_Konarzewski

Kiedyś przeprowadzałem wywiad z neuropsychologiem. Zapytałem go, ile tak właściwie wiemy o ludzkim mózgu. Intuicja podpowiadała mi, że niewiele. Zakładałem, że profesor odpowie, że poznaliśmy nie więcej niż kilka procent wszystkich zagadnień związanych z mózgiem. A tymczasem odpowiedział: „gdyby zapytał mnie pan o to kilka lat temu, powiedziałbym, że nie więcej niż 10 procent, ale dzisiaj, po uruchomieniu kilku dużych międzynarodowych programów dotyczących badania mózgu, po ogromnej liczbie publikacji, jakie pojawiły się w ostatnich latach, twierdzę, że wiemy nie więcej niż 3-4 procent”. Ta odpowiedź jest zaskakująca tylko pozornie. W nauce bardzo często wraz ze wzrostem wiedzy, wzrasta także świadomość naszej niewiedzy. Naukowców i pasjonatów na całym świecie napędza nie to co jest znane, tylko właśnie to, co jest tajemnicą. Jako dziennikarz naukowy przyglądam się tym tajemnicom i czuję podekscytowanie. Ta książka jest pełna moich ekscytacji i fascynacji oraz prób znalezienia odpowiedzi na nurtujące mnie pytania.

rozkładówka_kaczmarzyk

Książka podzielona została podzielona na trzy części. W każdej z nich, oprócz mojego tekstu, znajduje się fascynujący wywiad z naukowcem. Rozmawiam o przeszłości, teraźniejszości i przyszłości człowieka. W wywiadach staram się uzyskać odpowiedzi na tytułowe pytania: skąd jesteśmy, kim jesteśmy i dokąd zmierzamy? Czy je uzyskuję? O tym każdy Czytelnik przekona się sam.

rozkładówka - tadeusiewicz

Człowiek to drugi tom trylogii, którą wymyśliłem w ubiegłym roku. Pierwszy tom, który ukazał się w 2014 roku był zatytułowany Kosmos. Opisuję w nim wszystko to, co jest większe od człowieka. Od Wszechświata począwszy, poprzez galaktyki i układy planetarne, a na planetach, w tym planecie Ziemi, skończywszy. Trzeci tom trylogii – Mikrokosmos – ukaże się w przyszłym roku.

Książka Człowiek została wydana nakładem Grupy Wydawniczej Foksal sp. z o.o.

Zapraszam do lektury

1 komentarz do Skąd jesteśmy, kim jesteśmy i dokąd zmierzamy?

Czujnik w nas

W Szwajcarii stworzono czujnik, który wszczepiony pod skórę jest w stanie kontrolować kilka parametrów życiowych równocześnie. Kilka lat temu pisałem o takich czujnikach jak o dalekiej przyszłości.

W Szwajcarii stworzono czujnik, który wszczepiony pod skórę jest w stanie kontrolować kilka parametrów życiowych równocześnie. Kilka lat temu pisałem o takich czujnikach jak o dalekiej przyszłości.

Czujnik, a właściwie elektroniczny chip, powstał w laboratoriach politechniki w Lozannie EPFL (École polytechnique fédérale de Lausanne). Ma wielkość paznokcia w małym palcu i nie trzeba wymieniać mu baterii. Ładuje się go przez indukcję, przez skórę. Wszystko, co zbada i zmierzy, przesyła bezprzewodowo do smartfona. Jest to bodaj pierwsze urządzenie tego typu, które może być wykorzystywane komercyjnie u pacjentów. Poprzednie konstrukcje nie były co prawda większe, ale miały ogromną wadę – badały tylko jeden parametr, tylko jedną zmienną. Ten równocześnie rejestruje ich kilka.

Od czego się zaczęło?

Czujnik, o którym mowa, wpisuje się w rozwój dziedziny zwanej nanotechnologią. Co prawda urządzenia nano są znacznie, znacznie mniejsze, ale bardzo szybki wyścig do miniaturyzacji zawdzięczamy właśnie nanotechnologii. Za ojca tej dziedziny uważany jest genialny fizyk Richard Feynman. Uczestniczył w pracach nad budową pierwszej bomby atomowej (projekt Manhattan), a po wojnie pracował na najlepszych uniwersytetach amerykańskich. Zajmował się kwantową teorią pola i grawitacji, fizyką cząstek i nadprzewodnictwem. To on jako pierwszy podał koncepcję komputera kwantowego i – w 1960 roku – zapowiedział powstanie nowej dziedziny nauki – nanotechnologii. W 1965 r. otrzymał Nagrodę Nobla z fizyki. Feynman wielokrotnie zwracał uwagę na to, że przyszłość będzie nano, że zrozumienie tego, co dzieje się w nanoświecie, świecie na poziomie pojedynczych cząstek i atomów, będzie kluczowe dla naszego przyszłego rozwoju.

Trudno oczywiście dokładnie określić, kiedy nanotechnologia rzeczywiście powstała, ale nie ma wątpliwości, że wiele dziedzin przemysłu coraz chętniej zwraca głowę w kierunku ekstremalnej miniaturyzacji. Jedną z dziedzin, które robią to szczególnie często, jest medycyna. Nanomedycyna dzisiaj rozwija się w dwóch kierunkach. Jeden to próby (coraz częściej udane) stworzenia nanocząsteczek, które będą nośnikami leków, a nawet genów. Wnikając do organizmu, będą uwalniać przenoszony czynnik dokładnie w tym miejscu i dokładnie o tym czasie, jaki jest optymalny. Drugi kierunek to nanosensory. Te mogą być wykorzystywane nie tylko w medycynie, ale także na przykład w ochronie środowiska. Dobrym przykładem jest nanosensor służący do analizy krwi. Z zewnątrz wygląda jak siateczka z ogromną ilością otworów. W rzeczywistości to mikroskopijne kanaliki krzemowe, w których znajdują się przeciwciała wyłapujące komórki nowotworowe. Analiza przeciwciał pozwala stwierdzić, czy w krwi znajdują się komórki rakowe, a jeżeli tak, to ile i jakie. Taka informacja nie może być pozyskana w trakcie standardowej analizy, bo komórek nowotworowych w krwi jest bardzo mało. Co ciekawe, testowana metoda jest dużo tańsza niż dzisiaj stosowane, a do analizy wystarczy jedna, dosłownie, kropla krwi.

Myszy już mają

Nanomedycyna jednoznacznie kojarzy się jednak z budową nanorobotów, które wpuszczone do ludzkiego krwiobiegu będą nie tylko monitorowały funkcje życiowe, ale także reagowały na stany kryzysowe organizmu. Te skojarzenia – przynajmniej na razie – są całkowicie chybione. Co nie znaczy oczywiście, że prace nad miniaturyzacją robotów nie są prowadzone. Już dzisiaj tworzone są roboty, których rozmiary umożliwiają użycie ich w rzeczywistych warunkach szpitalnych. Na przykład kapsułka monitorująca wnętrze układu trawiennego skonstruowana przez japońską firmę Denso Research jest wielkości standardowej tabletki. Jest wyposażona we własne zasilanie i kamerę CCD wysokiej rozdzielczości oraz urządzenie do przesyłania informacji drogą radiową do urządzenia bazowego. Po połknięciu „kapsułka endoskopowa” przekazuje wysokiej jakości obraz w czasie rzeczywistym. Nie ma własnego napędu, porusza się pod wpływem… siły grawitacji i perystaltyki jelit. Ale na rynku są już urządzenia niewiele większe, które mogą poruszać się samodzielnie, choć na razie jeszcze nie w układzie krwionośnym. Kilka lat temu na jednej z konferencji nanotechnologicznych pokazano nanosilnik, który jest mniejszy od główki od szpilki. Jego koła napędowe były 100 razy cieńsze niż kartka papieru, a ich średnica mniejsza niż średnica ludzkiego włosa. Silnik obracał się z częstotliwością jednego obrotu na sekundę i teoretycznie mógłby być elementem systemu napędowego jakiegoś małego urządzenia pływającego. Zanim te powstaną, miną jeszcze lata. Wcześniej do medycyny wejdą inteligentne czujniki, które być może będą wszczepiane pod skórę na dłuższy czas osobom o podwyższonym ryzyku zdrowotnym. Takim czujnikiem jest wspomniany sensor stworzony w Lozannie. Ma wielkość poniżej centymetra i w czasie rzeczywistym monitoruje obecność oraz stężenie kilku molekuł. Może badać odczyn (pH), temperaturę, ale przede wszystkim cholesterol, glukozę, poziom tlenu oraz stężenie przynajmniej kilku leków. To ostatnie będzie szczególnie ważne dla osób, które z powodu swojej choroby muszą regularnie zażywać jakieś medykamenty. Ich przedawkowanie jest wtedy bardzo łatwe. Pełna kontrola nad poziomem substancji czynnej we krwi jest bardzo istotna. Sensor został przetestowany na myszach, a testy kliniczne na ludziach rozpoczną się za kilka lat.

Brak komentarzy do Czujnik w nas

Pluton jak Biedronka

Wczorajszy przelot sondy New Horizons w pobliżu Plutona natchnął mnie do pewnych przemyśleń. Po co badać coś tak odległego jak Pluton? Po co badać delfiny, motyle czy orangutany? Po co zajmować się gwiazdami, płytami tektonicznymi i DNA?

Wczorajszy przelot w pobliżu Plutona i związanych z nim sporo pytań natchnął mnie do pewnych przemyśleń. Niemal za każdym razem, gdy w nauce dochodzi do jakiegoś odkrycia, do wysłania sondy, do zbudowania nowego rodzaju mikroskopu czy znalezienia nowej cząstki elementarnej, pada pytanie, po co to wszystko? Po co wydawać miliony dolarów by dowiedzieć się co słychać np. na globie, który oddalony jest od nas o miliardy kilometrów. Dajmy na to na takim Plutonie. Wczoraj udało się sfotografować jego powierzchnię z odległości nieco ponad 12 tysięcy kilometrów. To 30 razy mniej niż odległość pomiędzy Ziemią i naszym Księżycem. Sonda która tego dokonała to New Horizons. Leciała w kierunku Plutona prawie 10 lat przebywając w tym czasie 5 miliardów kilometrów. No i po co to wszystko? Po co lecieć tak daleko, po co wydawać niemałe przecież pieniądze, po co zaangażowanie ogromnej grupy ludzi przez długi okres czasu?

Zacznijmy od pieniędzy. Całkowity koszt misji New Horizons, wszystkich urządzeń sondy, jej wystrzelenia, ale także analizy danych a nawet obsługi medialnej wydarzenia to około 700 milionów dolarów, czyli nieco ponad 2 miliardy i 600 milionów złotych. To dziesięć razy mniej (!!!) niż wynosi roczny przychód supermarketów Biedronka w Polsce. To mniej niż budowa 20 kilometrowego odcinka autostrady A1. W końcu to mniej niż zakup i 13 letnia obsługa 4 samolotów F16, które służą w polskiej armii (w sumie kupiliśmy ich 48). Tyle jeżeli chodzi o koszty. Tak, te są duże… dla przeciętnego obywatela. Niewielu byłoby stać na wybudowanie i wysłanie w kosmos sondy New Horizons (choć np. Jan Kulczyk, najbogatszy Polak, mógłby takich sond wysłać 7), ale w skali państwa, dla budżetu państwa rozwój nauki to grosze. Grosze zainwestowane najlepiej jak można sobie wyobrazić. Grosze, które w przyszłości przyniosą miliony poprzez rozwój technologii a w dalszej perspektywie rozwój przemysłu. Każda ekspansja to wyzwanie i konieczność znajdowania rozwiązań na problemy z których nie zdawaliśmy sobie sprawy. Przecież loty w kosmos mają bezpośrednie przełożenie na komunikację, elektronikę i materiałoznawstwo. Rozwój technik obrazowania (nieważne czy w astronomii czy w biologii) od razu jest wykorzystywany w medycynie. Nasze miasta byłyby skażonymi pustyniami gdyby nie powstawały zaawansowane technologicznie silniki i komputery, które tymi silnikami sterują.

A wracając do Plutona, delfinów, motyli i orangutanów. Po co je badać? Bo one są częścią nas, a my częścią świata którego różnorodność – przynajmniej mnie – powala na kolana. Wszystkie lekkie atomy, które nas budują powstały w czasie Wielkiego Wybuchu. Wszystkie ciężkie w czasie wybuchu gwiazdy. Warto rozwijać zarówno kosmologię, astrofizykę jak i fizykę cząstek. Nasze DNA to uniwersalny język całej przyrody, a gatunki (zarówno zwierzęce jak i roślinne), które zamieszkują Ziemię (a pewnie także inne globy) powstawały jedne z drugich. To dlatego nie można zaniedbywać biologii (w tym egzobiologii) i medycyny. Oddychamy powietrzem w którego skład wchodzą różne gazy. To dlatego warto rozwijać chemię i interesować się tym jak zmieniały się atmosfery na innych planetach. Ta wiedza może być bezcenna gdy zacznie zmieniać się nasza atmosfera. Bo to że wszystko jest wokoło nas zmienne – to oczywiste. Kontynenty są w ruchu (nie tylko zresztą na Ziemi) i dzięki temu mogło powstać życie. Ale to nie powstałoby, gdyby Ziemia nie miała swojego pola magnetycznego. A tego by nie było gdyby jądro planety nie było gorące i półpłynne. Ale nawet gdyby było, Ziemia byłaby martwa, gdyby nie było Księżyca, który stabilizuje ruch Niebieskiej Planety wokół Słońca. A Księżyc powstał w kosmicznej katastrofie w której w Ziemię uderzyła planetoida wielkości Marsa. Geologia, geografia, fizyka, astronomia, biofizyka i biochemia… Mam dalej wymieniać? Czy jest sens wymieniać? Czy jest sens pytać, po co badamy coś tak odległego jak Pluton? Po co badamy delfiny, motyle czy orangutany, a nawet biedronki (chodzi o owada, nie o sieć sklepów)? Moim zdaniem szkoda na to czasu. Lepiej go wykorzystać na zaspokajanie swojej ciekawości. Bo to ciekawość idzie przed odkryciami. Tak było zawsze i tak będzie zawsze.

3 komentarze do Pluton jak Biedronka

Nano-lekarz

Kiedyś po naszym ciele będą krążyły niewielkie urządzenia badawcze. Będą sprawdzały stan naszego zdrowia, podawały leki, a może nawet wykonywały – od wewnątrz – operacje chirurgiczne. Kiedy to się stanie?

Kiedyś po naszym ciele będą krążyły niewielkie urządzenia badawcze. Będą sprawdzały stan naszego zdrowia, podawały leki, a może nawet wykonywały – od wewnątrz – operacje chirurgiczne. Kiedy to się stanie?

Nie wiem, kiedy ta wizja się spełni, ale widzę, że świat inżynierii zmierza w tym kierunku. A wszystko zaczęło się w 1960 roku od słów jednego z najbardziej zasłużonych i barwnych fizyków w historii nauki. Richard Feynman był znany z bardzo dużego poczucia humoru i talentów popularyzatorskich. Uwielbiał grać na bębnach bongo. W ich rytmie zdarzało mu się nawet prowadzić wykłady. Malował, pisał książki i zbierał znaczki. Ale w historii zapisał się z innego powodu. Był fizykiem teoretykiem i laureatem Nagrody Nobla. Pracownikiem najlepszych na świecie uniwersytetów. Zajmował się dość hermetyczną dziedziną, jaką jest kwantowa teoria pola i grawitacji, ale interesował się także fizyką cząstek i nadprzewodnictwem. To on jako pierwszy podał koncepcję komputera kwantowego i – w 1960 roku – zapowiedział powstanie nowej dziedziny inżynierii – nanotechnologii.

Sporo miejsca

Nanotechnologia bada i próbuje wykorzystać potencjał natury i właściwości świata bardzo małych rozmiarów i bardzo małych odległości. Co jest tam tak interesującego? – „There is plenty of room at the bottom” – powiedział w czasie pamiętnego wykładu zapowiadającego powstanie nowej dziedziny wspomniany już Richard Feynman. W tłumaczeniu na polski to zdanie znaczyłoby mniej więcej: „gdzieś tam na dole jest dużo miejsca”. Feynman zastanawiał się, jak naśladować naturę, która z atomów i cząsteczek potrafi tworzyć większe, olbrzymie, piękne struktury, takie jak chociażby białka czy cukry. A wszystko to robi ze znakomitą wydajnością, i mechaniczną, i energetyczną. Innymi słowy, człowiek powinien spróbować nauczyć się naśladować przyrodę, tworzyć układy złożone, wychodząc z atomów i cząsteczek, i kontrolując ten proces, mieć jakiś wpływ na powstającą nową materię. Brzmi dumnie, ale jak to zrobić? To jest właśnie coś, co ma rozstrzygnąć nowa dziedzina. Naukowcy i inżynierowie do tego wyzwania próbują podejść na dwa sposoby. Jeden to tak zwane „bottom up”, czyli przejście od podstaw, z tego poziomu najniższego, atomowo-cząsteczkowego, do większych, zaprojektowanych struktur. Czyli od pojedynczych atomów i cząsteczek do konkretnych materiałów. Najpierw tych w skali nanometrowej, a później o tysiąc razy większej, czyli mikrometrowej.

To podejście przypomina budowanie domu z cegieł. Małe elementy łączone są w duże struktury. Atomy łączone są w cząsteczki. Na przykład takie, które w przyrodzie nie występują. Cząsteczki białek, które mogą być lekarstwem na wciąż niezwyciężone choroby, czy cząsteczki o takich właściwościach, które można będzie wykorzystać w elektronice. Drugie podejście jest dokładnie odwrotne, czyli „top down” – z góry do dołu. To jak wytwarzanie ziarenek piasku podczas mielenia większych kawałków skały albo jeszcze lepsza analogia, mielenie całych ziaren kawy na kawowy proszek. Po co? Im drobniej zmielone, tym lepiej gorąca woda wyciągnie z nich kofeinę. Z całych ziaren kofeiny nie da się wyciągnąć. Wracając do fizyki czy technologii: to drugie podejście polega na rozdrabnianiu materii i schodzeniu do niższych jej form wymiarowych, do skali nano włącznie.

Podróże do wnętrza

O nanotechnologii można bardzo dużo pisać. Choć to nowy kierunek, rozwija się bardzo dynamicznie. Trudno znaleźć dziedzinę nauki, w której nie byłaby obecna. Jednym z bardziej pasjonujących kierunków jej rozwoju jest nanomedycyna. Ta rozwija się w dwóch kierunkach. Jeden to próby (coraz częściej udane) stworzenia nanocząsteczek, które będą nośnikami leków, a nawet genów. Wnikając do organizmu, będą uwalniać przenoszony materiał dokładnie w tym miejscu i dokładnie o tym czasie, jaki jest optymalny. Drugi kierunek to nanosensory i nanoroboty. Już kilka lat temu stworzono nanodetektor komórek rakowych. Do jego działania wystarczy – dosłownie – jedna kropla krwi. Krew przesączana jest przez tysiące mikroskopijnych kanalików krzemowych, w których znajdują się przeciwciała wyłapujące komórki nowotworowe. Analiza przeciwciał pozwala stwierdzić, czy w krwi znajdują się komórki rakowe, a jeżeli tak, to ile i jakie. Taka informacja nie może być pozyskana w trakcie standardowej analizy, bo komórek nowotworowych w krwi jest bardzo mało. Nanomedycyna jednak najbardziej kojarzy się z nanorobotami. Wpuszczone do ludzkiego krwiobiegu będą nie tylko monitorowały funkcje życiowe, ale także reagowały na stany kryzysowe organizmu.

Te skojarzenia – przynajmniej na razie – są nierealne. Na razie. W listopadowym numerze czasopisma naukowego „Nature Communications” opisano urządzenie wielkości kawałka główki od szpilki. Zbudowane jest jak muszla małża, z dwóch połówek połączonych w jednym punkcie (to połączenie przypomina zawias w drzwiach). Niewielkie elektromagnesy w obydwu częściach urządzenia mogą powodować otwieranie i zamykanie „muszli”. Ta w efekcie takiego ruchu może się poruszać. Prędkość tego ruchu jest oczywiście zależna od przekroju naczynia i prędkości krwi (oraz kierunku), ale już dzisiaj mówi się, że urządzenie, którego wielkość nie przekracza 0,3 mm, jest jednym z tych, które w przyszłości będą podróżowały we wnętrzu naszego ciała.

 

Tekst ukazał się w tygodniku Gość Niedzielny

Brak komentarzy do Nano-lekarz

Ten robot ma żywy mózg

Komórki szczurzego mózgu nauczyły się kontrolować pracę robota. – Dzięki temu może zrozumiemy jak wyleczyć chorobę Alzheimera – mówią naukowcy. Może i tak, ale mnie przechodzą ciarki po plecach jak myślę o tym eksperymencie.

Ludzki mózg, stanowi dla badaczy większą tajemnicę niż wszechświat. Nie wiemy jak w detalach przebiega proces uczenia się czy zapamiętywania. Nie wiemy dlaczego tkanka nerwowa się nie regeneruje. I co szczególnie ważne nie wiemy jak leczyć wiele chorób związanych z naszą pamięcią.

Mózg w mechanicznym ciele

Badacze z brytyjskiego University of Reading wybudowali robota, którego głównym zajęciem jest… jeżdżenie od ściany do ściany. Jest mały, wolny i prawie nic nie potrafi. Zamiast kamery ma zwykły sonar, a duże koła poruszają się mało precyzyjnie. Jest jednak szczególny. Jego mózgiem nie jest elektroniczny procesor, tylko żywe komórki nerwowe szczura. Ten robot ma żywy mózg ! To on najpierw się uczy, a po chwili sam decyduje gdzie robot ma jechać.

Kevin-foto Mózgiem robota jest 300 tyś komórek pobranych z kory mózgowej szczura. Naukowcy chemicznie pozbawili neurony połączeń międzykomórkowych (zabili ich pamięć ?) a następnie umieścili w specjalnym, wypełnionym pożywką i antybiotykami pojemniku. Stworzyli im warunki w których mogły samodzielnie żyć. W dno tego pojemnika zatopionych było 60 przewodów elektrycznych a ich zakończenia, elektrody, były wyprowadzone do środka pojemnika. To właśnie tymi elektrodami wędrowały impulsy elektryczne, np. wtedy gry robot zderzył się ze ścianą. Tymi samymi kanałami wędrowała informacja z sonarów. Gdy urządzenie zbliżało się do ściany, na elektrodach pojawiało się odpowiednie napięcie elektryczne. Gdy robot zderzał się ze ścianą, do komórek wędrował inny sygnał elektryczny a odpowiedni system nakazywał kręcić się kołom robota w innym kierunku.

Komórki uczą się

Po kilku próbach okazało się, że żywe komórki coraz rzadziej pozwalałby zderzać się ze ścianą. Nauczyły się, że sygnał „przed nami ściana” oznacza, że za chwilę dojdzie do kolizji. Żeby do tego nie dopuścić, tymi samymi elektrodami sygnał elektryczny wędrował w drugim kierunku. Szczurzy mózg w ciele robota nakazywał kołom skręt i do zderzenia ze ścianą nie dochodziło. Żywe komórki zaczęły kontrolować maszynę.

Gordons-neuronsPo jakimś czasie robot unikał nawet 90 proc. wszystkich kolizji. Ale nie o kontrolę, albo nie tylko o kontrolę chodzi. Naukowcom szczególnie zależy na tym, żeby na gorącym uczynku złapać proces uczenia się. Komórki nerwowe w specjalnym odżywczym odczynniku zaczęły rekonstruować połączenia pomiędzy sobą. Zaczęły do siebie wysyłać sygnały elektryczne. Naukowcy przeprowadzający to doświadczenie mówili, że wyglądało to trochę tak jak gdyby pojedyncze neurony szukały siebie nawzajem, a równocześnie komunikowały gdzie same się znajdują. Tak jak gdyby same były żywym organizmem. – Wydaje się, że komórki mózgu mogą ponownie się organizować w każdych warunkach, które nie są dla nich zabójcze – powiedział Steve Potter z Georgia Institute of Technology w Atlancie, USA. Każdy sygnał elektryczny jaki pochodził od komórek nerwowych, przez elektrody dostawał się do komputera i tam był rejestrowany. Szczurzy mózg, choć kierował robotem, nie przestawał być żywą tkanką. Potrzebował energii (stąd żel odżywczy w pojemniku z komórkami) oraz antybakteryjnej tarczy (stąd w żelu antybiotyki). To jednak nie wystarcza. Żywe komórki muszą mieć zapewnioną odpowiednią temperaturę. Dlatego też w czasie dłuższych prób szczurze komórki mózgowe wcale nie były fizycznie w robocie. Krążek z elektrodami i komórkami był podłączony do urządzenia, które sygnały elektryczne „tłumaczyło” na fale radiowe. Innymi słowy mózg robota był w inkubatorze w którym utrzymywana była optymalna temperatura, a robot sygnały o tym jak ma się poruszać dostawał za pośrednictwem fal radiowych (wykorzystano technologię Bluetooth). Odpowiednie urządzenie pozwalało na dwustronny kontakt pomiędzy jeżdżącym robotem i „jego” mózgiem w inkubatorze.

Czy to komuś pomoże ?

Mózg poza urządzeniem…brzmi abstrakcyjnie. Choć z drugiej strony dzisiejsze komputery także często korzystają z mocy obliczeniowej, która znajduje się poza ich „ciałem”. Coraz częściej to w chmurze trzymamy dane a nawet całe programy.

– To co w tych badaniach najciekawsze, to znalezienie odpowiedzi na pytanie jak aktywność pojedynczych neuronów przekłada się na złożone zachowania całych organizmów – powiedział dr Ben Whalley, jeden z naukowców biorących udział w badaniach. – Ten eksperyment pozwala na wgląd w ten proces na poziomie pojedynczych komórek. To pozwoli nam na sformułowanie odpowiedzi na pytania fundamentalne – dodaje. Naukowcom udało się nauczyć żywe komórki kontroli nad prostym robotem. Ale to nie oznacza końca eksperymentu. Kolejnym krokiem będzie uszkodzenie połączeń pomiędzy wyuczonymi już komórkami mózgu w taki sposób w jaki upośledzone są połączenia u osób cierpiących na chorobę Alzheimera czy Parkinsona. Jak teraz będzie wyglądał proces uczenia się ? Czy robot z mózgiem który „cierpi” na chorobę Alzheimera będzie także się uczył ? Czy powstaną nowe połączenia ? Jeżeli nie, co zrobić żeby powstawały ?

Choć badacze zaangażowani w projekt uważają, że ich praca będzie krokiem milowym w rozumieniu wielu procesów które dzieją się w mózgu, nie brakuje i takich, którzy studzą emocje. – To zaledwie model. To nie badania mózgu, tylko jego małego wycinka w sztucznym otoczeniu. Oczywiście wyniki badań mogą nas wiele nauczyć, ale mogą też zmylić nas na przyszłość. Przecież nie wiemy czy to co zaobserwujemy w laboratorium wystąpiłoby w rzeczywistości – powiedział Steve Potter z Georgia Institute of Technology. – Trzeba być bardzo ostrożnym w wyciąganiu daleko idących wniosków – dodaje. Autorzy badań zgadzają się z tym podejściem, ale podkreślają, że… – nawet jeżeli przeprowadzane przez nas eksperymenty tylko w 1 proc. pogłębią naszą wiedzę o chorobach takich jak Alzheimer, będzie to świadczyło o tym, że warto je było przeprowadzić – powiedział profesor Kevin Warwick z School of Systems Engineering. Co do tego nie ma jednak chyba żadnej wątpliwości.

 

Tekst ukazał się w Tygodniku Gość Niedzielny.

1 komentarz do Ten robot ma żywy mózg

Type on the field below and hit Enter/Return to search