Nauka To Lubię

Oficjalna strona Tomasza Rożka

Tag: ekologia

Najgroźniejsza broń biologiczna

Gdybym miał powiedzieć, którego rodzaju broni masowego rażenia boję się najbardziej, powiedziałbym, że biologicznej. Moim zdaniem, jest ona bardziej perfidna, niż chemiczna i atomowa.

Gdybym miał powiedzieć, którego rodzaju broni masowego rażenia boję się najbardziej, powiedziałbym, że biologicznej. Moim zdaniem jest ona bardziej perfidna niż broń jądrowa i chemiczna.

Zobacz odcinek:       https://youtu.be/raMiib2O28k

Tworząc ranking najgroźniejszych rodzajów broni zacząłem się zastanawiać, jakie kryteria powinienem wziąć pod uwagę. Na pewno skalę i skuteczność rażenia, koszty produkcji i dostępność komponentów, zaawansowanie technologiczne i łatwość zatrudnienia specjalistów. Nie bez znaczenia jest także to czy po użyciu można zająć zdobyty teren, czy też trzeba latami czekać, aż „czynnik zabijający” się zneutralizuje.

Organizmy chorobotwórcze, które wywołują tak groźne choroby jak cholerę, ospę, dur brzuszny, plamisty, dżumę czy żółtą febrę, a także grypę można zdobyć stosunkowo łatwo w licznych bankach genetycznych, znajdujących się przy dużych ośrodkach naukowych. Znane są przypadki kiedy państwom rządzonym przez dyktatorów, chorobotwórcze bakterie czy wirusy dostarczała firma kurierska. Koszty produkcji broni biologicznej są bardzo małe.

Do rozmnażania bakterii wystarczy wiedza zdobyta na podstawowym kursie biologii, a można to robić w niewielkim laboratorium, które można umieścić właściwie wszędzie. Do rozmnażania na masową skalę groźnych organizmów można użyć kadzi, które wykorzystuje się np. do … warzenie piwa.

Broń biologiczna jest bardziej perfidna niż chemiczna. Można rozsiać nad wybranym terenem bakterie, które np., zniszczą uprawy i doprowadzając mieszkańców do głodu, albo gospodarkę do upadku. To się nazywa terroryzm socjoekonomiczny. W taki sam sposób można zabić wszystkie zwierzęta hodowlane. Zarazki nie muszą być zrzucane z samolotów, mogą być roznoszone przez owady czy gryzonie. W rzeczywistości historia zna takie przypadki.

W 1940 roku, na chińskie miasta, Japończycy rozrzucili zakażone dżumą pchły, wywołując epidemię. Ale to nie był pierwszy przypadek użycia broni biologicznej. W starożytności zatruwano studnie wrzucając do nich zdechłe zwierzęta, a nierzadko zdarzało się, że w czasie oblężenia z katapult w kierunku miast wystrzeliwano zwłoki ludzi czy zwierząt, które zmarły na jakąś chorobę zakaźną. W czasie jednej z wojen pod koniec XV wieku Hiszpanie skazili wino w Neapolu krwią trędowatych.

Bardzo trudno powiedzieć kiedy po raz ostatni mieliśmy do czynienia z atakiem bronią biologiczną. W zależności od wykorzystanego patogenu, od ataku do epidemii może minąć nawet kilka tygodni. W innych przypadkach skutki chorobotwórcze mogą nastąpić niemalże natychmiast po ataku. Nawet gdybyśmy wiedzieli że właśnie zrzucono na nas, wpuszczono do wody w wodociągach, albo do wentylacji w budynku chorobotwórcze bakterie, niewiele możemy zrobić. Szybka i wysoka dawka antybiotyków? Tak, ale tylko wtedy, gdy wiemy czym zaatakowano. A określenie tego wcale nie jest takie proste. Testy wyszkolonych grup ludzi (muszą jeszcze znajdować się gdzieś w pobliżu) mogą trwać nawet kilka godzin, a jest to czas w którym większość bakterii już się w organizmie „zadomowiła”. Nawet jednak, gdyby od razu było wiadomo jakimi bakteriami zaatakowano, z symulacji robionych w USA wynika, że skuteczny atak biologiczny bakteriami wąglika tylko na jedno większe miasto zaowocowałby zużyciem całych krajowych zapasów antybiotyków w ciągu dwóch tygodni.

A co się stanie gdy na czynnik biologiczny nie ma antybiotyków? Jeden z twórców radzieckiego programu broni biologicznej Ken Alibek po ucieczce do USA mówił wprost, że celem radzieckich naukowców pracujących nad bronią biologiczną było produkowanie takich bakterii i wirusów, na które nie ma szczepionek ani antybiotyków. W praktyce jedna grupa naukowców produkowała metodami inżynierii genetycznej zabójczy organizm, a druga próbowała znaleźć antidotum. Jak się to NIE udawało, uznawano czynnik za idealny do użycia. Usilnie pracowano – a może dalej się to robi – nad zwiększeniem tzw. wirulencji bakterii czy wirusów, których naturalną szkodliwość uznano za niewystarczającą. Wirulencja to zdolności do wniknięcia, namnożenia się oraz uszkodzenia tkanek. Stwarzano także szczepy, które w naturze nie występują, łącząc np. najbardziej groźne cechy dwóch bakterii. Można było mieć pewność, że wróg na pewno nie ma na taki czynnik ani szczepionki ani antybiotyku. W ten sposób powstawały nowe odmiany wirusa ospy i wirusa Marburg.

Broń biologiczna jest groźniejsza od chemicznej jeszcze pod jednym względem. Jest samopowielająca się. Jej zabójcze działanie może się potęgować z biegiem czasu.Drobnoustroje rozsiane podczas ataku biologicznego rozmnażają się w organizmach ofiar i dalej rozprzestrzeniają się same. Tak właściwie wcale nie trzeba dużej ilości bakterii, żeby zarazić sporą grupę ludzi. Niewielka ilość bakterii wąglika – które w formie przetrwalnikowej wyglądają jak kakao – można przetransportować wszędzie. Nawet najbardziej drobiazgowe kontrole nic tutaj nie pomogą.

Broń biologiczna ma jednak dosyć istotną wadę z punktu widzenia prowadzenia wojny. Na długi czas może skazić zaatakowany teren. Brytyjczycy w czasie testów skuteczności laseczek wąglika pod koniec II Wojny Światowej skazili na 50 lat tereny szkockiej wyspy Gruinard. Oczywiście z punktu widzenia terrorystów, skażenie to żadna wada. Terroryści zwykle nie zajmują zaatakowanych przez siebie terenów.

Podsumowując. Broń biologiczna jest łatwa w użyciu i transporcie. Można ją – np. wąglik – przesłać nawet listem. Sama się powiela a jej wyprodukowanie – mówię tutaj o najbardziej dostępnych szczepach – nie wymaga dużej wiedzy. Dla terrorystów jest mniej dostępna niż niektóre trujące gazy, a jej sporym minusem jest to że zostawia za sobą skażony teren. Z kolei plusem jest to, że używający tej broni może zostać niewykryty. Śmierć ludzi, zwierząt, zagłada upraw może wystąpić wiele dni a nawet tygodni po użyciu tej broni.

Brak komentarzy do Najgroźniejsza broń biologiczna

Najnowocześniejsza broń chemiczna

Jak działa broń chemiczna? Szybko i boleśnie. Bardzo boleśnie i bardzo okrutnie. Gdy po raz pierwszy na masową skalę zastosowali ją Niemcy w czasie I Wojny Światowej, cześć niemieckich dowódców meldowała do sztabu, że stosowanie takiej broni to hańba dla prawdziwych żołnierzy.

Jak działa broń chemiczna? Szybko i boleśnie. Bardzo boleśnie i bardzo okrutnie. Gdy po raz pierwszy na masową skalę zastosowali ją Niemcy w czasie I Wojny Światowej, cześć niemieckich dowódców meldowała do sztabu, że stosowanie takiej broni to hańba dla prawdziwych żołnierzy.

Teoretycznie broni chemicznej nie wolno badać ani produkować. Tak mówią międzynarodowe traktaty. W praktyce w ostatnich latach miało miejsce przynajmniej kilka ataków chemicznych. Ostatni, kilka tygodni temu miał miejsce w Syrii. Sposoby działania broni chemicznej są różne bo wiele zależy od zastosowanej substancji. Generalnie jednak wszystkie gazy bojowe dzieli się na pięć kategorii.

I Wojna Światowa. Jeden z pierwszych (a może pierwszy) atak gazowy z użyciem chloru. Gaz wypuszczano z butli zakopanych w ziemi.

Pierwszym gazem bojowym zastosowanym na polu walki był chlor. Wykorzystali go Niemcy podczas I Wojny Światowej. Chlor, ale też fosgen należy do środków krztuszących. Ich działanie polega głównie na podrażnieniu i paraliżu dróg oddechowych. W skutek tego dochodzi do ich śmiertelnego oparzenia wewnętrznych organów. Środki działające na drogi oddechowe są mało skuteczne, gdy żołnierze mają maski. W pierwszej wojnie światowej maski wprowadzono jednak dopiero po tym jak dziesiątki tysięcy ludzi w konwulsjach udusiło się w okopach.

Druga grupa to środki duszące. Wbrew nazwie nie chodzi jednak o sparaliżowanie układu oddechowego, ale o zablokowanie hemoglobiny, cząsteczki znajdującej się w czerwonej krwince, której celem jest roznoszenie tlenu po organizmie. Człowiek oddycha normalnie, ale w ciągu kilkudziesięciu sekund i tak się dusi. Tlen nie jest z płuc transportowany, a dość okrutna śmierć następuje z powodu obumierania mózgu. Środkiem duszącym jest Cyklon-B, którym zabijano w komorach gazowych, ale także cyjanowodór, który Niemcy stosowali w czasie II wojny światowej.

Trzecia i chyba najgroźniejsza bo najskuteczniejsza grupa to środki paralityczno-drgawkowe. Blokują one komunikację pomiędzy komórkami nerwowymi. To tak jak gdyby duży organizm jakim jest miasto odciąć od sieci elektrycznej i telekomunikacyjnej. Totalny chaos informacyjny i paraliż. Przykładami środków paralityczno-drgawkowych są tabun, sarin, soman czy VX. Sarinu użyły kilka lat temu wojska rządowe w Syrii. W wyniku ataku zmarło około 1700 cywilów.

Grupę czwartą stanowią środki parzące. Takim jest np. gaz musztardowy zwany także Iperytem od nazwy miejscowości w Belgii, gdzie w I Wojnie Światowej został po raz pierwszy użyty. W ciągu kilkunastu minut zmarło wtedy w męczarniach kilkadziesiąt tysięcy Brytyjczyków i Francuzów. W wyniku jednego ataku. Grupa podobna a może i większa zmarła w kolejnych dniach i tygodniach. Niemieccy naukowcy szukali gazu, który będzie zabijał przez skórę nawet tych,
którzy mają maski. I tak wynaleźli gaz musztardowy.

I ostatnia grupa to środki halucynogenne. One nie zabijają, ale powodują czasową niedyspozycję. Do tej grupy zalicza się LSD czy BZ, czyli Chinuklidynobenzylan, który był stosowany przez Amerykanów w Wietnamie.

Bojowym środkiem trującym może być wiele związków, które powszechnie są wykorzystywane w przemyśle chemicznym czy medycynie. Ich nie trzeba produkować, je wystarczy kupić i użyć. Dobrym przykładem może być fosgen. Wykorzystuje się go w przemyśle tekstylnym i farmaceutycznym. Gdyby wpuścić go do wentylacji wieżowca, jeden litr w kilka chwil uśmierciłby on tysiące ludzi. Inny przykład to jad kiełbasiany inaczej zwany botuliną. W medycynie kosmetycznej niewielkie ilości tej toksyny wstrzykuje się pod skórę by pozbyć się zmarszczek. To tzw. botox. Dorosły człowiek umiera w męczarniach po wchłonięciu milionowych części grama tej trucizny. Cyjanowodór używa się w przemyśle a iperytem
traktowano komórki rakowe.
Broń chemiczna – z punktu widzenia atakującego – ma wiele innych zalet. Tak szybko jak się pojawia, tak samo szybko znika. Np. sarin jest niebezpieczny zaledwie przez 4 godziny. Iperyt staje się nieszkodliwy po najwyżej kilku dniach. Dodatkową zaletą broni chemicznej jest to, że po jej użyciu wybucha panika. A skutki paniki mogą być groźniejsze od samego ataku.

Reasumując. Z trzech broni masowego rażenia, czyli broni jądrowej, biologicznej i chemicznej, to ta ostatnia jest najtańsza w produkcji i wymaga najmniejszej wiedzy. Choć to dotyczy raczej ataków terrorystycznych, w niektórych sytuacjach wcale nie trzeba się o trujący gaz starać, a wystarczy w odpowiednim momencie wysadzić cysternę przewożącą chemikalia. Cysterny z chlorem czy amoniakiem przejeżdżają przez centra wielu dużych miast.
Ostatnie ataki bronią chemiczną miały miejsce w Syrii, gdzie armia rządowa przy współpracy z armią rosyjską zrzuciła na miasto Duma kilka, może kilkanaście ładunków wypełnionych gazem. Świadkowie mówili, że w powietrzu zaczął się unosić jabłkowy zapach. To sarin. Najpierw pojawia się poczucie niepokoju, potem zwężone źrenice, drgawki, ślinotok i paraliż mięśni, w tym mięśni oddechowych, w końcu śmierć w konwulsjach. Podobnie opisywano ataki, jakie przed wielu laty przeprowadzali na kurdyjskie wioski żołnierza Saddama Husajna.

Profesor Fritz Haber, twórca pierwszych gazów bojowych. Z wykształcenia chemik, po I Wojnie Światowej został uhonorowany Nagrodą Nobla z chemii.

I na koniec jeszcze jedno.
Broń chemiczną zawdzięczamy prof. Fritzowi Haberowi. Po przegranej przez Niemcy I wojnie, Haber był pewien aresztowania i sądu wojennego. Tymczasem rok po zakończeniu wojny, został laureatem nagrody Nobla z chemii. Dzięki tej nagrodzie i powszechnemu szacunkowi Heber mógł kontynuować swoje prace a w ich efekcie wynalazł m.in. cyklon B.

2 komentarze do Najnowocześniejsza broń chemiczna

RNA w 3D

Już 1 mln razy badacze i osoby z całego świata wykorzystały RNAComposer – publicznie dostępny, skuteczny poznański system do modelowania struktury 3D RNA. A to nie jedyny polski sukces w badaniach nad wyznaczaniem struktury RNA.

Już 1 mln razy badacze i osoby z całego świata wykorzystały RNAComposer – publicznie dostępny, skuteczny poznański system do modelowania struktury 3D RNA. A to nie jedyny polski sukces w badaniach nad wyznaczaniem struktury RNA.

RNA to cząsteczki kwasu rybonukleinowego. Bez nich komórka nie mogłaby produkować białek – cząsteczek, które są istotne dla budowy i funkcjonowania komórek. Rodzajów RNA jest sporo i pełnią one w komórce różne funkcje.

I tak np. matrycowe RNA są pośrednikami, dzięki którym z DNA daje się wyciągnąć informacje – przepis na białka. Z rybosomowych RNA zbudowane są rybosomy – komórkowe centra produkcji białek. A transferowe RNA mają przynosić do tych centrów odpowiednie aminokwasy – jednostki budulcowe białek.

Model struktury 3D RNA wirusa Zika wygenerowany przez RNAComposer na podstawie sekwencji. Obecnie struktura ta jest już określona eksperymentalnie i jest zdeponowana w bazie struktur PDB. Źródło: Marta Szachniuk

 

Cząsteczkę RNA tworzy zwykle nić składająca się z połączonych ze sobą reszt nukleotydowych (w skrócie: A, C, G, U). Nawet jeśli rozszyfruje się ich kolejność w łańcuchu RNA, czyli określi sekwencję, nie jest pewne, jak cała cząsteczka układa się w przestrzeni. Bo cząsteczki RNA – w przeciwieństwie do kabla od słuchawek wrzuconych do plecaka – nie zwijają się w przypadkowe supły. Istnieją pewne reguły, które pozwalają przewidzieć, jaki kształt przybierze dana cząsteczka. W rozwikłaniu tego zagadnienia pomocne okazują się komputerowe metody do przewidywania struktur 3D RNA.

Dr hab. Marta Szachniuk wspólnie z zespołem prof. Ryszarda Adamiaka z Instytutu Chemii Bioorganicznej PAN w Poznaniu opracowała darmowy, publicznie dostępny system RNAComposer. Do systemu wprowadza się sekwencję RNA (lub informację o oddziaływaniach między resztami nukleotydowymi, czyli tzw. strukturę drugorzędową), a on w ciągu kilku/kilkunastu sekund oblicza i prezentuje trójwymiarowy model cząsteczki. Program sprawnie radzi sobie zarówno z krótkimi, jak i bardzo długimi łańcuchami cząsteczek RNA o skomplikowanej architekturze. – Wielu naukowców z całego świata używa programu RNAComposer, żeby uzyskiwać pierwsze wyobrażenie tego, jak wyglądać może w 3D cząsteczka, którą badają. Nasz system od 2012 r. wykonał już 1 mln predykcji” – opowiada dr hab. Marta Szachniuk.

To nie jest jedyny system informatyczny do predykcji struktury 3D RNA. Takich automatycznych systemów jest kilka. Poza tym przewidywaniem struktur RNA zajmują się zespoły badawcze wspomagające się badaniami eksperymentalnymi.

Aby porównać skuteczność różnych metod wyznaczania kształtu RNA w przestrzeni 3D, od 2010 roku organizowany jest konkurs RNA-Puzzles. Chodzi w nim o to, by mając zadaną sekwencję RNA, jak najdokładniej wyznaczyć strukturę cząsteczki. Modele przewidziane przez uczestników konkursu porównywane są następnie z wynikami eksperymentów chemicznych i biologicznych prowadzących do określenia struktury. Konkurs organizowany jest obecnie w dwóch kategoriach: serwerów, które automatycznie generują wyniki, oraz w kategorii predykcji ludzkich, gdzie modele powstają w wyniku integracji obliczeń komputerowych i eksperymentów laboratoryjnych. „Jesteśmy najlepsi w kategorii automatycznych systemów do predykcji 3D RNA” – podkreśla dr Szachniuk.

System RNAComposer powstał dzięki temu, że od dekady zespół z ECBiG skrzętnie gromadził ogromną bazę danych dotyczących RNA. W bazie RNA FRABASE zebrano informacje z ogromnej liczby eksperymentów. Takich, z których można było wyciągnąć wnioski o strukturze przestrzennej molekuł RNA. Baza ta jest ciągle aktualizowana i każdy może z niej bezpłatnie skorzystać. „To popularne narzędzie. Wiemy nawet, że na zagranicznych uczelniach korzystają z niej np. studenci w ramach badań i studiów przygotowujących do zawodu bioinformatyka czy biologa” – opowiada dr Szachniuk. Baza ta pomaga m.in. wyszukiwać czy w różnych cząsteczkach powtarzają się jakieś konkretne przestrzenne wzorce.

Polska na światowej mapie badań nad strukturą RNA jest widoczna także dzięki badaniom innych zespołów. Ważną postacią jest tu m.in. prof. Ryszard Kierzek z Instytutu Chemii Bioorganicznej PAN w Poznaniu. Jego prace pozwoliły określić termodynamiczne reguły fałdowania RNA. Nowatorskimi badaniami nad wyznaczaniem struktury RNA zajmuje się również zespół prof. Janusza Bujnickiego z Międzynarodowego Instytutu Biologii Molekularnej i Komórkowej w Warszawie.

PAP – Nauka w Polsce

Brak komentarzy do RNA w 3D

Pożary widziane z kosmosu

W Kalifornii od kilku tygodni szaleją pożary. Serwisy telewizyjne czy internetowe pełne są apokaliptycznych zdjęć, ale ja postanowiłem pokazać wam zdjęcia z kosmosu. Są straszne i… hipnotyzujące.

W Kalifornii od kilku tygodni szaleją pożary. Serwisy telewizyjne czy internetowe pełne są apokaliptycznych zdjęć, ale ja postanowiłem pokazać wam zdjęcia z kosmosu. Są straszne i… hipnotyzujące.

 

Pożary zniszczyły albo niszczą setki tysięcy hektarów lasu. W sumie z domów ewakuowano kilkaset tysięcy ludzi. Ogień dotarł już do Los Angeles, płonie dzielnica Bel Air na terenie której znajduje się kampus znanego na całym świecie Uniwersytetu Kalifornijskiego.

Pożary w tej części Stanów to żadna nowość, ale tegoroczne są szczególnie groźne, bo towarzyszy im suchy i gorący wiatr fenowy, który wieje w porywach z prędkością do 130 km/h. Taki wiatr w południowej Kalifornii wieje od października do marca, z północnego wschodu, od strony gór Sierra Nevada.

Wiatrem fenowym jest np. nasz wiatr halny, czyli ciepły, suchy i porywisty wiatr, wiejący ku dolinom. Taki wiatr powstaje na skutek różnic ciśnienia pomiędzy jedną a drugą stroną grzbietu górskiego. Po nawietrznej stronie grzbietu powietrze unosi się ochładzając oraz pozbywając się pary wodnej. Po stronie zawietrznej powietrze opada ocieplając się.

A wracając do pożarów w Kalifornii. W tym roku są one tak dotkliwe także dlatego, że wczesną wiosną w Kalifornii spadły wyjątkowo obfite deszcze. To spowodowało szybki wzrost niskiej roślinności porastającej zbocza. Od marca jest tam jednak susza. NASA szacuje, że mamy właśnie do czynienia z okresem dziesięciu najsuchszych miesięcy w historii Południowej Kalifornii. Od 10 miesięcy nie spadła tam nawet jedna kropla wody. Ta niska, bujna na wiosnę, ale teraz wysuszona na proch roślinność stała się doskonałą pożywką dla pożarów.

Dzisiaj w Kalifornii szaleje sześć dużych pożarów i kilka mniejszych. Spaliło się kilkaset domów i setki tysięcy hektarów lasu. Straty liczone są w setkach miliardów dolarów.

Zdjęcia w większości zostały zrobione przez spektroradiometr obrazu (MODIS) na pokładzie satelity NASA oraz Multi Spectral Imager (MSI) z satelity Sentinel-2 Europejskiej Agencji Kosmicznej.

A photo taken from the International Space Station and moved on social media by astronaut Randy Bresnik shows smoke rising from wildfire burning in Southern California, U.S., December 6, 2017. Courtesy @AstroKomrade/NASA/Handout via REUTERS ATTENTION EDITORS – THIS IMAGE HAS BEEN SUPPLIED BY A THIRD PARTY. – RC11C90C8420

Przy okazji, zapraszam do subskrypcji mojego kanału na YT ( youtube.com/NaukaToLubie ) i polubienia fanpaga na Facebooku ( facebook.com/NaukaToLubie )

Brak komentarzy do Pożary widziane z kosmosu

Skąd nazwy huraganów? 

Jose, Maria i Lee, to – na dzisiaj – najgroźniejsze huragany szalejące po północnym Atlantyku. Skąd biorą się imiona tych zjawisk? Co mają z tym wspólnego feministki i jaka jest różnica pomiędzy huraganem, orkanem, cyklonem i tajfunem?

Jose, Maria i Lee, to – na dzisiaj – najgroźniejsze huragany szalejące po północnym Atlantyku. Skąd biorą się imiona tych zjawisk? Co mają z tym wspólnego feministki i jaka jest różnica pomiędzy huraganem, orkanem, cyklonem i tajfunem?

Zacznę od tego ostatniego. Cyklon to nazwa zbiorcza i mieści w sobie huragany, tajfuny i burze tropikalne. Każde z tych zjawisk jest cyklonem, tyle tylko, że występującym w innych częściach świata. Wszystkie powstają nad ciepłymi i spokojnymi oceanami i wszystkie wirują.

Huragany szaleją na Atlantyku i na wschodnim Oceanie Spokojnym (Pacyfiku).

Tajfuny atakują na Pacyfiku między 180 i 100 południkiem. Innymi słowy są zagrożeniem dla wybrzeży Azji.

Orkany powstają na Oceanie Indyjskim, ale ostatnio tą nazwą określa się także cyklony uderzające w wybrzeże Europy.

I ostatnia – burza tropikalna (lub sztorm tropikalny) stosuje się do opisu cyklonów o mniejszej sile.

A co z nazwą? Irma, Harvey, kilka lat temu Katrina a w przyszłym roku Alberto, Beryl i Chris… zaraz zaraz. Skąd wiem jakie imiona będą nosiły cyklony w 2018 roku? Ano stąd, że są one już ustalone. Ale od początku. Imiona cyklonom nadaje się od ponad 100 lat. Wcześniej robiono to okazjonalnie. Cel był tylko jeden. Łatwiej nam zapamiętać imię niż cyfrę albo kod literowy. Zbadano, że ludzie czują większy respekt przed cyklonem który łatwiej zapamiętują, lepiej się też przygotowują do jego nadejścia.

Przez kilkadziesiąt lat huragany nazywano tylko imionami żeńskimi. Pod koniec lat 70tych XX – pod wpływem protestów feministek – zaczęto stosować imiona na przemian, imiona żeńskie i męskie. Po to by nie było nieporozumień, po to by nie nadano przez pomyłkę dwóch różnych nazw temu samemu cyklonowi, po to by w krótkim okresie nie nazwano dwóch zjawisk tym samym imieniem, listę z nazwami ustala się sporo do przodu. I tak stworzono listę imion na każdą literę alfabetu po jednym. Następnie zrobiono z nich sześć zestawów, każdy po 21 imion, które ułożono w kolejności alfabetycznej. Każdego roku obowiązuje jeden zestaw. Ten sam powtórzy się dopiero za 6 lat. Lista imion, która obowiązuje w tym roku, będzie obowiązywała dopiero w 2023 roku. I znowu pojawią się cyklony Harvey, Irma, Jose, Maria i Lee. Co gdy w którymś roku pojawi się więcej niż 21 dużych cyklonów? Wtedy nadawane im są nazwy greckie. Teraz mamy przełom września i października ale do końca listy imion na ten rok mamy jeszcze 8 pozycji.

Czasami imiona z listy są wykreślane. Dzieje się to wtedy, gdy cyklon nazwany jakimś imieniem zebrał wyjątkowo krwawe żniwo. Na miejsce wykreślonego imienia, na międzynarodowych konferencjach meteorologów, wybiera się inne imię. Musi zaczynać się na tę samą literę i musi być imieniem żeńskim (gdy wykreślono żeńskie), lub męskim (gdy wykreślono męskie). W 2005 roku wybrzeże USA spustoszył huragan Katrina. Na próżno szukać tego imienia na liście. Tak samo jak Sandy, Mitch czy Tracy.

Jakie imiona zostały na liście na ten rok? Nate, Ophelia, Philippe, Rina, Sean, Tammy, Vince i Whitney. Miejmy nadzieję, że tych imion nie będzie trzeba nadawać.

hurricaneNames1-01

2 komentarze do Skąd nazwy huraganów? 

Za dużo liczb.

To nie tak, że nie mamy lekarstwa na raka z powodu prostej niewiedzy. To nie tak, że zatruwamy środowisko z powodu niedoborów energii. Dzisiejszy świat cierpi z powodu nadmiaru. Niemal wszystkiego. Szczególnie nadmiaru danych.

To nie tak, że nie mamy lekarstwa na raka z powodu prostej niewiedzy. To nie tak, że zatruwamy środowisko z powodu niedoborów energii. Dzisiejszy świat cierpi z powodu nadmiaru. Niemal wszystkiego.

Lek na raka, szczepionka przeciwko malarii czy panaceum na choroby serca i nadwagę nie zostaną odkryte, dopóki nie nauczymy się wyciągać wniosków z bardzo dużej ilości danych. Danych wszelakiego rodzaju. Statystycznych, środowiskowych czy tych medycznych. Danych jest tak wiele, że nie sposób sobie z nimi poradzić. Chyba że do ich analizy zatrudnimy komputery.

Lek z komputera

W zasadzie od wielu lat to się już dzieje. Z danych, które do nich napływają, komputery wyciągają wnioski, a te są następnie wykorzystywane w życiu codziennym. Tak, to komputery regulują światłami na skrzyżowaniach dużego miasta. To, czy włączyć na którymś zielone, czy pozostawić czerwone, zależy od natężenia ruchu w całym mieście, od priorytetowych szlaków komunikacyjnych, od prac drogowych na szlakach alternatywnych, a nawet od tego, czy w kierunku miasta zbliża się np. burza. Człowiek nie poradziłby sobie z tak dużą ilością danych, nie byłby w stanie podejmować na ich podstawie decyzji.

escherichia-coli-1441194-1279x1229

Takich przykładów jak ruch w mieście jest znacznie, znacznie więcej. Podobnie działają systemy ruchu lotniczego, ale także linie produkcyjne w fabrykach czy systemy do analizy danych w laboratoriach naukowych, np. podczas projektowania leków. Żeby wprowadzić na rynek nowy lek, trzeba sprawdzić tysiące, a czasami miliony różnych kombinacji cząsteczek chemicznych. Każda najmniejsza zmiana budowy cząsteczki chemicznej leku, czasami oznaczająca „przestawienie” jednego atomu, może zmieniać jego działanie. Nie sposób eksperymentalnie sprawdzić wszystkich możliwych kombinacji, bo trwałoby to latami i kosztowałoby miliardy. Także tutaj z pomocą przychodzą komputery, które same dochodzą do pewnych wniosków, same domyślają się efektu. Do ostatecznego sprawdzenia pozostają tylko te wersje cząsteczki chemicznej, które – zdaniem oprogramowania – budzą największe nadzieje. I tak, od ruchu ulicznego, poprzez medycynę, bezpieczeństwo, fizykę (nikt już dzisiaj nie projektuje eksperymentów naukowych bez wcześniejszego uruchomienia symulacji komputerowych oraz systemów analizujących ogromne pakiety danych), telekomunikację, po zmiany społeczne… Wszędzie mamy za dużo danych, za dużo informacji, z którymi jakoś musimy sobie poradzić. Na szczęście nie jesteśmy sami, pomaga nam w tym tak zwana sztuczna inteligencja.

Podatki w Brazylii

Dlaczego tak zwana? Bo pomiędzy inteligencją człowieka czy nawet zwierzęcia a inteligencją maszyny jest sporo różnic. U nas inteligencja wiąże się w jakiś sposób ze świadomością i emocjami. U maszyn tylko (albo aż) – z umiejętnością uczenia się i wyciągania wniosków. Wielu ludzi boi się sztucznej inteligencji, bo przypisuje jej cechy, które mają inteligentni ludzie. Inteligentni, choć nie zawsze prawi. Stąd wizje buntujących się komputerów czy systemów, które mają swoje własne zdanie. Oczywiście odmienne od naszego. Ten bunt – jak się obawiamy – nie będzie polegał na tym, że nasze komputery zaczną nam robić głupie żarty, tylko na tym, że np. system komputerowy odetnie zasilanie energetyczne dużego miasta. To byłaby prawdziwa tragedia, tyle tylko, że w praktyce taka sytuacja dzisiaj jest niemożliwa. Nie dlatego, że systemy komputerowe nie rządzą zasilaniem, ale dlatego, że nie mają one woli i świadomości. Nie robią z własnej inicjatywy niczego, na co nie pozwoli im programista. Człowiek inteligentny to ktoś, o kim powiemy, że jest samodzielny i aktywny. Sztuczna inteligencja jest czymś, co jest bierne i podporządkowane człowiekowi. Owszem, radzi sobie świetnie z tasowaniem dużej ilości informacji, z sortowaniem ich i wyciąganiem z nich wniosków, ale nie potrafi choć na milimetr wyjść poza to, na co pozwoli jej programista.

Polska firma Cognitum stworzyła system, który jako jeden z najlepszych na świecie potrafi znajdować regularności czy wzory w dużych zbiorach danych. Jak mówią jego twórcy, ich system „pozwala wiązać fakty w morzu danych”. I robi to tak dobrze, że został włączony w ogromny program, którego celem jest wykrywanie nieprawidłowości podatkowych w… Brazylii. Wyłudzenia podatków można wykryć, analizując faktury, tyle tylko, że w tak dużym kraju jak Brazylia codziennie dochodzi do milionów transakcji. To powoduje, że w praktyce praca człowieka, a nawet tysiąca ludzi, jest skazana na porażkę. Co innego, jeśli chodzi o system komputerowy, który te faktury sprawdza i wyłapuje nieprawidłowości. W czasie rzeczywistym! Dzięki polskim programistom powstał system, który zainstalowano w urzędach skarbowych w całym kraju. Wyłapuje on nieprawidłowości od razu po tym, jak faktura zostanie wczytana do systemu. Co ciekawe, człowiek posługujący się systemem wcale nie musi być programistą. Z programem może się porozumieć, wpisując komendy w języku nieodbiegającym od tego, którym posługujemy się w rozmowie z innymi ludźmi. Może też te komendy po prostu wymówić. Program zrozumie.

Samo z siebie?

Ważną cechą systemu zaprojektowanego przez Cognitum jest to, że uczy się i potrafi wyciągać wnioski. Dzięki temu, jeżeli ktoś choć raz zastosował jakąś metodę na oszukanie urzędu podatkowego i ten trik zostanie wykryty, ta sama sztuczka już nigdy więcej się nie uda. Podobne metody można stosować do walki z bakteriami. One też mogą atakować na wiele różnych sposobów. Człowiek próbuje przewidzieć wszystkie drogi ataku, ale sprawdzenie tych scenariuszy trwałoby bardzo długo. Co innego, gdy do pomocy zaprosi się odpowiednio zaprojektowany system komputerowy. Mówimy o nim, że jest wyposażony w sztuczną inteligencję, ale tak naprawdę powinno się mówić o programach wyposażonych w umiejętność nauki i wyciągania wniosków.

digital-dreams-1155928-1280x960

Nasz mózg działa inaczej niż komputer, a inteligencja u ludzi i ta sztuczna, czyli komputerowa, to dwie różne rzeczy. Dlaczego tak się dzieje? Dlaczego komputerom nie potrafimy nadać cech naszej inteligencji, z poczuciem osobowości i z własnymi celami włącznie? Po pierwsze, wcale nie jestem przekonany, że to dobry pomysł. A po drugie… Trudno nadawać maszynom cechy, których nie rozumie się u siebie. Nie wiemy, czym jest świadomość, poczucie odrębności. Nie potrafimy tego zdefiniować na poziomie nauk ścisłych. Nie wiemy, które „obwody” w naszym mózgu za to odpowiadają, a więc nie wiemy, jak tą cechą obdarzyć maszyny. Czy kiedyś tę barierę przełamiemy? Czy kiedyś maszyny staną się naprawdę (tak po ludzku) inteligentne? Nie da się tego wykluczyć. Przy czym dzisiaj wydaje się, że są dwie drogi do osiągnięcia tego celu. Będzie to możliwe, gdy sami zrozumiemy, na czym polega nasza świadomość. Gdy tak się stanie, będziemy mogli podjąć decyzję, czy nowo poznaną cechą obdarować maszyny. Jest jednak jeszcze druga opcja. Być może świadomość i poczucie odrębności pojawiają się „same z siebie”, gdy mózg staje się skomplikowany. Może to efekt skali? Może wraz z rozbudową systemów informatycznych, wraz z coraz większym skomplikowaniem programów samoświadomość maszyn pojawi się sama? Bez naszego bezpośredniego udziału i bez naszej wiedzy?

Współczesny świat produkuje tak wiele informacji, że bez pomocy programów, które się uczą i które wyciągają z tej nauki wnioski, nie jesteśmy już w stanie funkcjonować. Tego już się nie cofnie. A jaka będzie przyszłość? Okaże się jutro.

 

Tekst ukazał się w tygodniku Gość Niedzielny
Brak komentarzy do Za dużo liczb.

Smog? Bez spiny, jest super!

Na portalu TwojaPogoda.pl pojawił się kilka dni temu artykuł pt. „Histeria z powodu smogu. Kto ją wywołuje i dlaczego?” No właśnie. Kto histeryzuje? Po co? I kto na tym zyskuje?

Na portalu TwojaPogoda.pl pojawił się kilka dni temu artykuł pt. „Histeria z powodu smogu. Kto ją wywołuje i dlaczego?” No właśnie. Kto histeryzuje? Po co? I kto na tym zyskuje?

Pod artykułem nie podpisał się autor, wiec rozumiem, że to tekst redakcyjny. Dziwię się, że portal, który sam wielokrotnie ostrzegał przed powietrzem złej jakości (np. „Rekordowy smog spowija Polskę. Trujący każdy wdech” z 2017-01-08), sam wielokrotnie opisywał tragiczne skutki oddychania zatrutym powietrzem (np. „Smog w stolicy Iranu zabija tysiące ludzi” z 2007-08-03), dzisiaj postanowił odwrócić smoga ogonem.

Zrzut ekranu 2017-02-19 o 18_Fotora

Tekst można streścić do następujących punktów:

  1. Kiedyś było gorzej.
  2. Na Zachodzie wcale nie jest tak czysto.
  3. Ekologiczne lobby jest na pasku producentów pieców.
  4. Smogu nie trzeba się obawiać.

No to po kolei.

Ad1. Kiedyś było gorzej. Tak, kiedyś było znacznie gorzej. Choć to dzisiaj jest więcej rakotwórczych dioksyn i furanów niż kiedyś. Ale nawet gdyby dzisiaj stężenia wszystkich szkodliwych substancji były niższe niż powiedzmy 20 lat temu, czy to automatycznie oznacza że jest super? No nie. Trzeba spojrzeć w statystyki i w pomiary. I okazuje się, że super nie jest. Że jest źle. I to bardzo. To, że niektórzy obudzili się dopiero wczoraj nie oznacza że kiedyś smogu nie było. Oznacza tylko… że niektórzy obudzili się wczoraj. Ani mniej, ani więcej. Organizacje ekologiczne od wielu lat mówią o zatrutym powietrzu. Tyle tylko, że dotychczas niewielu tego słuchało. W tym roku media informują o smogu częściej niż w poprzednich latach. Dlaczego? Dlatego, że Internet o tym więcej pisze, bo świadomość ludzi wzrosła. To system naczyń połączonych. Odczuwam osobistą satysfakcje, że i ja w budzeniu tej świadomości miałem swój udział publikując prosty pokaz z wacikiem i odkurzaczem. Zrobiłem to w pierwszych dniach stycznia. Choć powietrze było dużo gorsze w listopadzie i grudniu, przeważająca większość materiałów w mediach została zrobiona dopiero w styczniu. Do dzisiaj na różnych platformach moje video zobaczyło ponad 2 mln ludzi. Od tego czasu ten sam pokaz był powtarzany kilkukrotnie we wszystkich serwisach informacyjnych głównych stacji telewizyjnych.

>>> Więcej naukowych informacji na FB.com/NaukaToLubie.

Ad2. Na Zachodzie wcale nie jest tak czysto. Szczerze. Co mnie obchodzi jakie jest powietrze w Londynie, Brukseli czy Paryżu? Oddycham powietrzem w Warszawie albo na Śląsku. I to mnie obchodzi. Argumentowanie, że nie ma co panikować, bo za granicą nie jest wcale tak zielono jak mogłoby się wydawać, jest poniżej poziomu piwnicy.

Ale, podejmując wyzwanie… Jakość powietrza w stolicach zachodniej Europy jest dużo lepsza niż w miastach Polski. Znane są zestawienia mówiące, że to nasze miasta są w czołówce najbrudniejszych miast kontynentu. To, że w Niemczech spala się więcej węgla nie oznacza, że ten węgiel w większym stopniu zanieczyszcza powietrze. Bo,

  • w Niemczech węgiel nie jest palony w prywatnych piecach tylko w elektrowniach i elektrociepłowniach, a te zakłady (także w Polsce) mają filtry i nie dokładają się do smogu. Tymczasem w Polsce sporo węgla spala się w prywatnych piecach.
  • W Polsce nie obowiązują żadne normy dotyczące jakości węgla. W efekcie to u nas spala się węgiel wydobywany np. w Czechach, który tam nie mógłby zostać sprzedany.

Już wiesz redakcjo dlaczego argument o ilości spalanego w Niemczech i Polsce węgla jest jak kulą w płot?

>>> Więcej naukowych informacji na FB.com/NaukaToLubie.

Ad3. Ekologiczne lobby jest na pasku producentów pieców. Gdy pisałem o elektrowniach jądrowych (uważam, że w Polsce powinny powstać), słyszałem, że jestem przeciwko górnictwu na pasku lobby jądrowego. Teraz słyszę, że opłaca mnie lobby producentów węglowych pieców, bo piszę i alarmuję na temat złej jakości powietrza. Robię to zresztą od wielu lat każdego roku w czasie sezonu grzewczego. W międzyczasie byłem na pasku przemysłu farmaceutycznego (tak, uważam, że szczepionki to jedno z największych osiągnieć ludzkości), oraz przemysłu biotechnologicznego (tak, nie znajduję naukowych dowodów przeciwko GMO).

Zarzucenie komuś, że jest skorumpowany jest bajecznie proste, ale intelektualnie dość małe. Redakcja TwojaPogoda.pl naprawdę wierzy, że ci, którzy ostrzegają przed złej jakości powietrzem są kupieni przez producentów nowoczesnych pieców? Dodam tylko, że po to by ulżyć powietrzu nie trzeba koniecznie pieca wymieniać. Dużo da przeczyszczenie przewodów kominowych. Sporo da odczyszczenie przed sezonem grzewczym, a nawet w trakcie jego trwania samego pieca i odpowiedni sposób składania ognia w piecu. Te czynności nic nie kosztują, a pozwalają oszczędzić pieniądze bo podnoszą sprawność pieca i instalacji. Nie jest wiec prawdą, że smog można zlikwidować tylko wymieniając stary piec na nowiutki. Jest wiele innych rozwiązań, a niektóre z nich przynoszą oszczędności. No ale tego z tekstu o histerii smogowej się nie dowiemy. Nie możemy się dowiedzieć, bo to złamałoby linię argumentacji redakcji, że ci, którzy piszą i mówią o smogu są w kieszeni producentów drogich pieców.

>>> Więcej naukowych informacji na FB.com/NaukaToLubie.

Ad4. Smogu nie trzeba się obawiać. Redakcja portalu twierdzi, że cała ta histeria ze smogiem została „opracowana przez niektóre organizacje” i „wcale nie chodzi [w niej]o ochronę naszego zdrowia”.

Był taki czas, kiedy uważano, że zdrowe jest naświetlanie się promieniami jonizującymi. I choć w pewnym momencie stało się jasne, że te mogą być źródłem raka, wiele osób dalej się naświetlało. Był taki czas, gdy twierdzono, że zdrowe jest palenie papierosów. Firmy tytoniowe przedstawiały opracowania które tego dowodziły. Przez lata dowodzono też, że ołów z benzyny nie ma nic wspólnego ze złym stanem zdrowia ludzi wdychających spaliny albo mieszkających niedaleko szlaków komunikacyjnych. Dzisiaj benzyny są bezołowiowe, na paczkach papierosów są ostrzeżenia o nowotworach spowodowanych paleniem a źródła promieniowania jonizującego są zamykane w pancernych szafach żeby nie wpadły w niepowołane ręce.

Nie ma w naszym ciele organu czy układu, który nie byłby narażony z powodu powietrza złej jakości. Są na to tysiące naukowych dowodów. Serce, płuca, ale także mózg. Układ hormonalny, układ nerwowy, krwionośny… Tam gdzie powietrze jest bardziej zanieczyszczone jest mniejsza masa urodzeniowa dzieci, a ludzie żyją krócej. Ocenia się że w Polsce każdego roku umiera z powodu powietrza złej jakości ponad 40 tys. osób. Szczególnie narażeni są chorzy (np. na astmę), osoby starsze i dzieci. „Smogu nie trzeba się obawiać”? W tekście z TwojaPogoda.pl znalazł się właśnie taki śródtytuł. Trzeba, i to bardzo. Dobrze, że coraz lepiej zdajemy sobie z tego sprawę. To, że są ludzie czy firmy, które na rosnącej świadomości robią pieniądze, to naturalne i oczywiste. Są firmy, które robią pieniądze na produkcji samochodowych pasów bezpieczeństwa i systemów ABS, choć gdy je wprowadzano mówiło się że to tylko sposób na wyciąganie pieniędzy z kieszeni klienta. Tam gdzie jest popyt tam pojawia się i podaż. Od nas, klientów, zależy czy damy się nabierać na tanie  sztuczki (np. maseczki) czy zdecydujemy się na rozwiązania, które problem rozwiązują choć w części.

Zanim zakończę, chciałbym jeszcze wyjaśnić trzy kwestie.

  1. Węgiel nie jest źródłem smogu. Źródłem smogu jest palenie węglem niskiej jakości i śmieciami w piecach, które nie są odpowiednio przygotowane do eksploatacji. Takie są fakty. Mówienie więc, że walka ze smogiem to walka z węglem jest bzdurą i niepotrzebnie rozgrzewa emocje. W Polsce kilka milionów ludzi żyje dzięki przemysłowi wydobywczemu. Ten przemysł jest przestarzały i zżerany wewnętrznymi problemami. Nie da się jednak (z wielu różnych powodów) po prostu wszystkich kopalń zamknąć. Węgiel może być czarnym złotem o ile wykorzystamy go w sposób nowoczesny i innowacyjny. Np. gazując pod ziemią, budując instalacje niskoemisyjne czy zeroemisyjne. Podkreślanie, że walka o czyste powietrze to walka z węglem, powoduje u milionów ludzi żyjących z wydobycia węgla (i przemysłu który z tym jest związany) automatyczną niechęć do działań mających na celu poprawę jakości powietrza.
  1. Wiarygodność pomiaru. „Jeśli na jednej ulicy pomiary wskazują na duże skażenie powietrza, wcale nie oznacza to, że w Twojej okolicy jest równie niebezpiecznie.” Nieprawdą jest, co pisze redakcja TwojaPogoda.pl, że pomiaru z jednej stacji nie można stosować do całego miasta. W przeciwieństwie do temperatury, która rzeczywiście może się szybko zmieniać, zanieczyszczenie powietrza jest dość jednorodne na większym obszarze. W Polsce nie mamy niedoboru stacji pomiarowych. A na tak duże miasto jak np. Warszawa wystarczy ich kilka, by wiarygodnie przedstawić jakość powietrza w mieście. Nawet jeżeli na danym obszarze znajdują się pojedyncze punkty pomiarowe, odpowiednie algorytmy (biorące pod uwagę wiele zmiennych) wyliczają stężenie prawdopodobne. Jest ono (a robi się takie testy) bardzo bliskie stężeniom rzeczywistym. Warto rzeczywiście zwrócić uwagę, by dane na których się opieramy (w tym dane w aplikacjach w telefonach komórkowych) pochodziły z oficjalnych stacji, a nie były zniekształcane przez mierniki prywatne albo komercyjne, których dokładność jest zła, albo bardzo zła.
  1. Skarga na Polskę. Niektóre organizacje ekologiczne za zanieczyszczone powietrze postanowiły złożyć na Polskę skargę do Komisji Europejskiej. Taki ruch uważam za totalnie antyskuteczny. Smogu nie pozbędziemy się (nie zminimalizujemy) dekretami rządu czy uchwałami samorządu, bo smog powstaje nie w dużych zakładach przemysłowych tylko w naszych prywatnych kominach i rurach wydechowych. Komisja Europejska może nałożyć na nas karę i co? I to nas, Polaków, przekona do zmiany głupich i szkodliwych przyzwyczajeń? Myślę, że raczej utwierdzi w przekonaniu, że Bruksela znowu nas atakuje. I z całą pewnością atakuje dlatego, że chce położyć łapę na naszym węglu. Składając skargę do Komisji Europejskiej niektóre organizacje ekologiczne właśnie dały do ręki argument tym, którzy ze smogiem nie mają zamiaru walczyć. Sorry, taki mamy klimat. 

Tomasz Rożek

>>> Więcej naukowych informacji na FB.com/NaukaToLubie.

2 komentarze do Smog? Bez spiny, jest super!

Oddychamy trucizną!!!

W pewnym miasteczku pod Krakowem zanieczyszczenie powietrza w sylwestrową noc przekroczyło poziom zanieczyszczenie powietrza w Pekinie. O sprawie napisał nawet The Financial Times. Na 50 najbardziej zanieczyszczonych miast Europy, 33 leżą w Polsce!

>>> Polub FB.com/NaukaToLubie to miejsce w którym komentuję i popularyzuję naukę.

Burmistrz Skały – bo to o to miasto chodzi – tłumaczył, że jakość powietrza w jego miejscowości przekraczała unijne limity 20krotnie tylko przez kilka godzin. Marne pocieszenie. W Polsce mamy 33 miasta z 50 najbardziej zanieczyszczonych miast w Europie. 33 na 50!

Najgorsi w Unii

Dowodów na to, że zatrute powietrze powoduje wiele groźnych chorób jest tak wiele, że aż trudno zrozumieć dlaczego wciąż tak mało energii poświęcamy jego ochronie. Z badań ankietowych wynika, że aż 81 proc. pytanych nie uważa zanieczyszczenia powietrza za problem miejsca w którym mieszka. Fakty są jednak takie, że poziom zanieczyszczenia powietrza w Polsce jest najwyższym w Unii Europejskiej. Pod względem stężenia pyłu zawieszonego PM10 wywołującego m.in. astmę, alergię i niewydolność układu oddechowego w całej Europie gorsza sytuacja niż w Polsce jest tylko w niektórych częściach Bułgarii. W przypadku pyłu PM2,5 stężenie w polskim powietrzu jest najwyższe spośród wszystkich krajów w Europie, które dostarczyły dane. Podobnie jest ze stężeniem rakotwórczego benzopirenu. Gdy Polskę podzielono na 46 stref w których badano jakość powietrza, okazało się, że aż w 42 poziom benzopirenu był przekroczony. Wczytywanie się w statystyki, liczby, tabelki i wykresy może przyprawić o ból głowy. Okazuje się bowiem, że wśród 10 europejskich miast z najwyższym stężeniem pyłów zawieszonych, aż 6 to miasta polskie; Kraków, Nowy Sącz, Gliwice, Zabrze, Sosnowiec i Katowice. Są miasta w których ponad połowa dni w roku ma przekroczone normy jakości powietrza. Kraków jest trzecim najbardziej zanieczyszczonym miastem europejskim. Brudne powietrze to nie tylko takie w którym przekroczone są normy stężania pyłów zawieszonych czy wielopierścieniowych węglowodorów aromatycznych (WWA), w tym benzopirenu (te powstają w wyniku niecałkowitego spalania np. drewna, śmieci czy paliw samochodowych). My i nasze dzieci (także te, które jeszcze się nie urodziły) oddychamy tlenkami azotu (główne źródło to spaliny samochodowe), tlenkami siarki (spalanie paliw kopalnych), przynajmniej kilkoma metalami ciężkimi np. kadmem, rtęcią, ołowiem, a także tlenkiem węgla.

Piece i samochody

Źródła poszczególnych zanieczyszczeń występujących w atmosferze są różne, ale w brew pozorom nie są one związane z przemysłem. Głównym ich źródłem jesteśmy my sami, a konkretnie indywidualne ogrzewanie domów i mieszkań oraz transport drogowy. Ponad 49 proc. gospodarstw domowych ma własne piece centralnego ogrzewania. Samo to nie byłoby problemem gdyby nie fakt, że przeważająca większość tych pieców to proste konstrukcje, które można scharakteryzować dwoma określeniami: są wszystkopalne i bardzo mało wydajne. Duża ilość paliwa, którą trzeba zużyć oraz fakt, że często używane jest w nich paliwo niskiej jakości powodują, że duże miasta w Polsce w okresie jesienno – zimowym praktycznie są cały czas zasnute mgłą. Swoje dokładają także samochody. Liczba samochodów osobowych zarejestrowanych w Polsce wynosi 520 pojazdów na 1000 mieszkańców a to więcej niż średnia europejska. Nie jest to bynajmniej powód do dumy. Spory odsetek samochodów na naszych drogach nie zostałby zarejestrowany w innych unijnych krajach. Także ze względu na toksyczność spalin.

>>> Polub FB.com/NaukaToLubie to miejsce w którym komentuję i popularyzuję naukę.

O szkodliwości zanieczyszczonego powietrza można by pisać długie elaboraty. W zasadzie nie ma organu, nie ma układu w naszym ciele, który nie byłby uszkadzany przez związki chemiczne zawarte w zanieczyszczeniach. Przyjmuje się, że z powodu zanieczyszczenia powietrza umiera w Polsce ponad 40 tys. osób rocznie. To ponad 12 razy więcej osób niż ginie wskutek wypadków drogowych! Grupami szczególnie narażonymi są dzieci i osoby starsze. Zanieczyszczenia bardzo negatywnie wpływają na rozwój dziecka przed urodzeniem. Prowadzone także w Polsce badania jednoznacznie wskazywały, że dzieci, których matki w okresie ciąży przebywały na terenach o dużym zanieczyszczeniu powietrza, miały mniejszą masę urodzeniową, były bardziej podatne na zapalenia dolnych i górnych dróg oddechowych i nawracające zapalenie płuc w okresie niemowlęcym i późniejszym, a nawet wykazywały gorszy rozwój umysłowy.

To problem każdego!

W sondażu przeprowadzonym na zlecenie Ministerstwa Środowiska w sierpniu 2015 r. czystość powietrza była wymieniana jako jedna z trzech – obok bezpieczeństwa na drogach i poziomu przestępczości – najważniejszych kwestii, od których zależy komfort życia w danej miejscowości. Problem z tym, że większość pytanych nie widzi tego problemu w miejscowości w której mieszka. Temat dla nich istnieje, ale jest abstrakcyjny, mają go inni. Prawda jest inna. Nawet w wypoczynkowych miejscowościach jak Zakopane czy Sopot jakość powietrza jest koszmarna. Tymczasem problem w dużej części można rozwiązać bez dodatkowych inwestycji czy zwiększania rachunki np. za ogrzewanie. Wystarczy zmienić własne nawyki. Kupno węgla o odpowiednich parametrach to pozornie wyższy wydatek. Lepszy węgiel ma jednak wyższą wartość opałową, czyli trzeba go zużyć mniej by wyprodukować podobna ilość ciepła. Nic nie kosztuje dbanie o sprawność domowego pieca przez regularne czyszczenie go. Nic nie kosztuje (można dzięki temu nawet zaoszczędzić), zamiana w mieście samochodu na komunikacje miejską albo rower.

A miejsce śmieci… jest w śmietniku. Inaczej pozostałości z ich spalania, będę kumulowały się w naszych płucach. Polacy w domowych piecach spalają rocznie do 2 mln ton odpadów. W konsekwencji do atmosfery i do naszych płuc trafiają m.in. toksyczne dioksyny, furany, cyjanowodór.

Tomasz Rożek

>>> Polub FB.com/NaukaToLubie to miejsce w którym komentuję i popularyzuję naukę.
1 komentarz do Oddychamy trucizną!!!

O wycince Puszczy słów kilka

Ten spór trwa od kilku miesięcy. Dużo w nim emocji, znacznie mniej faktów. Ekolodzy, opierając się na opinii naukowców, biją na alarm, a rząd (ministerstwo środowiska) właśnie zezwoliło na zwiększenie limitów wycinki drzew w Puszczy Białowieskiej. Komu wierzyć? O co w tym chodzi?

Ten spór trwa od kilku miesięcy. Dużo w nim emocji, znacznie mniej faktów. Ekolodzy, opierając się na opinii naukowców, biją na alarm, a rząd (ministerstwo środowiska) właśnie zezwolił na zwiększenie limitów wycinki drzew w Puszczy Białowieskiej. Komu wierzyć? O co w tym chodzi? 

>>> Więcej naukowych informacji na FB.com/NaukaToLubie.

O polityce tutaj nie piszę. Ale co zrobić jak czasami polityki nie da się ominąć? Spór o najstarszy w Europie fragment lasu pierwotnego musi wzbudzać emocje. Te są tym większe, że na różnicę zdań pomiędzy Zielonymi i Ministerstwem Środowiska nakłada się spór czysto polityczny. Emocjom nie ma się jednak co dziwić, w końcu puszcza to ogromna wartość przyrodnicza i kawał polskiej historii. Są w niej miejsca, które nigdy nie zostały poddane – pośrednio ani bezpośrednio – modyfikacjom ze strony człowieka. Reszta puszczy to niemal w całości las naturalny, czyli obszar, w którym człowiek gospodaruje, ale w sposób mocno ograniczony.

Puszcza polskich królów 

To w sumie bardzo niewielki teren. Po polskiej stronie granicy znajduje się 42 proc. obszaru puszczy (około 50 km z południa na północ, 55 km ze wschodu na zachód), reszta leży na Białorusi. Choć w puszczy znajdują się miejsca, w których las ma charakter pierwotny, i takie, gdzie ma charakter naturalny, w części wpływ gospodarki leśnej jest widoczny. Ta ingerencja w las to nie tylko wynalazek współczesności, ale wynik nasadzeń drzew przed I wojną światową, w okresie międzywojennym i w latach powojennych.

To wtedy puszcza została „wzbogacona” o gatunki drzew, które naturalnie w niej występowały dużo rzadziej, głównie świerki. Dzisiaj sadzone są inne gatunki, co ma przywrócić puszczy jej naturalny charakter. Miejsce drzew „obcych” zajmują dęby, lipy, klony i wiązy. Po raz pierwszy o Puszczy Białowieskiej można przeczytać w opisie polowania, na które w 1409 roku wybrał się Władysław Jagiełło, by zdobyć żywność dla rycerzy wyruszających na wojnę przeciwko zakonowi krzyżackiemu. Solone mięso w beczkach spławiano do Płocka.

>>> Więcej naukowych informacji na FB.com/NaukaToLubie.

Z niepotwierdzonych źródeł wynika także, że w czasie tego polowania wyłapywano dzikie konie (tarpany), które następnie służyły jako konie bojowe. Puszcza Białowieska (choć oczywiście w zupełnie innym niż dzisiaj kształcie) podlega ochronie co najmniej od 600 lat. Była terenem myśliwskim do wyłącznego użytku królów polskich i książąt litewskich. Każda czynność (łowienie ryb, zakładanie barci, koszenie łąk), z wchodzeniem do puszczy włącznie, była regulowana nadawanymi przez króla (konkretnym osobom, ewentualnie osadom) pozwoleniami. Nawet najznamienitsi polscy dostojnicy nie mogli liczyć na stałe zezwolenie na polowanie w puszczy, od czasu do czasu dostawali jednorazowy „przydział”. Za zabicie zwierzęcia bez pozwolenia groziła kara śmierci.

Równie restrykcyjnie podchodzono do wyrębu drzew. W całym XVI wieku wydano tylko dwa pozwolenia: w 1521 roku król Zygmunt I Stary pozwolił Cerkwi w Szereszewie na wyrąb drzew na potrzeby własne, a w 1537 roku królowa Bona pozwoliła na to Kościołowi w tej samej miejscowości. Przez następnych kilkaset lat nowe pozwolenia na wyrąb były nadawane sporadycznie. Paradoksalnie puszczę bardziej cenił rosyjski carat niż polscy komuniści. Zaborcy traktowali ją jako miejsce rozmnażania się zwierząt i teren myśliwski. Dzięki dokarmianiu, zwierzyny w puszczy było za dużo, czego efektem było drastyczne zahamowanie wzrostu drzew liściastych.

721px-Canis_lupus_laying

Wilk

Zwierzęta zjadały młode pędy. Przed I wojną światową po raz pierwszy na masową skalę zalesiano puszczę świerkami. Stopniowa poprawa ochrony puszczy zaczyna się dopiero po 1989 roku. Projekt utworzenia Parku Narodowego Puszczy Białowieskiej pojawia się w 1994 roku, choć już 15 lat wcześniej została ona wpisana przez UNESCO na Światową Listę Rezerwatów Biosfery. Dzisiaj z 860 km kw. puszczy około 300 km kw. to lasy naturalne i zbliżone do naturalnych. A w nich drzewa, których nigdzie indziej w Europie nie znajdziemy. To kwestia nie tylko estetyki, ani tym bardziej potencjału gospodarczego (150-letnie drzewo kiepsko nadaje się na deski).

Stare drzewo znajdujące się w lesie pierwotnym jest nośnikiem genów, które są oryginalne i charakterystyczne dla tego regionu świata i są wynikiem naturalnej selekcji. A to ogromnie istotne. Posadzenie drzewa tego samego gatunku nie zastąpi tego skarbu. Liście obydwu drzew będą pewnie miały ten sam kształt, ale pula genowa będzie inna. W puszczy od dziesięcioleci prowadzone są badania i obserwacje, których wartość jest bezcenna.

Leśnicy leczą puszczę 

Najstarszy nienaruszony las, gatunki zwierząt i roślin występujące tylko w tym miejscu, w końcu oryginalne geny. O co w takim razie jest awantura? O przyszłość. Leśnicy chcieli zwiększyć ilość ścinanych w puszczy drzew. Ekolodzy twierdzili (i dalej twierdzą), że to zaledwie wstęp do masowej wycinki w najstarszym lesie w Europie. Wycinki, która spowoduje straty przyrodnicze nie do odrobienia. Z kolei leśnicy przekonują, że zwiększona wycinka to konieczność, po to, by… puszcza przetrwała. Ekologom i leśnikom – przynajmniej w deklaracjach – chodzi o to samo, o zachowanie bezcennego dziedzictwa przyrodniczego.

>>> Więcej naukowych informacji na FB.com/NaukaToLubie.

Problem polega jednak na tym, że obie grupy uważają, iż aby osiągnąć ten cel, trzeba podjąć dokładnie odwrotne kroki. Jedni postulują: „Ręce precz od puszczy”, drudzy przekonują, że bez pomocy człowieka puszcza, a przynajmniej jej część, zostanie bezpowrotnie zniszczona. Dlaczego? Bo zmiany klimatu, a konkretnie rosnące temperatury średnioroczne, oraz odwodnienie powodują osłabienie niektórych gatunków drzew. Najbardziej podatne na niekorzystne zmiany są świerki.

596px-Europäische_Sumpfschildkröte_Emys_orbicularis

Żółw błotny jest bardzo rzadkim elementem fauny Puszczy By Böhringer Friedrich

Osłabione stają się łatwym celem dla leśnych owadów, np. korników. Biorąc pod uwagę nadreprezentację świerków w niektórych częściach puszczy (wynikającą ze sztucznego nasadzania), na niektórych obszarach ilość chorych drzew jest spora. Leśnicy chcą chronić zdrowe drzewa, wycinając chore. Nadleśnictwa (Białowieża, Hajnówka i Browsk) mają dziesięcioletni przydział (plan) na wycinkę drzew. Ten plan określa Ministerstwo Środowiska i jest w nim ustalona łączna masa drewna, jaka może być wycięta w ciągu 10 lat. Zwykle każdego roku wycina się 10 proc. dziesięcioletniego przydziału. Taki podział nie jest jednak obligatoryjny. Nadleśnictwo może podjąć decyzję, że w którymś roku ilość wyciętych drzew będzie większa, ale za to w kolejnych latach trzeba będzie wycinać mniej. Dzisiaj obowiązujące przydziały zostały określone na lata 2012–2021. Decyzją nadleśnictwa w trzech pierwszych latach obowiązywania planu (2012–2015) wycięto jednak prawie 90 proc. drzew przewidzianych do wycięcia przez 10 lat. Skąd to przyspieszenie? W opublikowanym na stronie internetowej Lasów Państwowych dokumencie pt. „Puszcza Białowieska potrzebuje ratunku”, sygnowanym przez Regionalną Dyrekcję Lasów Państwowych w Białymstoku, znalazło się stwierdzenie, że nadleśnictwo prowadziło „cięcia sanitarne mające na celu opanowanie gradacji kornika drukarza”.

Leśnicy uważają, że w puszczy panuje klęska kornika, która zagraża dalszemu istnieniu drzewostanów świerkowych, stanowiących na terenie Nadleśnictwa Białowieża ponad 30 proc. powierzchni leśnej (w całej puszczy ok. 10 proc). „Jedyną znaną naukom leśnym i skuteczną metodą walki z kornikiem i ograniczania jego gradacji jest usuwanie drzew zasiedlonych, by ograniczyć rozprzestrzenianie się szkodników” – piszą autorzy dokumentu.

Naukowcy bronią drzew

To, że korniki „siedzą” w puszczy, nie jest przedmiotem sporu. Tyle tylko, że nie wszyscy – tak jak leśnicy – uważają, że drzewa zjadane przez korniki trzeba usuwać. 17 naukowców napisało list zatytułowany „Dlaczego martwe świerki są potrzebne w Puszczy Białowieskiej”. Tego głosu nie można zlekceważyć, gdyż autorzy dokumentu to eksperci z takich dziedzin jak leśnictwo, biologia, agroekologia, entomologia i zoologia, przedstawiciele 14 polskich uczelni i instytucji badawczych.

>>> Więcej naukowych informacji na FB.com/NaukaToLubie.

Naukowcy w sposób jednoznaczny i przystępny tłumaczą, dlaczego usuwanie chorych drzew jest błędem. „Opanowane przez korniki świerki zamierają, ustępując miejsca drzewom liściastym, wymagającym dużej ilości światła i lepiej dostosowanym do aktualnych warunków środowiska. Naturalny proces zmiany struktury gatunkowej lasu jest długotrwały, jednak na żadnym z jego etapów nie ma zagrożenia dla trwałości leśnego ekosystemu” – uważają. Nie ukrywają też, że tam, gdzie świerków jest dużo, masowe ich wymieranie może sprawiać wrażenie klęski. Powołują się na przykład Beskidów, które wiele lat temu w sposób sztuczny zostały zalesione świerkami i sosnami. Badacze przestrzegają jednak przed chodzeniem drogą na skróty, szczególnie w Puszczy Białowieskiej (czyli przed wycięciem drzew, zaoraniem terenu i posadzeniem sadzonek drzew liściastych).

By Konrad KurzaczPimkee-mail: konrad.kurzacz@gmail.com - Praca własna, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=2065137

Mozaikowy układ zbiorowisk leśnych w Białowieskim Parku Narodowym. Na pierwszym planie widoczny ols z udziałem świerka. By Konrad KurzaczPimke

Argumentują bowiem (powołując się na badania), że „dynamika gradacji kornika niewiele się różni na terenach, gdzie wszelkimi dostępnymi środkami prowadzono walkę z kornikiem, i na terenach, gdzie takich działań nie prowadzono. Usuwanie zaatakowanych przez kornika lub zamarłych z innych przyczyn drzew nie stanowi skutecznej metody zatrzymania gradacji kornika i zamierania świerków, lecz może przynieść skutek przeciwny”. Dlaczego usuwanie chorych drzew zamiast sytuację poprawić, może ją pogorszyć? Badacze piszą, że w przypadku Puszczy Białowieskiej nie da się wyciąć wszystkich zaatakowanych drzew. Tymczasem umierające albo martwe drzewo „przyciąga” chrząszcze, które żywią się kornikami (chrząszcza wabi feromon, zapach wytwarzany przez samce korników w chwili opanowywania drzewa). Zdaniem autorów listu najskuteczniejszą metodą walki z kornikami jest pozostawienie lasu w spokoju.

„Duża koncentracja zamierających świerków opanowanych przez korniki staje się miejscem intensywnego namnażania się drapieżnych chrząszczy, a także innych drapieżnych i pasożytniczych owadów, które z takich miejsc rozprzestrzeniają się na kolejne obszary w poszukiwaniu swoich ofiar” – piszą autorzy tekstu. Choć przejściowo, ze względów estetycznych, niektóre fragmenty puszczy będą wyglądały nieatrakcyjnie, natura poradzi sobie ze szkodnikami.

Będzie awantura

Od wielu miesięcy na niezliczonych forach i stronach internetowych trwa awantura. Uzasadniona! Ministerstwo Środowiska nie przedstawia przekonywujących dowodów na to, że ma rację, z kolei leśnicy posługują się półprawdami. Ekolodzy – wręcz przeciwnie. Pokazują badania, cytują autorytety. I co? I nic, bo minister środowiska Jan Szyszko właśnie zatwierdził zwiększenie wycinku drzew w Puszczy. Zwiększone limity zakładają pozyskanie ponad 180 tysięcy metrów sześciennych drewna w ciągu najbliższych 10 lat. To prawie 5 razy więcej niż zakładał dotychczasowy plan.

>>> Więcej naukowych informacji na FB.com/NaukaToLubie.

Czy minister Szyszko nie zna badań, które mówią o tym, że wycinka nie polepsza, a wręcz może pogorszyć sytuację? Pomijam fakt, że grozi nam międzynarodowy skandal. Szkoda mi ostatniego w Europie, a może na całej północnej półkuli nizinnego lasu strefy umiarkowanej z całym jego bogactwem. Puszcza to nie tylko wysokie drzewa i duże zwierzęta (np. żubry), to bogactwo przyrody porównywalne do Wielkiej Rafy Koralowej!

Epipogium_aphyllum_plants

Krytycznie zagrożony wyginięciem w Polsce storzan bezlistny By BerndH

Organizacje ekologiczne biją na alarm, a leśnicy – nie negując tego, o czym piszą naukowcy – przypominają, że ich obowiązują przepisy i procedury zobowiązujące do przeciwdziałania takim zjawiskom jak plaga korników, że ich nadrzędnym celem jest troska o zachowanie trwałości lasów. Z tym ostatnim można by dyskutować, Lasy Państwowe to „firma” przynosząca ogromne zyski. Te pieniądze nie są inwestowane w ochronę lasów, tylko przelewane do budżetu państwa.

Leśnicy przypominają przy okazji, że na obszarach, na których świerków jest dużo, bez interwencji człowieka las z powodu umierania tych drzew będzie martwy. To prawda, ale… świerki, o których mowa, są w puszczy elementem sztucznym. Podatność Puszczy Białowieskiej na korniki jest skutkiem działalności człowieka przed dziesiątkami lat. Wycinanie tych drzew wcale nie spowoduje, że problem zniknie. To popełnianie tego samego błędu, czyli ingerencja w las.

Profesorze Janie Szyszko, nie idź tą drogą!

 

 

24 komentarze do O wycince Puszczy słów kilka

Dzieciątko kręci pogodą

Wyobraź sobie wiatry, które od tysięcy, może setek tysięcy lat wieją tysiące kilometrów stąd. Wyobraź sobie dzień, w którym przestają wiać i w efekcie tego… zakwitają kwiaty w Dolinie Śmierci. Bzdury? Nie, szczera prawda.

Wyobraź sobie wiatry, które od tysięcy, może setek tysięcy lat wieją tysiące kilometrów stąd. Wyobraź sobie dzień, w którym przestają wiać i w efekcie tego… zakwitają kwiaty w Dolinie Śmierci. Bzdury? Nie, szczera prawda. 

>>> Więcej naukowych informacji na FB.com/NaukaToLubie. 

Te wiatry to passaty wiejące na południowym Pacyfiku. Wieją ze wschodu, czyli od południowych wybrzeży Ameryki Południowej, na zachód, czyli w kierunku Australii, Filipin i Indonezji. Czasami jednak zdarza się, że passaty milkną albo wieją znacznie słabiej. Dzieje się to pod koniec roku, w okolicach świąt Bożego Narodzenia. To zjawisko (osłabienie passatów) zostało nazwane El Niño, czyli po hiszpańsku „dzieciątko, chłopczyk”.

Nie tylko pogoda 

Passaty wiejące w kierunku zachodnim są tak silne, że poziom morza u wybrzeży Indonezji jest o kilkadziesiąt centymetrów wyższy niż u wybrzeży Ameryki Południowej. To jednak nie wyższy poziom wody wpływa na pogodę, tylko fakt, że wiatry powodują przepływ ogromnych mas ciepłej wody. W ich miejsce pojawia się lodowata woda z dna oceanu. Póki wieją passaty, woda u zachodnich wybrzeży Ameryki Południowej jest zimna, ale u wybrzeży Australii i Indonezji – ciepła. To uruchamia całą kaskadę zjawisk pogodowych. Na przykład deszczy, które padają tam, gdzie woda jest ciepła. Z kolei tam, gdzie jest ona zimna, panuje suchy klimat. Gdy jednak pojawia się zjawisko El Niño, i wiatry słabną, masy ciepłej wody nie zostają zepchnięte na zachód. W efekcie u wybrzeży Ameryki Południowej jest za ciepło, a u wybrzeży Indonezji – za zimno. W Ameryce zaczynają padać deszcze (choć miało być sucho), a w Azji Południowo-Wschodniej i północnej Australii pojawiają się susze, choć miało padać. Te zmiany spowodowały, że w ostatnich dniach, jak alpejska łąka, zakwitła amerykańska Dolina Śmierci.  Najsuchsze, najgorętsze i najbardziej zasolone miejsce w całej Ameryce Północnej. Dolina zakwitła, bo w czasie ostatnich miesięcy przeszły nad nią silne deszcze. Swoją drogą, czy to nie inspirujące, że nasiona z których w każdej chwili wyrasta życie są powszechne nawet w tak nieprzyjaznych miejscach jak Dolina Śmierci?

>>> Więcej naukowych informacji na FB.com/NaukaToLubie.

Osobnym wątkiem związanym z anomalią El Niño jest ten dotyczący przyrody. Naturalny prąd oceaniczny niesie wody chłodne, które są bogate w składniki odżywcze. Rozwija się morskie życie, a wraz z nim populacja ptaków u wybrzeży Ameryki. Z kolei odchody ptaków użyźniają pola. Bez tego użyźniania, na polach niewiele wyrośnie. Zjawisko El Niño, gdyby trwało kilka miesięcy, jest w stanie wykończyć – i tak biedne – gospodarki takich krajów jak Peru czy Chile.

Wróćmy jednak do pogody. Ziemia to system naczyń połączonych. Wody oceanów mieszają się ze sobą, ogromne masy powietrza nie znają granic państw czy kontynentów. Anomalia, szczególnie tak duża jak El Niño, musi mieć konsekwencje na całym globie. Jakie one są? Cóż, nie mamy ich pełnej świadomości, ale wiemy o tych najważniejszych.

Nie mamy pojęcia 

Osłabienie czy wstrzymanie passatów powoduje pojawienie się czasami katastrofalnych deszczy w Ameryce Południowej. W poprzednich latach, gdy pojawiało się Dzieciątko w takich krajach jak Ekwador czy Peru, ilość opadów była aż 10-krotnie wyższa niż wtedy, gdy El Niño nie było. Wyższe opady (teraz śnieżyce) pojawiają się także w Ameryce Północnej. Susze w Azji Południowo-Wschodniej i północnej Australii są przyczyną pożarów, które nawiedzają tamtejsze lasy od kilku miesięcy. Ogromne ilości dymu dostają się do atmosfery, a to ma wpływ na zdrowie ludzi. Znacznie silniejsze i częstsze są huragany na Pacyfiku, ale za to spokojniej jest na Atlantyku. Zwiększone opady pojawiają się w Afryce Północno-Wschodniej i w krajach Półwyspu Arabskiego. Z kolei susze panują na południu Afryki. A co z Europą? Nie ma jednoznacznych dowodów, ale przypuszcza się, że efektem długo trwającego El Niño są ciepłe zimy przerywane krótkimi i gwałtownymi okresami siarczystych mrozów. Tak było na przełomie lat 1982 i 1983 oraz 1997 i 1998. Wówczas także występowało zjawisko Dzieciątka. Tegoroczne El Niño jest jednak rekordowe. Tak silne i długotrwałe nie było od początku pomiarów, a więc od 1950 roku. Za kilka tygodni minie rok, odkąd passaty zwolniły. Zwykle działo się to najwyżej na kilka tygodni w okresie Bożego Narodzenia. Zazwyczaj El Niño występowało mniej więcej co dekadę. W ostatnich latach jest częstsze, dłuższe i gwałtowniejsze. – Zjawisko to wkracza na nowe obszary. Nasza planeta zmieniła się drastycznie ze względu na generalną tendencję ocieplania wód oceanicznych, utratę lodu arktycznego, a także ponad miliona kilometrów kwadratowych letniej pokrywy lodowej na półkuli północnej – powiedział sekretarz generalny Światowej Organizacji Meteorologicznej (WMO) Michel Jarraud. – Choć właśnie padły rekordy, El Niño zamierza jeszcze bardziej podkręcić temperaturę – dodał. Pozostaje odpowiedzieć na ostatnie pytanie. Co jest źródłem tego zjawiska meteorologicznego? Dlaczego w ostatnich latach obserwujemy je częściej? Na obydwa te pytania istnieje tylko jedna uczciwa odpowiedź. Nie mamy bladego pojęcia!

>>> Więcej naukowych informacji na FB.com/NaukaToLubie.

3 komentarze do Dzieciątko kręci pogodą

Nie wyrzucaj baterii!

Każdy powinien wiedzieć, że zużytych baterii czy akumulatorów nie wolno wyrzucać do śmieci komunalnych, tylko trzeba zanosić do specjalnie przygotowanych pojemników. Ale czy wiemy dlaczego należy tak postępować?

Każdy powinien wiedzieć, że zużytych baterii czy akumulatorów nie wolno wyrzucać do śmieci komunalnych, tylko trzeba zanosić do specjalnie przygotowanych pojemników. Ale czy wiemy dlaczego należy tak postępować?

Rocznie zużywamy prawie 300 milionów baterii. 90 proc. z nich to baterie jednorazowe. Zwykle gdy przestają działać, po prostu je wyrzucamy. W ten sposób do środowiska naturalnego trafiają tak trujące związki i pierwiastki jak ołów, kadm, nikiel, rtęć, lit i mangan. To czynniki silnie trujące. Wpływają negatywnie nie tylko na człowieka, ale na całe środowisko.

>>> Więcej naukowych informacji na FB.com/NaukaToLubie

Z wielu szkodliwych substancji czy pierwiastków z których zbudowane są wyrzucane baterie, najgorszy wpływ na zdrowie i życie człowieka mają ołów, kadm i rtęć.

Ołów – jest pierwiastkiem trującym. Związki ołowiu mają negatywny wpływ na praktycznie wszystkie komórki i narządy. Jest szczególnie niebezpieczny dla dzieci i młodzieży.

Kadm – jest jeszcze bardziej toksyczny niż ołów. Niezależnie od tego w jaki sposób dostanie się do organizmu, jest magazynowany w wątrobie, nerkach, trzustce i płucach. Jest źródłem anemii.

Rtęć – związki tego pierwiastka są silnie trujące i mają dewastujący wpływ na ośrodkowy układ nerwowy. Szalony Kapelusznik, to jedna z postaci występującej w Alicji z Krainy Czarów. Kapelusznicy często cierpieli na choroby psychiczne, bo w procesie uzyskiwania filcu były używane związki rtęci.

Jedynym sposobem na zneutralizowanie zagrożenia jest utylizacja zużytych baterii w wyspecjalizowanych zakładach przeróbki odpadów niebezpiecznych. Tam stosowana jest albo metoda mechaniczna, czyli w skrócie mówiąc rozdrabnianie baterii i oddzielanie od siebie poszczególnych ich części, albo metoda termiczna, która polega na wytapianiu szkodliwych metali w temperaturze około 1400 st C. Trzecia jest metoda hydrometalurgiczna, która polega na chemicznym przetworzeniu baterii. Traktując je kwasami lub zasadami, wytapia się metale czy związki, które są szkodliwe.  Proces recyklingu odbywa się w warunkach kontrolowanych, a odpowiednie zabezpieczenia nie pozwalają by niebezpieczne związki trafiły do środowiska naturalnego.

>>> Więcej naukowych informacji na FB.com/NaukaToLubie

Niezależnie od stosowanej metody, takie metale jak kadm, ołów, rtęć, nikiel czy lit, mogą być ponownie użyte.

PS. Zdaję sobie sprawę z tego, że tym wpisem absolutnie nie wyczerpuję tematu recyclingu baterii. Kiedyś napiszę o tym więcej. Po prostu dzisiaj wymieniałem dzieciom baterie w aparacie fotograficznym i zdałem sobie sprawę z tego jak dużo baterii zużywamy. Swoją drogą, coraz częściej myślę, że osoba (firma), która wymyśli sposób na wydajne i „zdrowe” dla środowiska magazynowanie energii elektrycznej, będzie autorem jednego z największych wynalazków wszech czasów.

9 komentarzy do Nie wyrzucaj baterii!

Mróz i ekstremalne doświadczenie

Nieczęsto robię doświadczenia naukowe na samym sobie. Ale… czasami mi się zdarza. Ten eksperyment, który opiszę był chyba jednym z najbardziej ekstremalnych.

Ta historia ma swój początek na Syberii. Jakiś czas temu (była już zima) zbierałem tam materiały do kilku tekstów (m.in. o jeziorze Bajkał). Trochę podróżowałem po okolicy (na Syberii okolica to co innego niż u nas 😉 ), ale przez kilka dni stacjonowałem w Irkucku.

>>> Więcej naukowych informacji na FB.com/NaukaToLubie

Któregoś dnia mojej wyprawy byłem świadkiem dość zaskakującej sytuacji. Widziałem dwóch dosyć rosłych facetów, którzy rozebrawszy się do kompletnego rosołu wskoczyli do wody. Bajkał w grudniu nie zamarza, więc nie musieli robić przerębla. Temperatura powietrza wynosiła wtedy około minus 30 st C. Panowie się wykąpali, po czym – tak jak Pan Bóg ich stworzył – weszli do samochodu i odjechali. Nie wyglądali na umęczonych, przeciwnie, ta szybka kąpiel chyba im się podobała. Już wtedy pomyślałem, że fajnie byłoby spróbować samemu wykąpać się w jeziorze, środku zimy.

Jak to jest, że ci, którzy morsują nie czują zimna (ja nie czułem)? Jak to jest, że tak dobrze czujemy się w saunie, gdzie temperatura może dochodzić nawet do plus 120 st C (!!!) ? No i co dzieje się z naszym ciałem gdy szybko zmieniamy temperaturę otoczenia?

sauna-1417238-639x739Pomijając osoby chore na serce i małe dzieci, szybka zmiana temperatury jest dla nas korzystna. O ile  dobrze się do niej przygotujemy. Eksperyment rozpocząłem od sauny. Wejście do sauny to jak zderzenie się z gorącą ścianą. W takim otoczeniu ciało bardzo szybko może się przegrzać. Dlatego mózg włącza tryb awaryjny. Coraz szybciej oddychamy i coraz szybciej bije nasze serce, a wszystko po to, by jak najwięcej krwi przepompować z wnętrza ciała do warstwy podskórnej. To dlatego gdy jest nam gorąco, jesteśmy czerwoni na twarzy. Krew krąży bardzo blisko powierzchni skóry bo wtedy najlepiej działa system chłodzenia. Pocimy się, a woda, po to by wyparować, potrzebuje energii. Tą energię odbiera powierzchni skóry, ochładzając ją. W saunie jest ekstremalnie ciepło, więc w odpowiedzi, ekstremalnie mocno się pocimy. I tutaj mała uwaga. Siedząc w saunie, nie wycierajcie spływającego hektolitrami po skórze potu. To  jest bez sensu. Pozbawiacie się wtedy systemu chłodzenia, a to może doprowadzić do przegrzania organizmu.

>>> Więcej naukowych informacji na FB.com/NaukaToLubie

Prosto z sauny wskoczyłem do basenu z zimną wodą. Miałem wrażenie, że serce staje mi w miejscu. Tymczasem ono zaczęło szybciej bić, po to by przepompować krew z zewnętrznych warstw mojego ciała do środka. Ale to jeszcze nic. Z basenu (po dokładnym osuszeniu), w krótkich spodenkach, czapce, rękawiczkach i butach, wszedłem do kriokomory. Temperatura w środku wynosiła minus 120 st C (!!!). W takiej atmosferze człowiek może przetrwać tylko kilka minut. Pomijam fakt, że palec przymarzł mi do klamki (moja wina, ściągnąłem rękawiczki), mimo ekstremalnych warunków, nic mi się nie stało. Miałem jednak wrażenie, że serce wyskoczy mi z klatki piersiowej. W niskiej temperaturze czym mniej krwi w warstwach podskórnych tym lepiej. To dlatego gdy jest nam zimno, robimy się bladzi na twarzy. Krew szybko usuwana jest z powierzchni ciała i pompowana do środka. W ten sposób tracimy mniej energii. W czasie tego przepompowywania pracuje nie tylko serce, ale w zasadzie wszystkie mięśnie.

Zrzut ekranu 2016-01-05 o 00_Fotor

Mój sprint do wody. Biegłem szybko… żeby nie zmarznąć 😉 Temperatura powietrza wynosiła wtedy około minus 7 st. C

Przepompowywanie krwi wte i wewte to doskonały trening dla ciała. Postanowiłem więc zrobić ostateczny test. Przerębel. Temperatura minus 7 st C, piaszczysta plaża i woda. Zimna woda! Najpierw koniecznie trzeba rozgrzać mięśnie, a w czasie tej rozgrzewki sukcesywnie się rozbierać. Pozostają buty do nurkowania (by nie rozciąć sobie nogi na kawałku lodu i by nie odmrozić sobie palców), czapka, rękawiczki no i kąpielówki. I tu ogromne zaskoczenie. Wszedłem do wody i nie czułem zimna. Serio, serio. Po kilkudziesięciu sekundach czułem mrowienie w mięśniach. To znak, że trzeba wyjść z wody i ponownie się rozgrzać. W czasie rozgrzewki krew (z tlenem) pompowana jest do mięśni. W lodowatej wodzie, przeciwnie, krew usuwana jest z mięśni (to mrowienie to znak, że mięśniom brakuje tlenu). Każde kolejne wejście może trwać dłużej (później pojawia się uczucie mrowienia), pomiędzy kolejnymi wejściami, zawsze trzeba się jednak rozgrzać. Nie ciepłym ubraniem, broń Boże alkoholem, tylko ćwiczeniami. Ja biegałem, robiłem przysiady i pompki.

>>> Więcej naukowych informacji na FB.com/NaukaToLubie

Moje wrażenia? Polecam każdemu. Przed wskoczeniem do przerębla, czytałem, że w czasie morsowania mięśnie pracują intensywniej niż na siłowni. Nie wierzyłem, ale uwierzyłem. Kolejnego dnia, po moim eksperymencie, bylem tak obolały, że nie potrafiłem wstać z łóżka. Co polecam każdemu 😉 

 

4 komentarze do Mróz i ekstremalne doświadczenie

Choinka – sztuczna czy prawdziwa?

Dla tych, którzy jeszcze nie kupili bożonarodzeniowej choinki mam radę. Jeżeli nie chcecie być na bakier z ekologią, kupcie drzewko naturalne. Na pewno nie spowoduje to żadnej katastrofy ekologicznej. Leśnicy twierdzą, że naturalne choinki mają tyle samo zalet, co sztuczne wad.

 

Ścinanie choinki przed świętami, tak jak zabijanie karpia, przedstawiane jest jak zbrodnia na środowisku naturalnym. Bo wiadomo karp to odczuwające ból zwierzę, a choinka to potencjalny las.  Gdy dorośnie, będzie cieszył oko i produkował tlen. Ten obraz jest fałszywy.

>>> Więcej naukowych ciekawostek na FB.com/NaukaToLubie

Drzewka na ścięcie

Co roku oficjalnie wycina się w całym kraju kilkadziesiąt tysięcy drzewek, najczęściej sosen i świerków. Pochodzą one ze szkółek, zakładanych na terenach otwartych albo pod liniami wysokiego i średniego napięcia. Tam gdzie nie może powstać las. Niektóre drzewka pochodzą z lasów już istniejących, ale leśnicy wycinają je w ramach… zabiegów pielęgnacyjnych. Sosny i świerki hodowane są także na prywatnych gruntach nieprzydatnych rolnictwu, ale takich na których ich właściciele nie chcą mieć lasu. W skrócie mówiąc drzewka które można legalnie kupić w sklepie, na targowiskach czy przy supermarketach są i tak skazane na ścięcie. Są sadzone na ścięcie. Jeżeli nie zostaną kupione przy okazji Świąt Bożego Narodzenia, zostaną wycięte później i wyrzucone. Pod liniami energetycznymi nie mogą rosnąć wysokie drzewa.

Alternatywą dla naturalnych drzewek bożonarodzeniowy są choinki sztuczne, plastikowe. Przed świętami pojawiają się akcje w czasie których radykalne organizacje ekologiczne przekonują, że kupowanie sztucznej choinki jest oznaką dbałości o środowisko naturalne. Specjaliści przekonują, że nic bardziej błędnego. Proces produkcji plastiku jest dla środowiska naturalnego dużym obciążeniem. Większość choinek jest produkowanych w Chinach, gdzie dbałość o środowisko nikogo nie interesuje. W procesie produkcji materiałów plastikowych (PCW) powstają szkodliwe pyły i gazy. Potrzebna jest także spora ilość energii i wody. A jeżeli mówimy o konsumpcji energii, musimy mieć z tyłu głowy emisję CO2.

Las w domu

Po kilkunastu dniach, igły naturalnej choinki zaczynają opadać i drzewko nadaje się do wyrzucenia. Ci, którzy mają swój własny ogród mogą przed świętami kupić drzewko naturalne w donicy i zasadzić je na wiosnę. Trzeba jednak pamiętać, że nie zawsze takie drzewko się przyjmie, skoro całą zimę spędziło w ciepłym mieszkaniu. Ci, którzy nie mają swoich ogródków, ściętą i już przysuszoną choinkę muszą wyrzucić do kompostownika, albo zanieść do punktu zbierania choinek, które powstają w niektórych miastach (np. w Warszawie). Suchą choinkę można też spalić. Przy tym wydziela się oczywiście CO2, ale jest to ten sam dwutlenek węgla, który drzewko pochłonęło w czasie wzrostu. Pochłaniało związki węgla i „wyrzucało” do atmosfery tlen. Na kompoście czy na wysypisku śmieci wyrzucone drzewko szybko się rozkłada. Skumulowane w nim związki chemiczne stają się z powrotem częścią obiegu materii w przyrodzie. Z kolei korzenie wyciętego drzewka wzbogacają glebę w tzw. próchnicę.

To prawda, że choinka sztuczna wystarcza na kilka lat. Z czasem blaknie jednak jej kolor i w końcu też trzeba ją wyrzucić. Najgorsze co można zrobić, to wrzucić ją do pieca. Spalany plastik jest źródłem rakotwórczych związków, które rozpylają się w atmosferze i dostają się do organizmu w czasie oddychania. Plastikowego drzewko na wysypisko śmieci będzie się rozkładało przez kilkaset lat. Najlepszym wyjście jest wrzucenie go do pojemnika na odpady segregowane. To może być jednak o tyle problematyczne, że sztuczne choinki najczęściej mają metalowy stelaż.

Pomijając fakt, że drzewko naturalne pachnie lasem, żywicą a plastikowe nie. Że ma naturalny kolor, który trudno odtworzyć nawet najlepszej imitacji. Pomijając to wszystko co dla wielu osób jest ważne, choć subiektywne i niemierzalne. Drzewka plastikowe szkodzą środowisku, a choinki naturalne – nie z powodów obiektywnych.

>>> Więcej naukowych ciekawostek na FB.com/NaukaToLubie

A tak a propos. Wiecie dlaczego choinka zruca igły? Naukowcy z Université Laval w Kanadzie odkryli, że za opadanie igieł odpowiada roślinny hormon etylen. W czasie testów zmierzono, że gałązki jodły balsamicznej (Abies balsamea) zaczęły zrzucać igły po około 14 dniach od ścięcia. Trzy dni wcześniej drzewko zaczęło intensywnie wydzielać etylen. Po 40 dniach, na testowanych drzewkach nie było ani jednej igły. Gdy badacze rozpylili w pomieszczeniu gdzie badano jodły 1-metylocyklopropen (1-MCP), związek hamujący działanie etylenu, igły „wisiały” na drzewku nie jak wcześniej 40 dni, tylko 73 dni. Zastosowanie innego związku, aminoetoksywinyloglicyny (AVG) wydłużyło ten okres jeszcze bardziej, do 87 dni. Przez cały ten wydłużony czas gałązki choinki wyglądały świeżo, jak gdyby drzewko było dopiero co ścięte.  Związek 1-MCP od dawna stosuje się w przechowalniach owoców, np. jabłek. Gdyby rozpylać go w magazynach, albo samochodach wiozących drzewka na targowiska, drzewka mogłyby przetrwać dużo dłużej. Choć z drugiej strony po co komu bożonarodzeniowa choinka w marcu?

3 komentarze do Choinka – sztuczna czy prawdziwa?

Czy zgasną światła na Ziemi ?

Światowa konsumpcja energii do 2050 roku podwoi się. Jeżeli nie znajdziemy nowych źródeł – może nam zabraknąć prądu.

W Paryżu trwa międzynarodowy panel klimatyczny. Wiele wątków, wiele interesów, wiele sprzecznych celów. Energia jest tematem, który z klimatem wiąże się bezpośrednio. I pomijając kwestie emisji i CO2, warto zdać sobie sprawę z tego, że światowa konsumpcja energii do 2050 roku podwoi się. Jeżeli nie znajdziemy nowych źródeł – będzie kłopot.

Słońce jest dostawcą większości energii dostępnej dzisiaj na Ziemi. Dostarcza ją teraz i dostarczało w przeszłości nie tylko dlatego, że świeci, ale także dlatego że pośrednio powoduje ruchu powietrza (czyli wiatry) i wody (czyli fale). Dzisiaj dostępne źródła energii można więc podzielić na te zdeponowane przez Słońce w przeszłości – nazwane nieodnawialnymi –  i te udostępniane nam na bieżąco – czyli odnawialne. Z tego podziału wyłamuję się energetyka jądrowa, geotermalna i grawitacyjna oraz fuzja jądrowa.

Najefektywniejszym odbiornikiem energii słonecznej na Ziemi jest roślinność. Dzięki zjawisku fotosyntezy, gdy Słońce świeci – rośliny rosną. Rosną i rozprzestrzeniają się także dlatego, że wieje wiatr. Bardzo długo człowiek korzystał tylko z tego przetwornika energii słonecznej. Drzewo jednak wolniej rośnie niż się spala. Z biegiem lat było nas coraz więcej i coraz więcej energii potrzebował nasz przemysł. Wtedy zaczęło brakować lasów pod topór. Całe szczęście umieliśmy już wydobywać i spalać węgiel, ropę naftową i gaz. Ale w gruncie rzeczy to to samo, co spalanie drewna. Tyle tylko, że w przypadku drzewa energia słoneczna była „deponowana” na Ziemi przez kilka dziesięcioleci, a w przypadku węgla czy ropy – przez miliony lat.

Kłopot w tym, że spalanie kopalin jest toksyczne. Badania przeprowadzane w różnych krajach potwierdzają, że typowa elektrownia węglowa o mocy 1 GWe  powoduje przedwczesną śmierć od 100 do 500 osób. Nie są to ofiary związane z wydobywaniem węgla, czy jego transportem, a jedynie ci, którzy mieli wątpliwe szczęście mieszkać w sąsiedztwie dymiącego komina. Oczyszczanie spalin jest bardzo drogie, a usuwanie szkód środowiskowych związanych z wydobyciem kopalin, w zasadzie niewykonalne. Skoro więc nie paliwa tradycyjne, to może odnawialne?  Siłownie wykorzystujące energię wody, wiatru czy Słońca powinny być budowane jak najszybciej tam, gdzie jest to opłacalne. Nie ulega jednak wątpliwości, że nie wszędzie jest. W Islandii, bogatej w gorące źródła, aż 73 proc. całej produkcji energii stanowi energia odnawialna. W Norwegii (długa i wietrzna linia brzegowa) 45 proc energii produkują wiatraki, a w niektórych krajach Afryki ponad połowa całej wyprodukowanej energii jest pochodzenia słonecznego. Ale równocześnie w proekologicznie nastawionych – ale nie usytuowanych – Niemczech mimo miliardowych inwestycji i olbrzymiej ilości elektrowni wiatrowych zielona energia stanowi około 20 proc. całej zużywanej energii. W tych statystykach nie liczę biomasy, bo ta nie jest żadną energią odnawialną.

Energia zdeponowana przez Słońce w przeszłych epokach wyczerpuje się, a korzystanie z niej w dotychczasowy sposób jest zbrodnią na środowisku naturalnym, z kolei energii dawanej nam przez Słońce „on-line” jest za mało. No więc jaki jest wybór? Wydaje się, że dzisiaj istnieją dwa scenariusze. Obydwa opierają się na skorzystaniu z nieograniczonej energii zdeponowanej jeszcze w czasie Wielkiego Wybuchu. Ta energia nas otacza w postaci materii, ale nie na poziomie związków chemicznych, ale na poziomie pojedynczych jąder atomowych. Jak to rozumieć ? Zanim powstał węgiel kamienny czy ropa naftowa, strumień energii ze Słońca umożliwiał zachodzenie tutaj, na Ziemi, przemian chemicznych, dzięki którym np. rozwijała się bujna roślinność. Dzięki światłu, wodzie i dwutlenkowi węgla tworzą się węglowodany (cukry), białka i tłuszcze. W tych reakcjach nie tworzą się jednak nowe atomy. Dzięki energii z zewnątrz już istniejące łączą się w większe kompleksy. Energia jest zmagazynowana w połączeniach pomiędzy atomami, w wiązaniach.  Ale same pierwiastki też są magazynami energii – energii, która umożliwiła ich stworzenie – pośrednio czy bezpośrednio – w czasie Wielkiego Wybuchu.

Tę energię da się pozyskać na dwa sposoby. Pierwszy to fuzja jądrowa, a drugi to rozszczepienie jądra atomowego. W pierwszym przypadku energia jest uwalniana przez łączenie dwóch lżejszych elementów w pierwiastek cięższy. Część masy tych pierwszych jest zamieniana na energię, którą można zamienić na prąd elektryczny. Paliwem w takim procesie mogą być powszechnie dostępne w przyrodzie lekkie pierwiastki. Produktem końcowym reakcji – oprócz dużej ilości energii – jest nieszkodliwy gaz – hel. Niestety fuzja jądrowa to śpiew przyszłości. Choć naukowcy usilnie nad tym pracują, najwcześniej będziemy mieli do niej dostęp dopiero za kilkanaście, kilkadziesiąt lat. Drugi scenariusz jest w pewnym sensie odwrotnością fuzji jądrowej. W rozszczepieniu jądra atomowego pierwiastek ciężki zostaje rozerwany na elementy lżejsze. I to ten rozpad jest źródłem energii. Pierwsza elektrownia jądrowa została wybudowana w 1942 roku, a dzisiaj dzięki energetyce jądrowej niektóre kraje pokrywają ponad 75 % całego swojego zapotrzebowania na energię elektryczną.

Przewidywanie przyszłości zawsze obarczone jest spora niepewnością. W każdej chwili, może się okazać, że ktoś wymyślił zupełnie nową technologię pozyskiwania energii. Wtedy powyższe rozważania w jednej chwili mogą się stać nieaktualne. Jeżeli jednak nic takiego się nie stanie, nie ma wątpliwości, że z wyczerpaniem paliw kopalnych będziemy musieli się zmierzyć nie za kilkaset, ale za kilkadziesiąt lat. Oszczędzanie energii, zwiększanie efektywności jej wykorzystania nie zahamuje tego procesu tylko go nieznacznie opóźni. Od nas zależy czy na czas przygotujemy się do tej chwili, czy obudzimy się w świecie ciemnym, zimnym i brudnym. I wcale nie trzeba czekać na moment, w którym wyczerpią się pokłady węgla. W końcu „epoka kamieni łupanego nie skończyła się z powodu braku kamieni”.

 

 

 

Brak komentarzy do Czy zgasną światła na Ziemi ?

Type on the field below and hit Enter/Return to search