Nauka To Lubię

Oficjalna strona Tomasza Rożka

Kategoria: Aktualności

Bez glonów bezpieczniej? Dewońska wskazówka od koralowców

Skamieniałości koralowców, które wymarły w dewonie, mogą podpowiedzieć naukowcom, co dokładnie czeka współczesne korale i jak można im pomóc. Wstępne badania z udziałem Polaków wskazują, że w odległej przeszłości na…

Skamieniałości koralowców, które wymarły w dewonie, mogą podpowiedzieć naukowcom, co dokładnie czeka współczesne korale i jak można im pomóc. Wstępne badania z udziałem Polaków wskazują, że w odległej przeszłości na zmiany środowiskowe były najbardziej podatne koralowce żyjące w symbiozie z jednokomórkowymi glonami. 

Prognozy dla współczesnych raf koralowych nie są optymistyczne. Na przykład z doniesień przedstawionych podczas konferencji Ocean Sciences Meeting 2020 w USA wynika, że z powodu ocieplenia i zakwaszenia oceanów do 2100 roku mogą zostać zniszczone praktycznie wszystkie rafy koralowe. W ciągu najbliższych 20 lat podobny los może spotkać aż 70-90 proc. raf. Coraz częściej ulegają tzw. blaknięciu, które polega na obumieraniu żyjących w nich symbiotycznych glonów, przez co wzrost samych koralowców zatrzymuje się i w konsekwencji rafa obumiera. Współpraca z glonami jest dla koralowców kluczowa. Glony pobierając do fotosyntezy dwutlenek węgla, znajdujący się w mikrośrodowisku wokół koralowca, ułatwiają mu tworzenie szkieletu, ale również żywią koralowca tworzonymi w fotosyntezie cukrami. Koralowiec z kolei zapewnia glonom m.in. schronienie.

Największy w historii naszej planety rozwój raf koralowych trwał przez pewien czas trwania dewonu, czyli okresu od ok. 419 do 358 mln lat wstecz w dziejach Ziemi. Jednak pod koniec tego czasu – około 372 mln lat temu – wraz z wielkim wymieraniem gatunków, które w tym czasie miało miejsce, załamały się również ekosystemy raf koralowych. Trwało to wprawdzie długo: kilkaset tysięcy lat, ale korale wyginęły wtedy niemal całkowicie.

Dzisiaj pozostałości tamtych koralowców znajdowane w różnych częściach świata badają paleontolodzy. Jednym z nich jest dr hab. Mikołaj Zapalski z Wydziału Geologii Uniwersytetu Warszawskiego, który takie pozostałości badał np. w Górach Świętokrzyskich.

Ostatnio w ramach Programu im. Bekkera prowadził badania w Australii wraz ze specjalistami James Cook University w Townsville i tamtejszego Centrum Badań Rafowych. W stanie Queensland – wskutek tej współpracy – odkrył nieznany wcześniej typ rafy dewońskiej, podobnej do współczesnych raf koralowych. Badania nietypowej, bo skrajnie płytkowodnej dewońskiej rafy zdominowanej przez koralowce, opublikowano w prestiżowym czasopiśmie „Coral Reefs”.

Spośród 100 gatunków koralowców dewońskich, których pozostałości odkryto na przestrzeni wielu lat m.in. w Górach Świętokrzyskich i Ardenach, zespół badaczy z udziałem dr. Zapalskiego starał się wybrać te elementy szkieletu, które występują również u współczesnych korali.

„Chcieliśmy zobaczyć, czy jest cecha lub zestaw cech, które powodowały, że dawne koralowce mogły przeżywać poszczególne etapy wymierania. Czy któreś z cech szkieletów predestynują koralowce do przeżywania lub wymierania. Chcieliśmy też zobaczyć, jaki może być też scenariusz dla współczesnych raf na podstawie scenariusza dewońskiego i pokazać, które z grup współcześnie tworzących rafy mają potencjalnie większe szanse na przeżycie zmian środowiskowych, a które są na nie bardziej narażone” – wyjaśnia w rozmowie z PAP dr Zapalski.

Wiadomo, że część mechanizmów fizjologicznych koralowców żyjących w dewonie była inna – mówi badacz – ale są też podobieństwa. Choćby takie, że tworzyły one szkielety podobne do tych współczesnych. I te prehistoryczne i współczesne zbudowane są z węglanu wapnia, tylko z innych jego form. Dewońskie z kalcytu a współczesne z aragonitu.

Zbierając dane dotyczące struktur szkieletowych naukowcy znajdują więc różne analogie między współczesnymi i dewońskimi koralowcami, co może sugerować – mówi dr Zapalski – że podobne do obecnych zmiany środowiskowe wpływały na to jak one żyły, rosły, formowały szkielet.

Wstępne wyniki pokazują, że na zmiany środowiskowe były najbardziej podatne tzw. koralowce fotosymbiotyczne, czyli żyjące w symbiozie z jednokomórkowymi glonami – te, które budują prawie wszystkie rafy koralowe na świecie. Te, które mogły pozostawać bezglonowe, miały lepszą przeżywalność, były mniej podatne na wahania środowiskowe. Lepiej przy wzrostach temperatury radziły sobie też korale o dużych polipach, średnicy kilku, czasem 10 mm.

„Obecnie praktycznie wszystkie rafy są budowane przez koralowce fotosymbiotyczne. Większość tych raf, które znamy, ma więc niestety spore szanse by wymrzeć. Współcześnie też istnieją koralowce, które nie są fotosymbiotyczne, ale one żyją w środowiskach na dużych głębokościach 200 – 400 metrów, tam gdzie światło już w zasadzie nie dociera i w zimnych morzach np. u wybrzeży Norwegii” – opisuje badacz.

Do środowiskowych zmian, z którymi mierzyły i mierzą się koralowce, należy przede wszystkim znaczący wzrost temperatur. W dewonie sięgały one wtedy powyżej 32 st. C. „Wymieranie koralowców pod koniec dewonu było z nim skorelowane” – opisuje rozmówca PAP. Wody oceaniczne w paleozoiku różniły się wprawdzie nieco składem chemicznym od współczesnych, znacznie bardziej zakwaszonych (co również sprzyja erozji szkieletów korali), ale zagrożenia środowiskowe dla korali były do pewnego stopnia podobne.

PAP – Nauka w Polsce, Ewelina Krajczyńska

źródło:

www.naukawpolsce.pap.pl

Możliwość komentowania Bez glonów bezpieczniej? Dewońska wskazówka od koralowców została wyłączona

Naukowcy pracują nad portretem generacji 50+ w Europie

Naukowcy przygotowują regularnie portret generacji osób po 50. roku życia. – W Polsce stan zdrowia wcześnie – bo już u osób po 45. roku życia – pogarsza się. W porównaniu…

Naukowcy przygotowują regularnie portret generacji osób po 50. roku życia. – W Polsce stan zdrowia wcześnie – bo już u osób po 45. roku życia – pogarsza się. W porównaniu z Europą Zachodnią aktywność zawodowa osób 50+, zwłaszcza kobiet, jest niska. Mamy nadzieję, że jednak będą zachodzić korzystne zmiany – mówi demograf prof. SGH Agnieszka Chłoń-Domińczak.

Badanie Zdrowia, Starzenia się Populacji i Procesów Emerytalnych „SHARE: 50+ w Europie” jest badaniem panelowym przeprowadzanym regularnie wśród osób w wieku 50 lat i więcej. Aktualnie w badaniu udział biorą przedstawiciele niemal wszystkich krajów Europy, a także mieszkańcy Izraela – łącznie osoby reprezentujące 28 krajów.

„Naszym celem jest opracowanie portretu generacji 50 plus we wszystkich krajach europejskich” – podsumowuje koordynująca udział Polski w programie demograf dr hab. Agnieszka Chłoń-Domińczak, prof. Szkoły Głównej Handlowej.

Dziesiątkom tysięcy badanych zadawane są pytania dotyczące np. ich zdrowia, sytuacji materialnej, rodzinnej, aktywności społecznej i tego, jak radzą sobie na rynku pracy i jak są z niej zadowoleni, a także jak wygląda ich proces przechodzenia na emeryturę. Dokonywane są również pomiary związane z oceną stanu zdrowia fizycznego czy psychicznego – to choćby pomiar siły uścisku dłoni czy testy pamięci.

Dotychczas Polska wzięła udział w pięciu rundach badania „SHARE: 50+ w Europie”, realizowanych od 2006 roku do 2017 roku. Obecnie trwa analiza danych z kolejnej rundy realizowanej w 2019 i 2020 roku – tuż przed i w czasie pandemii. Badanie w trakcie pandemii odbywało się telefonicznie.

Naukowcy starają się dotrzeć co dwa lata do tych samych respondentów. „Każde badanie jest fotografią tego, co aktualnie się dzieje. A dzięki badaniom mamy serię fotografii tego, co działo się przez wiele lat. Możemy monitorować proces zmian w przebiegu życia respondentów i porównywać to, co dzieje się w poszczególnych państwach” – mówi.

I tak np. w 2015 r. ok. 20 proc. osób po pięćdziesiątce z Polski deklarowało zły stan zdrowia. A symptomy depresji zanotowano wtedy u 48 proc. kobiet i 30 proc. mężczyzn.

Proszona o komentarz w tej sprawie prof. Agnieszka Chłoń-Domińczak mówi: „Również wyniki dostępne na podstawie kolejnej rundy badania, z 2017 r. pokazują, że sytuacja nie jest najlepsza. Widać, że stan zdrowia Polaków po 45. roku życia wyraźnie się pogarsza. To bardzo wcześnie. Konieczne są aktywne działania, by wspierać postawy prozdrowotne u seniorów i monitorować ich sytuację”.

Nie najlepiej przedstawiają się też kwestie materialne. W 2015 r. ponad 20 proc. badanych z naszego kraju w badaniu SHARE deklarowało, że ledwo wiąże koniec z końcem, a ponad 60 proc. – że nie jest w stanie pozwolić sobie na nieprzewidziany wydatek (w wysokości 1100 zł).

„Z aktywnością zawodową u osób 50+ też nie jest najlepiej. Mamy niższy wiek przechodzenia na emeryturę – zwłaszcza kobiet – w stosunku do innych krajów europejskich. Wyzwaniem na najbliższe lata jest więc to, jak zachęcać osoby koło 60. roku życia, by utrzymywały swoją aktywność zawodową. Dużo jest do zrobienia” – komentuje rozmówczyni PAP.

Prof. Chłoń-Domińczak jest jednak przekonana, że w kolejnych edycjach badań prawdopodobnie sytuacja w Polsce będzie się poprawiać. „Pokolenie, które dotąd badaliśmy, ma doświadczenia z różnych momentów historii Polski. Uwarunkowania społeczno-gospodarcze były zupełnie inne niż teraz i to wszystko odbija się na sytuacji tych osób. W badaniach widzimy już jednak korzystne zmiany pokoleniowe. Widać więc tendencje do poprawy w niektórych obszarach” – mówi demograf.

I zwraca uwagę, że choćby dotąd zupełnie inna była struktura wykształcenia polskich seniorów w stosunku do seniorów w Europie Zachodniej. U osób młodszych jednak – które dopiero teraz dobiegają do pięćdziesiątki – te różnice przestają być aż tak wyraźne. „Osoby urodzone później, które dziś osiągają wiek 50. lat, częściej mają maturę, wyższe wykształcenie. A to m.in. przekłada się na ich świadomość zdrowotną, a co za tym idzie – również średnią długość trwania życia” – mówi.

„Badanie SHARE pozwala nam na ocenę, jak wygląda w wielu wymiarach sytuacja osób w wieku 50+ w Polsce i Europie. Dzięki temu możemy wpływać na to, by jakość życia i aktywność tych osób mogła się poprawiać poprzez odpowiednią, bazującą na faktach politykę” – podsumowuje badaczka z SGH.

PAP – Nauka w Polsce, Ludwika Tomala

źródło:

www.naukawpolsce.pap.pl

Możliwość komentowania Naukowcy pracują nad portretem generacji 50+ w Europie została wyłączona

Polacy opracowali dokładne mapy poczerwienienia w Obłokach Magellana

Unikatowe, najdokładniejsze dotąd mapy poczerwienienia międzygwiazdowego w Obłokach Magellana opracowali astronomowie Obserwatorium Astronomicznego UW w ramach przeglądu nieba OGLE. Obłoki stanowią „laboratorium” do badań galaktyk, a uzyskane mapy będą doskonałym…

Unikatowe, najdokładniejsze dotąd mapy poczerwienienia międzygwiazdowego w Obłokach Magellana opracowali astronomowie Obserwatorium Astronomicznego UW w ramach przeglądu nieba OGLE. Obłoki stanowią „laboratorium” do badań galaktyk, a uzyskane mapy będą doskonałym narzędziem do kolejnych badań kosmologicznych.

Mały i Wielki Obłok Magellana to dwie pobliskie galaktyki, będące satelitami naszej Galaktyki – Drogi Mlecznej. Ze względu na ich bliskość i wzajemne oddziaływanie są one parą najczęściej badanych galaktyk we Wszechświecie i stanowią swego rodzaju laboratorium do badań struktury, ewolucji i oddziaływań galaktyk. Obłoki Magellana są również idealnym środowiskiem do badań populacji gwiazdowych oraz rozkładu materii międzygwiazdowej. Co więcej, używa się ich do kalibracji kosmicznej skali odległości, będącej podstawą badań kosmologicznych – wyjaśniają specjaliści na stronie Uniwersytet Warszawski.

Większość opisanych wyżej badań wymaga uwzględnienia wpływu poczerwienienia międzygwiazdowego na obserwacje astronomiczne. Poczerwienienie to efekt pochłaniania światła obiektu przez pył znajdujący się między obserwatorem a badanym obiektem. W efekcie obiekt ten wydaje się ciemniejszy i bardziej czerwony niż jest w rzeczywistości. Ma to bezpośredni wpływ na wyznaczanie odległości do obiektów. Bez uwzględnienia wpływu pyłu są one zawyżone. Dlatego, aby móc badać populacje gwiazdowe, potrzebujemy dokładnych map poczerwienienia w Obłokach Magellana.

Dotychczasowe mapy poczerwienienia w Obłokach Magellana obejmowały jedynie centralne obszary obu galaktyk i były obarczone błędem wynikającym z problemów z ich kalibracją.

Jednak dzięki wieloletnim obserwacjom projektu OGLE, prowadzonego w Obserwatorium Astronomicznym Uniwersytetu Warszawskiego, zespół astronomów prowadzonych przez dr Dorotę Skowron i dr. Jana Skowrona, był w stanie stworzyć pierwsze w historii dokładne mapy poczerwienienia, obejmujące cały obszar obu galaktyk.

„Wykorzystano do tego gwiazdy typu Red Clump – czerwone olbrzymy, które są na etapie spalania helu w jądrze, dzięki czemu mają dobrze określoną jasność rzeczywistą, a co za tym idzie również kolor. Następnie, poprzez porównanie oczekiwanego koloru gwiazd z kolorem obserwowanym, można wyznaczyć ich poczerwienienie” – czytamy w komunikacie UW.

Powstałe w ten sposób szczegółowe mapy poczerwienienia są narzędziem do analizy populacji gwiazdowych i badań struktury Obłoków Magellana.

Wyniki badania opublikowano w piśmie The Astrophysical Journal Supplement Series: https://iopscience.iop.org/article/10.3847/1538-4365/abcb81

PAP – Nauka w Polsce

źródło:

www.naukawpolsce.pap.pl

Możliwość komentowania Polacy opracowali dokładne mapy poczerwienienia w Obłokach Magellana została wyłączona

Pytania do czytelników i widzów – ankieta nt. treści Nauka. To Lubię

Drodzy, „Nauka. To Lubię” – zarówno portal, jak i kanał oraz fanpage szybko się rozwijają. To Wasza zasługa i bardzo Wam dziękuję za zaufanie. Chcę mówić o nauce, o edukacji…

Drodzy,

„Nauka. To Lubię” – zarówno portal, jak i kanał oraz fanpage szybko się rozwijają. To Wasza zasługa i bardzo Wam dziękuję za zaufanie. Chcę mówić o nauce, o edukacji o technologii, chcę popularyzować wiedzę w sposób, który najbardziej Wam odpowiada. Dlatego bardzo proszę podzielcie się ze mną swoimi opiniami. Poświęćcie 4 minuty na wyklikanie ankiety, do której link znajdziecie poniżej. Wasze opinie, Wasze odpowiedzi są dla mnie bardzo ważne. Dziękuję!

Tomasz Rożek

 

 

 

Możliwość komentowania Pytania do czytelników i widzów – ankieta nt. treści Nauka. To Lubię została wyłączona

Najłatwiej o kolizję z łosiem w jesienne popołudnie – ustalili naukowcy

Późne popołudnia września i października to czas najwyższego ryzyka wypadku drogowego z udziałem łosia. Najmniejsze ryzyko takiej kolizji przypada na godziny poranne i południowe w pozostałych miesiącach roku – informują…

Późne popołudnia września i października to czas najwyższego ryzyka wypadku drogowego z udziałem łosia. Najmniejsze ryzyko takiej kolizji przypada na godziny poranne i południowe w pozostałych miesiącach roku – informują naukowcy z Białowieży, Białegostoku i Lublina po analizie danych z 20 lat.

Jeszcze dekadę temu łosie występowały niemal wyłącznie na wschodzie Polski; dziś można je spotkać niemal w całym kraju. Ich najbardziej liczne populacje nadal są obecne w Polsce wschodniej i północno-wschodniej.

Wypadkom drogowym z udziałem łosi przyjrzeli się bliżej naukowcy z Instytutu Biologii Ssaków PAN (IBS PAN) w Białowieży, Uniwersytetu w Białymstoku i Uniwersytetu Przyrodniczego w Lublinie. Swoje wnioski opublikowali w artykule na łamach „Transportation Research Part D”.

Badania dotyczyły ostatnich dwudziestu lat. Naukowcy zebrali informacje o ponad 300 wypadkach komunikacyjnych z udziałem łosi w Polsce, o których raportowano na stronach internetowych policji, straży pożarnej oraz lokalnych gazet. Chcieli sprawdzić, czy wypadki z udziałem łosi wykazują wyraźny wzorzec czasowy; czy ryzyko kolizji ma związek z aktywnością zwierząt, czy raczej z natężeniem ruchu drogowego albo warunkami pogodowymi.

Aby odpowiedzieć na te pytania, dane o kolizjach naukowcy zestawili z danymi pochodzącymi z telemetrii satelitarnej 37 łosi z doliny Biebrzy oraz z obszaru Polesia czy intensywnością ruchu drogowego. Uwzględnili też informacje o warunkach pogodowych, przede wszystkim obecności opadów i mgły.

fot. Mateusz Wodziński
fot. Mateusz Wodziński

 

„Większość raportowanych wypadków miała miejsce w północno-wschodniej i wschodniej Polsce. Jednak pojedyncze wypadki rejestrowane były również w zachodniej i południowej części kraju” – podsumował dla PAP dr Tomasz Borowik z IBS PAN, odpowiedzialny za analizę danych.

„Wykazaliśmy, że wypadki z udziałem łosia charakteryzowała wyraźna zmienność czasowa. W ujęciu dobowym największe ryzyko kolizji występowało w pierwszych godzinach po zapadnięciu zmroku, natomiast sezonem o wyraźnie większym prawdopodobieństwie wypadków była wczesna jesień: okres od września do października. Zaobserwowany wzorzec czasowy kolizji był najsilniej powiązany z dobową i sezonową zmiennością aktywności łosi. Zwierzęta te są szczególnie aktywne w o zmierzchu i o świcie, kiedy intensywnie żerują, natomiast wczesna jesień jest okresem wzmożonej aktywności związanej z okresem rozrodczym (bukowiskiem)” – opowiadał.

To oznacza, że największe ryzyko kolizji auta z łosiem przypada na dni września i października, a konkretniej – na porę między godziną 16:00 a 20:00. Najmniejsze ryzyko jest w środku dnia, od ok. godz. 7:00 do 14:00, w ciągu całego roku – z wyjątkiem jesieni. Wtedy też w środku dnia ryzyko trochę rośnie” – precyzuje dr hab. Michał Żmihorski z IBS PAN w Białowieży.

Naukowcy porównywali też, jakie czynniki ryzyka kolizji mają największe znaczenie. Stwierdzili, że aktywność łosi wpływa na ryzyko ich kolizji z pojazdem aż dziesięć razy bardziej, niż choćby intensywność ruchu drogowego w danym dniu roku i o danej porze doby.

Ryzyko kolizji ma też związek z czynnikami pogodowymi – dodają autorzy badania. Według ich ustaleń w czasie opadów deszczu ryzyko kolizji było mniejsze, natomiast obecność mgieł je podwyższała. Mechanizmy odpowiadające za te zależności nie są obecnie jasne i wymagają przede wszystkim lepszego rozpoznania wpływu pogody na zachowanie kierowców – zastrzegają.

Naukowcy podkreślają, że informacje o kolizjach drogowych z udziałem dzikich zwierząt pojawiają się w mediach niemal każdego dnia. „Takie zdarzenia to ważny problem, gdyż często kończą się kalectwem lub śmiercią uczestników ruchu i zwierząt. Generują też niemałe koszty związane z leczeniem i rehabilitacją poszkodowanych, naprawą pojazdów czy też opóźnieniami transportowymi” – napisali w informacji przesłanej PAP.

fot. Mateusz Wodziński
fot. Mateusz Wodziński

 

W ostatnich latach w Polsce przybywa wypadków z udziałem łosi, co może mieć związek z nasileniem ruchu drogowego, a także zwiększaniem zasięgu występowania tego gatunku i wzrostem jego liczebności.

Wyniki nowych analiz oznaczają praktyczne informacje dla drogowców – potencjalnie ważne w kontekście ograniczania skali wypadków z udziałem dzikich zwierząt. ”Nasze badania pokazały, że ryzyko kolizji wyraźnie zmienia się w czasie, zatem ewentualne działania zapobiegające można dostosować do tego wzorca i wprowadzać je w czasie najwyższego ryzyka, a w pozostałych okresach, kiedy ryzyko kolizji jest istotnie niższe, z nich rezygnować. Dobrym rozwiązaniem mogłoby być wprowadzenie okresowych ograniczeń prędkości oraz znaków ostrzegawczych w okresach zwiększonego ryzyka kolizji” – sugeruje dr Tomasz Borowik z IBS PAN w Białowieży.

”Warto również położyć większy nacisk na edukację kierowców – gdyby byli świadomi, kiedy ryzyko kolizji jest największe, mogliby dostosować prędkość jazdy do tego okresowego zagrożenia” – dodaje.

Autorzy analiz podkreślają, że jest to pierwsze tak kompleksowe badanie czasowego wzorca kolizji z udziałem łosi w Centralnej Europie. Wyrażają nadzieję, że wyniki znajdą zastosowanie w praktyce, co pozwoli ograniczyć liczbę kolizji i związanych z nimi szkód. (PAP)

źródło:

www.naukawpolsce.pap.pl

Możliwość komentowania Najłatwiej o kolizję z łosiem w jesienne popołudnie – ustalili naukowcy została wyłączona

Tłusty czwartek pod lupą dietetyka

Tłusty czwartek to jeden z dni tradycyjnie świętowanych w Polsce, wypadający według kalendarza chrześcijańskiego w ostatni czwartek przed wielkim postem, czyli 52 dni przed Wielkanocą. Combrowy Czwartek (inaczej Tłusty Czwartek,…

Tłusty czwartek to jeden z dni tradycyjnie świętowanych w Polsce, wypadający według kalendarza chrześcijańskiego w ostatni czwartek przed wielkim postem, czyli 52 dni przed Wielkanocą. Combrowy Czwartek (inaczej Tłusty Czwartek, nazwa pochodzi od obchodów w Małopolsce), obchodzony w tym roku 11 lutego, rozpoczyna ostatni tydzień karnawału. Polacy spożywają w ten dzień średnio 2,5 pączka na osobę.

Okazuje się jednak, że geneza tłustego czwartku sięga aż starożytności. W starożytnym Rzymie w ten dzień świętowano przyjście wiosny, a tymczasem żegnano zimę. Zgodnie z tradycją spożywano wtedy głównie tłuste potrawy, a pączki początkowo przygotowywano nie w formie słodkiej – czytamy w informacji prasowej przesłanej przez Uniwersytet Przyrodniczy w Poznaniu (UPP).

Doktorantka w Katedrze Żywienia Człowieka i Dietetyki, Wydział Nauk o Żywności i Żywieniu UPP Natalia Główka przypomina, że w Polsce tradycja spożywania pampuchów (inaczej pączki) w czasie tłustego czwartku pojawiła się już w XVII wieku w miastach i na dworach, a pod koniec XIX i na początku XX wieku na wsiach. Na początku pączki przygotowywane były w formie ciasta chlebowego nadziewanego słoniną i smażonego na smalcu, który podawano z tłustym mięsem i zapijano je wódką. Słodkie pączki jako potrawa pojawiły się w Polsce już wcześniej, w XVI wieku, natomiast stały się bardziej puszyste na przełomie XVII i XVIII wieku. Według Staropolskiej tradycji tłusty czwartek świętowano bardzo hucznie i wesoło, przy stołach królewskich zastawionych tradycyjnymi, zapustnymi potrawami, takimi jak dziczyzna, wykwintnie przyrządzony drób, kasza i kapusta ze skwarkami, słonina, sadło, żur oraz smażone na tłuszczu racuchy, bliny, pampuchy, chrust (faworki) oraz pączki. Wybór tłustych, bogato przyrządzonych potraw wynikał z rozpoczynającego się w niedługim czasie 40-dniowego postu, w trakcie którego można było spożywać jedynie postne potrawy. Dodatkowo zabawy oraz obfitość pożywienia w tłusty czwartek miały stanowić metodę „zaklinania” urodzajnego zbioru plonów.

W obecnych czasach tłusty czwartek nie jest tak hucznie obchodzony, jednak nadal uważa się, że niezjedzenie w ten dzień pączka grozi niepowodzeniem w życiu. Polacy spożywają w ten dzień średnio 2,5 pączka na osobę, a statystyki wskazują, że wszyscy razem zjadamy ich nawet 100 milionów w ciągu jednego dnia. Polskie pączki różnią się od pączków przygotowywanych w innych krajach, gdzie używany jest odmienny rodzaj mąki czy sposób smażenia w tłuszczu, pączki mają inny kształt czy dodatek nadzienia – zaznacza Natalia Główka.

pączki, AdobeStock
pączki, AdobeStock

Czy pączki są zdrowe?

Ze względu na składniki oraz sposób przygotowywania pączki nie należą do grupy produktów zalecanych w codziennej diecie. Charakteryzują się dużą gęstością energetyczną, a więc w niewielkiej ilości produktu znajduje się spora zawartość kalorii. Dodatkowo pączki są źródłem tak zwanych „pustych kalorii”, czyli cukrów prostych oraz szkodliwych tłuszczów, przyczyniających się do wzrostu masy ciała. Pączki produkowane są z wysoko przetworzonej mąki, z dodatkiem cukru oraz są smażone na głębokim tłuszczu, tradycyjnie nawet na smalcu, co może negatywnie rzutować na stan zdrowia. Duża podaż w diecie tłuszczów nasyconych i trans oraz cukrów prostych zwiększa ryzyko chorób cywilizacyjnych, takich jak nadwaga, otyłość, zespół metaboliczny, cukrzyca typu 2, choroby sercowo-naczyniowe czy chorób o podłożu zapalnym. Co więcej są to produkty ciężkostrawne w znaczny sposób obciążające pracę układu pokarmowego, co sprawia, że nie mogą być stosowane w diecie osób chorych – przestrzega dietetyczka z UPP, absolwentka Wydziału Nauk o Zdrowiu WUM.

Czy w takim razie jedzenie pączków powinno być przeciwwskazane?

Codzienne spożywanie pączków może przyczynić się do wzrostu masy ciała oraz rozwoju chorób, jednak należy pamiętać, że jednorazowe spożycie danego produktu nie wpływa natychmiastowo na stałe zaburzenie pracy organizmu człowieka oraz nie przyczyni się od razu do odkładania tkanki tłuszczowej. W przypadku stosowanej na co dzień zbilansowanej diety spożycie pączka w tłusty czwartek nie musi zaszkodzić. Jednak warto w ten dzień wprowadzić dodatkową aktywność fizyczną, co pomoże utrzymać prawidłowy bilans energetyczny – czytamy w informacji z UPP.

Wartości odżywcze pączka (1 pączek, 80 g):

  • 332 kcal
  • 6,1 g białka
  • 12,4 g tłuszczu (6,1 g nasycone kwasy tłuszczowe)
  • 48,5 g węglowodanów przyswajalnych
  • 1,2 g błonnika pokarmowego
  • 49,7 g węglowodanów ogółem

(Na podstawie kcalmar.com)

pączki, AdobeStock
pączki, AdobeStock

Skład pączka – z supermarketu czy z piekarni?

Składniki wykorzystywane do produkcji pączków mogą różnić się w zależności od miejsca jego przygotowywania. Każdy konsument powinien zapoznać się z etykietą opakowania lub zapytać o skład produktu, aby móc świadomie dokonać zakupu – sugeruje Natalia Główka.

Jaki jest przykładowy skład pączka z supermarketu?

Składniki: mąka pszenna, woda, mieszanka ciasta drożdżowego [mąka pszenna, tłuszcz palmowy, cukier, serwatka w proszku, laktoza, sól jodowana, białko jaja kurzego w proszku, żółtko jaja kurzego w proszku, emulgatory (mono- i diglicerydy kwasów tłuszczowych, mono- i diglicerydy kwasów tłuszczowych estryfikowane kwasem mono- i diacetylowinowym, lecytyny), substancje spulchniające (fosforany wapnia, węglany sodu), enzymy, przyprawy, aromat, wanilina, regulator kwasowości (kwas askorbinowy), barwniki (karoteny)], nadzienie owocowe (5%), cukier, substancje konserwujące (benzoesan sodu, kwas cytrynowy), drożdże.

Jaki jest skład pączka z piekarni?

Składniki: mąka typu 500, rozczyn piekarski, cukier, tłuszcz, woda, sól, ocet, drożdże

***

Dietetyczka z UPP przytacza też przepisy na „zdrowsze pączki”:

 

Fit pączki bezglutenowe i wegańskie

Składniki na 12 pączków:

• 150 g mąki owsianej bezglutenowej

• 100 g skrobii ziemniaczanej

• 100 g mąki ryżowej jasnej

• 1,5 łyżeczki gumy ksantanowej

• 0,5 płaskiej łyżeczki soli

• 0,5 płaskiej łyżeczki sody oczyszczonej

• 50 g cukru ok 1/4 szklanki

• 25 g drożdży świeżych lub 2,5 łyżeczki suchych

• 1 łyżeczka octu jabłkowego lub soku z cytryny

• 6 łyżek Aquafaby (zalewy z puszki ciecierzycy lub wody z gotowania ciecierzycy)

• 1 szklanka napoju roślinnego

• 60 g margaryny bezmlecznej

• olej do smażenia (20-30 g)

Przygotowanie:

W dużej misce wymieszać mąki, gumę ksantanową, sodę, sól i cukier. Zmiskować razem w celu dobrego wymieszania i napowietrzenia. Drożdże rozkruszyć w miseczce i zalać 1/4 szklanki ciepłego napoju, dodać łyżeczkę cukru i mieszać aż drożdże się rozpuszczą. Odstawić na 15 minut. Resztę napoju podgrzać z margaryną, aż do rozpuszczenia, odstawić z ognia i lekko ostudzić. Do miski z mąkami wlać zaczyn drożdżowy, ocet i płynną aquafabę. Wymieszać. Następnie dodać ciepłą, ale nie gorącą się resztę napoju z rozpuszczoną margaryną. Mieszać łyżką aż całość się właściwie połączy i ciasto będzie lepkie (nie dosypywać mąki). Ciasto wyłożyć na arkusz papieru do pieczenia i rozwałkować je przez papier na grubość ok. 0,5 cm. Po rozwałkowaniu zdjąć górny papier, posypać placek ciasta mąką ryżową i wykroić kółka szklanką, a kieliszkiem mniejsze kółeczka w środku. Bardzo delikatnie przenieść na obsypany mąką blat lub na zdjęty wcześniej papier do pieczenia oponki ciasta i małe kółeczka, z których będą przygotowane małe pączusie i przykryć je ściereczką. W takiej formie (przykryte ściereczką) zostawić je w ciepłym miejscu bez przeciągu na ok. 1 godzinę aż urosną.. Po tym czasie do garnka wlać olej do wysokości ok. 2-3 cm od dna garnka. Powoli nagrzać do temperatury ok. 170°C. Smażyć po 1-2 minuty z każdej strony. Po usmażeniu przełożyć na papierowy ręcznik.

Orientacyjna wartość odżywcza 1 pączka:

• 188 kcal

• 3,3 g białka

• 8 g tłuszczu (1,2 g nasyconych kwasów tłuszczowych)

• 1,8 g błonnika pokarmowego

• 25,2 g węglowodanów przyswajalnych

• 26,8 g węglowodanów ogółem

(Przepis na podstawie https://nicponwkuchni.pl/najlepsze-paczki-bezglutenowe-weganskie/, wartości odżywcze na podstawie www.kcalmar.com)

 

Pieczone pączki z bananem

Składniki na 6 pączków:

• 90 g masła orzechowego

• 65 g naparu z kawy

• 60 g banana

• 36 g mąki pszennej, typ 500

• 30 g mąki pszennej, typ 1850

• 25 g skrobii ziemniaczanej

• 20 g cukru pudru

• 20 g mleczka kokosowego (12%)

• 15 g orzechów włoskich

• 10 g cukru trzcinowego

• 10 g wody

• 6 g wiórków kokosowych

• 15 g kakao

• 3 g proszku do pieczenia

Przygotowanie:

Włączyć piekarnik na 180°C. Zmiksować razem masło orzechowe, banana, kawę i cukier, tak aby uzyskać kremową konsystencję. Przesiać obie mąki, dodać proszek do pieczenia i wymieszać. Dodać połowę składników suchych (mąki i proszek do pieczenie) do kremu orzechowo-kawowego. Wymieszać, dodać pozostałą część suchych składników i ponownie wymieszać. Przełożyć masę do rękawa cukierniczego i wycisnąć do foremek na donuty (ang. donuts – amerykańskie pączki z dziurką). Można użyć też foremek na muffinki. Piec przez 8 minut, wyjąć do ochłodzenia. Wymieszać składniki polewy (kakao, mleczko kokosowe, wodę, cukier puder). Zanurzyć pączki w polewie a następnie obtaczać w wiórkach kokosowych lub posiekanych orzechach.

Orientacyjna wartość odżywcza 1 pączka:

• 202 kcal

• 5,3 g białka

• 10,7 g tłuszczu (2,8 g nasyconych kwasów tłuszczowych)

• 2 g błonnika pokarmowego

• 20,5 g węglowodanów przyswajalnych

• 23,5 g węglowodanów ogółem

(Przepis i wartości odżywcze na podstawie www.kcalmar.com)

Nauka w Polsce – PAP

źródło:

www.naukawpolsce.pap.pl

Możliwość komentowania Tłusty czwartek pod lupą dietetyka została wyłączona

Białystok/ 10 najlepszych pomysłów naukowców będzie miało szansę na komercjalizację

Wprowadzenie na rynek dziesięciu najlepszych pomysłów naukowych z białostockich uczelni, ich komercjalizacja ma być jednym z najważniejszych efektów projektu, który zrealizuje Politechnika Białostocka. Zarząd województwa podlaskiego przyznał w czwartek na…

Wprowadzenie na rynek dziesięciu najlepszych pomysłów naukowych z białostockich uczelni, ich komercjalizacja ma być jednym z najważniejszych efektów projektu, który zrealizuje Politechnika Białostocka. Zarząd województwa podlaskiego przyznał w czwartek na ten cel 2,5 mln zł z UE.

To środki z Regionalnego Programu Operacyjnego Województwa Podlaskiego (RPOWP) 2014-2020.

Politechnika wspólnie z jej Instytutem Innowacji i Technologii będą realizować ten projekt we współpracy z Uniwersytetem Medycznym w Białymstoku (UMB), Uniwersytetem w Białymstoku (UwB), Białostockim Parkiem Naukowo-Technologicznym, Centrum Promocji Innowacji i Rozwoju (Klastra Obróbki Metali) i Fundacją Regionalny Ekosystem Innowacji.

Rzeczniczka Politechniki Białostockiej Aleksandra Toczydłowska poinformowała PAP, że wśród potencjału naukowo-badawczego trzech białostockich uczelni, zatrudnieni w projekcie specjaliści – brokerzy innowacji – wybiorą i ocenią 20 najlepszych pomysłów, które można wdrożyć, skomercjalizować. 10 z nich będzie realizowanych, ma dostać dofinansowanie.

Urząd marszałkowski zaznaczył, że pomysły wskazane do komercjalizacji w projekcie, muszą być z dziedzin, które w strategii rozwoju regionu są tak zwanymi inteligentnymi specjalizacjami województwa, priorytetowymi, najmocniejszymi dziedzinami, istotnymi w rozwoju regionu. Przypomniał, że to m.in. przemysł metalowo-maszynowy, rolno-spożywczy, medycyna, ekoinnowacje.

Ma także powstać narzędzie internetowe, platforma, która będzie bazą danych o możliwościach, potencjale naukowym i badawczym uczelni. Chodzi o to, by zainteresowani współpracą – zarówno firmy, jak i naukowcy – mogli łatwiej szukać potrzebnych im informacji, baz danych i partnerów do współpracy. Przewidziane są także spotkania z udziałem naukowców, firm i podmiotów potencjalnie zainteresowanych finansowym udziałem w takich komercyjnych przedsięwzięciach. Jeśli bezpośrednie spotkania z powodu pandemii koronawirusa nie będą możliwe, mają się odbywać w formule on-line – poinformowała Politechnika Białostocka.

Urząd marszałkowski w Białymstoku tłumaczy, że efektem projektu ma być cały system wiążący uczelnie, firmy, inne podmioty, instytucje otoczenia biznesu w działaniu na rzecz podnoszenia konkurencyjności firm w regionie, większe wykorzystywanie prac badawczo-rozwojowych, przeanalizowanie co temu przeszkadza, wskazanie barier.

„Aby zdobyć dobrą pozycję na rynku, trzeba być konkurencyjnym, czyli mieć nowocześniejsze technologie, lepsze produkty, po prostu wyprzedzać innych. Można to osiągnąć prowadząc działania badawczo-rozwojowe. Tylko tak można wypracować nowatorskie rozwiązania” – podkreśla w informacji przesłanej przez urząd marszałkowski marszałek województwa podlaskiego Artur Kosicki. W jego ocenie w regionie jest potencjał zarówno firm, jak i naukowców, trzeba go bardziej wykorzystać.

W ramach projektu mają być wypracowane i wskazane rekomendacje, by ta współpraca była bardziej efektywna. Realizacja projektu ma potrwać rok. (PAP)

autor: Izabela Próchnicka

Możliwość komentowania Białystok/ 10 najlepszych pomysłów naukowców będzie miało szansę na komercjalizację została wyłączona

Kto wierzy w fake newsy? Badacze chcą zwalczać szkodliwe informacje jak epidemie

Aby skutecznie zapobiegać epidemiom kolejnych fake newsów, warto znać profil osób na fake newsy najbardziej podatnych. A wtedy skuteczniej dobierać narzędzia powstrzymujące rozchodzenie się nieprawdziwych informacji – uważają naukowcy z…

Aby skutecznie zapobiegać epidemiom kolejnych fake newsów, warto znać profil osób na fake newsy najbardziej podatnych. A wtedy skuteczniej dobierać narzędzia powstrzymujące rozchodzenie się nieprawdziwych informacji – uważają naukowcy z projektu #Cyber_odporność.

„Walka z fake newsami pochłania mnóstwo zasobów, które można by było zagospodarować znacznie efektywniej. Środki, które mogłyby więc służyć na promocję zdrowego stylu życia czy profilaktyki zużywane są np. na to, by prostować fałszywe informacje dotyczące szczepień. A środki, które mogłyby iść na walkę z COVID-19 trzeba przeznaczać na przygotowanie i dystrybucję materiałów odkręcających teorie spiskowe” – mówi w rozmowie z PAP etyk dr Jan Piasecki z Uniwersytetu Jagiellońskiego, kierownik projektu #Webimmunization (#Cyber_odporność).

Dlatego też między innymi interdyscyplinarny zespół z udziałem etyków, psychologów, neurobiologów, epidemiologów i informatyków chce poznać mechanizmy tej pochłaniającej środki „choroby”, jaką jest dezinformacja. Naukowcy w ramach swoich badań przygotowują m.in. profil psychologiczny osób najbardziej podatnych na wiarę w fałszywe informacje. A przez to będą mogli dowiedzieć się, jak wygaszać takie epidemie w zarodku.

Skąd porównanie rozprzestrzeniania się fake newsów do epidemii? „Wirus – nieożywiony fragment informacji – wykorzystuje luki w biochemicznych zabezpieczeniach organizmów żywych, aby za ich pomocą się namnażać. A dzięki temu może przenosić się na kolejne organizmy. Rozprzestrzenianie się fałszywych informacji możemy postrzegać podobnie: jako proces, w którym nieprawdziwe, złe informacje, wykorzystują słabe punkty w naszym systemie weryfikowania informacji i są przez nas reprodukowane” – mówi dr Jan Piasecki.

Tłumaczy, że wpływ na to, że fałszywa informacja może się replikować ma m.in. nasz aparat psychologiczny. Mniej skłonni jesteśmy więc, by weryfikować informacje apelujące do emocji czy pozwalające zbudować tożsamość w opozycji do innych grup. Bardziej jesteśmy też skłonni wierzyć w informacje zgodne z naszą wiedzą, spójne, wobec których jest konsensus wśród ludzi, którymi się otaczamy, informacje podawane przez wiarygodne naszym zdaniem źródła i poparte wieloma argumentami (które akurat jesteśmy w stanie przywołać).

Drugi element to system składający się z czynników ekonomicznych, politycznych i społecznych. Mogą więc następować czasy niepokoju, przełomu, gdzie jakieś grupy społeczne czują się zagrożone i wykluczone, czują, że tracą swoją tożsamość. A przez to są bardziej podatne na dezinformację.

Trzecim elementem mającym wpływ na replikację fake newsów jest czynnik technologiczny. „Co jakiś czas powstaje nowa technologia, która pozwala nam szybciej rozpowszechniać informacje. Kiedyś to był druk, później – radio, a teraz są to sieci społecznościowe” – mówi Piasecki. I zaznacza, że w mediach społecznościowych każdy z nas jest nie tylko odbiorcą, ale i producentem informacji. I są tu bardzo słabe filtry pozwalające odsiać nieprawdziwą informację. „Te sieci społecznościowe są pudłem rezonansowym, które pozwala wzmocnić te niesprawdzone informacje” – mówi.

Pytany, czy mamy już jako ludzkość szczepionkę na fake newsy, powiedział, że każdy z nas może takie przeciwciała na dezinformację zyskiwać: to krytyczne myślenie, umiejętność korzystania ze zweryfikowanych informacji i posługiwania się narzędziami naukowymi. „Możemy odwoływać się zarówno do nauk ścisłych, jak i do humanistycznych i społecznych, które dostarczają nam bogatej wiedzy o tym, jak funkcjonuje świat, umysł, jakie popełniamy błędy w rozumowaniu. To nie jest aż tak skomplikowane. Natomiast niestety rzadko mamy chęć włączania naszego krytycznego myślenia, bo jesteśmy wciąż bombardowani informacjami. Nie mamy czasu ani możliwości, żeby wszystkie je weryfikować. A w dodatku podlegamy uprzedzeniom, emocjom, przynależymy do różnego rodzaju obozów” – mówi.

Jego zdaniem, choć każdy z nas może wytworzyć w sobie „cyberodporność”, to jednak w sferze publicznej takiej uniwersalnej „szczepionki na dezinformację” jeszcze nie ma. I zaznacza, że fałszywe czy też zmanipulowane informacje (w angielskim określa się to pojemniejszym mianem misinformacji) to na tyle szerokie zjawisko, że nie ma tu jednego sposobu walki czy zapobiegania mu.

I tak rozróżniając informacje możemy kategoryzować ich prawdziwości oraz ich szkodliwość.

Informacja prawdziwa, ale rozpowszechniana ze złą intencją to tzw. Mal-informacja. Mal-informacja ma miejsce np. kiedy robi się komuś zdjęcie w sytuacji, która go ośmiesza (np. w sytuacji intymnej, z dziwną miną, kiedy się przewraca) i rozpowszechnia to zdjęcie, aby tę osobę oczernić, osłabić jej wiarygodność.

Z kolei dezinformacja – w rozumieniu naukowców – to informacja nieprawdziwa i podawana ze złą intencją. „Zazwyczaj za dezinformacją stoją zorganizowane grupy, które chcą siać w danej społeczności chaos. Tego typu informacje używane są też w walce politycznej czy w relacjach międzynarodowych, aby osłabić przeciwnika” – tłumaczy dr Piasecki.

Jest też misinformacja – informacja nieprawdziwa, ale rozpowszechniana bez złych intencji. Tu rozmówca PAP jako przykład podaje teorie spiskowe lub pseudonaukowe. „Np. antyszczepionkowcy są głęboko przekonani, że mówią prawdę i że chcą pomóc, ale w gruncie rzeczy rozpowszechniając nieprawdziwe informacje – szkodzą” – zwraca uwagę badacz.

Dodaje jednak, że do grona szkodliwych informacji w sieciach społecznościowych zaliczyć można też takie zjawiska jak: trollowanie (agresywne wypowiedzi na forach internetowych), mowa nienawiści (negatywne wypowiedzi dotyczące całych grup, bazujące na uprzedzeniach), rozpowszechnianie plotek i „legend miejskich”, cyberbullyng (znęcanie się psychiczne za pomocą sieci społecznosciowych) czy crowdturfing (sztuczne pompowanie czyjegoś wizerunku w mediach np. przez skupywanie użytkowników obserwujących jego konto).

„Każde z tych zjawisk wymaga innych środków zaradczych. Do walki z dezinformacją muszą być zaangażowani specjaliści od bezpieczeństwa, polityki kraju, spraw zagranicznych, którzy mają wiedzę i środki, by takie zjawiska wykrywać i im przeciwdziałać. A z kolei w cyberbullyingu trzeba już podjąć inne środki – edukacyjne, wychowawcze. I muszą się w to zaangażować pedagodzy, psycholodzy, ale i rodzice” – tłumaczy badacz.

Widać więc, że walka ze szkodliwymi informacjami może przybierać różne formy. Aby opracować najskuteczniejsze narzędzia do walki z poszczególnymi rodzajami szkodliwych informacji, badacze chcą przygotować psychologiczną skalę, która pozwoli ocenić indywidualną podatność na dezinformację. A następnie porównać z aktywnością użytkowników sieci. „Za pomocą narzędzi uczenia maszynowego chcemy potem stworzyć dokładny profil psychologiczny osób podatnych na dezinformację” – zapowiada.

Dzięki temu naukowcy chcą opracować różne rodzaje interwencji w sieciach społecznościowych – adekwatne do danych zagrożeń i najskuteczniejsze. Przydać się tu może właśnie wiedza z zakresu epidemiologii. Naukowiec porównuje, że w zapobieganiu epidemii nowotworów płuc – związanych z paleniem tytoniu – pomagają działania z bardzo różnych zakresów. Środkami zaradczymi może być np. nakaz stosowania filtrów (zmniejszenie szkodliwości dla samego użytkownika), wysoka akcyza (realne koszty dla użytkownika), podniesienie wieku, kiedy można kupować tytoń (ograniczenie dostępu do danego czynnika), informacje na etykietach (edukacja), zakaz palenia w miejscach publicznych (ograniczenie negatywnego wpływu danego zachowania na otoczenie) czy zakazy stosowania dodatkowych aromatów (uczynienie danego działania mniej atrakcyjnym). Dr Piasecki tłumaczy, że być może i w przypadku fake newsów trzeba będzie kiedyś zastosować analogiczne interwencje, które ograniczą szkodliwość takich nieprawdziwych informacji.

Czy jednak najskuteczniej działać będzie edukacja, restrykcje, kulturowe zmiany podejścia do sieci społecznościowych, na razie nie wiadomo, bo niewiele jeszcze wiemy o tym, kto i kiedy jest podatny na dezinformację – podsumowuje dr Piasecki.

Pytany o to, czy nie ma ryzyka, że w walce z fake newsami pojawi się cenzura, dr Piasecki odpowiada, że cenzury państwowej (kojarzonej z reżimami autorytarnymi) nie należy mylić z odpowiedzialnością za słowo.

„Dziennie na Twitterze publikuje się 500 milionów tweetów. Trudno z takiej ilości odsiać fałszywe informacje. Ci, których +ocenzurowano+, zawsze mogą pokazać palcem, że jest cała masa ludzi, których +system+ nie ukarał tak samo, zarzucając platformom stronniczość” – mówi. I zwraca uwagę na drugi problem, jakim jest powszechnie uznany system eliminacji fałszywych informacji. „W gazecie +cenzuruje+ autora redaktor, w czasopiśmie naukowym, praca jest oceniana przynajmniej przez dwóch recenzentów; jeśli ktoś jest lekarzem musi się liczyć z tym, że jego wypowiedzi mogą być ocenione przez środowisko naukowe. We wszystkich tych przypadkach istnieją standardy: rzetelności dziennikarskiej czy naukowej i procedury, które zachowanie tych standardów sprawdzają. W przypadku mediów społecznościowych nie ma takich standardów, nie ma też powszechnie akceptowanych transparentnych procedur. Dlatego osoby, których treści są +cenzurowane+ mogą mieć poczucie stronniczości i niesprawiedliwości. Z faktu jednak, że ktoś nie jest obecny na jakiejś platformie społecznościowej, nie można jednak wyciągać wniosku, że jest na niego cenzorski zapis” – uważa naukowiec.(PAP)

Autorka: Ludwika Tomala

źródło:

www.naukawpolsce.pap.pl

Możliwość komentowania Kto wierzy w fake newsy? Badacze chcą zwalczać szkodliwe informacje jak epidemie została wyłączona

Kraków/ Na Uniwersytecie Rolniczym powstała modułowa uprawa hydroponiczna

Naukowcy z Uniwersytetu Rolniczego w Krakowie stworzyli modułową uprawę hydroponiczną z systemem kontroli warunków uprawy. Według nich to pierwszy w Polsce tego rodzaju proekologiczny i ekonomiczny kontener uprawowy. „To bardzo…

Naukowcy z Uniwersytetu Rolniczego w Krakowie stworzyli modułową uprawę hydroponiczną z systemem kontroli warunków uprawy. Według nich to pierwszy w Polsce tego rodzaju proekologiczny i ekonomiczny kontener uprawowy.

„To bardzo innowacyjny projekt, który powstał dzięki połączeniu pasji, wiedzy, kreatywności i doświadczenia naukowców z zakresu rolnictwa, ogrodnictwa i inżynierii mechanicznej i stanowi spełnienie wizji i pozytywnej ambicji inwestora” – powiedział kierownik Katedry Gleboznawstwa i Agrofizyki dr hab. inż. Tomasz Zaleski. Badacze opracowali i zbudowali kontener na zamówienie prywatnej firmy.

Jak dodał naukowiec, kontener uprawowy został zbudowany na bazie morskiego kontenera chłodniczego z automatyczną kontrolą temperatury atmosfery, dzięki czemu jest przystosowany do uprawy w niemal każdych warunkach klimatycznych. Naukowiec ocenił, że to pierwsze takie rozwiązanie w Polsce.

Mieszcząca się w 12-metrowym kontenerze morskim uprawa niskich warzyw liściastych i ziół znajduje się jeszcze w Uniwersytecie Rolniczym, ale może być prowadzona w niemal w każdym miejscu na Ziemi, przez cały rok, zużywając przy tym mniej wody w porównaniu do tradycyjnego szklarniowego lub gruntowego systemu uprawy. Lampy LED – jedyne źródło światła, o odpowiednio dobranym promieniowaniu, decydują o wielkości i jakości plonów oraz tempie wzrostu rośliny.

Naukowcy zamierzają udoskonalać projekt, który wcześniej zyskał dofinansowanie ze środków unijnych w ramach programu „Bon na Innowacje”.

Twórcami kontenera z modułową uprawą hydroponiczną są dr hab. inż. Tomasz Zaleski, dr inż. Anna Kołton i dr hab. inż. Jarosław Knaga.

PAP – Nauka w Polsce, Beata Kołodziej

źródło:

www.naukawpolsce.pap.pl

Możliwość komentowania Kraków/ Na Uniwersytecie Rolniczym powstała modułowa uprawa hydroponiczna została wyłączona

Stypendia dla białoruskich naukowców od Instytutu Historii PAN i Niemieckiego Instytutu Historycznego

Sześciorgu białoruskim badaczom przyznały stypendia naukowe Instytut Historii im. Tadeusza Manteuffla PAN i warszawski Niemiecki Instytut Historyczny (NIH) – poinformowano PAP w czwartek. Niemiecki Instytut Historyczny (NIH) poinformował, że stypendyści…

Sześciorgu białoruskim badaczom przyznały stypendia naukowe Instytut Historii im. Tadeusza Manteuffla PAN i warszawski Niemiecki Instytut Historyczny (NIH) – poinformowano PAP w czwartek.

Niemiecki Instytut Historyczny (NIH) poinformował, że stypendyści uzyskają możliwość realizowania projektów badawczych w Warszawie. Skorzystają też z infrastruktury obu instytucji – Niemieckiego Instytutu Historycznego i Instytutu Historii im. Tadeusza Manteuffla Polskiej Akademii Nauk.

Na 2021 r. przyznano sześć stypendiów. Dr Irena Ławrowska wykorzysta sześciomiesięczny pobyt, aby kontynuować projekt rekonstrukcji socjotopografii Brześcia Litewskiego w epoce wczesnonowożytnej.

Z kolei integracją i suwerennością w relacjach między Wielkim Księstwem Litewskim a Królestwem Polskim w latach 1385–1569 zajmie się dr Wasil Waronin w ramach stypendium postdoktorskiego.

Andrej Radaman zajmie się w czasie trwającego 11 miesięcy pobytu w Warszawie sejmikami województwa nowogródzkiego w latach 1565–1632.

Uładzimir Szypiła przeprowadzi badania na temat pozycji kleru i wiernych i przyjrzy się unickiej diecezji połockiej w przededniu podziału Kościoła unickiego w 1839 roku.

Z kolei Weranika Lebedz kontynuować będzie w ramach swojego stypendium naukowego dociekania na temat dziejów badań archeologicznych na zachodniej Białorusi w okresie międzywojennym 1921–1939, a dr Jauhen Malikau zajmie się analizą drewnianej ornamentyki tradycyjnej architektury.

NIH w Warszawie – z filiami w Pradze i Wilnie – prowadzi badania naukowe nad historią Polski i stosunkami polsko-niemieckich w kontekście europejskim i międzynarodowym. Należy do fundacji prawa publicznego im. Maxa Webera Niemieckie Instytuty Humanistyczne za Granicą i za jej pośrednictwem finansowany jest z budżetowych niemieckiego Ministerstwa Edukacji i Badań.

Instytut Historii im. Tadeusza Manteuffla PAN prowadzi badania nad historią ziem polskich od średniowiecza po XX w. i wybranymi problemami historii powszechnej ze szczególnym uwzględnieniem dziejów Europy Środkowej i Wschodniej.(PAP)

Autor: Szymon Zdziebłowski

źródło:

www.naukawpolsce.pap.pl

Możliwość komentowania Stypendia dla białoruskich naukowców od Instytutu Historii PAN i Niemieckiego Instytutu Historycznego została wyłączona

Tramwaje komunikujące się światłem

Przed kolizją dwóch tramwajów mogą ostrzegać lampy drogowe z modulacją światła, zamontowane z tyłu jednego pojazdu, i kamera odczytująca te sygnały znajdująca się na drugim, nadjeżdżającym tramwaju. Technologie stosowane w…

Przed kolizją dwóch tramwajów mogą ostrzegać lampy drogowe z modulacją światła, zamontowane z tyłu jednego pojazdu, i kamera odczytująca te sygnały znajdująca się na drugim, nadjeżdżającym tramwaju. Technologie stosowane w lotnictwie wykorzystali w komunikacji miejskiej naukowcy z WAT.

System antykolizyjny wyposażony jest w lampy modulujące światło (drogowe i pozycyjne), w kamery do pomiaru odległości i czytniki znaczników umieszczonych na trasie. Jego centralna jednostka analizuje dane i przekazuje motorniczemu komunikat o zagrożeniach.

Nad systemem wykorzystującym światło widzialne jako nośnik informacji pracowali badacze z Wydziału Mechatroniki, Uzbrojenia i Lotnictwa Wojskowej Akademii Technicznej (WAT) wraz z partnerem przemysłowym. Urządzenia nie ingerują w konstrukcję wagonu, mogą być zamontowane bez homologacji. System sprawdził się w testach na jednej z linii tramwajowych w Łodzi. Prototyp jest gotowy do wdrożenia.

KOMUNIKACJA ZE SOBĄ I Z OTOCZENIEM

Jak wyjaśnia kierownik projektu dr hab. inż. Krzysztof Falkowski, tramwaj może przekazywać informacje poprzez „miganie” światłami z taką częstotliwością, której ludzkie oko nie jest w stanie zaobserwować, natomiast jest ona zrozumiała dla czujnika kamery. Pojazd szynowy przez całą dobę porusza się z włączonymi przednimi i tylnymi światłami. System VLC (Visible Light Communication) do przekazywania informacji używa lampy LED, którą można wbudować w tzw. reflektor. Nadajnik systemu jest zatem „migającą” lampą wyposażoną w sterownik, który moduluje proces świecenia. Sygnał jest odpowiednio zakodowany – tak, żeby można go było odczytać przez kamerę drugiego tramwaju. Zakres takiej komunikacji osiąga 80 metrów.

Jeśli tramwaj jedzie za szybko w stosunku do poprzedzającego go pojazdu, to motorniczy otrzymuje sygnał adekwatny do stopnia zagrożenia. Komunikaty wyświetlają się w trzech kolorach – zielonym, żółtym i czerwonym. System m.in. podaje informację o odległości od ostatniego przystanku. Dodatkowo naukowcy zastosowali kamery, które określają odległość między tramwajami oraz rozpoznają znaczniki na trasie. Wszystkie te sygnały łączy i analizuje system ekspercki, który bezpośrednio informuje motorniczego, czy ma on wolną drogę i może jechać, czy też pojawia się stan zagrożenia. W porozumieniu z motorniczym, którzy brali udział w testach, badacze ograniczyli liczbę czynników uznanych za zagrożenie podczas jazdy.

ŚWIATŁO UZUPEŁNIA LUKI W SYSTEMACH RADOWYCH I GPS

Jak podkreśla dr hab. inż. Falkowski, powszechnie stosowana w komunikacji miejskiej łączność radiowa i określanie pozycji przez system GPS zawodzi w wąskich ulicach, otoczonych wysokimi zabudowaniami lub na torowiskach umieszczanych pod jezdnią np. w tunelach. Można rozwiązać te problemy wykorzystując do komunikacji światła drogowe.

Wyraaził on opinię, że właściciele komunalni przedsiębiorstw komunikacyjnych potrzebują takiego systemu. „Kolizja rodzi problemy z odszkodowaniem, również kwestie odpowiedzialności pracowników wobec siebie w ramach jednej firmy. Zderzenia powodują straty finansowe, ale przede wszystkim poszkodowani w wypadkach są pasażerowie. Z naszej analizy wynika, że ofiar śmiertelnych nie jest wiele, za to poważne kontuzje wśród pasażerów zdarzają się często” – mówi ekspert.

Obrażenia nie muszą powstać w wyniku kolizji. Niebezpieczne dla pasażerów, którzy nie są przecież przypięci pasami, a często nawet nie zajmują miejsc siedzących, jest samo gwałtowne hamowanie pojazdu o tak dużej masie.

Prace nad systemem ostrzegania przed kolizją trwały około trzech lat. Finansowało NCBR wkład własny wniosła firma Newag Inteco S.A., która odpowiadała za komunikację światłem białym. Naukowcy WAT opracowali „mózg systemu” czyli system ekspercki.

PAP – Nauka w Polsce, Karolina Duszczyk

Możliwość komentowania Tramwaje komunikujące się światłem została wyłączona

Olsztyn/ Naukowcy pomogą zrozumieć konsumentom oświadczenia zdrowotne na opakowaniach żywności

Konsumenci na opakowaniach żywności mogą przeczytać, że np. dany produkt zawiera „Omega-3 dla utrzymania serca w dobrej kondycji”, albo że jest „źródłem magnezu, który chroni komórki przed stresem oksydacyjnym”. Naukowcy…

Konsumenci na opakowaniach żywności mogą przeczytać, że np. dany produkt zawiera „Omega-3 dla utrzymania serca w dobrej kondycji”, albo że jest „źródłem magnezu, który chroni komórki przed stresem oksydacyjnym”. Naukowcy pomogą konsumentom w zrozumieniu tego rodzaju wskazówek.

Jak poinformowała PAP w poniedziałek Iwona Kieda z Instytutu Rozrodu Zwierząt i Badań Żywności PAN w Olsztynie, oświadczenia zdrowotne mają pomagać konsumentom zrozumieć, jaki wpływ na zdrowie ma kupowana przez nich żywność. Badania naukowców z międzynarodowego projektu „Health Claims Unpacked” pokazują jednak, że wielu konsumentów ma wciąż duże problemy z ich zrozumieniem.

Naukowcy z Instytutu Rozrodu Zwierząt PAN zachęcają więc kupujących do udziału w badaniu online, które ma prowadzić do poprawy w komunikacji oświadczeń zdrowotnych.

Jak wskazują eksperci, rośnie liczba świadomych konsumentów szukających zdrowych produktów dla siebie i swoich rodzin. „Jeśli chcemy dobrze się odżywiać i poprawić swoje zdrowie, zrozumienie oświadczeń zdrowotnych dotyczących żywności i napojów jest kluczowe. W świetle prawa UE oświadczenie zdrowotne jest dowolnym oświadczeniem sugerującym, że żywność lub jej określony składnik ma korzystny wpływ na zdrowie, jak np. +cynk pomaga w ochronie komórek przed stresem oksydacyjnym+ albo +fosfor pomaga w utrzymaniu zdrowych zębów+”- dodała Kieda.

Wyjaśniła, że oficjalna lista dozwolonych oświadczeń zdrowotnych jest bardzo długa. Producentom żywności i napojów nie trzeba wyjaśniać, jakim wyzwaniem jest prawidłowe stosowanie oświadczeń na opakowaniach. Konsumenci mają jeszcze trudniej, ponieważ oświadczenia zdrowotne często pisane są niezrozumiałym, naukowym językiem. Badania naukowców z University of Reading przeprowadzone w 2019 roku m.in. w Wielkiej Brytanii, Niemczech i Francji potwierdzają,

że mamy liczne problemy ze zrozumieniem treści oświadczeń zdrowotnych oraz nie ufamy tym komunikatom – wyjaśniła Kieda.

Odpowiedzią na to wyznanie jest inicjatywa „Health Claims Unpacked” finansowana ze środków Europejskiego Instytutu Innowacji i Technologii w obszarze żywności EIT Food. To platforma cyfrowa dostępna w internecie, która ma wspomóc konsumentów w lepszym rozumieniu oświadczeń zdrowotnych.

Strona dostępna jest w 4 językach, a konsumenci z Polski mogą mieć swój wkład w badanie. W ramach interaktywnej zabawy dostępne są zarówno treści edukacyjne jak i proste narzędzia do projektowania opakowań. Wsparcie konsumentów wyrażone poprzez udział w aktywnościach online może w przyszłości pomóc w tworzeniu jaśniejszych komunikatów zdrowotnych na opakowaniach żywności.

Naukowcy zachęcają do udziału w badaniu za pośrednictwem strony: https://www.unpackinghealthclaims.eu/#/pl

W finalnym etapie międzynarodowy zespół naukowy wykorzysta wiedzę zgromadzoną na platformie, aby uruchomić specjalny „Moduł Producenta”, dzięki któremu producenci oraz decydenci będą mogli uzyskać bezpośredni dostęp do informacji o preferencjach konsumentów w zakresie różnych sformułowań i ulepszyć komunikowanie oświadczeń zdrowotnych.

Projekt „Health Claims Unpacked” jest koordynowany przez Uniwersytet w Reading przy wsparciu British Nutrition Foundation, monachijskiej politechniki Technical University of Munich (TUM), platformy internetowej Foodmaestro oraz Instytutu Rozrodu Zwierząt PAN i koncernu spożywczego MASPEX. (PAP)

autor: Agnieszka Libudzka

Możliwość komentowania Olsztyn/ Naukowcy pomogą zrozumieć konsumentom oświadczenia zdrowotne na opakowaniach żywności została wyłączona

Algorytm rozpoznaje Alzheimera

Oparty o sztuczną inteligencję algorytm stworzony przez IBM po analizie pisma ręcznego jest w stanie określić kto w przyszłości zapadnie na chorobę Alzheimera. Skuteczność takiej “diagnozy” to 75 proc. A…

Oparty o sztuczną inteligencję algorytm stworzony przez IBM po analizie pisma ręcznego jest w stanie określić kto w przyszłości zapadnie na chorobę Alzheimera.

Skuteczność takiej “diagnozy” to 75 proc. A biorąc pod uwagę fakt, że pada ona na kilka lat przed wystąpieniem pierwszych symptomów choroby rozpoznawanych przez dzisiejsze metody, eksperci już mówią o powstaniu narzędzia, które będzie ogromnym wsparciem dla lekarzy.

Algorytm nie tyle analizował krój pisma ile badał błędy i złożoność opisu. Kilkaset osób zostało poproszonych o opisanie tego co dzieje się na zwykłym, przedstawiającym domową scenę, rysunku. Algorytm analizował nie tylko CO znalazło się w opisie ale także JAK opis sformułowano. Szukał drobnych błędów, złego użycie dużych liter i opisu składającego się z równoważników zdań (zamiast pełnych zdań), czyli w skrócie telegraficznego języka.

Elif Eyigoz et al., The Lancet 2020

Osoby opisujące w ten sposób scenę przedstawioną na rysunku, to osoby u których rozpoczęły się już zmiany chorobowe w mózgu. Na razie „na zewnątrz” trudno je jednak zauważyć. Dokładność tej metody diagnozy – jak napisano w publikacji z czasopisma The Lancet – wynosi 75 proc.

Naukowcy twierdzą, że choroby neurologiczne można znacząco spowolnić, pod warunkiem, że diagnoza zapadnie odpowiednio wcześnie. Wiele wskazuje na to, że to algorytmy będą tą pierwszą linią diagnostyczną w takich przypadkach, gdyż zauważają one zmiany, które są nieuchwytne przez inne metody wykorzystywane dzisiaj w medycynie. Ponadto ich ogromną zaletą jest to, że są nieinwazyjne, tanie, dostępne i nie wymagają zaawansowanej technologii w miejscu prowadzenia badania. Wiele z tych badań czy analiz można przeprowadzić dzięki narzędziom chmurowym.

Inne badania koncentrują się na analizie mowy. I znowu, nie wymagają specjalistycznego sprzętu. Wystarczy mikrofon w telefonie komórkowym i odpowiednia aplikacja. Niektóre choroby neurologiczne – zanim pojawią się ich pierwsze symptomy – mogą zostać zauważone po zmianie sposobu mówienia. Pojawiają się problemy z określeniem ilości przedmiotów, chorzy zaczynają nieco wolniej mówić i robią w środku zdań niespodziewane przerwy. Często też używają coraz mniej określeń abstrakcyjnych. Co ogromnie ważne, te zmiany nie są związane z językiem w jakim człowiek się posługuje, są uniwersalne. Jak takie badanie wygląda w praktyce? Badany dostaje SMSem (albo w specjalnej aplikacji) obrazek, nagrywa swoimi słowami jego opis, a nagranie jest analizowane przez algorytm AI. Takie badania prowadzi się na Uniwersytecie Kalifornijskim w San Francisco. Z wstępnych wyników można wyciągnąć wniosek, że niektóre choroby neurologiczne da się w ten sposób przewidzieć z nawet 10cio letnim wyprzedzeniem.

Zresztą, wykorzystywanie algorytmów AI w medycynie nie ogranicza się tylko do rozpoznawania chorób neurologicznych. W poniższym filmie pokazuję jak wykorzystuje się je do identyfikacji ognisk nowotworowych:

 

Możliwość komentowania Algorytm rozpoznaje Alzheimera została wyłączona

Rośliny i bakterie mogą oczyszczać glebę z zanieczyszczeń ropopochodnych

Gleby skażone substancjami ropopochodnymi to duży problem dla funkcjonowania ekosystemów. Naukowcy z Uniwersytetu Śląskiego w Katowicach badają mechanizmy, dzięki którym bakterie mogą wspomagać rośliny w procesie jej oczyszczania. Ten proces…

Gleby skażone substancjami ropopochodnymi to duży problem dla funkcjonowania ekosystemów. Naukowcy z Uniwersytetu Śląskiego w Katowicach badają mechanizmy, dzięki którym bakterie mogą wspomagać rośliny w procesie jej oczyszczania. Ten proces to wspomagana fitoremediacja. 

Pracuje nad tym duet mikrobiologów: dr Magdalena Pacwa-Płociniczak i dr Tomasz Płociniczak, w ramach projektów finansowanych z NCN. „Poszukiwałem szczepów, które będą wpływały na zwiększenie efektywności usuwania zanieczyszczeń ropopochodnych z gleby przy użyciu roślin. I znalazłem je. Przeprowadzone przeze mnie doświadczenia wykazały, że dzięki tym konkretnym bakteriom rośliny lepiej i szybciej usuwają zanieczyszczenia” – powiedział Tomasz Płociniczak w rozmowie z PAP.

Naukowcy pod lupę wzięli bakterie endofityczne, czyli te zasiedlające wnętrze rośliny. Wyselekcjonowali ok. 30 szczepów, które zbadali i opisali w laboratorium. Następnie do badań doniczkowych wykorzystali jeden szczep: Enterobacter ludwigii ZCR5. Kluczowe w badaniach mikrobiologów okazały się analizy molekularne określające mechanizmy, jakie zachodzą po wprowadzeniu tych bakterii do gleby.

„Potwierdziliśmy wysoką aktywność mechanizmów promowania wzrostu roślin i degradacji węglowodorów w warunkach laboratoryjnych. Prowadząc doświadczenia doniczkowe uzyskaliśmy informację, że te bakterie, które wprowadzaliśmy do gleby, miały zdolność do wchodzenia do wnętrza tkanek roślinnych zarówno do korzeni, jak i części nadziemnych. Ale niestety badane przez nas bakteryjne mechanizmy w przypadku szczepu ZCR5 nie były aktywne w glebie, ani w roślinie. Nad tym będziemy dalej pracowali” – tłumaczyła Magdalena Pacwa-Płociniczak.

W silnie skażonej glebie mało które rośliny chcą rosnąć. Tolerancją na zanieczyszczenia ropopochodne i możliwością bytowania w takiej glebie wykazuje się m.in. trawa życica trwała. „Ona sobie bardzo dobrze radzi w tych warunkach środowiskowych. A wspomagana odpowiednimi bakteriami radzi sobie jeszcze lepiej” – podkreślił Płociniczak.

Z kolei Pacwa-Płociniczak, której badania dotyczą terenów zanieczyszczonych zarówno organicznymi, jak i nieorganicznymi związkami, do analiz wybrała kukurydzę. „Dzięki naszym badaniom dowiadujemy się, jakie oddziaływania między bakterią a rośliną są najważniejsze dla efektywności fitoremediacji, wspomaganej bakteriami. Wiedzę tę możemy później wykorzystać np. do produkcji bioszczepionek wykazujących się dużą skutecznością” – podkreśliła mikrobiolog.

W ocenie badaczy fitoremediacja – w porównaniu z metodami fizykochemicznymi lub wywożeniem skażonej gleby i zastępowaniem jej glebą nieskażoną, stosowanymi obecnie do remediacji gleb – jest procesem tańszym, a także dostarczającym przy tym walorów estetycznych w postaci posadzonych roślin. „Przewagą fitoremediacji jest to, że ona w najmniejszym stopniu zaburza równowagę biologiczną oczyszczanego środowiska, a wręcz zwiększa bioróżnorodność mikrobiologiczną danego terenu. Jest to jednak metoda długoterminowa, tutaj efektu należy spodziewać się raczej po latach, niż miesiącach” – tłumaczyła badaczka.

Płociniczak powiedział, że w Polsce fitoremediacja, czyli obsiewanie czy obsadzanie zanieczyszczonych gleb, jest stosowane na małą skalę. Jego zdaniem problemem są niskie nakłady finansowe na działania proekologiczne oraz brak regulacji prawnych, które nakazywałyby konieczność oczyszczania obszarów zanieczyszczonych.

„Wierzymy w tę metodę, ale jednocześnie zdajemy sobie sprawę, że nie wszędzie jest ona najlepszą opcją. Czasem może lepsza byłaby biostymulacja, czyli wspomożenie tych mikroorganizmów, które występują w miejscu skażenia, ale z jakiś powodów nie są aktywne – wtedy można wprowadzać do gleby pożywki, powietrze, brakujące minerały lub modyfikować wybrane parametry np. odczyn gleby” – dodał.

Mikrobiolodzy przypomnieli, że w Polsce niemal nie ma miejsca, gdzie gleba byłaby całkowicie wolna od zanieczyszczeń. „Zanieczyszczenie środowiska węglowodorami ropopochodnymi stanowi jedno z najpoważniejszych zagrożeń dla prawidłowego funkcjonowania ekosystemów zarówno glebowych, jak i wodnych. Występują one np. w miejscach po dawnych zakładach przemysłowych, stacjach paliw czy wzdłuż nieszczelnego rurociągu. Najgroźniejsze z nich, wielopierścieniowe węglowodory aromatyczne, pochodzą też ze spalania paliw kopalnych. A wpływ tych związków, które są m.in. kancerogenne czy mutagenne, na człowieka i inne organizmy jest bardzo istotny” – podsumowali badacze.

PAP – Nauka w Polsce, Agnieszka Kliks-Pudlik

źródło:

www.naukawpolsce.pap.pl

Możliwość komentowania Rośliny i bakterie mogą oczyszczać glebę z zanieczyszczeń ropopochodnych została wyłączona

Zespół ds. klimatu przy PAN o prognozach wzrostu poziomu wód na Bałtyku

W ciągu 30 lat wzrośnie liczba wezbrań na Bałtyku, a za 100 lat historyczne centrum Gdańska może znaleźć się pod wodą – prognozuje interdyscyplinarny Zespół doradczy ds. kryzysu klimatycznego przy…

W ciągu 30 lat wzrośnie liczba wezbrań na Bałtyku, a za 100 lat historyczne centrum Gdańska może znaleźć się pod wodą – prognozuje interdyscyplinarny Zespół doradczy ds. kryzysu klimatycznego przy prezesie PAN w komunikacie dot. skutków wzrostu poziomu morza m.in. dla Gdańska, Żuław i Półwyspu Helskiego. 

„Nieuchronny charakter i narastające tempo wzrostu poziomu morza pokazują niebezpieczeństwo, jakie niesie zmiana klimatu. W razie niepowodzenia w redukcjach emisji gazów cieplarnianych być może już niedługo będziemy musieli zmierzyć się z problemem podtopień w strefie przybrzeżnej i przygotować się na zalewanie coraz większej powierzchni lądu” – ostrzegają członkowie zespołu w opublikowanym w środę na stronie PAN komunikacie.

Zespół wskazuje, że w ramach szybkich działań konieczne jest opracowanie: strategii ochrony wybrzeża; wymagań dotyczących planowania i projektowania inwestycji infrastrukturalnych, a także opracowanie wytycznych związanych z gospodarką przestrzenną. Dotyczyć to powinno zarówno środków ochrony wybrzeża i rejonów przybrzeżnych, jak i określenia sposobów użytkowania terenów zagrożonych coraz częstszymi zalaniami, które uwzględniałyby możliwość bezpowrotnej utraty niektórych z nich.

„Globalny poziom morza podniósł się od XIX wieku o ponad 20 cm. Specjalny Raport IPCC (Międzyrządowy Zespół ds. Zmian Klimatu – PAP) z 2019 r. na temat oceanu i kriosfery stwierdza, że tempo wzrostu średniego poziomu morza w latach 2006-2015 wyniosło 3,6 mm na rok, jest bezprecedensowe w ostatnich 100 latach i około 2,5 razy większe niż w latach 1901-1990” – piszą naukowcy.

Powołują się na badania, z których wynika, że wzrost poziomu morza przyspiesza od lat 60. XX wieku. „Przyczyną jest coraz szybsze topnienie lodowców i lądolodów, a także w mniejszym stopniu rozszerzalność cieplna wód oceanów i zmniejszenie masy wody na powierzchni i w glebie kontynentów oraz w jeziorach. Przyspieszenie to doprowadziło do zwiększenia tempa wzrostu poziomu morza w ciągu ostatniej dekady aż do 4,8 mm rocznie” – opisują członkowie zespołu.

Prognozy wzrostu poziomu morza zależne są od wielkości przyszłych emisji gazów cieplarnianych. Autorzy raportu IPCC przewidują, że tempo średniego światowego wzrostu poziomu morza w 2100 r. osiągnie 15 mm na rok, a w XXII wieku przekroczy kilka centymetrów rocznie.

Przewidywania naukowców dotyczą także polskiego wybrzeża.

Wstępne wyniki wskazują na brak pionowych ruchów dna dla zachodnich krańców polskiego wybrzeża oraz jego środkowej części, a także na obniżanie się o około 1 mm na rok wybrzeża w rejonie Zatoki Gdańskiej i nawet 2 mm na rok w rejonie Żuław. To może spowodować w tym rejonie przyspieszenie wzrostu względnego średniego poziomu morza o dodatkowe ok. 10-20 cm na stulecie, skutkując zwiększeniem zagrożeń związanych ze wzrostem poziomu morza i obejmowaniem przez te zagrożenia coraz większych obszarów, w tym historycznej części Gdańska, Żuław czy Półwyspu Helskiego.

„W ciągu 80 lat zdarzenia ekstremalne, które dotąd występowały raz na wiek, będą występować co najmniej raz w roku, w większości lokalizacji. W perspektywie 30 lat w rejonie Europy centralnej i Bałtyku prawdopodobne będą wezbrania sztormowe, które mogą być kilkakrotnie częstsze niż w przeszłości” – alarmują naukowcy.

W skład interdyscyplinarnego Zespołu doradczego do spraw kryzysu klimatycznego przy prezesie PAN wchodzą: prof. Szymon Malinowski (UW), prof. Jacek Piskozub (IO PAN), dr hab. Iwona Wagner (ERCE PAN, UŁ), prof. Irena Wrońska (UM Lublin), prof. Krzysztof Kwiatek (Państwowy Instytut Weterynaryjny), dr hab. Adam Habuda (INP PNA), dr Krzysztof Niedziałkowski (IFiS PAN), dr Agata Goździk (IGF PAN), prof. Tomasz Okruszko (SGGW), prof. Zbigniew Kundzewicz (IŚRiL PAN), dr hab. inż. Andrzej Jagodziński (ID PAN), dr hab. inż. Anna Januchta-Szostak (PP), prof. Jan Kozłowski (UJ), prof. Jan Kiciński (IMP PAN), dr Aleksandra Kardaś (UW), dr Justyna Orłowska (ekspertka Ministerstwa Klimatu), dr hab. Mateusz Strzelecki (członek Akademii Młodych Uczonych PAN)

Pełna treść komunikatu tutaj.

PAP – Nauka w Polsce

źródło:

www.naukawpolsce.pap.pl

Możliwość komentowania Zespół ds. klimatu przy PAN o prognozach wzrostu poziomu wód na Bałtyku została wyłączona

NCBR podpisało porozumienie z Narodowym Funduszem Badań Ukrainy

Organizacja wspólnych konkursów bilateralnych, wymiana wiedzy i najlepszych praktyk – to założenia podpisanego porozumienia o współpracy Narodowego Centrum Badań i Rozwoju (NCBR) z Narodowym Funduszem Badań Ukrainy. NCBR poinformowało o…

Organizacja wspólnych konkursów bilateralnych, wymiana wiedzy i najlepszych praktyk – to założenia podpisanego porozumienia o współpracy Narodowego Centrum Badań i Rozwoju (NCBR) z Narodowym Funduszem Badań Ukrainy. NCBR poinformowało o sygnowaniu dokumentu w piątek. 

Porozumienie będzie obowiązywać przez 5 lat. Współpraca może być podjęta m.in. w zakresie badań jądrowych, nowych materiałów, technologii IT, fizyki i astronomii, inżynierii, biotechnologii czy badań środowiskowych.

„Polskie innowacje już od lat wychodzą za granicę dzięki wsparciu NCBR. W naszym portfolio mamy obecnie ponad 100 inicjatyw międzynarodowych. Cieszę się, że od dziś w gronie naszych najważniejszych zagranicznych partnerów jest także Narodowy Fundusz Badań Ukrainy” – mówi cytowany w komunikacie dyrektor polskiej agencji dr inż. Wojciech Kamieniecki. W jego ocenie jest to szansa dla polskich jednostek na nawiązanie nowych badawczych kontaktów.

„Dla obu instytucji to także możliwość wspólnego udziału chociażby w takich projektach jak Twinning i TAIEX, czyli programach pomocowych adresowanych do państw sąsiadujących z UE” – podkreślił.

W ramach porozumienia możliwa będzie organizacja wspólnych konkursów bilateralnych, wymiana wiedzy i najlepszych praktyk oraz promocja udziału polskich i ukraińskich ekspertów w procesie oceny wniosków w konkursach obu instytucji.

Narodowy Fundusz Badań Ukrainy (NRFU) to państwowa agencja rządowa, której głównym celem jest wsparcie realizacji badań podstawowych i prac rozwojowych w priorytetowych dziedzinach nauki i technologii. NRFU jest odpowiednikiem NCBR na Ukrainie.

„Nie mamy wątpliwości, że nasza współpraca będzie sprzyjać owocnej wymianie wiedzy i dobrych praktyk między czołowymi organizacjami i instytucjami naukowymi Ukrainy i Polski, zacieśnianiu relacji między naszymi krajami, a także wzajemnej integracji krajowych przestrzeni badawczych” – mówi cytowany w komunikacie dyrektor NRFU prof. Leonid Jatsenko.

NCBR poinformowało również, że 2021 rok przynosi nowe wyzwania dla NCBR w zakresie współpracy międzynarodowej. Agencja podkreśliła, że aby skuteczniej wspierać naukowców i innowatorów na arenie międzynarodowej, a zwłaszcza realizować projekty w ramach programu Horyzont Europa, NCBR podjęło już szereg działań m.in. powołało Biuro Współpracy Międzynarodowej, połączyło siły z Krajowym Punktem Kontaktowym i uruchomiło biuro w Brukseli.(PAP)

Autor: Szymon Zdziebłowski

źródło:

www.naukawpolsce.pap.pl

Możliwość komentowania NCBR podpisało porozumienie z Narodowym Funduszem Badań Ukrainy została wyłączona

Zmiany klimatu przesuwają granice zimowania morskiej kaczki

Jak ptaki wodne reagują na zmiany klimatu? Jeden z gatunków – kaczka morska ogorzałka – zmienia zimowy zasięg w Europie: przesuwa go na północ i na wschód. W ostatnich 30…

Jak ptaki wodne reagują na zmiany klimatu? Jeden z gatunków – kaczka morska ogorzałka – zmienia zimowy zasięg w Europie: przesuwa go na północ i na wschód. W ostatnich 30 latach ptaków tych ubyło w Wielkiej Brytanii, Irlandii i Holandii; przybyło m.in. w Szwecji, Niemczech i Polsce.

Wyniki analiz opublikowano w „Scientific Reports” (https://doi.org/10.1038/s41598-020-77153-4). Badania te, zainicjowane przez dra Dominika Marchowskiego z Muzeum i Instytutu Zoologii PAN oraz Łukasza Ławickiego z Zachodniopomorskiego Towarzystwa Przyrodniczego, ruszyły w 2014 r. Chcieli oni zaktualizować status i zasięg zimowisk ogorzałki – jednego z gatunków ptaków wodnych zimujących w Europie zachodniej i środkowej. Chcieli też ocenić, na ile skuteczna jest ochrona tych ptaków w ramach sieci Natura 2000.

W ramach badań naukowcy analizowali m.in. dane, zbierane przez trzy dekady przez tysiące europejskich obserwatorów ptaków.

Okazało się, że w efekcie ocieplenia coraz ważniejsze (jako miejsce zimowania ptaków wodnych) stały się obszary położone dalej na wschód i północ. W ciągu 30 lat liczba ogorzałek zimujących w Europie północno-zachodniej zmalała aż o 38 procent. Coraz mniej ogorzałek zimuje na akwenach Wielkiej Brytanii, Irlandii i Holandii. Wyraźnie przybyło ich za to w Niemczech, Polsce, Szwecji i Estonii.

„Najważniejsze zimowisko przesunęło się na wschód i północ i obecnie znajduje na wodach przybrzeżnych Bałtyku na granicy polsko-niemieckiej, a dotychczasowe najważniejsze zimowisko położone w Holandii odgrywa teraz mniejszą rolę” – komentuje dr Marchowski.

Takie przesunięcie zimowego zasięgu ogorzałki naukowcy wyjaśniają wzrostem średnich temperatur, jakie panują zimą we wschodniej i północnej części terenów zimowiskowych tego gatunku. Przez wiele lat ogorzałki z Europy zimowały w jej centralnej i zachodniej części, lęgi zaś wyprowadzały na terenach położonych bardziej na wschód i północ. Obecnie – w miarę, jak się ociepla – na czas zimy mogą one pozostać bliżej terenów lęgowych – tłumaczą autorzy badania w swojej publikacji.

fot. Miłosz Kowalewski
ogorzałka Aythya marila, fot. Miłosz Kowalewski 

 

Bezpośrednią przyczyną zimowania ogorzałek w rejonie Bałtyku jest fakt, że z powodu ocieplenia wody tych mórz – dawniej pokrywające się lodem – teraz aż tak bardzo nie zamarzają. Dla populacji ptaków może to oznaczać dobre wieści: im bardziej rozproszona jest zimą populacja, tym łatwiej poszczególnym osobnikom znaleźć pokarm i przetrwać.

Dane obejmujące najdłuższy okres dotyczący ogorzałki pochodzą z Wielkiej Brytanii i Szwecji – dwóch skrajów zasięgu zimowania tego ptaka. Sięgają one w przeszłość aż do 1967 roku! „Na wykresach widać 90-procentowy spadek liczebności w Wielkiej Brytanii na przestrzeni 52 lat oraz wzrost w Szwecji, będący niemal lustrzanym odbiciem tej sytuacji w Wielkiej Brytanii. Świadczy to o zwiększeniu znaczenia zimowisk położonych we wschodnich i północnych obszarach” – komentuje zoolog z MIiZ PAN.

W ramach analiz autorzy badania zaktualizowali mapę rozmieszczenia zimowisk ogorzałki z populacji zimującej w zachodniej i centralnej Europie. „Zaktualizowaliśmy też ocenę liczebności populacji, która zmniejszyła się z 310 tys. osobników szacowanych na początku lat 1990-tych do 190 tys. obecnie. Tym samym jednoprocentowy próg powoływania obszarów chronionych dla tego gatunku zmniejszył się 3100 osobników do 1900” – mówi.

Autorzy publikacji zwracają uwagę na problemy dotyczące ochrony najważniejszych obszarów koncentracji ogorzałki (jak i innych, gatunków ptaków wodnych, posiadających podobne wymagania ekologiczne) na najważniejszym obecnie zimowisku. „Zarówno w Polsce, jak i w Niemczech najważniejsze obszary Natura 2000, skupiające 60 proc. zimującej populacji ogorzałki, pozbawione są planów zarządzania (wymaganych prawem planów ochrony). Powoduje to brak uregulowań prawnych chroniących ptaki wodne na tym coraz ważniejszym dla nich obszarze. Najważniejsze zagrożenie w tym rejonie to przyłów w sieci rybackie, co rocznie może tu ginąć 1000 – 3000 osobników ogorzałki i drugie tyle pozostałych gatunków nurkujących” – podkreśla dr Marchowski.

W badaniach uczestniczyło 19 osób z 10 krajów, związanych z 16 podmiotami, w tym – ośrodkami naukowymi, takimi jak Aarhus University, Lund University, Uniwersytet Gdański, Estonian University of Life Sciences oraz Włoski ISPRA czy Stacja Ornitologiczna MiIZ PAN. Do powstania artykułu przyczyniły się również osoby z europejskich organizacji pozarządowych, takich jak Wetlands International, Zachodniopomorskie Towarzystwo Przyrodnicze, Sovon, DDA, BTO, WWT, I-WeBS, BirdWatchIreland i LPO.

Nauka w Polsce – PAP

źródło:

www.naukawpolsce.pap.pl

Możliwość komentowania Zmiany klimatu przesuwają granice zimowania morskiej kaczki została wyłączona

Powstanie klaster kosmiczny m.in. do budowy Satelitarnego Systemu Obserwacji Ziemi

W województwie podkarpackim powstanie klaster kosmiczny, którego celem jest m.in. budowa Satelitarnego Systemu Obserwacji Ziemi. W środę przedstawiciele samorządu tego województwa, Exatela, Politechniki Rzeszowskiej oraz PWST-E w Jarosławiu podpisali list…

W województwie podkarpackim powstanie klaster kosmiczny, którego celem jest m.in. budowa Satelitarnego Systemu Obserwacji Ziemi. W środę przedstawiciele samorządu tego województwa, Exatela, Politechniki Rzeszowskiej oraz PWST-E w Jarosławiu podpisali list intencyjny w tej sprawie.

Przedstawiciele Samorządu Województwa Podkarpackiego, polskiego operatora telekomunikacyjnego Exatel, Politechniki Rzeszowskiej oraz Państwowej Wyższej Szkoły Techniczno-Ekonomicznej w Jarosławiu podpisali w środę list intencyjny w sprawie powołania klastra kosmicznego. Dokument ten określa ramy współpracy w zakresie budowy i utrzymania klastra kosmicznego na terenie Województwa Podkarpackiego oraz wsparcia budowy Satelitarnego Systemu Obserwacji Ziemi.

Głównym celem powołania klastra kosmicznego jest rozbudowa krajowych kompetencji w obszarze technologii kosmicznych i technik satelitarnych przy udziale sektora komercyjnego i naukowego. Według Exatela pierwszym zadaniem interesariuszy listu jest współpraca w przygotowaniu, w ramach Krajowego Planu Odbudowy, wniosku aplikacyjnego dotyczącego stworzenia Satelitarnego Systemu Obserwacji Ziemi. Będzie on tworzony przy współpracy z Ministerstwem Obrony Narodowej, które będzie jednym z beneficjentów wypracowanych technologii. Efektem projektu będzie stworzenie pierwszej polskiej konstelacji satelitów obserwacyjnych.

Obecny podczas ceremonii wiceminister Aktywów Państwowych Maciej Małecki podkreślał, że pandemia Covid pokazała, jak ważne jest zapewnienie bezpiecznej transmisji wysokiej jakości danych i stabilna, bezpieczna łączność, a „działania zmierzające do powołania klastra kosmicznego, stworzenia Satelitarnego Systemu Obserwacji Ziemi wpisują się w polską rację stanu”.

„Bezpiecznej łączności, wysokiej jakości danych potrzebuje sektor publiczny, polska gospodarka, sektor bankowy, energetyczny, ale też my wszyscy, zwykli użytkownicy w naszym codziennym życiu. I potrzebuje tego bezpieczeństwo kraju, polska armia” – powiedział Małecki. Dlatego – wyjaśniał – Ministerstwo Aktywów Państwowych, które nadzoruje należącą w 100 proc. do skarbu państwa spółkę Exatel, będzie wspierać budowę klastra.

Także wiceminister obrony Marcin Ociepa zapowiedział wspieranie tej inicjatywy. „Kwestia kosmosu jest kwestią o krytycznym znaczeniu dla bezpieczeństwa Sojuszu Północnoatlantyckiego, badań naukowych czy rozwoju wielu gałęzi przemysłu. To jest przyszłość, pytanie jak się w niej odnajdziemy” – powiedział. Podkreślał, że kluczowe dla rozwoju polskiej polityki kosmicznej są trzy obszary: pogłębianie potencjału naukowego, wzmocnienie przemysłu i polskich przedsiębiorców, jeśli chodzi o aktywność kosmiczną, by stał się autonomiczny i odporny na przejęcia, a także wymiar wojskowy. „Do tego potrzebujemy takich inicjatyw jak ta, której dzisiaj patronujemy, by osiągnąć w tym wymiarze samowystarczalność” – ocenił.

Chodzi o to, że pomimo iż ostatniej dekadzie XXI wieku światowy rynek kosmiczny rozwija się bardzo dynamicznie, to Polska – w przeciwieństwie do większości porównywalnych krajów – nadal nie ma własnej rozbudowanej i zaawansowanej konstelacji satelitów. Planowany klaster kosmiczny ma stworzyć warunki dla integracji zdolności kosmicznych polskich przedsiębiorstw, by wspólnie działać na rzecz polskich potrzeb satelitarnych.

Podpisanie listu intencyjnego to także kolejny krok w strategii ogłoszonej w 2020 roku przez Exatel. Zakłada ona silny rozwój kompetencji polskiego operatora telekomunikacyjnego w zakresie łączności satelitarnej.

Jak przypomniał wiceprezes zarządu Exatela Rafał Magryś, firma od kilku lat świadczy usługi łączności satelitarnej dla instytucji publicznych. „Widzimy duży i rosnący potencjał tego rynku. Dlatego pod koniec ubiegłego roku informowaliśmy o budowie huba satelitarnego z funkcją kontroli misji. Dzięki niemu będziemy w stanie realnie wykorzystywać potencjał tworzonych w ramach klastra kosmicznego rozwiązań. W efekcie nasze usługi będą dostępne nie tylko dla sektora komercyjnego, ale również dla administracji publicznej czy też wojska – powiedział Magryś.

Siłą polskiego klastra kosmicznego ma być wykorzystanie potencjału naukowo-badawczego polskiej nauki. Dlatego wśród podmiotów podpisujących list intencyjny znalazły się dwie jednostki naukowe – Politechnika Rzeszowska oraz Państwowa Wyższa Szkoła Techniczno-Ekonomiczna w Jarosławiu.

Jak wskazywał marszałek województwa podkarpackiego Władysław Ortyl, budowa klastra powinna też wzmocnić potencjał wzrostu gospodarki w obszarze technologii kosmicznych i technik satelitarnych oraz rozpowszechnić korzystanie z technologii satelitarnych do wspierania systemów przyjaznych dla środowiska i klimatu. „Przypomnę, że Województwo Podkarpackie stanowi jedyny region w Polsce, który w swojej Regionalnej Strategii Innowacji wybrał jako wiodącą specjalizację Lotnictwo i Kosmonautykę. W tym obszarze region poszukuje swoich szans na rozwój i wzmocnienie naturalnych przewag konkurencyjnych” – wskazał marszałek.

Według zapowiedzi inicjatorów, klaster będzie aktywnie korzystał z wiedzy europejskich organizacji takich jak: Sieci Regionów Europejskich Wykorzystujących Technologie Kosmiczne NEREUS, ESA Business Incubation Centres, EURISY, EARSC, SME4Space czy EUROSPACE. (PAP)

źródło:

www.naukawpolsce.pap.pl

Możliwość komentowania Powstanie klaster kosmiczny m.in. do budowy Satelitarnego Systemu Obserwacji Ziemi została wyłączona

Układ Słoneczny mógł powstawać w dwóch etapach

Międzynarodowy zespół badawczy z polskim udziałem zaproponował nową teorię powstawania Układu Słonecznego. Okazuje się, że nasz układ planetarny mógł we wczesnej fazie swojego tworzenia powstawać w dwóch etapach. Hipotezę przedstawiono…

Międzynarodowy zespół badawczy z polskim udziałem zaproponował nową teorię powstawania Układu Słonecznego. Okazuje się, że nasz układ planetarny mógł we wczesnej fazie swojego tworzenia powstawać w dwóch etapach. Hipotezę przedstawiono na łamach najnowszego wydania czasopisma „Science”. 

Wśród autorów pracy jest dr Joanna Drążkowska, polska astrofizyczka pracująca na Uniwersytecie Ludwika i Maximilliana w Monachium w Niemczech (Uniwersytet Monachijski). Związki z Polską ma także druga osoba spośród grona autorów – prof. Gregor Golabek z Uniwersytetu w Bayreuth w Niemczech.

Powszechnie obecnie przyjmowany obraz powstawania Układu Słonecznego przewiduje, iż Słońce wraz z układem planetarnym uformowało się z zagęszczenia obłoku gazowego, który zapadł się grawitacyjnie. Kurczenie się obłoku powodowało wzrost gęstości oraz wytworzenie się wirującego dysku protoplanetarnego. W centrum powstała protogwiazda, która potem przekształciła się w Słońce, a w dysku uformowały planety. Planety powstały w wyniku kolizji pomiędzy ziarnami pyłu, które zaczęły tworzyć coraz większe obiekty, aż powstały kilkukilometrowe ciała nazywane planetozymalami, które dalej się zderzały. Istotną rolę w tych procesach może odgrywać tzw. linia śniegu, oddzielająca obszary, w których w dysku występowały substancje gazowe (bliżej gwiazdy) oraz obszar, gdzie woda przechodziła do stanu lodu (dalej od gwiazdy).

Dowody geochemiczne i astronomiczne wskazują, że formowanie się planet zachodziło w dwóch odseparowanych strefach. Nie jest znana dokładna przyczyna tego zróżnicowania – dlaczego planety znajdujące się blisko Słońca są małe i suche (z małą zawartością wody w stosunku do swojej masy), a planety w zewnętrznych częściach Układu Słonecznego są większe i bardziej mokre pod tym względem.

Nowa praca opisuje formowanie się Układu Słonecznego, próbując wyjaśnić kilka kluczowych kwestii dotyczących powstawania planet skalistych (jak Ziemia, czy Mars), gazowych (jak Jowisz) oraz skład różnych rodzin planetoid i meteorytów. Zaproponowano wytłumaczenie astrofizycznych i geologicznych procesów w trakcie najwcześniejszej fazy tworzenia się Słońca i systemu planetarnego.

Według autorów publikacji, planetozymale mogły powstawać w dwóch osobnych etapach. Obliczenia numeryczne i obserwacje wskazują, że miejsca, w których formują się planety, mogą mieć względnie niski poziom turbulencji. W takich warunkach oddziaływania pomiędzy ziarnami pyłu w dysku oraz wodą przechodzącą z fazy gazowej do lodu (linia śniegu) mogły wzbudzić wczesny okres formowania się planetozymali, a potem w późniejszym okresie mogła nastąpić druga fala powstawania planetozymali, ale w dalszej odległości.

Planetozymale w wewnętrznej części Układu Słonecznego stały się bardzo gorące, wytworzyły wewnętrzne oceany magmy, szybko uformowały żelazne jądra i utraciły gaz, co skutkuje obecnym suchym składem planet. Z kolei planetozymale w zewnętrznej części Układu Słonecznego uformowały się później i w mniejszym stopniu doświadczyły tych procesów.

„Nasze badania rzucają kompletnie nowe światło na proces powstawania planet. Stara teoria nie potrafiła wyjaśnić kluczowego pierwszego kroku, w którym pył formuje pierwsze związane grawitacyjnie ciała, czyli planetozymale, więc po prostu zakładała, że powstają one szybko i wszędzie w dysku wokół gwiazdowym” – tłumaczy dr Joanna Drążkowska.

„My używamy najnowszych osiągnięć z badań teoretycznych sugerujących, że formowanie się planetozymali jest możliwe (poprzez proces, który nazywa się niestabilnością strumieniową) tylko w niektórych miejscach, takich jak linia śniegu” – dodaje badaczka.

Jak wskazuje dr Drążkowska, w tym scenariuszu, wszystkie plantozymale powstają bogate w wodę, ale mała ich część powstaje na tyle szybko, że jest bogata w promieniotwórczy izotop glinu Al-26 o czasie połowicznego rozpadu 700 000 lat, więc krótszym niż czas życia dysku wokółgwiazdowego. Dzięki rozpadowi glinu, część planetozymali traci wodę i staje się zalążkami planet skalistych.

„Jedną z najciekawszych implikacji tej pracy jest to, że inne układy planetarne mogą wyglądać kompletnie inaczej niż Układ Słoneczny (wiemy z badań egzoplanet, że tak jest) tylko dlatego, że miały początkowo inny budżet Al-26, co jest moim zdaniem bardzo naturalnym i eleganckim wytłumaczeniem” – podsumowuje dr Drążkowska. (PAP)

Źródło: www.naukawpolsce.pap.pl

Możliwość komentowania Układ Słoneczny mógł powstawać w dwóch etapach została wyłączona

80 tys. naukowców apeluje o ochronę wód powierzchniowych

Ponad 80 tys. naukowców ze 111 towarzystw naukowych badających ekosystemy wodne apeluje o natychmiastowe podjęcie działań na rzecz ochrony wód powierzchniowych, aby „uniknąć tragicznych globalnych konsekwencji”. W apelu chodzi o…

Ponad 80 tys. naukowców ze 111 towarzystw naukowych badających ekosystemy wodne apeluje o natychmiastowe podjęcie działań na rzecz ochrony wód powierzchniowych, aby „uniknąć tragicznych globalnych konsekwencji”. W apelu chodzi o działania przeciwko antropogenicznym zmianom klimatu. 

Ponad 80 tys. naukowców z całego świata, zrzeszonych w 111 towarzystwach naukowych podpisało Stanowisko Światowych Towarzystw Naukowych Badających Ekosystemy Wodne w Sprawie Potrzeby Podjęcia Pilnych Działań Przeciwko Antropogenicznym Zmianom Klimatu. Jego polskimi sygnatariuszami są Polskie Towarzystwo Limnologiczne (PTLim) i Polskie Towarzystwo Hydrobiologiczne.

Polskie tłumaczenie oświadczenia opublikowano na stronie PTLim. O oświadczeniu naukowcy piszą też w liście opublikowanym na łamach Nature.

Wspólne oświadczenie przedstawia dramatyczną skalę postępującej degradacji wód powierzchniowych, przestrzega przed jej konsekwencjami dla ludzkości i wzywa do podjęcia natychmiastowych działań powstrzymujących dalsze niszczenie środowisk wodnych wywołanych przez zmiany klimatyczne. W opinii autorów działania te pomogą „uniknąć tragicznych globalnych konsekwencji”.

„Światowe zasoby wodne są obecnie najbardziej zagrożone w historii ludzkości. Antropopresja przyspiesza zmiany klimatu i tym samym degradację ekosystemów wodnych, a także pogarsza jakość świadczonych przez nie usług. Zmiany dotykające nasz glob manifestują się najszybciej i najsilniej właśnie w wodach powierzchniowych. Przykładowo spadek liczebności populacji organizmów słodkowodnych, który jest jedną z miar bioróżnorodności, w okresie od 1970 r. do 2014 r. spadł o 83 proc. Szacunki wskazują, że jeżeli kierunek i tempo degradacji środowiska nie ulegnie ograniczeniu, to do połowy XXI w. zniknie do 90 proc. raf koralowych, które są ekosystemami kluczowymi w kontekście zachowania bioróżnorodności Ziemi” – alarmują naukowcy.

Sekretarz Polskiego Towarzystwa Limnologicznego dr hab. Piotr Rzymski komentuje w przesłanym PAP komunikacie: „Zasoby wodne są krytyczne dla przetrwania ludzkości. Jeżeli nie podejmiemy zdecydowanych działań na rzecz ich ochrony, zmiany klimatu doprowadzą do destabilizacji, której nikt z nas nie chciałby być świadkiem. Masowe migracje, ograniczone możliwości produkcji żywności, fale gorąca, pożary, konflikty o wodę, ogromne straty gospodarcze. Zresztą część z tych efektów jest już obserwowana”.

„Wzywamy decydentów i społeczeństwo do podjęcia konkretnych postanowień i ich realizacji. Musimy ograniczyć emisję gazów cieplarnianych, ale w sposób realny, a nie tylko na papierze. Czas na rozważania już się skończył. Kiedy wybuchła pandemia, mogliśmy zareagować i z nią walczyć. Jeżeli przekroczymy punkty krytyczne zmian klimatu to na reakcje będzie za późno – staniemy się biernymi obserwatorami wydarzeń, które wcześniej sami sprowokowaliśmy” – dodaje.

Naukowcy w liście w Nature zwracają uwagę, że 2021 rok będzie pod wieloma względami kluczowy: listopadowy szczyt klimatyczny uważa się za ostatnią szansę na podjęcie zdecydowanych działań na rzecz ochrony klimatu, nowa administracja USA ma najbardziej ambitny plan prośrodowiskowy w historii kraju, a Chiny, Japonia, Korea Południowa i Unia Europejska deklarują dążenie do neutralności klimatycznej.

Dr hab. Piotr Klimaszyk, prezes PTLim, zwraca uwagę na ignorowanie problemu degradacji wód powierzchniowych i zmian klimatu. „Wysocy rangą politycy i dziennikarze opiniotwórczych mediów potrafią twierdzić, że naukowe poglądy na temat zmian klimatu są niejednoznaczne i myląc pogodę z klimatem kpią z globalnego ocieplenia po kilkudniowych przymrozkach i opadach śniegu. Jednak w sprawie zmian klimatycznych i ich antropogenicznych przyczyn panuje naukowy konsensus – potwierdza to zdecydowana większość badań prowadzonych w ostatnich dekadach. Nasz wspólny apel, światowych towarzystw skupiających ekspertów badających ekosystemy wodne, również podkreśla, że nie ma rozbieżności w ocenie konsekwencji działalności człowieka i potrzeby globalnych działań naprawczych. Kurczą się zasoby dostępnej wody słodkiej, jeziora rzeki i oceany są coraz bardziej zanieczyszczone, zanikają organizmy wodne, też te, które są podstawą wyżywienia części ludzkiej populacji” – ostrzega.

Jak podkreśla prezes PTLim, również w Polsce borykamy się z efektami degradacji środowisk wodnych. „Zbiorniki wodne ulegają użyźnieniu, zanikają gatunki i całe siedliska związane z wodami czystymi lub chłodnymi. Ich miejsce zajmują ciepłolubne gatunki ekspansywne, w tym i takie – jak w przypadku sinic – które produkują groźne dla człowieka toksyny. W wyniku nadmiernej eksploatacji, wiele gatunków ryb znacząco zmniejszyło swoje pogłowie” – mówi Piotr Klimaszyk.

Z kolei prof. Włodzimierz Marszelewski, kierownik Katedry Hydrologii i Gospodarki Wodnej UMK, uważa, że zwiększenie retencji wodnej w krajobrazie jest jednym z kluczowych zadań w kontekście walki z postępującymi zmianami klimatycznymi. Spowalnianie odpływu ze zlewni i zatrzymywanie wody w glebie i zbiornikach wodnych pozwoli ograniczyć skutki ocieplenia. „Musimy pamiętać, że hydrosfera jest jedna, a ścisłe powiązania między jej poszczególnymi elementami występują zarówno w skali globalnej, jak i regionalnej. Stąd też poprawa warunków wodnych w każdym miejscu Ziemi stanowi niezbędny element likwidacji niekorzystnych zmian w skali światowej” – zaznacza cytowany w komunikacie naukowiec.

„To ludzkość jest odpowiedzialna za zaistniały problem i tylko ona może go rozwiązać. Przekonanie, że on nie istnieje, bądź rozwiąże się sam to zmierzanie w kierunku katastrofy. Czy ktokolwiek rozsądny chciałby na nią skazywać swoje dzieci i wnuki?” – podsumowuje Piotr Rzymski. (PAP)

Źródło: www.naukawpolsce.pap.pl

Możliwość komentowania 80 tys. naukowców apeluje o ochronę wód powierzchniowych została wyłączona

Rysie Horaj i Skalny, po powrocie do natury, świetnie sobie radzą

Horaj i Skalny, osierocone młode rysie, które nabrały sił w bielskim ośrodku rehabilitacji dziki zwierząt Mysikrólik i zostały wypuszczone na wolność, dobrze sobie radzą. Po kilku miesiącach opuściły swoje rejony…

Horaj i Skalny, osierocone młode rysie, które nabrały sił w bielskim ośrodku rehabilitacji dziki zwierząt Mysikrólik i zostały wypuszczone na wolność, dobrze sobie radzą. Po kilku miesiącach opuściły swoje rejony i ruszyły na wędrówkę – podało Stowarzyszenie dla Natury Wilk. 

„W maju 2020 r. uwolniliśmy Horaja i Skalnego z obrożami GPS/GSM jako roczne podrostki w ich macierzystych regionach: Horaja na Roztoczu, a Skalnego w Beskidzie Niskim. Oba rysie po kilku miesiącach opuściły te obszary i wyruszyły na wielką wędrówkę. Skalny zwiedza wschodnią część Karpat i Pogórza Podkarpackiego, a Horaj idzie na zachód, pokonał Lasy Janowskie, przepłynął Wisłę, a teraz penetruje Puszczę Świętokrzyską” – podało stowarzyszenie Wilk z podbielskiej Twardorzeczki.

Przyrodnicy poinformowali, że dzięki swoim współpracownikom, którzy sprawdzają miejsca postojów drapieżników, wiadomo, że skutecznie polują na sarny.

„Co ciekawe, oba rysie niemal w tym samym czasie zdecydowały się na pierwsze polowania na większe ofiary – cielęta jeleni. Ich sukcesy łowieckie są dowodem na wyśmienitą kondycję obu kotów. Trzymamy kciuki, żeby przetrwały w tym zdominowanym przez ludzi świecie i odnalazły lasy, w których będą mogły się osiedlić. Mamy nadzieję, że stanie się to zanim zamki w ich obrożach się rozepną i nasz wgląd w ich losy się zakończy” – zaznaczyli członkowie stowarzyszenia Wilk.

Członkowie Wilka uratowali rysie pod koniec 2019 r. wspólnie z pracownikami parków narodowych – Roztoczańskiego i Magurskiego. Zwierzęta nabierały sił bielskim ośrodku rehabilitacji Mysikrólik.

Horaj został przywieziony z Roztocza. Tam na drodze do przejścia granicznego w Hrebennem pod kołami samochodu zginęła dorosła rysica. Kotka osierociła 7-miesięcze kocię, które błąkało się głodne i wystraszone w sąsiadującym z drogą lesie. Na pomoc ruszyli mu przyrodnicy z Wilka i Roztoczańskiego Parku Narodowego, a także lokalnych stowarzyszeń. Rysia odłowiono i przewieziono do Mysikrólika.

Skalny nie bał się ludzi i zbliżył się do zabudowań w Desznicy w Beskidzie Niskim. Był mocno wychudzony i osłabiony, a przez to niezdolny do samodzielnego polowania. Udało się go wówczas odłowić dzięki współpracy przyrodników z mieszkańcami i pracownikami Magurskiego Parku Narodowego. Również trafił do Mysikrólika.

Rysie są ssakami drapieżnymi z rodziny kotowatych. Dorosły ryś może mierzyć od 100 do 150 cm. Wysokość w kłębie sięga 75 cm. Osobniki, z wyjątkiem samic z młodymi, prowadzą samotne życie. Rysie użytkują duże areały, które w górach sięgają 100-140 km kw. W Polsce są pod ścisłą ochroną.

Stowarzyszenie dla Natury Wilk zajmuje się ochroną przyrody, a szczególnie działaniami na rzecz ssaków drapieżnych – wilków, rysi, niedźwiedzi, wydr, borsuków i innych gatunków. Jego członkowie prowadzą działalność edukacyjną i badawczą.

Ośrodek Mysikrólik jest jednym z nielicznych w Polsce, który pomaga chorym lub kontuzjowanym dzikim zwierzętom. Jego twórcy, Agnieszka i Sławomir Łyczkowie, chcą stworzyć lecznicę z prawdziwego zdarzenia. Brakuje im jednak pieniędzy na sprzęt oraz remont pomieszczeń. Można ich wesprzeć na stronie https://www.mysikrolik.org/.

PAP – Nauka w Polsce, Marek Szafrański

Źródło: www.naukawpolsce.pap.pl

Możliwość komentowania Rysie Horaj i Skalny, po powrocie do natury, świetnie sobie radzą została wyłączona

Lawina fotonów na okładce Nature – zbadana m.in. przez Polaków

Czasem jeden foton może uruchomić całą lawinę kolejnych. I wtedy ledwo oświetlony materiał zaczyna bardzo jasno świecić. Po raz pierwszy udało się uzyskać lawinową emisję fotonów w nanomateriałach. Badania z…

Czasem jeden foton może uruchomić całą lawinę kolejnych. I wtedy ledwo oświetlony materiał zaczyna bardzo jasno świecić. Po raz pierwszy udało się uzyskać lawinową emisję fotonów w nanomateriałach. Badania z udziałem Polaków, które mogą znaleźć zastosowanie w mikroskopii superrozdzielczej, znalazły się na okładce prestiżowego tygodnika „Nature”.

Chociaż zjawisko lawinowej emisji fotonów znane jest od kilku dekad, to dotąd uzyskiwano je tylko w dużych, makroskopowych obiektach – np. monokryształach; często tylko w bardzo niskich temperaturach. Teraz naukowcy zaprezentowali to zjawisko w temperaturze pokojowej w nanomateriałach – strukturach o średnicy 25-30 nm (czyli w obiektach tylko kilka razy większych niż białka w komórkach).

Te opracowane przez badaczy maleńkie latarenki są nanokoloidami – ich powierzchnię można tak zmodyfikować, by w sposób trwały były zawieszone w wodzie i nie opadały na dno. A to pierwszy krok do tego, by te struktury otoczyć na przykład białkami i wprowadzić do komórek, gdzie za ich pomocą można będzie obserwować miejsca lub śledzić procesy odpowiadające za funkcjonowanie żywych komórek.

Aby zapalić taką nanolatarenkę, należy ją oświetlić światłem podczerwonym (o długości fali 1064 nm). A to kolejny plus rozwiązania. Takie światło jest bowiem szczególnie przyjazne w badaniu żywych komórek – łatwo przechodzi przez tkanki, eliminuje spontaniczne świecenie komórek (to problem przy wzbudzaniu za pomocą światła UV), a w dodatku nie uszkadza struktur biologicznych w komórce.

Kolejną zaletą jest również to, że obrazy o wysokiej rozdzielczości można wykonać z pomocą nieco zmodyfikowanego mikroskopu konfokalnego, który jest dostępny prawie w każdym laboratorium biologicznym. Badania pokazały, że takie nanolatarenki można wykorzystać do obrazowania struktur z rozdzielczością 70 nm (jak dotąd, taka rozdzielczość optyczna możliwa jest do uzyskania tylko w znacznie droższych i dużo bardziej złożonych mikroskopach superrozdzielczych).

Badania naukowców z USA (Columbia University i Lawrence Berkeley National Laboratory.), Polski (Instytut Niskich Temperatur i Badań Strukturalnych PAN we Wrocławiu) i Korei Płd. ukazały się w Nature. A ilustrację obrazującą ich lawinę fotonów oglądać można na okładce tego tygodnika.

Nature

Fot: Okładka „Nature” z lawiną fotonów. Źródło: Nature

W materiałach zdolnych do lawinowej emisji fotonów intensywność emisji wzrasta nieproporcjonalnie mocno (tj. lawinowo) w stosunku do intensywności pobudzenia. I tak np. jeśli dwukrotnie zwiększy się intensywność światła, którym oświetla się materiał, intensywność luminescencji wzrastać może aż 10 tys. razy. Przypomina to wzmocnienie obserwowane w tranzystorze lub laserze (co schematycznie zobrazowano na okładce „Nature”). „Laik może to sobie wyobrazić jako taki efekt, jaki mamy, kiedy zbliżymy się z mikrofonem do głośnika – wzmocnienie, czyli dodatnie sprzężenie zwrotne powoduje, że mimo że szepczemy do mikrofonu, głośnik po chwili ‘wyje na pełny regulator’” – porównuje w rozmowie z PAP współautor badań prof. Artur Bednarkiewicz.

Jak tłumaczy, badania te otwierają zupełnie nowe możliwości zastosowania nanotechnologii: w konstrukcji czujników biologicznych (np. do wykrywania wirusów, bakterii czy grzybów, lub procesów biologicznych w komórkach i tkankach), czujników wielkości fizycznych (np. temperatury, ciśnienia), w obliczeniach neuromorficznych, konstrukcji detektorów promieniowania z zakresu średniej podczerwieni, nowych nanolaserów czy też, jak w oryginalnej pracy, obrazowania fluorescencyjnego poniżej limitu dyfrakcji światła. Limit dyfrakcji światła powoduje, że w mikroskopii optycznej bez uciekania się do sprytnych sztuczek – nie można rozróżnić obiektów znajdujących się zbyt blisko siebie – tzn. bliżej niż około połowa długość fali światła, którym obiekt oświetlamy (typowo 300-400 nm). To powoduje, że obraz mikroskopowy jest rozmyty i nieostry, a tym samym często niewystarczający dla biologów by zrozumieć zachowanie żywych komórek na poziomie molekularnym.

Pomysł na to, jaki nanomateriał dawałby lawinową emisję fotonów, zrodził się w połączonych zespołach badaczy, ale ponieważ rozwiązanie wcale nie było oczywiste minęło kilka lat, zanim udało się odpowiednie materiały wykonać . Naukowcy przyglądali się właściwościom materiałów luminescencyjnych domieszkowanych jonami lantanowców. Zwykle zbyt duża domieszka takich jonów (powyżej 1 proc.) sprawia, że luminescencja materiału słabła. Tymczasem badacze wyliczyli, a potem sprawdzili, że do nieliniowej lawinowej emisji fotonów dojdzie w materiale z niespodziewanie dużą (8 proc.) domieszką jonów tulu. Amerykański zespół wytworzył taki materiał i potwierdził w eksperymencie, że materiał rzeczywiście ma bardzo ciekawe silnie nieliniowe właściwości. Dodatkowo, wyniki eksperymentalne doskonale zgadzały się z symulacjami, obliczeniami i przewidywaniami wykonanymi w grupie prof. Bednarkiewicza dwa lata wcześniej.

„Aktualnie, kontynuujemy współpracę, ale realizujemy też w INTiBS PAN własny projekt finansowany przez Narodowe Centrum Nauki dotyczący tych materiałów i metod. Potrafimy syntezować materiały lawinowe samodzielnie, zbudowaliśmy również unikalny i bardzo czuły układ pomiarowy, który pozwala uzyskiwane materiały badać w poszukiwaniu kolejnych nowych i ulepszonych materiałów. Myślimy też o ich zastosowaniach praktycznych” – mówi prof. Bednarkiewicz.

„Są dwie przełomowe informacje, które wynikają z naszych badań. Po pierwsze, udało się uzyskać lawinową emisję fotonów w nanomateriałach, a to otwiera zupełnie nowe możliwości ich zastosowania. Po drugie udało się za pomocą tych materiałów zademonstrować obrazowanie optyczne w skali nanometrycznej poniżej fundamentalnego limitu dyfrakcji światła, który dla biologów był poważnym ograniczeniem, ale dla fizyków i chemików był przez wiele lat olbrzymim wyzwaniem. Uzyskane wyniki otwierają szereg nowych kierunków badań i zastosowań, ale dopiero najbliższe lata zdecydują czy lawinowe nanokryształy znajdą jeszcze szersze zainteresowanie” – podsumowuje prof. Bednarkiewicz.

PAP – Nauka w Polsce, Ludwika Tomala

źródło:

www.naukawpolsce.pap.pl

Możliwość komentowania Lawina fotonów na okładce Nature – zbadana m.in. przez Polaków została wyłączona

Ostatni taki las. Zielona Wstęga Gór Skandynawskich

Szwecja to jeden z najbardziej lesistych krajów Europy. Ale dopiero niedawno potwierdzono tam istnienie rozległych połaci lasu, od dekad nietkniętych piłą czy toporem. „Uświadomiliśmy Szwedom, co tak naprawdę mają” –…

Szwecja to jeden z najbardziej lesistych krajów Europy. Ale dopiero niedawno potwierdzono tam istnienie rozległych połaci lasu, od dekad nietkniętych piłą czy toporem. „Uświadomiliśmy Szwedom, co tak naprawdę mają” – mówi prof. Grzegorz Mikusiński, który brał udział w określeniu granic tego bezcennego przyrodniczo obszaru.

Zielona Wstęga Gór Skandynawskich to znakomicie zachowane lasy, porastające wschodnie zbocza szwedzkiej części Gór Skandynawskich. Jak na warunki europejskie są one ogromne: ciągną się na długości ponad 800 km i zajmują powierzchnię ponad 2 mln hektarów! (czyli ponad 20 tys. km2). To jeden z nielicznych obszarów leśnych na terenie Unii Europejskiej, które zachowały się praktycznie w stanie naturalnym.

NAMIERZYĆ ZIELONĄ WSTĘGĘ

Jak to się stało, że lasy – o których skali i przyrodniczym bogactwie stosunkowo niewiele było wiadomo – udało się wreszcie zidentyfikować? Dokonano tego dzięki wykorzystaniu satelitarnych zdjęć z wielu lat i obrazów uzyskanych metodą teledetekcji.

Analizy borealnej części Szwecji (począwszy od północnej części prowincji Värmland – po tereny położone dużo dalej na północ) przeprowadziła państwowa firma kartograficzna METRIA. Dane te były potrzebne do opracowania standardowych map i planów wykorzystania zasobów przyrodniczych. Zestawienie zdjęć satelitarnych i lotniczych z wielu lat stworzyło bezcenną bazę danych, pozwalającą porównać i ocenić zachodzące na ziemi zmiany. Dlatego z danych skorzystali też naukowcy.

Przeprowadzone przez nich analizy dotyczyły ostatnich 60-70 lat i obejmowały lasy borealne, porastające mniej więcej dwie trzecie powierzchni Szwecji. Naukowcy ocenili stan tych lasów: mogli określić, gdzie przez niemal 70 lat lasy wycinano, a gdzie pozostały praktycznie nietknięte i mają jako całość ogromną wartość przyrodniczą. Określili dokładną lokalizację tych skupisk leśnych, ich wielkość i łączność w przestrzeni.

Zielona Wstęga Lasów Skandynawskich, fot. G. Mikusiński
Zielona Wstęga Lasów Skandynawskich, fot. G. Mikusiński

 

„Okazało się, że ogromna powierzchnia lasów leżących na wschód od Gór Skandynawskich, mająca długość co najmniej 800 km, to tereny o dużej wartości przyrodniczej. To ewenement w skali europejskiej! Podobnie wielkiego obszaru lasu naturalnego w Unii Europejskiej nie znajdziemy. Istnieją tam płaty lasu, mające nawet ponad 100 tys. ha, które łączą się ze sobą w przestrzeni” – podkreśla w rozmowie z PAP jeden z naukowców współodpowiedzialnych za identyfikację tego cennego leśnego obszaru, prof. Grzegorz Mikusiński z Instytutu Ekologii Szwedzkiego Uniwersytetu Rolniczego (SLU) w Uppsali.

POLITYKA WYCINKI, POLITYKA OCHRONY

Szwedzi do niedawna nie zdawali sobie do końca sprawy, jaki przyrodniczy unikat zachował się w ich kraju. Zresztą Zielona Wstęga Gór Skandynawskich nie musiała wcale przetrwać.

„Szwecja często kojarzy się jako kraj przyjazny przyrodzie. A jednak z surowców naturalnych, w tym – z drewna, korzysta się tam bardzo intensywnie. Przemysł drzewny to ważny sektor gospodarki tego kraju” – zauważa prof. Mikusiński. Jest on współautorem pięciu artykułów na temat szwedzkich lasów, opublikowanych w prestiżowych czasopismach naukowych (ich wykaz – pod tekstem). W badania szwedzkich lasów zaangażowali się też Jakub Bubnicki z Instytutu Biologii Ssaków Polskiej Akademii Nauk i Ewa Orlikowska z SLU.

Na łamach „Conservation Biology” naukowcy przypomnieli, że od początku lat 60. w Szwecji wprowadzono (niemal bez ograniczeń) nowy system użytkowania lasów: zrąb zupełny. Tereny użytkowane dawniej podobnie jak w Polsce czy Niemczech szybko przekształciły się w industrialny krajobraz, gdzie naraz wycinano nawet kilkaset hektarów. Drewno zużywano, po czym sadzono nowy las, tylko w ograniczonym stopniu stosując odnowienie naturalne. Taki jednowiekowy, młody las z punktu widzenia różnorodności biologicznej jest jednak bardzo ubogi – zwłaszcza, że przeprowadza się w nim regularne czyszczenia, polegające na usuwaniu drzew mniej wartościowych z punktu widzenia produkcji drewna. Nie ma w nim leśnych ostoi, starych drzewostanów ani wyspecjalizowanych gatunków, potrzebujących do życia starych drzew i martwego drewna.

„Polityka systematycznego wyrębu lasu była z pewnością ważna dla szwedzkiej gospodarki, ale doprowadziła do zagrożenia tysięcy leśnych gatunków” – podkreśla prof. Mikusiński, który specjalizuje się w zakresie bioróżnorodności leśnej i ochrony krajobrazu, a badania w Szwecji prowadzi od 30 lat. Wobec potężnej skali wycinki i nasadzeń w sumie niewiele pomogła zmiana prawa, które nakazywało zostawianie części starych drzew i martwego drewna – dodaje.

KONFLIKTY O LASY

Przetrwanie Zielonej Wstęgi Gór Skandynawskich nie jest pewne. Naukowcy sugerowali, że przyszłość tego lasu może się rozwijać według dwóch scenariuszy, będących konsekwencją różnych sposobów zarządzania lasem. Pierwszy z nich oznacza kontynuację intensywnej gospodarki leśnej i uzyskanie związanych z tym korzyści gospodarczych. W praktyce oznaczałby intensywną wycinkę i nasadzenia.

Drugi scenariusz zakłada zwiększenie ochrony „zielonego pasa” górskich lasów, co pozwoli zachować leśne ostoje, chronić bioróżnorodność, sprzyjać hodowli reniferów i zwiększyć użyteczność publiczną tych lasów – piszą naukowcy badający te tereny. Takie podejście pozwoli też wykorzystać lasy jako narzędzie długoterminowej sekwestracji węgla (wiązania węgla z atmosfery).

Szanse, by zrealizował się ten drugi scenariusz, znacznie wzrosły. Ustalenia naukowców zostały bowiem niedawno uwzględnione w nowym oficjalnym raporcie rządu szwedzkiego. Prof. Mikusiński wyjaśnia, że celem tego rozległego raportu jest analiza polityki dotyczącej lasów w Szwecji – a więc ponad połowy obszaru tego kraju i jednego z najistotniejszych jego dóbr. Kwestia lasów górskich, a wiec również Zielonej Wstęgi Gór Skandynawskich, jest obszernie omawiana w osobnym rozdziale (XVI, strony 857-1002), który zawiera obietnice jej kompleksowej ochrony (proponuje się objęcie ochroną dodatkowych ponad 5 mln ha lasu, a przewidziany koszt tej operacji to 14,4 mld koron, odpowiadających ponad 5,5 mld zł).

Prof. Mikusiński dodaje, że część Szwedów postrzega ochronę swoich lasów nie tylko jako opcję, ale wręcz konieczność, w perspektywie realizacji ONZ-owskiego Planu Strategicznego dla Różnorodności Biologicznej i tzw. Celów Aichi.

Konwencja ta zakłada wprowadzenie w skali globalnej licznych rozwiązań i mechanizmów chroniących bioróżnorodność. Środkami do celu jest m.in. osiągniecie zrównoważonej produkcji i konsumpcji, zahamowanie utraty siedlisk naturalnych, ograniczenie zanieczyszczeń czy zapobieganie inwazjom gatunków. Jeden z Celów Aichi nakłada na kraje-sygnatariuszy konieczność ochrony co najmniej 17 proc. obszarów lądowych „o szczególnym znaczeniu dla różnorodności biologicznej i usług ekosystemowych”. Ostatnio także Europejski Zielony Ład i będąca jego częścią Strategia Różnorodności Biologicznej w UE do 2030 zakładają jeszcze wyższą, 30-procentową ochronę środowisk lądowych.

Część szwedzkich naukowców proponuje, by w zakres tej ochrony weszła niezwykle cenna przyrodniczo Zielona Wstęga Gór Skandynawskich – relacjonuje prof. Mikusiński.

Zielona Wstęga Lasów Skandynawskich, fot. G. Mikusiński
Zielona Wstęga Lasów Skandynawskich, fot. G. Mikusiński

 

„Zielona Wstęga Gór Skandynawskich uświadamia nam również – poprzez kontrast z resztą borealnej Szwecji – jak daleko lasy gospodarcze odeszły od ich naturalnego stanu. Ochrona lasów w pozostałych częściach Szwecji już nie wystarczy. Konieczna jest szeroko zakrojona odbudowa naturalnej struktury drzewostanów, jak i ich łączności w przestrzeni, pozwalającej na swobodne przemieszczanie się organizmów leśnych – i na odbudowę procesów ekologicznych. Odtworzenie lasów z dużym udziałem gatunków liściastych – takich jak brzozy, osiki, wierzby i jarzębiny, które obecnie są bardzo rzadkie – wymaga szczególnego wysiłku, aby zapewnić dogodne siedliska gatunkom od nich zależnym” – komentuje Ewa Orlikowska.

JAK SIĘ LAS UCHOWAŁ

Już dziś duża część Zielonej Wstęgi (aż 60 proc.) ma formalną, wysoką ochronę – mówi prof. Mikusiński. „Jednak duża powierzchnia lasów czeka na decyzję, wycinać czy nie. Wciąż toczy się o nie walka: trzeba by było w zasadzie zablokować zupełnie wyrąb powyżej granicy lasów górskich” – alarmuje naukowiec.

Granica lasów górskich (czyli kolejne szwedzkie rozwiązanie z lat 90., służące ochronie lasów) oznacza fizyczną granicę lasu górskiego tj. „od spodu”, wyznaczającą odrębne zasady jego gospodarczego wykorzystania – tłumaczy prof. Mikusiński. Wprowadzenie pojęcia granicy lasów górskich znacznie utrudniło wycinkę części wysoko położonych lasów, co pozwoliło dużą ich część ocalić przed zrębem.

Ciągnący się z południa na północ całej strefy borealnej las ma też więcej szans w perspektywie zmian klimatu. Wraz z ocieplaniem się klimatu gatunki leśne, przystosowane do warunków chłodnych, mają więc w Szwecji więcej możliwości przemieszczania się i „ucieczki” coraz dalej na północ oraz ku wyżej leżącym terenom. Tymczasem inne górskie lasy na terenie UE z reguły ciągną się równoleżnikowo i są pocięte przez infrastrukturę.

„Wartość przyrodnicza scalonego (pod względem ochrony) Zielonego Pasa Gór Skandynawskich jest nie do przecenienia. Żeby znaleźć coś podobnego, trzeba jechać w głąb Rosji albo na północ Ameryki Północnej. Ten obszar powinien być w pełni chroniony” – mówi prof. Mikusiński.

Więcej na ten temat – na stronach: Lanscape and Urban PlanningForestsLandscape EcologyConservation Biology oraz Frontiers in Ecology and Evolution.

Nauka w Polsce – PAP, Anna Ślązak

Możliwość komentowania Ostatni taki las. Zielona Wstęga Gór Skandynawskich została wyłączona

Mechanizm biologiczny pozwoli chronić materiały przed bakteriami wodnymi

Jedna z substancji wydzielanych przez glony „odstrasza” patogenne bakterie, które osadzają się na powierzchniach w środowiskach wodnych, np. piankach nurków. Mechanizm biologiczny odkryty na UW może przyczynić się do powstania…

Jedna z substancji wydzielanych przez glony „odstrasza” patogenne bakterie, które osadzają się na powierzchniach w środowiskach wodnych, np. piankach nurków. Mechanizm biologiczny odkryty na UW może przyczynić się do powstania preparatu zabezpieczającego takie materiały.

Problemy związane z suszeniem oraz konserwacją odzieży i akcesoriów wykorzystywanych w sportach wodnych są znikome w krajach południowych, gdzie przez większą część roku występują słoneczne i upalne dni. Inaczej jest na naszych szerokościach geograficznych, gdzie nawet latem dni bywają pochmurne, chłodne i deszczowe. Powszechnym wyzwaniem związanym z mokrymi materiałami jest ich higiena oraz impregnacja – bakterie wodne, często posiadające potencjał patogenny, przyczepiają się do materiału tworząc grube, trudne do usunięcia biofilmy (warstwy, błony biologiczne).

Dr Bartosz Kiersztyn z Instytutu Biologii Funkcjonalnej i Ekologii na Wydziale Biologii Uniwersytetu Warszawskiego od lat zajmuje się badaniem biofilmów bakteryjnych powstających na różnego rodzaju powierzchniach w środowiskach wodnych – informuje Uniwersytecki Ośrodek Transferu Technologii Uniwersytetu Warszawskiego.

Praca tego badacza może przyczynić się do powstania preparatu zabezpieczającego takie powierzchnie (np. materiały, z których produkowane są m.in. pianki nurkowe i obuwie do uprawiania sportów wodnych) przed osadzaniem się na nich bakterii.

W biofilmach często identyfikowane są bakterie o charakterze patogennym. Ich obecność uznaje się za czynnik negatywny, po części dlatego, że wiele z gatunków tych bakterii wytwarza i uwalnia toksyny. Dr Kiersztyn zwrócił uwagę na fakt, że choć biofilmy bakteryjne w naturalnym środowisku wodnym tworzą się bardzo szybko, to nie powstają wydajnie na powierzchni żywych glonów jednokomórkowych.

„To bardzo ciekawe zjawisko. O ile w wodzie bakterie są w stanie szybko zasiedlić praktycznie każdą powierzchnię, na glonach jednokomórkowych kolonizacja prawie nie występuje. Bakterie niejako powstrzymują się przed kolonizacją żywych mikroskopijnych glonów – nie osadzają się na nich intensywnie i nie namnażają na ich powierzchniach. Obserwacje mikroskopowe oraz biochemiczne i molekularne jednoznacznie na to wskazują” – mówi Kiersztyn, cytowany w prasowym komunikacie.

W wyniku prowadzonych eksperymentów naukowiec wykazał, że jedną z przyczyn powstawania tego zjawiska jest substancja wydzielana przez glony w procesie fotooddychania. Jak się okazało, gradient mikrostężeń tej substancji wystarczy, by w środowisku wodnym bakterie nie osadzały się intensywnie na danej powierzchni. Tak zrodził się pomysł, by stworzyć preparat, który pozwoliłby zabezpieczać różnego rodzaju powierzchnie, w tym m.in. odzież i inne akcesoria wchodzące w kontakt z wodą przed tworzeniem się na nich biofilmów bakteryjnych.

Na korzyść ekonomiczną takiego rozwiązania przemawia kilka czynników. Pierwszym jest niska cena, bo naturalna substancja wytwarzana przez glony jest wyjątkowo niedroga w produkcji przemysłowej. Możliwość zastosowania jej w mikrostężeniach dodatkowo sprawia, że sam preparat byłby tani w produkcji, co dawałoby szansę jego producentowi na wygenerowanie sporej marży. W dodatku preparat bazowałby na substancji występującej w naturalnym środowisku, a jego działanie nie polegałoby na eliminowaniu bakterii (co groziłoby uwalnianiem z nich toksyn), ale na ich „odstraszaniu”.

Prowadzone dotychczas eksperymenty na materiałach, z których produkowane są m.in. pianki nurkowe i obuwie do uprawiania sportów wodnych, jednoznacznie potwierdzają, że na odzieży sportowej spryskanej roztworem z odkrytą substancją bakterie wodne osadzają się w minimalnym stopniu. Eksperymenty prowadzono m.in. w naturalnym środowisku w jeziorze Śniardwy, w specjalnie wyselekcjonowanym miejscu obfitującym w wiele szczepów bakteryjnych.

Proces komercjalizacji wynalazku prowadzony jest przez Uniwersytecki Ośrodek Transferu Technologii działający przy Uniwersytecie Warszawskim (UOTT UW).

„Odkrycie zostało już objęte ochroną patentową na terenie Polski. Obecnie poszukujemy inwestora lub partnera branżowego, który wprowadziłby na rynek ten skuteczny preparat ochronny pod własną marką. Ponieważ produkcja nawet na wielką skalę przemysłową jest wyjątkowo niedroga, a przy tym proces technologiczny wydaje się być bardzo prosty, wynalazek ten ma szansę na szybką absorpcję przez producenta i wdrożenie bez ponoszenia znacznych nakładów” – mówi Marta Majewska, broker technologii UOTT UW, prowadząca ten projekt, cytowana w komunikacie. (PAP)

Źródło: www.naukawpolsce.pap.pl

Możliwość komentowania Mechanizm biologiczny pozwoli chronić materiały przed bakteriami wodnymi została wyłączona

Naukowcy zbadają wpływ izolacji na człowieka podczas symulowanej misji kosmicznej

Różne aspekty wpływu izolacji na zdrowie człowieka, m.in. na sprawność fizyczną i układ nerwowy, zbadają naukowcy uczestniczący w symulowanej załogowej misji kosmicznej, odbywającej się w bazie LunAres w Pile. Odbywa…

Różne aspekty wpływu izolacji na zdrowie człowieka, m.in. na sprawność fizyczną i układ nerwowy, zbadają naukowcy uczestniczący w symulowanej załogowej misji kosmicznej, odbywającej się w bazie LunAres w Pile. Odbywa się ona pod patronatem rektora Politechniki Śląskiej i Ministerstwa Zdrowia. 

Jak przekonują naukowcy, ich badania – skupiające się na analizie dostosowania się psychiki do przymusowego zamknięcia – mają szczególne znaczenie w kontekście pandemii COVID-19. W symulowanej misji bierze udział międzynarodowy zespół pięciorga tzw. analogowych (stacjonarnych) astronautów, którzy będą zamknięci przez dwa tygodnie na małej przestrzeni i badani pod kątem zmian układzie nerwowym i narządzie ruchu.

Podczas wtorkowej konferencji prasowej rektor Politechniki Śląskiej prof. Arkadiusz Mężyk zwrócił uwagę, że badania dotyczące misji kosmicznych są prowadzone bardzo szeroko i wykraczają daleko poza samą technologię budowy rakiet – dotyczą też zdrowia fizycznego psychicznego, przystosowania się do wyjątkowych warunków, a także socjologii.

„Wszyscy odczuwamy skutki pandemii, od marca 2020 r. żyjemy w izolacji i odczuwamy na własnej skórze jak brak kontaktów społecznych, życie w ograniczonej przestrzeni wpływa na naszą psychikę, na nasze funkcjonowanie” – zaznaczył. W obecnej misji naukowców z PŚ interesują problemy z dziedziny inżynierii biomedycznej oraz rozwiązań infrastrukturalnych – dostosowania małych przestrzeni do funkcjonowania ludzi, naukowcy przeprowadza także np. testy technologii odzyskiwania zużytej wody.

„Badania izolacyjne mające na celu symulację warunków lotów na inne ciała niebieskie, w tym Marsa i Księżyc, wydawały się niezwykle oderwane od rzeczywistości jeszcze rok temu. Obecnie, wskutek pandemii, niemal każdy rozumie, jak istotne jest dogłębne zbadanie psychologii izolacji, zarówno wybranej z wolnej woli, jak i przymusowej” – ocenił naczelny lekarz załogi dr n. med. Aleksander Waśniowski.

Habitat LunAres to znajdująca się w Pile placówka badawcza służąca do symulacji załogowych misji kosmicznych, zwanych misjami analogowymi. Jest to jedyny tego typu obiekt w Europie. Całkowicie odizolowana od środowiska zewnętrznego składa się z siedmiu modułów przeznaczonych do różnych czynności i codziennego życia, a także z 250 km kw. do „spacerów kosmicznych”.

W przedsięwzięciu biorą udział przedstawiciele PŚ. Naukowcy z Wydziału Inżynierii Biomedycznej tej uczelni przeprowadzą badania w zakresie biomechaniki narządu ruchu, sprawdzając m.in. wpływ izolacji na sprawność fizyczną. Studentka Wydziału Architektury przeprowadzi prace poświęcone sprawdzeniu rozwiązań zastosowanych w stacji kosmicznej pod kątem ich użyteczności oraz możliwości zaspokojenia potrzeb jej mieszkańców – członków misji.

Szef ekspedycji – dyrektor LunAres Space mgr inż. Leszek Orzechowski wyjaśnił, że obecna misja, która nosi nazwę „Panda” (Pandemic Analog Mission) jest pierwszą z serii, które potrwają przez kilka miesięcy. Wyraził przekonanie, że badania – zwłaszcza neurologiczne – mogą przydać się zwłaszcza w obecnej sytuacji pandemii. Osoby w izolacji będą badane np. pod kątem zmian w hipokampie, który odpowiada m.in. za orientację w przestrzeni i pamięć.

„Te małe zmiany mogą odpowiadać temu, co niektórzy z nas doświadczają podczas przymusowej kwarantanny związanej z obecną lub jakąkolwiek pandemią w przyszłości” – powiedział Orzechowski. Podczas misji zostanie przeprowadzonych także wiele eksperymentów fizjologicznych czy psychologicznych.

Dr hab. inż. Robert Michnik z Wydziału Inżynierii Biomedycznej PŚ powiedział, że naukowcy chcą zbadać zmiany w funkcjonowaniu narządu ruchu. Jak przypomniał, w realnej misji kosmicznej największy wpływ na to ma brak lub zmniejszona grawitacja, która prowadzi m.in. do ubytku tkanki mięśniowej. W przypadku misji analogowej takim czynnikiem jest ograniczenie aktywności, związane z małą przestrzenią – wyjaśnił.

Przedmiotem badań będzie też oddziaływanie czynników psychologicznych i socjologicznych, wynikających z izolacji, a także to, jak na ciało działają obciążania związane z używaniem skafandrów kosmicznych – chodzi ocenę zdolności utrzymywania równowagi i postawy ciała. Zakładając, że izolacja – także w okresie pandemii – skutkuje obniżeniem sprawności fizycznej, naukowcy chcą w przyszłości opracować program ćwiczeń, który będzie ograniczał te negatywne zmiany.(PAP)

autor: Krzysztof Konopka

Możliwość komentowania Naukowcy zbadają wpływ izolacji na człowieka podczas symulowanej misji kosmicznej została wyłączona

Jak postrzegano niepełnosprawność w historii? Bada to interdyscyplinarny zespół

U neandertalczyków można znaleźć przykład opieki nad niepełnosprawnym, w starożytnym Egipcie szacunkiem darzono osoby niskiego wzrostu. W średniowieczu zaś polskie pochówki osób niepełnosprawnych nie różniły się od innych pochówków. Jak…

U neandertalczyków można znaleźć przykład opieki nad niepełnosprawnym, w starożytnym Egipcie szacunkiem darzono osoby niskiego wzrostu. W średniowieczu zaś polskie pochówki osób niepełnosprawnych nie różniły się od innych pochówków. Jak wyglądało w dziejach podejście do niepełnosprawności mówi archeolog dr Magdalena Matczak. 

„Teraz aż jedna ósma populacji ludzkiej to osoby uznawane za niepełnosprawne. W samej Unii Europejskiej stanowią one ok. 14 proc. społeczeństwa w wieku 15-64 lat. To spory odsetek. Również i w czasach prehistorycznych i historycznych w skład społeczeństwa wchodziły osoby niepełnosprawne i – choćby ze względu na słabszy rozwój medycyny – mogły też stanowić znaczącą grupę” – mówi w rozmowie z PAP dr Magdalena Matczak z University of Liverpool i Arizona State University.

Archeolożka kieruje interdyscyplinarnym projektem DIS-ABLED (wspólnie z dr Jessiką Pearson z Uniwersytetu w Liverpoolu, prof. Jane Buikstrą z Arizona State University i prof. Andrzejem Markiem Wyrwą z UAM w Poznaniu). Celem tych badań jest rekonstrukcja życia osób z niepełnosprawnościami w XIV-XVIII-wiecznej Europie Środkowej.

„Temat niepełnosprawności jest rzadko poruszany w archeologii. Jeśli zaś myślimy o historii jako o naszym dziedzictwie, nie możemy zrozumieć tego dziedzictwa w pełni, jeśli pomijać w niej będziemy historię tak dużej grupy osób – w tym przypadku osób niepełnosprawnych” – tłumaczy dr Matczak.

Badaczka pytana o to, jak zmieniało się podejście do osób niepełnosprawnych mówi: „W różnych miejscach i okresie dziejów podejście do osób niepełnosprawnych oscylowało od pełnej akceptacji, poprzez troskę i opiekę, aż do marginalizacji” – podsumowuje.

Podaje przykład amerykańskich badań dot. neandertalczyków ze starszej epoki kamienia zamieszkujących jaskinię Shanidar w dzisiejszym Iraku. „Znaleziono tam szczątki neandertalczyka z urazem czaszki. Był prawdopodobnie głuchy na prawe ucho, miał problemy ze wzrokiem, upośledzenie jednej z kończyn górnych i urazy powodujące nieprawidłowy chód. Jego schorzenia mogły bardzo utrudniać mu zdobywanie pokarmu – choćby udział w polowaniach. Mimo to żył ze swoimi schorzeniami długo – zmarł w wieku ok. 40-50 lat, skąd wniosek, że musiał przez dłuższy czas doświadczać pomocy i opieki osób ze swojej społeczności” – opowiada rozmówczyni PAP.

Jeśli z kolei chodzi o starożytny Egipt, to ok. 2 500 lat p.n.e. powstała rzeźba Seneba, który był dostojnikiem na dworze faraona i został pochowany wraz z żoną w Gizie. Dostojnik ten miał achondroplazję – był osobą niskiego wzrostu. „Część badaczy przychyla się do opinii, że w starożytnym Egipcie istniała wtedy tolerancja zarówno do osób z achondroplazją, jak i wobec osób niewidomych. Są jednak badacze, którzy uważają, że akurat osoby z upośledzeniem widzenia w starożytnym Egipcie mogły podlegać ostracyzmowi” – podsumowuje dr Matczak.

Przywołuje też badania z Bahrajnu dotyczące szczątków kobiety z przełomu III i II tysiąclecia p.n.e., która cierpiała na deformację prawej kości ramiennej, a także miała upośledzenie kończyn dolnych, przez co potrzebowała opieki i wsparcia. Niewielkie starcie zębów wskazuje, że kobieta jadła stosunkowo miękkie pokarmy. Została ona pochowana z cennymi przedmiotami. „To pokazuje, że przynajmniej wąska grupa społeczna, można przypuszczać, że jej rodzina, dobrze ją traktowała za życia, jak i zadbała o jej odpowiedni pochówek” – komentuje dr Matczak.

Dodaje jednak, że są i w historii przykłady na to, jak trudny bywał los osób niepełnosprawnych. Opowiada, że w XIX w. w USA w hrabstwie Oneida w stanie Nowy Jork osoby z ułomnościami fizycznymi lub psychicznymi trafiały do przytułku. „Terapia” polegała na wykonywaniu przez nie tak ciężkiej pracy fizycznej, że w niektórych wypadkach prowadziła do śmierci z wycieńczenia. A przytułek czerpał dochody z tej pracy. Niechlubnymi zgłoskami zapisały się też w XIX wieku kompletnie nieakceptowalne dziś objazdowe cyrki, w których osoby z niektórymi ułomnościami były prezentowane publiczności.

Z kolei jeśli chodzi o Polskę, to ciekawy jest przykład kobiety chorej na trąd z XIII w. pochowanej na cmentarzu w Kałdusie na Ziemi Chełmińskiej. Trąd nie tylko był chorobą zakaźną, ale mógł prowadzić do zaniku czucia, problemów ze wzrokiem i urazów, co mogło prowadzić do niepełnosprawności. „A kobieta ta żyła stosunkowo długo ze zmianami chorobowymi. Bez pomocy ze strony społeczności nie dałaby sama rady. Została też pochowana zgodnie z zasadami pochówku chrześcijańskiego, oraz z przedmiotami takimi jak pierścionek czy nóż. A stąd można pośrednio wnioskować, że cieszyła się stosunkowo dobrym statusem społecznym i mimo choroby nie była zepchnięta na margines społeczeństwa” – opisuje badaczka.

Dr Matczak w poprzednich badaniach, we współpracy z prof. Tomaszem Kozłowskim i prof. Wojciechem Chudziakiem na UMK, badała pochówki w X-XIII wieku z Kałdusa na polskim Pomorzu. Na 661 szkieletów, które badali naukowcy, 33 miały zmiany związane z niepełnosprawnościami. I były to częściej szkielety niepełnosprawnych dojrzałych mężczyzn niż kobiet. „To się wiąże z tym, że kobiety statystycznie częściej umierały we wczesnej dorosłości, w związku z między innymi infekcjami okołoporodowymi. A mężczyźni żyli dłużej i ciężko pracowali fizycznie, na ich szkieletach częściej więc udawało się ustalić niepełnosprawności związane ze zmianami zwyrodnieniowymi” – komentuje dr Matczak.

Polscy naukowcy badali też, czy szkielety świadczące o niepełnosprawności można znaleźć w przypadku pochówków atypowych (to groby zorientowane np. na osi północ-południe, zamiast typowej osi wschód-zachód, przypadki osób pochowanych na boku, w pozycji skurczonej) czy antywampirycznych (w przypadku osób pochowanych na brzuchu lub przygwożdżonych kamieniami).

Archelożka przywołuje przykład z USA, gdzie odnaleziono antywamipryczny pochówek z XIX wieku osoby ze śladami gruźlicy. „A związane z gruźlicą plucie krwią mogło dawniej być kojarzone właśnie z wampirami” – zwraca uwagę. „Dlatego chciałam sprawdzić, czy i w Polsce na Pomorzu niektóre choroby lub niepełnosprawność mogły sprawić, że za życia osób tych się bano, a przez to ich pochówek mógł wyglądać nietypowo” – mówi. I dodaje, że hipoteza ta się jednak nie potwierdziła. „To dobrze świadczy o wczesnośredniowiecznej społeczności. Jeśli oceniać po pochówkach – osoby chore nie były inaczej traktowane w społeczeństwie” – komentuje.

Badaczka zwraca jednak uwagę, że badania szkieletów nie pozwalają ostateczne rozstrzygnąć, czy dana osoba borykała się z niepełnosprawnością czy nie. Można dzięki nim wprawdzie poznać, że ktoś cierpiał na zmiany zwyrodnieniowe, trąd, zaawansowane stadia niektórych nowotworów, polio, przechodził amputację, miał źle złożone złamanie czy np. gruźlicę kręgosłupa. Wiele jednak niepełnosprawności i chorób nie pozostawia po sobie w szkielecie żadnego śladu. To choćby choroby psychiczne, przypadłości związane z utratą wzroku czy słuchu, czy choroby o ostrym przebiegu.

Dlatego w swoich najnowszych badaniach dotyczących postrzegania niepełnosprawności w XIV-XVIII wieku badaczka stawia na połączenie kilku dziedzin nauki: archeologii, historii, antropologii fizycznej oraz etnografii. „Badamy kroniki, żywoty świętych, pisma medyczne, teksty etnograficzne z czasów późniejszych, a także szkielety odnalezione na terenach Polski, aby zobaczyć, na co chorowano w XIV-XVIII w.” – wymienia.

Badaczka jednak zaznacza, że badanie niepełnosprawności w historii jest o tyle trudne, że słowo „niepełnosprawny” weszło do obiegu dopiero w XX wieku. „A niepełnosprawność według najnowszych definicji jest stanem, w którym osoba z jakąś ułomnością napotyka na bariery społeczne wynikające z tego, że kultura, przestrzeń, w której funkcjonujemy, jest dostosowana do osób w pełni sprawnych. Niepełnosprawność pojmowana jest więc jako stosunek pełnosprawnej części ludności do osób z okaleczeniami. Pytanie więc, w jaki sposób dawne społeczeństwa określały osoby z upośledzeniami i na ile dostosowywały się do ich potrzeb” – podsumowuje.

PAP – Nauka w Polsce, Ludwika Tomala

1 komentarz do Jak postrzegano niepełnosprawność w historii? Bada to interdyscyplinarny zespół

Dolny Śląsk / Stężenie arsenu w dopływie Nysy Kłodzkiej 100-krotnie przewyższa normy WHO

Stężenie arsenu w Trującej (woj. dolnośląskie), jednym z dopływów Nysy Kłodzkiej, aż 100-krotnie przewyższa obecnie normy wody pitnej ustanowione przez WHO – ustalił zespół badaczy z Uniwersytetu Wrocławskiego. Ma to…

Stężenie arsenu w Trującej (woj. dolnośląskie), jednym z dopływów Nysy Kłodzkiej, aż 100-krotnie przewyższa obecnie normy wody pitnej ustanowione przez WHO – ustalił zespół badaczy z Uniwersytetu Wrocławskiego. Ma to związek z obecnością na tych terenach dawnej kopalni złota.

O ustaleniach naukowców z Instytutu Geografii i Rozwoju Regionalnego UWr, dotyczących wysokiego stężenia rakotwórczego pierwiastka w rzece na Dolnym Śląsku, poinformowała rzeczniczka prasowa UWr.

W Złotym Stoku (woj. dolnośląskie) mieszkańcy wydobywali złoto od XIII w. Jego zasoby były w pewnym momencie tak duże, że miasteczko odpowiadało za niemal jedną dziesiątą europejskiej produkcji złota. Po trzech wiekach eksploatacji zasoby zaczęły się wyczerpywać. Wtedy aptekarz Hans Scharffenberg, na początku XVIII wieku postanowił na tych terenach pozyskiwać arsen, służący do produkcji arszeniku. Arsen miał bardzo szerokie zastosowanie: w lekach, jako dodatek do stopów i farb, preparat do barwienia szkła, niezawodny środek na szczury, a współcześnie w produkcji półprzewodników.

Kopalnie tego metaloidu działały tam do 1961 roku. Niestety siedemsetletnia działalność wydobywcza pozostawiła po sobie duże spustoszenie w krajobrazie – podkreślono w informacji przesłanej PAP.

Prawdziwe zagrożenie czaiło się w Złotym Potoku, który spod skał wypłukiwał trujący arsen. Mieszkańcy miasteczka mieli przeczucie, że woda, której używają, nie jest najlepszej jakości. Świadczy o tym nazwa rzeki, która poniżej miasteczka nazywana jest Trującą. Wśród ludności krążyły też plotki, jakoby wygnani za Odrę Niemcy wracali do miasta po beczki zatrutej wody, od której mieli być fizycznie uzależnieni – informuje rzeczniczka.

Tematem zainteresowali się naukowcy z Instytutu Geografii i Rozwoju Regionalnego UWr. „Postanowiliśmy przyjrzeć się tematowi bliżej – szczególnie, że rzeka Trująca kończy swój bieg w Nysie Kłodzkiej, będącej jednym z głównych dopływów Odry – mówi dr Bartosz Korabiewski, adiunkt w Zakładzie Geografii Fizycznej UW. – Już na samym początku zaskoczeniem dla nas była stosunkowo niewielka ilość badań dotyczących zanieczyszczenia w dolnej części rzeki Trującej, zwłaszcza w miejscu jej ujścia. Postanowiliśmy sprawdzić, jaka ilość arsenu jest transportowana do Nysy Kłodzkiej, oraz jakie procesy kontrolują niepokojące stężenie arsenu w strumieniach”.

Naukowiec zaznacza, że na całym świecie zanieczyszczenie środowiska arsenem dotyka aż 70 krajów i 140 milionów ludzi. Są to silnie kancerogenne związki powodujące m.in. choroby skóry i układu pokarmowego.

W badaniach wzięły udział dwie grupy studentów specjalności geoekologia na kierunku geografia. Łukasz Stachnik, adiunkt z Zakładu Geografii Fizycznej UWr opowiada, że badania terenowe prowadzono na całej długości Złotego Potoku i rzeki Trującej. Trwały dwa lata i uwzględniały pobór kilkudziesięciu próbek gleby i wody. Naukowcy rozmawiali też z mieszkańcami Złotego Stoku, by uzyskać informacje na temat miasta, jego górniczej przeszłości oraz obecnej sytuacji.

Wykonano też szczegółowe pomiary laboratoryjne, zmierzające do oznaczenia zawartości arsenu w próbkach wody i gleb.

„W okolicy dawnej kopalni złota i arsenu, nasze wyniki wskazują na kilkudziesięciokrotny spadek stężeń arsenu i metali w wodach kopalnianych i ze Złotego Potoku – w porównaniu do lat 90-tych XX wieku. Na poprawę jakości wody wpłynęły najprawdopodobniej prace renowacyjne polegające na oczyszczaniu starych chodników górniczych i udrożnieniu sztolni w złotostockiej kopalni” – mówi dr Stachnik.

„Zła wiadomość, która dotyczyła rzeki Trującej, przeszła nasze najśmielsze oczekiwania. W miejscu jej ujścia do Zbiornika Paczkowskiego, znajdującego się na Nysie Kłodzkiej, stężenia arsenu przekroczyły 100-krotnie normy rekomendowane przez Światową Organizację Zdrowia dla wody pitnej!” – dodaje.

Według naukowców całkowita masa arsenu, która w ciągu 24 godzin może dopływać do tego zbiornika (tzw. ładunek dobowy) przekracza 8 kg. Tak duże stężenie arsenu jest prawdopodobnie związane głównie z przemywaniem starych hałd i osadników położonych poniżej Złotego Stoku.

Za podwyższone stężenie arsenu w pobliżu ujścia rzeki Trującej do Nysy Kłodzkiej odpowiedzialny jest proces uwalniania pierwiastka z powierzchni cząsteczek osadu do roztworu wodnego. Naukowcy zamierzają kontynuować badania. „Rosnąca frekwencja zdarzeń ekstremalnych, związana ze zmianami klimatu, prowadzić może do dalszego zanieczyszczania wielu składowych środowiska, tak chętnie wykorzystywanych przez człowieka. Na szczęście zdrowie mieszkańców gminy Złoty Stok nie pogarsza się, ale zagrożenia nie można lekceważyć” – zauważa dr Stachnik w rozmowie z PAP.

Dr Stachnik podkreślił w rozmowie z PAP, że na razie w badaniach naukowcy skupili się na wodach powierzchniowych. Jest jednak wiele badań prowadzonych w Indiach czy na terenie Włoch, które wskazują na to, że zmiany klimatyczne – podnoszenie się temperatur powietrza i wzrost częstotliwości susz – będą zwiększały koncentrację arsenu w wodzie oraz ryzyko zanieczyszczania wód podziemnych. Podkreślił, że jeśli chodzi o zdrowie – trzeba być czujnym.

Naukowcy są przekonani, że woda w Trującej, a być może również szerzej rozumiane środowisko w całej okolicy, wymaga monitoringu. „Chcielibyśmy sprawdzić, jaki jest zasięg zanieczyszczenia arsenem w tej części zlewni. Te pierwsze wyniki to ważna przesłanka, aby rozwinąć nasze badania na granicy medycyny, bioakumulacji zanieczyszczeń i ich wpływu na zdrowie człowieka. Dobrze byłoby również zaangażować medyków i sprawdzić, jak arsen oddziałuje na lokalną ludność; dowiedzieć się, czy woda, którą ludzie pozyskują z okolic dolnego biegu rzeki Trującej, jest bezpieczna. W jej dolnej części jest też duża ilość pól uprawnych. Należałoby przyjrzeć się krążeniu wody i procesom, które mogą powodować ew. akumulację arsenu w produktach rolnych” – dodał dr Stachnik.

PAP – Nauka w Polsce

źródło:

www.naukawpolsce.pap.pl

Możliwość komentowania Dolny Śląsk / Stężenie arsenu w dopływie Nysy Kłodzkiej 100-krotnie przewyższa normy WHO została wyłączona

Lednicki Park Krajobrazowy/ Stanowiska archeologiczne niewidoczne w terenie są najbardziej zagrożone

Powstawanie nowej zwartej zabudowy na terenie Lednickiego Parku Krajobrazowego (woj. wielkopolskie) i intensywna działalność rolnicza wpływają niekorzystnie na stanowiska archeologiczne, która nie są widoczne w terenie – wynika z badań…

Powstawanie nowej zwartej zabudowy na terenie Lednickiego Parku Krajobrazowego (woj. wielkopolskie) i intensywna działalność rolnicza wpływają niekorzystnie na stanowiska archeologiczne, która nie są widoczne w terenie – wynika z badań interdyscyplinarnego zespołu naukowców.

Lednicki Park Krajobrazowy w woj. wielkopolskim utworzono w celu ochrony cennych historycznie i krajobrazowo terenów wokół jeziora Lednica, będących kolebką państwa piastowskiego. Ma on ponad 76 km kwadratowych.

Naukowcy zebrali informacje o dziedzictwie archeologicznym północnej i zachodniej części Parku i ocenili wpływ człowieka na stanowiska archeologiczne.

„Negatywne skutki działalności ludzi na badanym obszarze dotykają głównie stanowisk archeologicznych, które nie są czytelne w krajobrazie. Miejsca takie znikają z przestrzeni, m.in. w wyniku przekształcenia terenów pod zwartą zabudowę” – poinformował PAP lider projektu dr Andrzej Kowalczyk z Muzeum Pierwszych Piastów na Lednicy. Te stanowiska to np. pozostałości po dawnych osadach i cmentarzyska.

Dr Kowalczyk wskazał, że to niekorzystne zjawisko jest szczególnie widoczne po zachodniej stronie jeziora Lednica, gdzie w ostatnich 30 latach powstały nowe osiedla z całą infrastrukturą.

„Kolejnym czynnikiem wpływającym niekorzystnie na stanowiska archeologiczne jest intensyfikacja i modernizacja rolnictwa. Stosowany jest nowoczesny sprzęt rolniczy, który umożliwia głęboką orkę oraz różne formy rolnictwa przemysłowego” – powiedział dr Kowalczyk.

Podjęte działania pozwoliły nie tylko oszacować wpływ procesów działalności człowieka na dziedzictwo archeologiczne, ale także ocenić skuteczność przyjętych form ochrony zabytków archeologicznych.

„Najskuteczniejsze działania zastosowano głównie w odniesieniu do zespołów zabytków o uznanej wartości historycznej, jak np. grodziska i gródki stożkowate” – powiedziała zaangażowana w badania dr Lidia Żuk z Wydziału Archeologii Uniwersytetu im. Adama Mickiewicza w Poznaniu.

Podkreśliła, że takie formy ochrony prawnej, jak na przykład wpis do rejestru zabytków, działają, ale są często niezrozumiałe i uciążliwe dla mieszkańców okolicy Ostrowa Lednickiego, bo utrudniają swobodny rozwój gospodarczy zgodnie z ich oczekiwaniami.

Dlatego – w ocenie naukowców – niezbędne jest przygotowanie odpowiedniej strategii zarządzania dziedzictwem archeologicznym, uwzględniające potrzebę zrównoważonego rozwoju i interesy różnych grup społecznych.

Najważniejszą część parku krajobrazowego stanowi wyspa Ostrów Lednicki, która pełniła od połowy X wieku funkcję jednej z głównych siedzib władzy państwa pierwszych Piastów. Było to centrum historycznego terytorium Polan.

Dr Kowalczyk przypomniał, że do dziś na Ostrowie Lednickim – wyspie na Jeziorze Lednickim – zachowały się relikty rezydencjonalno-stołecznego grodu z ruinami kamiennego pałacu z unikatową kaplicą.

„Mimo intensywnego ruchu turystycznego w tym miejscu średniowieczne relikty zachowały się w dobrym stanie” – stwierdził archeolog.

Na potrzeby projektu badacze wykorzystali szerokie spektrum metod, dzięki którym możliwe było przeanalizowanie zmian w terenie w ostatnich dekadach. Oprócz kwerendy wśród dokumentów archiwalnych zastosowano m.in. lotnicze skanowanie laserowe, zdjęcia lotnicze, badania geofizyczne i powierzchniowe, a także monitoring satelitarny.

W projekcie wzięli udział archeolodzy z Muzeum Pierwszych Piastów na Lednicy we współpracy z badaczami m.in. Uniwersytetu im. Adama Mickiewicza w Poznaniu, Uniwersytetu w Bambergu (Niemcy) i Uniwersytetu Wrocławskiego. Projekt „Antropopresja a dziedzictwo archeologiczne. Przykład Lednickiego Parku Krajobrazowego” dofinansował Minister Kultury i Dziedzictwa Narodowego.(PAP)

Autor: Szymon Zdziebłowski

źródło:

www.naukawpolsce.pap.pl

Możliwość komentowania Lednicki Park Krajobrazowy/ Stanowiska archeologiczne niewidoczne w terenie są najbardziej zagrożone została wyłączona

Ludzkie śmieci – globalny problem zwierząt małych i dużych

Bezkręgowce, ptaki, ryby, płazy, gady i ssaki – także te całkiem duże, jak szopy, psy i koty – giną z powodu śmieci i odpadków pozostawionych przez ludzi na świecie. Najczęstszą…

Bezkręgowce, ptaki, ryby, płazy, gady i ssaki – także te całkiem duże, jak szopy, psy i koty – giną z powodu śmieci i odpadków pozostawionych przez ludzi na świecie. Najczęstszą pułapką są słoiki oraz puszki po napojach i żywności – wynika z podsumowania przedstawionego przez naukowców z Uniwersytetu Wrocławskiego.

Zaśmiecanie środowiska jest ogromnym problemem, który dotyka niemal każdego zakątka Ziemi. Wiele zwierząt nie zdążyło jak dotąd wykształcić odpowiedniej reakcji na kontakt z materiałami pochodzenia antropogenicznego i często myli je z jedzeniem, materiałem budulcowym gniazda czy nawet partnerem. W konsekwencji zwierzęta giną na skutek zaplątania w żyłki lub z głodu – z żołądkami wypełnionymi różnymi odpadkami – zwraca uwagę dr Krzysztof Kolenda z Uniwersytetu Wrocławskiego, pierwszy autor publikacji w „Scientific Reports”, poświęconej globalnemu problemowi śmieci, stanowiących śmiertelne pułapki dla różnych zwierząt.

Zwraca on uwagę, że o wiele słabiej zbadany jest aspekt wpływu pojemników po napojach i żywności na zwierzęta. Chociaż to jedne ze śmieci najczęściej znajdowanych w środowisku – literatura naukowa poświęca temu problemowi niewiele miejsca. Większość prac dotyczy śmiertelności ssaków, które po wejściu do pojemnika, nie potrafiły już go opuścić. Pojedyncze doniesienia sugerują natomiast, że to owady zwabione np. resztką napojów giną w pojemnikach w największej ilości.

Co jakiś czas w Internecie pojawiają się za to zdjęcia i filmiki zwierząt, które utknęły w różnych pojemnikach. Nie tak dawno temu była to sarna z Wrocławia czy niedźwiedź ze słowackiej części Tatr.

Dr Kolenda i grupa naukowców z Uniwersytetu Wrocławskiego: studentka biologii Monika Pawlik, dr hab. inż. Marcin Kadej, dr hab. Adrian Smolis i Natalia Kuśmierek, przyjrzeli się temu problemowi, analizując dane dostępne w internecie. Przy pomocy wybranych słów kluczowych przetłumaczonych na kilka języków przeszukali oni wyszukiwarkę Google Images oraz media społecznościowe, takie jak Facebook, Instagram, Twitter i YouTube. Szukali doniesień o zwierzętach, które utknęły w pojemnikach zalegających w środowisku. Skupili się przede wszystkim na pięciu podstawowych rodzajach pojemników: butelkach, puszkach po napojach, puszkach po żywności, słoikach i kubkach.

Autorzy badań znaleźli łącznie ponad 500 doniesień z 51 krajów na całym świecie. Obejmują one okres od 1999 do 2019 roku. Pojemniki stanowiły zagrożenie dla zwierząt zarówno na terenach zurbanizowanych, jak i w miejscach oddalonych od siedzib ludzkich, np. w parkach narodowych czy na pustyni.

Najczęstszą pułapką były słoiki oraz puszki po napojach i żywności. Najwięcej przypadków dotyczyło ssaków (niespełna 80 proc. wszystkich rekordów) oraz gadów (ok 15 proc.). Były również pojedyncze doniesienia o bezkręgowcach, ptakach, rybach i płazach – relacjonuje dr Kolenda, cytowany w materiale przesłanym przez uczelnię.

„Co zaskakujące, znaczna część znalezionych przypadków dotyczy zwierząt średnich i dużych. Wśród ssaków były to gatunki synantropijne, np. szopy, skunksy i zwierzęta udomowione (psy, koty), ale także ssaki kopytne i duże drapieżniki, jak niedźwiedzie. W przypadku gadów odnotowano przede wszystkim węże i jaszczurki, w tym duże gatunki waranów, jak waran z Komodo” – wymienia.

Ponad 12 proc. zidentyfikowanych kręgowców jest zagrożonych wyginięciem wg IUCN, a kilka kolejnych gatunków figuruje w regionalnych czerwonych księgach. W przypadku bezkręgowców śmierć poniosły niemal wszystkie znalezione w pojemnikach osobniki, natomiast o niebo lepiej sytuacja wyglądała z kręgowcami. W ponad 80 proc. przypadków udało się uratować zwierzę, nawet jeśli był to duży drapieżnik (np. niedźwiedź czy lampart) lub zwierzę jadowite (np. kobra).

Zebrane wyniki uzupełniają listę gatunków narażonych na śmierć w wyrzucanych do środowiska pojemnikach. Są kolejnym przykładem na to, jak ważnym źródłem informacji mogą być zasoby Internetu. Badania potwierdziły też globalną skalę zaśmiecania i jego negatywny wpływ na bioróżnorodność oraz potrzebę natychmiastowych działań redukujących liczbę śmieci w środowisku. Do takich zaliczyć można działania edukacyjne zwiększające świadomość społeczeństwa w zakresie gospodarki odpadami, ale przede wszystkim wprowadzenie systemu kaucyjnego dla butelek i puszek oraz regularne akcje sprzątania środowiska.

Wyniki tych analiz opublikowali w Scientific Reports.

PAP – Nauka w Polsce

Możliwość komentowania Ludzkie śmieci – globalny problem zwierząt małych i dużych została wyłączona

Wikipedia kończy 20 lat/ Prof. Jemielniak: Reklam na Wikipedii nie ma i nigdy nie będzie

Reklam na Wikipedii nie ma i nigdy nie będzie. Suma ludzkiej wiedzy powinna być dostępna za darmo – prof. Dariusz Jemielniak w rozmowie z okazji 20-lecia istnienia Wikipedii mówi o…

Reklam na Wikipedii nie ma i nigdy nie będzie. Suma ludzkiej wiedzy powinna być dostępna za darmo – prof. Dariusz Jemielniak w rozmowie z okazji 20-lecia istnienia Wikipedii mówi o roli tej internetowej encyklopedii, jej wiarygodności, a także o wyzwaniach, z którymi mierzy się projekt.

15 stycznia przypada 20 rocznica powstania Wikipedii. To nie tylko największa internetowa encyklopedia, ale i jeden z najczęściej odwiedzanych portali na świecie. Tylko w Polsce co miesiąc Wikipedię odwiedza ponad 30 milionów użytkowników. A w naszej wersji językowej jest już prawie 1,5 mln haseł.

PAP: Czy ufa pan wszystkiemu, co pan przeczyta w Wikipedii?

Prof. Dariusz Jemielniak z Akademii Lena Koźmińskiego, wikipedysta, autor książki o Wikipedii („Życie wirtualnych dzikich”) członek Rady Powierniczej Wikimedia Foundation: Nie ma źródeł, którym można ufać bezkrytycznie. Badania pokazują, że Wikipedia zawiera teraz nie więcej błędów, niż tzw. źródła profesjonalne. A Wikipedia ma tę ogromną przewagę nad innymi źródłami, że mamy tam kontrolę społeczną: wiemy kto, kiedy i jak edytował dane hasło. I są tam podane odnośniki – źródła, z których zaczerpnięto dane informacje. Tymczasem w klasycznych encyklopediach brak takich odnośników. Nie ma sposobu, żeby tam zweryfikować, skąd wzięła się dana informacja.

Zresztą niedawno Światowa Organizacja Zdrowia stwierdziła, że informacje na temat COVID-19 co na Wikipedii tak świetnie rozwinięte, że będzie tam odsyłać po rzetelną wiedzę dotyczącą koronawirusa. A to koronny dowód na to, że Wikipedia jest źródłem wiarygodnym.

PAP: Czy widać na horyzoncie zagrożenia dla ciągłości projektu?

D.J.: Zagrożeń jest sporo. Z problemem zetknęliśmy się choćby w zeszłym roku, kiedy YouTube zdecydował, że przy kontrowersyjnych w filmikach – np. płaskoziemców lub antyszczepionkowców – umieszczać będzie linki do odpowiednich haseł na Wikipedii. Idea na pierwszy rzut oka ciekawa. Nie wzięto jednak pod uwagę, że wtedy w Wikipedii pojawi się tłum osób, które zaczną zaprzeczać procesowi naukowemu. To nie było rozwiązaniem problemu, ale przerzuceniem go na Wikipedię. Po rozmowach z YouTubem udało się tę sprawę naprostować i przekonać przedstawicieli YouTube’a, że to nie jest właściwa droga do rozwiązania ich problemu.

Problemem dla Wikipedii jest choćby to, że ludzie z bardzo silną agendą, szerzący dezinformację lub na usługach reżimów totalitarnych czy dużych korporacji, mogą próbować na Wikipedii zafałszowywać niektóre informacje. Musimy temu zapobiegać.

PAP: Czy istnieją zabezpieczenia, które sprawią, że Wikipedii nie popsuje kiedyś jakaś armia trolli, która zacznie tam masowo wprowadzać fake newsy?

D.J.: Paradoksalnie zabezpieczeniem jest to, że każdy może Wikipedię edytować. Co prawda każdy może tam wpisać bzdurę, ale jednocześnie wszyscy widzą, co kto i kiedy wpisał – i można to naprawić. Jeśli ktoś w popularnym haśle będzie próbował coś psuć – możemy się spodziewać, że w ciągu kilku sekund zostanie to naprawione. W hasłach mniej popularnych czas reakcji może być dłuższy. Wikipedia ma jednak administratorów, a także doświadczonych edytorów, którzy przeglądają wkład nowych użytkowników czy edycje kontrowersyjnych haseł. Niektóre zaś hasła, szczególnie te najbardziej kontrowersyjne, gdzie np. trwa tzw. wojna edycyjna, mogą być edytowane jedynie przez administratorów. Używamy też algorytmów sztucznej inteligencji do wykrywania wrogich edycji. Na razie nasze zabezpieczenia działają.

PAP: Czy w ciągu ostatnich 20 lat zdarzyły się poważne kryzysy, momenty, kiedy Wikipedia zadrżała w posadach?

D.J.: Pojawiły się kryzysy wzrostu – choćby wtedy, kiedy jako wolontariusze nie byliśmy już w stanie sprawnie utrzymać rozwoju Wikipedii i trzeba było założyć fundację Wikimedia. Kolejnym wyzwaniem okazała się profesjonalizacja: potrzebowaliśmy sztabu prawników, programistów, profesjonalnego zespołu badawczego, aby wytrzymywać konkurencję z najlepszymi w dolinie krzemowej.

PAP: W czym Wikipedia ściga się z największymi korporacjami?

D.J.: Musimy mieć kompetencje organizacyjne i technologiczne, które pozwolą nam oferować produkt nie gorszy niż produkt, który wyprodukowałaby korporacja. Staramy się dostarczać rzetelnej, niezależnej wiedzy. A korporacje często nie mają takiej motywacji. Nawet najwięksi giganci uginają się pod cenzurą reżimów totalitarnych. W Wikipedii nigdy czegoś takiego nie było. A budżet Wikipedii to ok. 100 mln dol. rocznie. Tymczasem duże korporacje mają dużo większe budżety.

PAP: Z jakich źródeł Wikipedia pozyskuje te 100 milionów dolarów rocznie?

D.J.: W większości są to indywidualni darczyńcy, choć są i dotacje od dużych firm. Gdyby jednak większość budżetu pochodziła od kilku korporacji, byłoby ryzyko nacisków. Na szczęście tego problemu nie mamy.

PAP: A jeśli środków od darczyńców zacznie brakować – może się zdarzyć, że na Wikipedii pojawią się kiedyś reklamy?

D.J.: Reklam na Wikipedii nie ma i nigdy nie będzie. Taką decyzję podjęliśmy lata temu. Gdybyśmy byli zmuszeni do zamieszczania reklam, musielibyśmy też pomyśleć o zawieszeniu działania serwisu. Uważamy, że suma ludzkiej wiedzy powinna być dostępna za darmo. A za darmo to nie znaczy “za dane użytkowników” czy za ich czas oglądania reklam.

PAP: Czy w świecie, gdzie dochodzi do silnej polaryzacji poglądów i tego, że wiele tematów jest upolitycznionych, łatwo zachować Wikipedii obiektywność?

D.J.: Może to zabrzmi dziwnie, ale ratuje nas to, że w Wikipedii nikomu nie chodzi o prawdę. Tam chodzi raczej o rzetelne odzwierciedlenie, co wiarygodne źródła mówią na dany temat. A podstawowym kryterium, które rozważamy, nie jest prawda, ale to, czy dane medium jest wiarygodne. Jeśli jest – mogę zrelacjonować, co ono twierdzi.

PAP: Jak wikipedyści oceniają wiarygodność źródeł?

D.J.: W kwestiach naukowych – sytuacja jest prosta. Tu wiadomo, które publikacje są zweryfikowane. A jeśli chodzi o tematy niezwiązane z nauką – np. życiorysy gwiazd czy hasła dotyczące poglądów politycznych, to wiarygodność źródła ma charakter kontekstowy. Jeśli w czasopiśmie “Nie z tej Ziemi” czytamy, że Ziemia jest płaska, nie możemy tego źródła wprowadzić do hasła astronomicznego. Jeśli jednak to czasopismo np. informuje, że wróżbita Maciej urodził się tego a tego dnia, to nie mamy powodu wątpić w wiarygodność tej informacji.

PAP: Czy w Wikipedii ciągle są jakieś obszary wiedzy, w których są dziury?

D.J.: Wikipedia jest 50 razy większa niż Britannica. Ale ciągle jest mnóstwo miejsca, żeby ją rozwijać. Jeśli ktoś używa Wikipedii, to uważam, że jego obowiązkiem etycznym jest albo przekazywać Wikipedii donacje, albo wspomagać ją swoją pracą: czy to poprawieniem przecinka, czy dopisaniem zdania, akapitu, hasła. Im więcej mamy rąk do pracy, tym lepsze dobro wspólne tworzymy. Zachęcałbym wszystkich, żeby rozwijali w Wikipedii hasła z zakresu, którym się interesują. Na pewno okaże się, że sporo informacji ciągle tam brakuje.

Rozmawiała: Ludwika Tomala (PAP)

PAP – Nauka w Polsce

Możliwość komentowania Wikipedia kończy 20 lat/ Prof. Jemielniak: Reklam na Wikipedii nie ma i nigdy nie będzie została wyłączona

Type on the field below and hit Enter/Return to search

WP2Social Auto Publish Powered By : XYZScripts.com
Skip to content