Nauka To Lubię

Oficjalna strona Tomasza Rożka

25 tys. supermasywnych czarnych dziur na ogromnej mapie nieba

Mapę nieba wskazującą ponad 25 tys. aktywnych supermasywnych czarnych dziur przygotował międzynarodowy zespół naukowców – z udziałem Polaków. To największa i najdokładniejsza mapa nieba obserwowanego na ultraniskich częstotliwościach radiowych.  Mapę…

Mapę nieba wskazującą ponad 25 tys. aktywnych supermasywnych czarnych dziur przygotował międzynarodowy zespół naukowców – z udziałem Polaków. To największa i najdokładniejsza mapa nieba obserwowanego na ultraniskich częstotliwościach radiowych. 

Mapę opublikowaną w czasopiśmie „Astronomy and Astrophysics” przygotował międzynarodowy zespół astronomów kierowany przez Francesco de Gasperina z Uniwersytetu w Hamburgu. W skład zespołu weszło dwoje polskich naukowców: Krzysztof Chyży z Uniwersytetu Jagiellońskiego oraz Katarzyna Małek z Narodowego Centrum Badań Jądrowych – poinformowało NCBJ w przesłanym PAP komunikacie.

Na pierwszy rzut oka mapa wygląda jak obraz rozgwieżdżonego nocnego nieba. Mapa ta jednak nie została wykonana w świetle widzialnym, ale pokazuje niebo w zakresie fal radiowych, w których gwiazdy są dla oczu człowieka prawie niewidoczne. Wykonano ją za pomocą interferometru LOFAR (jest to angielski skrót od LOw Frequency ARray, co tłumaczy się jako sieć radiowa na niskie częstotliwości).

Za pomocą tej mapy astronomowie starają się odkryć różne obiekty, które głównie emitują fale o ultraniskich częstotliwościach radiowych. Do takich właśnie obiektów należy między innymi rozproszona materia w wielkoskalowej strukturze Wszechświata, egzoplanety oraz gasnące strumienie plazmy wyrzucane przez supermasywne czarne dziury, które najbardziej interesują naukowców z projektu LOFAR.

Chociaż jest to jedna z największych map w zakresie fal radiowych, to ukazuje jedynie dwa procent nieba. Na dokończenie obserwacji całego nieba północnego trzeba będzie poczekać jeszcze kilka lat.

Najbardziej szczegółowa jak do tej pory mapa nieba w zakresie ultradługich fal radiowych wykonana instrumentem LOFAR. Każda z 25 000 kropek ujawnia supermasywną czarną dziurę pochłaniającą materię z galaktyki, w której się znajduje. Mapa pochodzi z LOFAR LBA Sky Survey (LoLSS) – prowadzonego obecnie przeglądu całego nieba północnego za pomocą niskoczęstotliwościowej części interferometru LOFAR. Żródło: DOI: https://doi.org/10.1051/0004-6361/202140316

Najbardziej szczegółowa jak do tej pory mapa nieba w zakresie ultradługich fal radiowych wykonana instrumentem LOFAR. Każda z 25 000 kropek ujawnia supermasywną czarną dziurę pochłaniającą materię z galaktyki, w której się znajduje. Mapa pochodzi z LOFAR LBA Sky Survey (LoLSS) – prowadzonego obecnie przeglądu całego nieba północnego za pomocą niskoczęstotliwościowej części interferometru LOFAR. Żródło: DOI: https://doi.org/10.1051/0004-6361/202140316

 

Fale radiowe odbierane przez LOFAR i wykorzystane w tej pracy mają długość aż do sześciu metrów, co odpowiada częstotliwości około 50 MHz. Są to najdłuższe fale radiowe kiedykolwiek użyte do obserwacji tak dużego obszaru nieba. „Mapa jest wynikiem wielu lat pracy nad niewiarygodnie trudnymi danymi. Naukowcy należący do projektu musieli opracować i wdrożyć nowe strategie przekształcania sygnałów radiowych w obrazy nieba, ale dzięki temu udało się otworzyć nowe okno na Wszechświat” – czytamy w komunikacie NCBJ.

Wszechświat na tak długich falach radiowych stanowił dla naukowców wielką niewiadomą, bo zarówno obserwacje, jak i dalsza analiza danych są tam niezwykle wymagające. Jonosfera, warstwa wolnych elektronów otaczająca Ziemię, działa jak soczewka nieustannie przesuwająca się nad radioteleskopem. Efekt działania takiej soczewki można porównać do próby oglądania świata, gdy się jest zanurzonym w basenie. Patrząc w górę, widzimy, jak fale na wodzie uginają promienie świetlne i zniekształcają widok. Aby zniwelować w zebranych danych zakłócenia jonosfery, naukowcy wykorzystali superkomputery i opracowali nowe algorytmy do rekonstrukcji zarejestrowanych sygnałów.

LOFAR – jak podaje NCBJ – jest obecnie największym radioteleskopem pracującym na najniższych częstotliwościach, jakie można obserwować z Ziemi. Składa się on z 52 stacji rozmieszczonych w dziewięciu różnych krajach: Holandii, Niemczech, Polsce, Francji, Wielkiej Brytanii, Szwecji, Irlandii, Łotwie i Włoszech. LOFAR jest wspólnym projektem ASTRON, Holenderskiego Instytutu Radioastronomii oraz m.in. uniwersytetów w Amsterdamie, Groningen, Lejdzie, Nijmegen, Niemieckiego Konsorcjum Długich Fal (GLOW), do którego należy Uniwersytet w Hamburgu, polskiej grupy POLFARO zarządzającej 3 stacjami LOFARA w Polsce sfinansowanymi przez Ministerstwo Nauki i Szkolnictwa Wyższego.

PAP – Nauka w Polsce

Możliwość komentowania 25 tys. supermasywnych czarnych dziur na ogromnej mapie nieba została wyłączona

Kraków/ Studenci chcą pomóc rozwiązać problem kosmicznych śmieci

Studenci AGH w Krakowie przeprowadzą eksperymenty związane z wyłapywaniem kosmicznych śmieci z orbity okołoziemskiej. Doświadczenie będzie polegać na opracowaniu algorytmu analizującego ruch i sposób przemieszczania się tego typu obiektów. Projekt…

Studenci AGH w Krakowie przeprowadzą eksperymenty związane z wyłapywaniem kosmicznych śmieci z orbity okołoziemskiej. Doświadczenie będzie polegać na opracowaniu algorytmu analizującego ruch i sposób przemieszczania się tego typu obiektów.

Projekt Black Spheres studenci zrealizują w ramach wygranego przez nich konkursu „Drop Your Thesis!”, organizowanego przez Europejską Agencję Kosmiczną – podała w poniedziałek AGH.

Studenci Michał Błażejczyk, Kamil Switek, Kacper Synowiec oraz Kamil Maraj przeprowadzą eksperyment w marcu na wieży zrzutowej Uniwersytetu w Bremie.

Problem śmieci kosmicznych staje się coraz poważniejszy ze względu na wzrastającą liczbę wysyłanych na orbitę okołoziemską obiektów, które mogą zderzyć się z działającymi satelitami. W wyniku takiej kolizji powstaje chmura tysięcy nowych śmieci kosmicznych i szansa na kolejne zderzenia staje się o wiele większa.

Wyłapywanie śmieci kosmicznych jest wyzwaniem ze względu na niewielkie rozmiary obiektów, wysokie prędkości i duże rozproszenie. Potencjalnie najskuteczniejszym sposobem jest złapanie obiektu za pomocą ramienia robotycznego. Pozwala ono na przechwycenie uszkodzonego satelity bez wyrządzenia szkód i przeprowadzanie operacji naprawczych, a co za tym idzie – odzyskanie kosztownych elementów.

W eksperymencie, który przeprowadzą studenci, rolę uszkodzonego satelity spełni wydrukowana na drukarce 3D kula o średnicy 88 milimetrów i wadze 250 gram, wykonana ze specjalnej żywicy oraz zawierająca w sobie mechanizm z odważnikiem, lub w innej konfiguracji masę na sprężynie. W każdej z pięciu serii doświadczenia zostaną wypuszczone dwie kule, a ich ruch będzie obserwowany za pomocą sześciu kamer rozmieszczonych wewnątrz kapsuły. Wieża zrzutowa w Bremie pozwala na osiągnięcie warunków mikrograwitacji na ok. 9 sekund. Kapsuła, w której będą znajdować się kule, zostaje wystrzelona na 130 metrów i od momentu wystrzału przyspieszenie wewnątrz kapsuły będzie zerowe, ponieważ jej ruch kompensuje grawitację.

Projekt studentów AGH skupia się na obserwacji uszkodzonego satelity i automatycznym przewidywaniu jego pozycji i orientacji. Celem jest m.in. przetestowanie metody przewidywania ruchu w mikrograwitacji. Eksperymenty pozwolą na zebranie danych dotyczących ruchu obiektów ze zmiennym rozkładem masy.

„Mamy nadzieję, że uzyskane podczas eksperymentów wyniki pomogą w rozwiązaniu pilnego i narastającego problemu, jakim są kosmiczne śmieci. To kolejna ciekawa inicjatywa z obszaru przemysłu kosmicznego, w który chcielibyśmy się zaangażować, szczególnie jako Europejski Uniwersytety Kosmiczny, którym AGH jest od zeszłego roku” – powiedział opiekun projektu Black Spheres dr inż. Paweł Zagórski, cytowany w informacji uczelni.

Konkurs dla studentów „Drop Your Thesis” jest organizowany corocznie przez Europejską Agencję Kosmiczną. W ramach konkursu zwycięskie zespoły realizują swoje projekty w profesjonalnych obiektach, których na co dzień używają naukowcy ESA.(PAP)

Możliwość komentowania Kraków/ Studenci chcą pomóc rozwiązać problem kosmicznych śmieci została wyłączona

Sztuczna inteligencja wesprze w diagnozie schizofrenii, a może i autyzmu?

Język, którego używają osoby ze schizofrenią i osoby ze spektrum autyzmu, w pewien sposób różni się od języka innych osób. Naukowcy na przykładzie języka polskiego pokazują, że sztuczna inteligencja może…

Język, którego używają osoby ze schizofrenią i osoby ze spektrum autyzmu, w pewien sposób różni się od języka innych osób. Naukowcy na przykładzie języka polskiego pokazują, że sztuczna inteligencja może wspomóc psychiatrów i psychologów w rozpoznawaniu objawów schizofrenii, a kiedyś – może i autyzmu.

Badacze wzięli na warsztat wypowiedzi pochodzące ze standardowych wywiadów klinicznych (badań diagnostycznych) dorosłych osób ze schizofrenią oraz dzieci ze spektrum autyzmu. W przypadku schizofrenii algorytm uzyskiwał wysoką skuteczność – prawie 90 proc. (a więc mylił się raz na 10 ocen). A w przypadku autyzmu – wypadł słabiej – jego skuteczność wynosiła ok 65 proc. (trafnie rozpoznawał więc dwie na trzy osoby).

Wyniki badań na ten temat ukazały się w „Cognitive Computation” (https://doi.org/10.1007/s12559-021-09834-9). Autorami są małżonkowie dr Aleksander Wawer z Instytutu Podstaw Informatyki PAN i dr Justyna Sarzyńska-Wawer z Instytutu Psychologii PAN, a także dr Izabela Chojnicka z Wydziału Psychologii UW i dr hab. Łukasz Okruszek z IP PAN.

„Naszym narzędziem mogą się zainteresować psychiatrzy czy psychologowie kliniczni. Pomóc im może w diagnozie albo w analizie postępów terapii – zwłaszcza osób ze schizofrenią” – komentuje dr Justyna Sarzyńska-Wawer. A dr Aleksander Wawer dodaje, że takie badania prowadzono już wcześniej dla innych języków – choćby angielskiego, ale jeszcze nie było badane to na języku polskim.

Badacze tłumaczą, że algorytm szkolony był na tekstach zebranych przez psychiatrę podczas badań dotyczących poznania społecznego osób ze schizofrenią. Osoby te m.in. ustnie odpowiadały na pytania ogólne (o siebie i najbliższych), a także abstrakcyjne (np. dlaczego ludzie chorują, a dlaczego wierzą w Boga). Wypowiedzi te później spisano. W taki sam sposób zebrane były dane kontrolne – wypowiedzi innych osób z podobnych grup demograficznych.

W przypadku zaś badania autyzmu, algorytm uczył się na tekstach spisanych z częściowo ustrukturyzowanych wystandaryzowanych badań z udziałem dzieci, adolescentów i osób dorosłych.

„Na tych danych staraliśmy się nauczyć modele sztucznej inteligencji rozpoznawania, które z wypowiedzi to wypowiedzi osób z diagnozą” – mówi dr Aleksander Wawer.

A dr Sarzyńska-Wawer tłumaczy: „W przypadku badania dotyczącego schizofrenii nie były to osoby w aktywnej fazie psychozy. A różnice między osobami zdrowymi a zdiagnozowanymi były trudne do wychwycenia +gołym okiem+. Doświadczony psychiatra, którego poprosiliśmy, żeby na podstawie tych samych tekstów oceniał, czy to schizofrenia, czy nie, radził sobie gorzej niż algorytm”.

To, że język osób ze schizofrenią lub osób ze spektrum autyzmu różni się od języka innych osób wiadomo było od dawna. Naukowcy od wielu lat wyodrębniali cechy języka w autyzmie i schizofrenii. Wcześniejsze badania pokazały np., że osoby ze spektrum autyzmu używają mniej wyrazów nacechowanych emocjonalnie. Jest też różnica jeśli chodzi o stopień abstrakcyjności wypowiedzi. „Z kolei z innych badań wiadomo, że u osób ze schizofrenią jest więcej wypowiedzi o charakterze afektywnym, ale głównie określeń o negatywnym wydźwięku” – mówi psycholog.

Proces diagnostyczny obu tych jednostek bazuje jednak na subiektywnych wskaźnikach behawioralnych. „A my pokazujemy, że proces ten można zautomatyzować, zobiektywizować i usprawnić” – mówi dr Wawer. I dodaje, że akurat w psychiatrii nie ma tak wielu obiektywnych narzędzi jak w innych obszarach nauki, jak choćby badania krwi czy skan mózgu, które by powiedziały z dużą pewnością, że ktoś cierpi na daną chorobę lub zaburzenie, albo nie. „Duża jest więc tu rola psychiatry i psychologa, ich doświadczenie. A przecież zaburzeń, które mogą być do siebie podobne jest dużo. Dodatkowe narzędzie wspomagające diagnostykę może się więc tu przydać” – uważają rozmówcy PAP.

Naukowcy mają nadzieję, że kiedyś tego typu narzędzie mogłoby być stosowane zdalnie, w badaniach przesiewowych. Algorytm pomagałby więc psychiatrom i psychologom klinicznym – na podstawie przesłanych wypowiedzi pisemnych – wybrać osoby, które warto, aby zgłosiły się na dalsze specjalistyczne badania. Dzięki temu można byłoby wcześniej dokonywać diagnozy i zaczynać terapię.

„Nowinką z mojej perspektywy było zastosowanie w tych badaniach metody few-shot – mówi dr Aleksander Wawer. – Sieci neuronowe zwykle wymagają do treningu ogromnych baz. I tak np. żeby nauczyć algorytm rozpoznawania znaków drogowych, potrzeba milionów zdjęć. A my nie mamy milionów przypadków spisanych wypowiedzi osób ze zdiagnozowaną schizofrenią. Mieliśmy do dyspozycji tylko 50 takich tekstów. Wyzwaniem było więc zastosowanie takich metod trenowania sztucznej inteligencji, które wymagają niewielkiej bazy danych. To było unikalne z punktu widzenia informatycznego” – mówi.

PAP zapytała naukowców, czy nie boją się, że narzędzie to może zostać wykorzystane do analizy tekstów osób, które wcale by sobie diagnozy nie życzyły (choćby wypowiedzi osób publicznych). Dr Sarzyńska-Wawer zaznacza, że narzędzie nie zastąpi w diagnozie specjalisty. „Algorytm wykrywa tylko przejawy, które mogą być oznaką schizofrenii. Ale te przejawy wcale nie są równoznaczne z diagnozą” – zwraca uwagę. A dr Wawer dodaje: „Na razie braliśmy pod uwagę dane z wywiadów klinicznych. Jeszcze kawałek drogi, żeby brać pod uwagę dowolny tekst”.

Naukowcy zapowiadają, że jeśli chodzi o wsparcie w diagnozie schizofrenii, to ich narzędzie ma na tyle wysoką skuteczność, że chcieliby wkrótce udostępnić je psychiatrom. (PAP)

Autorka: Ludwika Tomala

źródło:

www.naukawpolsce.pap.pl

Możliwość komentowania Sztuczna inteligencja wesprze w diagnozie schizofrenii, a może i autyzmu? została wyłączona

Naukowcy z PAN: Polacy są zbyt mało aktywni fizycznie

Problem niedostatecznej aktywności fizycznej w Polsce dotyczy nie tylko osób zdrowych, ale chorych, m.in. pacjentów kardiologicznych i onkologicznych – konstatują naukowcy z Komitetu Zdrowia Publicznego Polskiej Akademii Nauk w obszernym…

Problem niedostatecznej aktywności fizycznej w Polsce dotyczy nie tylko osób zdrowych, ale chorych, m.in. pacjentów kardiologicznych i onkologicznych – konstatują naukowcy z Komitetu Zdrowia Publicznego Polskiej Akademii Nauk w obszernym raporcie poświęconym zdrowiu i aktywności fizycznej. 

Raport pt. „Niedostateczny poziom aktywności fizycznej w Polsce jako zagrożenie i wyzwanie dla zdrowia publicznego” opracowało ponad 50 członków zespołu, powołanego przez Komitet Zdrowia Publicznego PAN. Są wśród nich lekarze, m.in. specjaliści medycyny sportowej, kardiolodzy, pediatrzy, interniści, geriatrzy, specjaliści w dziedzinie zdrowia publicznego, socjolodzy, nauczyciele akademiccy, pedagodzy i sportowcy.

Autorzy raportu zaznaczają, że aktywność fizyczna wpływa na stan zdrowia i długość życia. Jej poziom w Polsce oceniają jako niedostateczny, uznając to za „zagrożenie i wyzwanie dla zdrowia publicznego fizycznego i psychicznego we wszystkich grupach wieku, a także w profilaktyce, leczeniu i rehabilitacji wielu chorób przewlekłych”. Jednocześnie piszą, że brak aktywności fizycznej wśród Polaków lub podejmowanie jej w stopniu niewystarczającym dla podtrzymania zdrowia stanowi coraz większe obciążenie dla całego społeczeństwa i gospodarki.

„Na przełomie XX i XXI wieku Polacy byli w gronie najmniej aktywnych społeczności europejskich. Mimo znaczącej poprawy w okresie ostatnich dwudziestu lat, kolejne badania wskazują na niedostateczny poziom regularnej aktywności fizycznej co najmniej 50 proc. dorosłych Polaków oraz bardzo dalekie miejsce Polski w sondażach porównujących poszczególne kraje Unii Europejskiej. Te niepokojące informacje dobrze korespondują z danymi wskazującymi na szybki wzrost częstości nadwagi i otyłości u dzieci, młodzieży oraz dorosłych Polek i Polaków. oraz wskazującymi na niepokojący spadek poziomu sprawności fizycznej dzieci i młodzieży” – alarmują specjaliści medyczni.

Ich zdaniem poziom rekreacyjnej aktywności fizycznej w Polsce jest zdecydowanie niższy od obserwowanego w większości krajów UE. Wyrównanie tego poziomu z przeciętnym w UE oznaczałoby zmniejszenie oczekiwanej liczby zgonów o 14,3 tys., co odpowiada umieralności niższej o 3,5 proc. Jednocześnie wiązałoby się z tym spodziewane wydłużenie trwania życia wyniosłoby 0,4 roku, tyle samo w przypadku obu płci.

Autorzy raportu przytaczają dane Special Eurobarometer 472 z 2018 r., według których aż 56 proc. Polaków nie podejmuje żadnej aktywności fizycznej. W stosunku do lat poprzednich odsetek nieaktywnych stale wzrasta: w 2004 r. było to 46 proc.; w 2008 – 49 proc., w 2013 – 52 proc. Zdaniem naukowców należy się spodziewać, że nadchodzące przemiany struktury wiekowej ludności alarmująco niski stopień aktywności fizycznej młodzieży oraz lockdown wynikający z pandemii przyniosą dalszy wzrost odsetka osób biernych fizycznie.

Naukowcy ostrzegają, że brak aktywności fizycznej powoduje wzrost ryzyka zachorowań na choroby niezakaźne, jak np. otyłość, cukrzyca, choroby układu krążenia, płuc i nowotwory. Pogarsza też zdrowie psychiczne, zwiększa podatność na stres, utrudnia relacje społeczne.

Wśród działań promujących aktywność fizyczną w Polsce autorzy raportu wymieniają aktywności lokalne. Podkreślają znaczenie działań adresowanych do dzieci i młodzieży, promocji aktywności fizycznej w zakładach pracy oraz zapobieganiu skutkom siedzącego trybu życia.

„Uważamy, co oczywiste, że problem niedostatecznej aktywności fizycznej dotyczy nie tylko osób zdrowych, lecz także bardzo licznej populacji osób chorych, w tym szczególnie licznej populacji pacjentów z chorobami serca i naczyń oraz chorobami nowotworowymi” – podkreślają naukowcy. W raporcie zajmują się kwestią aktywności fizycznej w prewencji i w rehabilitacji pacjentów kardiologicznych, a także w profilaktyce i leczeniu chorób nowotworowych.

Raport KZP PAN jest skierowany m.in. do środowisk naukowych i zawodowych zainteresowanych kwestią aktywności fizycznej i promocją zdrowia, a także do osób odpowiedzialnych za politykę zdrowotną, upowszechnianie sportu i kultury fizycznej, pedagogów, lekarzy i dziennikarzy.

Na swojej stronie internetowej umieścił go PZH – Narodowy Instytut Zdrowia Publicznego.

PAP – Nauka w Polsce

Możliwość komentowania Naukowcy z PAN: Polacy są zbyt mało aktywni fizycznie została wyłączona

Naukowcy rozpoczynają badania dotyczące wydobycia regolitu z powierzchni Księżyca

Naukowcy rozpoczynają badania, jak wydobywać regolit (glebę) z powierzchni Księżyca. Regolit to potencjalny materiał budulcowy, np. do wznoszenia baz na Księżycu. Badania te mają być prowadzone w ramach projektu Centrum…

Naukowcy rozpoczynają badania, jak wydobywać regolit (glebę) z powierzchni Księżyca. Regolit to potencjalny materiał budulcowy, np. do wznoszenia baz na Księżycu. Badania te mają być prowadzone w ramach projektu Centrum Badań Kosmicznych PAN.

„Wydobycie regolitu na powierzchni Księżyca w warunkach obniżonej grawitacji” to projekt, dzięki któremu naukowcy chcą dowiedzieć się, jak pozyskać z powierzchni Księżyca regolit – rodzaj luźnej, zwietrzałej skały, pokrywającej skaliste powierzchnie. Księżycowy regolit to nie tylko materia, jaką wyobrażamy sobie zwykle jako „pył księżycowy”, ale też większe kawałki skał, sięgające nawet do głębokości kilku – czy nawet 20 metrów pod powierzchnię Księżyca.

Regolit – jak przypuszczają niektórzy naukowcy – może stanowić potencjalny materiał budowalny (np. do budowy baz). Być może nawet, po silnym podgrzaniu, uda się uzyskiwać z niego tlen.

Projekt kierowany przez dr. hab. Karola Seweryna z Centrum Badań Kosmicznych PAN w Warszawie uzyskał niedawno decyzję o finansowaniu w ramach grantu SONATA BIS NCN. Temat wniosku koncentruje się na wydobyciu i wzbogaceniu regolitu na równikowym obszarze Księżyca. W projekcie biorą udział również zespoły z Uniwersytetu Warmińsko-Mazurskiego i Akademii Górniczo-Hutniczej.

„Eksploracja kosmosu jest przedsięwzięciem globalnym, wymagającym wielu wyzwań technicznych. Jej głównym celem jest rozszerzenie naszej cywilizacji na inne ciała Układu Słonecznego, zaczynając od sąsiednich, wysyłając zarówno roboty, jak i misje załogowe. Przygotowanie do eksploracji wymaga systematycznych badań naukowych, które poszerzają naszą wiedzę o wybranych ciałach Układu Słonecznego, jak również pozwalają poszerzyć wiedzę technologiczną” – czytamy w streszczeniu wniosku.

Wyjaśniono tam, że In-Situ Resource Utilisation (ISRU) to gromadzenie, przetwarzanie, przechowywanie i wykorzystanie materiałów z kosmosu do wykorzystania w kosmosie. „W porównaniu z obecnym podejściem do transportu materiałów i sprzętu z Ziemi, ISRU zmniejsza całkowity koszt misji kosmicznych i powiązane z nim ryzyka. W szczególności technologie związane z ISRU pozwolą w przyszłości na umożliwianie tankowania satelitów i statków kosmicznych paliwem wytworzonym na miejscu, konserwację i naprawę satelitów, ustanowienie gospodarki kosmicznej jak również załogową eksplorację Układu Słonecznego” – tłumaczą badacze we wniosku grantowym.

Zespół naukowców z UWM, którym kieruje profesor Jacek Katzer, będzie odpowiadał za badania dotyczące technologii przetwarzania regolitu w celu pozyskania trwałego i odpowiedniego materiału, który w przyszłości ma posłużyć do budowy baz księżycowych. „Powodzenie tego projektu tak naprawdę pokaże, na ile możliwe jest funkcjonowanie poza naszą planetą: przebywanie na Księżycu, później na Marsie itd. Jeżeli nasze badania potwierdzą, że pokrywający całą powierzchnię księżyca regolit może być powszechnie używany, żeby to nasze pozaziemskie funkcjonowanie umożliwić i ułatwić, będzie to prawdziwy przełom” – komentuje prof. Katzer, cytowany w materiale prasowym z UWM.

W ramach projektu naukowcy chcą m.in. przeanalizować wpływ zredukowanej grawitacji na sprawność systemów wydobywczych, interakcje między ziarnami regolitu podczas wydobycia, a także sprawdzić, jak zoptymalizować proces wzbogacania regolitów przy ograniczeniach związanych ze środowiskiem kosmicznym oraz analizę wpływu próżni na wydajność i niezawodność systemów wydobywczych. (PAP)

Możliwość komentowania Naukowcy rozpoczynają badania dotyczące wydobycia regolitu z powierzchni Księżyca została wyłączona

Polska z satelity: powstała mapa pokrycia terenu Polski

Powstała mapa pokrycia terenu Polski. Opracowana jest na podstawie zdjęć z satelity Sentinel-2 zarejestrowanych w 2020 r. Rozdzielczość przestrzenna mapy to 10 m. Przygotowano ją automatycznie z wykorzystaniem uczenia maszynowego…

Powstała mapa pokrycia terenu Polski. Opracowana jest na podstawie zdjęć z satelity Sentinel-2 zarejestrowanych w 2020 r. Rozdzielczość przestrzenna mapy to 10 m. Przygotowano ją automatycznie z wykorzystaniem uczenia maszynowego – informuje Polska Agencja Kosmiczna.

Przetworzenie bazuje na serii zdjęć zarejestrowanych w okresie od 1 kwietnia do 30 września 2020 r., kiedy występowało zachmurzenie mniejsze niż 20 proc. Mapa dostępna jest w serwisie Geoportal – informuje Polska Agencja Kosmiczna w przesłanym PAP w czwartek komunikacie. Mapa powstała na zlecenie POLSA.

Dzięki mapie możliwa będzie aktualizacja istniejących baz danych oraz obserwacja zmian zachodzących w terenie, w tym monitorowanie miast, infrastruktury drogowej, powierzchni obszarów leśnych, zbiorników wodnych, itp.

Prezentowana mapa pokrycia całej Polski powstała przez połączenie 49 scen oraz „przycięcie” ich wzdłuż granic kraju. Każdą scenę opracowano na podstawie co najmniej 10 zdjęć.

Mapa pokrycia terenu dostępna jest jako osobna warstwa na mapie Polski w portalu Geoportal – jako „Klasyfikacja pokrycia terenu 2020”. Nowa warstwa jest domyślnie wyłączona, aby ją włączyć należy w drzewku warstw rozwinąć grupę „Dane innych instytucji”, a następnie podgrupę „Polska Agencja Kosmiczna”.

PAP – Nauka w Polsce

źródło:

www.naukawpolsce.pap.pl

Możliwość komentowania Polska z satelity: powstała mapa pokrycia terenu Polski została wyłączona

Obserwatorium Pierre Auger udostępnia kolejną „porcję” otwartych danych

Instytucje współpracujące w przedsięwzięciu Pierre Auger udostępniają 10 proc. danych zarejestrowanych za pomocą największego na świecie detektora promieni kosmicznych. Dane te są upubliczniane z nadzieją, że będą wykorzystywane przez profesjonalnych…

Instytucje współpracujące w przedsięwzięciu Pierre Auger udostępniają 10 proc. danych zarejestrowanych za pomocą największego na świecie detektora promieni kosmicznych. Dane te są upubliczniane z nadzieją, że będą wykorzystywane przez profesjonalnych naukowców, obywateli oraz dla inicjatyw edukacyjnych i popularyzatorskich.

Informację przekazał PAP Instytut Fizyki Jądrowej PAN, który aktywnie uczestniczy w pracach Obserwatorium Pierre Auger, zarówno na etapie budowy Obserwatorium w latach 2000-2008, jak też w akwizycji i analizie danych.

„Chociaż Współpraca Auger udostępnia dane w podobny sposób już od ponad dekady, obecne wydanie jest znacznie szersze zarówno pod względem ilości jak i rodzaju danych, co czyni je odpowiednimi zarówno do celów edukacyjnych jak i do badań naukowych” – informuje IFJ PAN w prasowym komunikacie.

Dane są dostępne pod adresem www.auger.org/opendata.

W Obserwatorium Pierre Auger, znajdującym się w Argentynie, promienie kosmiczne są obserwowane pośrednio, poprzez wielkie pęki cząstek wtórnych powstałe w wyniku oddziaływania przychodzącej cząstki kosmicznej z atmosferą. Detektor Powierzchniowy Obserwatorium pokrywa 3000 km2 i składa się z sieci detektorów cząstek oddzielonych od siebie o 1500 m. Obszar ten jest obserwowany przez zestaw teleskopów, które tworzą Detektor Fluorescencyjny, czuły na światło nadfioletowe emitowane w miarę rozwoju wielkiego pęku atmosferycznego, podczas gdy Detektor Powierzchniowy jest czuły na miony, elektrony i fotony, które docierają do ziemi.

Dane z Obserwatorium obejmują zestaw od danych surowych, uzyskanych bezpośrednio z tych i innych instrumentów, poprzez zrekonstruowane zbiory danych uzyskane w wyniku szczegółowej analizy, aż po dane prezentowane w publikacjach naukowych. Niektóre z tych danych są rutynowo udostępniane innym obserwatoriom, aby umożliwić analizy z pełnym pokryciem nieba i ułatwić tzw. badania wielokanałowe (multi-messenger).

Eksploatacja Obserwatorium Pierre Auger, przez Współpracę około 400 naukowców z ponad 90 instytucji w 18 krajach świata, umożliwiła wyznaczenie własności promieni kosmicznych o najwyższych energiach z niespotykaną dotąd precyzją. Te promienie kosmiczne to przede wszystkim jądra powszechnie występujących pierwiastków, które docierają na Ziemię ze źródeł astrofizycznych. Dane z Obserwatorium zostały wykorzystane do wykazania, że cząstki o najwyższych energiach mają pochodzenie pozagalaktyczne. Analizy danych pozwoliły m.in. na scharakteryzowanie typu cząstek, które przenoszą te niezwykłe energie, wśród których znajdują się pierwiastki od wodoru do krzemu. Dane te mogą być również wykorzystane do testowania fizyki cząstek przy energiach poza zasięgiem LHC.

Jak podkreślił kierownik Współpracy, Ralph Engel, cytowany w prasowym komunikacie: „dane z Obserwatorium Pierre Auger, które zostało założone ponad 20 lat temu, są wynikiem ogromnej, długoterminowej inwestycji naukowej, ludzkiej i finansowej ze strony dużej międzynarodowej współpracy. Mają one wyjątkową wartość dla światowej społeczności naukowej”.

Udostępniając publicznie dane i programy do ich analizy, Współpraca Auger wspiera zasadę, że otwarty dostęp do danych pozwoli, w dłuższej perspektywie, na maksymalne wykorzystanie ich potencjału naukowego – czytamy w komunikacie IFJ PAN.

Zespół Auger przyjął klasyfikację swoich danych na cztery poziomy złożoności, wzorując się na klasyfikacji stosowanej w fizyce wysokich energii i zaadaptował ją do swojej polityki otwartego dostępu. Ostatnie dwa poziomy informacji (udostępnienie m.in. zrekonstruowanych zdarzeń wybranych według najlepszej dostępnej wiedzy o wydajności detektora i warunkach panujących w czasie zbierania danych oraz udostępnienie prawie surowych danych związanych z tymi zdarzeniami) zostały dodane w obecnym wydaniu, które zawiera dane z dwóch głównych instrumentów Obserwatorium: 1500–metrowej sieci Detektora Powierzchniowego i Detektora Fluorescencyjnego.

Zbiór danych składa się z 10 proc. wszystkich zdarzeń zarejestrowanych w Obserwatorium, poddanych tym samym procedurom selekcji i rekonstrukcji, które były stosowane przez Współpracę w ostatnich publikacjach.

Współpraca Pierre Auger jest zaangażowana w politykę otwartych danych w celu zwiększenia różnorodności osób mających dostęp do danych naukowych, a tym samym zwiększenia wspólnego potencjału naukowego na przyszłość.

W IFJ PAN prowadzone są zdalne dyżury akwizycji danych. Obecnie Instytut jest zaangażowany w rozbudowę detektorów, która znacznie zwiększy możliwości pomiarowe Obserwatorium.

PAP – Nauka w Polsce

źródło:

www.naukawpolsce.pap.pl

Możliwość komentowania Obserwatorium Pierre Auger udostępnia kolejną „porcję” otwartych danych została wyłączona

Koniec misji polskiego studenckiego satelity: PW-Sat2 zdeorbitował

Satelita PW-Sat2 zaprojektowany przez studentów Politechniki Warszawskiej zakończył swoją misję. We wtorek po 813 dniach uległ deorbitacji i całkowicie spłonął w atmosferze Ziemi. Celem satelity było przetestowanie żagla do deorbitacji…

Satelita PW-Sat2 zaprojektowany przez studentów Politechniki Warszawskiej zakończył swoją misję. We wtorek po 813 dniach uległ deorbitacji i całkowicie spłonął w atmosferze Ziemi. Celem satelity było przetestowanie żagla do deorbitacji – informuje uczelnia.

PW-Sat2 to projekt Studenckiego Koła Astronautycznego (działa przy Wydziale Mechanicznym Energetyki i Lotnictwa Politechniki Warszawskiej). Głównym celem studentów było skonstruowanie i przetestowanie innowacyjnego systemu deorbitacji w postaci żagla o powierzchni 4 m kwadratowych – czytamy w komunikacie na stronie uczelni.

PW informuje, że satelita został wyniesiony na orbitę okołoziemską 3 grudnia 2018 r. na pokładzie rakiety Falcon 9. Podczas głównej części misji pomyślnie zostały przeprowadzone testy wszystkich podsystemów satelity: układu zasilania, układu komunikacji, komputera pokładowego, kamer oraz czujnika Słońca i promieniowania kosmicznego. W tym czasie PW-Sat2 wykonał także pierwsze polskie zdjęcie z pokładu satelity.

Główna faza misji trwała do 28 grudnia 2018 roku, kiedy to nastąpiło otwarcie żagla deorbitacyjnego. PW-Sat2 odebrał sygnał nadany przez stację naziemną z odpowiednim poleceniem. Dotychczas zwinięty w pojemniku żagiel został zwolniony i uzyskał docelowy kształt.

Jeszcze tego samego dnia udało się odebrać pierwsze ujęcia z kamer pokładowych. Niestety, po ok. 3 dniach na żaglu pojawiły się rozerwania, które z czasem objęły około 30-35 proc. powierzchni żagla. Obniżyło to skuteczność jego działania i wydłużyło przewidywany czas deorbitacji z kilkunastu miesięcy do ok. 2,5 roku.

Wraz z otwarciem żagla zespół przeszedł do kolejnej fazy projektu. Od tego czasu regularnie nawiązywano łączność z satelitą: wykonano ponad 5000 sesji komunikacji i odebrano prawie 1500 zdjęć wykonanych przez kamery pokładowe. W tym czasie dwukrotnie zaktualizowano oprogramowanie komputera pokładowego, które pozwoliło na oszczędzanie energii przez zmniejszenie poboru mocy po przysłonięciu paneli słonecznych przez otwarty żagiel.

Przez ostatnie tygodnie – jak informuje PW – zespół operatorów satelity codziennie monitorował stan żagla deorbitacyjnego, wykonując i pobierając zdjęcia oraz dane telemetryczne. Finalna seria zdjęć została wykonana w sobotę 20 lutego 2021 roku, gdy satelita znajdował się na wysokości ok. 312 km. Żagiel pozostał w dobrej kondycji.

Pod koniec misji zdjęcia pokazały obroty żagla względem satelity oraz stopniowe zwiększanie obrotów całego satelity, osiągając prędkość kątową ok. 80 stopni na sekundę.

Satelita do końca misji pozostawał w pełni operacyjny. Ze względu na szybką degradację orbity i trudne do przewidzenia położenie satelity prowadzenie kilku ostatnich sesji było dużym wyzwaniem.

Zgodnie z informacjami PW, ostatnia sesja komunikacyjna miała miejsce w nocy z 22 na 23 lutego, gdy satelita znajdował się na wysokości poniżej 275 km. Dokładnie o godzinie 00:14:14 stacja naziemna w Gliwicach odebrała ostatnią ramkę radiową z PW-Sata2, która zawierała wiadomość: „Goodbye PW-Sat2 and youtu.be/dQw4w9WgXcQ„.

„Deorbitacja nastąpiła najprawdopodobniej rankiem 23 lutego 2021 r. – wyjaśnia Dominik Roszkowski, wicekoordynator PW-Sata2. – Żagiel deorbitacyjny obniżył orbitę satelity z pierwotnej wysokości 590 km w 2 lata 1 miesiąc i 24 dni. Bez zastosowania jakiegokolwiek systemu deorbitacyjnego satelita PW-Sat2 pozostałby na orbicie Ziemi przez około 15 lat”.

Większość dorobku projektu została udostępniona publicznie, m.in. w formie dokumentacji technicznej, publikacji czy też prezentacji konferencyjnych.

Link zawarty w ostatniej wiadomości satelity, to adres do popularnego teledysku Ricka Astleya „Never Gonna Give You Up”. Przesyłanie linku do tego filmiku jest internetowym żartem – to tzw. rickrolling. Ostatnim działaniem PWSat2 było więc „zrickrollowanie” swoich fanów. (PAP)

PAP – Nauka w Polsce

źródło:

www.naukawpolsce.pap.pl

Możliwość komentowania Koniec misji polskiego studenckiego satelity: PW-Sat2 zdeorbitował została wyłączona

Raport: aspekty etyczne i ekologiczne mało interesują konsumentów marek modowych

Młodzi konsumenci marek modowych w nieznacznym stopniu kierują się aspektami etycznymi i ekologicznymi przy zakupie; są jednak świadomi, że produkcja odzieży negatywnie wpływa na środowisko – wynika z raportu studentek…

Młodzi konsumenci marek modowych w nieznacznym stopniu kierują się aspektami etycznymi i ekologicznymi przy zakupie; są jednak świadomi, że produkcja odzieży negatywnie wpływa na środowisko – wynika z raportu studentek Uniwersytetu Ekonomicznego w Krakowie.

Autorki, Kamila i Kinga Pierzchała, przeprowadziły badanie na próbie 130 osób w wieku od 18 do 30 lat, w większości z dużych miast.

Zgodnie z raportem, ankietowani kupując ubrania w nieznacznym stopniu kierują się aspektami etycznymi i ekologicznymi. 90 proc. nie sprawdza, czy ubrania mają certyfikaty gwarantujące poszanowanie postulatów mody etycznej (np. godnych warunków pracy i wynagrodzenia pracownikom), 57 proc. nie interesują certyfikaty mody ekologicznej (np. odzież szyta z odnawialnych materiałów). Trzy piąte młodych konsumentów zadeklarowało, że nie zna marek odzieżowych, które tworzą ubrania w sposób „zrównoważony”.

Najważniejsze dla konsumentów są: cena (93,8 proc.), marka (51,5 proc.) i trendy modowe (50,8 proc.). Na podjęcie decyzji o zakupie w mniejszym stopniu wpływają kraj pochodzenia produktu (8,5 proc.), certyfikaty (6,9 proc.), reklama (6,9 proc.) oraz jakość (6,9 proc.).

Młodzi konsumenci decydują się na zakup odzieży głównie dlatego, że chcą mieć coś nowego w szafie (60 proc.) i zużyli posiadane już ubrania (53,8 proc); chcą też wykorzystać promocje i przeceny.

Respondenci są raczej świadomi (42,3 proc.) lub w pełni świadomi (32,3 proc.), że produkcja odzieży wpływa negatywnie na środowisko naturalne. 9,2 proc. przebadanych ocenia, że produkcja odzieży zdecydowanie nie ma wpływu na środowisko naturalne.

Konsumenci wiedzą, jakimi cechami powinien charakteryzować się produkt wytworzony w ekologiczny sposób – wskazywali odpowiedzi: możliwość ponownego przetworzenia (78,5 proc.), bezpieczeństwo dla środowiska (77,7 proc.), opakowanie nadające się do recyklingu (67,7 proc.). Zdaniem ponad połowy ankietowanych zakup futer i ubrań wyprodukowanych ze skóry naturalnej jest nieetyczny.

„Z punktu widzenia konsumentów proces produkcji odzieży nie jest czynnikiem w znacznym stopniu wpływającym na ich procesy zakupowe. Obrazuje to niewątpliwie, iż konsumenci pomimo pewnej świadomości ekologicznej i wiedzy w tym temacie bardzo często wykazują się swego rodzaju konformizmem lub ignorancją w przeprowadzanych przez nich procesach zakupowych” – stwierdzają autorki raportu.

Wnioskują też, że ankietowani nie zdają sobie sprawy, że ich wybory konsumenckie mają wpływ na przestrzeganie przez marki standardów bezpieczeństwa w fabrykach, wypłacania godziwego wynagrodzenia pracownikom.

„Odpowiedzialny konsument modowy to taki, który myśli nie tylko o sobie, ale też o innych. To osoba mająca wiedzę i świadomość, skąd pochodzą materiały, z których uszyte są ubrania, kto te ubrania uszył oraz jak długą drogę przebyły, zanim trafiły na przysłowiową półkę sklepową. W byciu takim konsumentem pomaga znajomość certyfikatów oraz czytanie informacji na metkach” – piszą autorki i zwracają uwagę, że poliester, nylon i inne włókna syntetyczne stanowią około 60 proc. materiałów, z których szyte są ubrania.

Raport „Świadomość etyczna i ekologiczna młodych konsumentów marek modowych” powstał w ramach działalności Koła Naukowego Wielokierunkowej Indywidualnej Ścieżki Edukacyjnej UEK. (PAP)

autor: Beata Kołodziej

Możliwość komentowania Raport: aspekty etyczne i ekologiczne mało interesują konsumentów marek modowych została wyłączona

Licealiści zbudowali minisatelitę

CanSat to konkurs, który polega na zbudowaniu minisatelity wielkości puszki po napoju. Satelita zostanie wysłany na 3 km, po czym zacznie spadać na spadochronie. Satelita musi wykonać dwie misje: podstawową…

CanSat to konkurs, który polega na zbudowaniu minisatelity wielkości puszki po napoju. Satelita zostanie wysłany na 3 km, po czym zacznie spadać na spadochronie. Satelita musi wykonać dwie misje: podstawową oraz dodatkową.

Misja podstawowa jest taka sama dla wszystkich zespołów i polega na tym, że w trakcie opadania CanSat ma mierzyć i wysyłać do stacji naziemnej dane telemetryczne takie jak temperatura i ciśnienie. Misję dodatkową każdy zespół wymyśla i projektuje. Nasza zakłada, że satelita po wylądowaniu wwierci się i pobierze próbkę gleby.

Możliwość komentowania Licealiści zbudowali minisatelitę została wyłączona

Tranzystory z naładowanych nanocząstek złota – odporne na wodę, zginanie i iskry

Polsko-chińskiemu zespołowi udało się uzyskać coś, co dla fizyków było dotąd nieoczywiste: tranzystor wykonany nie z tradycyjnego materiału półprzewodnikowego, ale z nanocząstek metalu. Takie tranzystory mają być odporne na zginanie,…

Polsko-chińskiemu zespołowi udało się uzyskać coś, co dla fizyków było dotąd nieoczywiste: tranzystor wykonany nie z tradycyjnego materiału półprzewodnikowego, ale z nanocząstek metalu. Takie tranzystory mają być odporne na zginanie, działanie wody, iskry, a nanosi się je jak farbkę.

Tranzystory powszechnie stosowane są w urządzeniach codziennego użytku – znajdują się np. w układach scalonych czy procesorach. Mogą kontrolować przepływ ładunków elektrycznych – np. wzmacniać sygnał lub działać jak jego przełącznik. Dotąd do budowy tranzystorów niezbędne były materiały półprzewodnikowe – np. german, krzem, azotek galu, węglik krzemu. Półprzewodniki mają bowiem tzw. strukturę pasmową – są w nich pasma przewodzenia, dzięki którym prąd nie płynie przez nie w sposób tak oczywisty, jak np. przez metale. A przepływ prądu można modulować.

Teraz zespół kierowany przez prof. Bartosza Grzybowskiego (IChO PAN oraz koreański UNIST) i prof. Yonga Yana (Uniwersytet Chińskiej Akademii Nauk) pokazał, jak tranzystory wytwarzać z nanocząstek metalu – a dokładniej z nanocząstek złota oblepionych ligandami o odpowiednim ładunku elektrycznym. Wyniki ukazały się w „Nature Electronics” (https://www.nature.com/articles/s41928-020-00527-z).

„Pokazujemy, że można zrobić tranzystor i układ scalony nie wykorzystując tradycyjnego półprzewodnika, ale metal. A to dla fizyków było dotąd dość nieoczywiste” – uśmiecha się prof. Grzybowski. I dodaje, że metale mogą się zachowywać jak półprzewodnik pod warunkiem, że dzieje się to w nanoskali – i to nie za pomocą tzw. blokady Coulomba, a dzięki osiągnięciom z zakresu chemoelektroniki – stosunkowo nowego obszaru wiedzy.

„Mimo że materiał jest metalem, poruszające się wokół niego jony mogą tworzyć lokalne pola elektryczne i wywoływać efekty podobne do tych, co w półprzewodnikach” – mówi w rozmowie z PAP prof. Bartosz Grzybowski.

Naukowiec wyjaśnia, że rozwiązanie to może otworzyć nowe możliwości dla zastosowań tranzystorów. Tranzystory budowane z tradycyjnych półprzewodników nie były bowiem odporne na zginanie, wilgoć, czy wyładowania elektryczne, trzeba było je nanosić na powierzchnię w próżni, a same półprzewodniki – krystalizować w wysokich temperaturach (np. w procesie Czochralskiego).

„A nasz tranzystor można zginać i nic mu się nie stanie. Albo zanurzyć w wilgotnej atmosferze lub poddać działaniu silnych wyładowań elektrycznych i dalej będzie działać, bo wilgoć mu wręcz sprzyja, a iskry nie szkodzą. To się naprawdę trudno psuje” – uważa prof. Grzybowski.

Dodaje, że nanocząstki złota, z których powstaje tranzystor, są rozpuszczalne w wodzie i w alkoholu. „Nawet chciałem to kiedyś nazwać vodka electronics” – śmieje się badacz.

Tłumaczy, że nakładanie warstw jest proste: polega na tym, że bierze się mieszaninę z nanocząstkami i wylewa ją na powierzchnię. Rozpuszczalnik odparowuje, a cieniutka warstwa nanocząstek przywiera do powierzchni. Konstruowanie tranzystora wygląda więc trochę jak malowanie farbką. Nie są do tego potrzebne próżnia czy też wysokie temperatury.

Chemik wskazuje, że takie rozwiązanie nie zastąpi pewnie tradycyjnych półprzewodnikowych procesorów w komputerach, ale w niektórych zastosowaniach mogłoby być ciekawą alternatywą dla zwykłej elektroniki. Nowe tranzystory mogłyby posłużyć np. w zastosowaniach pod wodą czy w środowisku żrącym. W dodatku, jak mówi naukowiec, układy te być może dałoby się wykorzystać jako sensory niektórych substancji chemicznych. „Takie nanocząstki w obecności roztworu mogłyby wykrywać toksyczne substancje i przetworzyć je na sygnał elektryczny” – uważa.

We wcześniejszej pracy w „Science Advances” naukowcy pokazali, jak z takich samych elektrycznie naładowanych nanocząstek złota wytwarzać układy logiczne – skonstruowali przy ich użyciu np. radio. Nanocząstki działały tam m.in. jako antena, element przetwarzający sygnały elektryczne na dźwiękowe. Teraz poszli o krok dalej i pokazali, jak z nanocząstek złota wytwarzać tranzystory i układy scalone.

Pytany, czy nanocząstki złota nie są zbyt kosztownym materiałem, mówi: „warstwy, które są nam potrzebne w tranzystorze, mają mikrony grubości. A to oznacza, że parę gramów złota wystarczyłby nam więc pewnie, żeby pomalować np. całe mieszkanie.”

I tłumaczy, że prawdopodobnie będzie się dało skonstruować tranzystory z użyciem nanocząstek innych metali, ale akurat nanocząstki złota są wytrzymałe i nietoksyczne. A jego zespół pracuje nad nimi od ponad dekady (w poprzednim roku zespół prof. Grzybowskiego pokazał w „Nature Nanotechnology”, że naładowane nanocząstki złota – o nieco innej architekturze niż te z tranzystorów – mogą się przydać w selektywnym zwalczaniu komórek nowotworowych).

„Pokazujemy, jak z nanocząstek złota, nad którymi pracowaliśmy od lat, zrobić elektronikę opartą nie na półprzewodnikach, ale na metalach i elektronikę nieczułą na różne nieprzyjazne bodźce” – podsumowuje.

PAP – Nauka w Polsce, Ludwika Tomala

Możliwość komentowania Tranzystory z naładowanych nanocząstek złota – odporne na wodę, zginanie i iskry została wyłączona

Raport IMGW: ubiegły rok należy zaliczyć do ekstremalnie ciepłych

Dwie fale ciepła – w styczniu i lutym – przyczyniły się do tego, że ubiegły rok został zaliczony przez ekspertów do „ekstremalnie ciepłych”. Średnia temperatura powietrza w 2020 roku w…

Dwie fale ciepła – w styczniu i lutym – przyczyniły się do tego, że ubiegły rok został zaliczony przez ekspertów do „ekstremalnie ciepłych”. Średnia temperatura powietrza w 2020 roku w Polsce wyniosła 9,9 st. C, to więcej o 1,6 st. C od średniej z lat 1981-2010 – wynika z opracowania IMGW-PIB „Klimat Polski 2020”. 

Najcieplejszym regionem Polski w roku 2020 była zachodnia część pasa nizin, gdzie średnia roczna temperatura wynosiła 10,6 st. C. Następnym niezwykle ciepłym regionem była zachodnia część pasa pojezierzy. Tam wartość średniej rocznej temperatury powietrza osiągnęła 10,4 st. C – wynika z opracowania „Klimat Polski 2020” Instytutu Meteorologii i Gospodarki Wodnej – Państwowego Instytutu Badawczego.

Najcieplejszym miesiącem ubiegłego roku był sierpień. Średnia wartość temperatury w tym miesiącu wynosiła 19,8 st. C i była wyższa o 2 st. C od średniej wieloletniej wartości temperatury dla tego miesiąca. Z kolei najchłodniejszym miesiącem był grudzień. Średnia miesięczna wartość temperatury osiągnęła 1,9 st. C i była o 2,2 st. C wyższa od normy klimatologicznej.

„Szczególnie ciepły był początek roku, temperatura w styczniu – zazwyczaj najzimniejszym miesiącu w roku – była wyższa od normy klimatologicznej o 3,7 st. C, a w lutym aż o 4,6 st. C” – czytamy w opracowaniu.

Z kolei szczególnie zimny w ubiegłym roku był maj. Średnia temperatura w tym miesiącu wynosiła bowiem 11 st. C i była niższa o 2,3 st. C od normy.

Zaznaczono przy tym, że maj w Polsce należy do najbardziej zmiennych pod względem termicznym miesięcy. Zdarza się, że temperatura w maju jest wysoka – tak jak w roku 2018, kiedy wynosiła 16,4 st. C i pozwalała na zakwalifikowanie tego miesiąca jako miesiąca letniego. Może być również niska, jak w roku 1980, kiedy to osiągnęła 9,3 st. C. Miesiącem zbliżonym do normy był natomiast lipiec, w którym anomalia w stosunku do normy wynosiła jedynie –0,1 st. C.

„Ze względu na to, że miesiące zimowe były ekstremalnie ciepłe, temperatura powietrza zimą, tj. w okresie grudzień 2019 – luty 2020, wynosiła 3,1 st. C i była aż o 3,9 st. C wyższa od normy klimatologicznej” – czytamy w opracowaniu. Była to najcieplejsza zima od połowy 20. wieku i od początku pomiarów instrumentalnych na ziemiach polskich.

Najwyższą temperaturę w całym ubiegłym roku zanotowano 8 sierpnia w Słubicach i było to 35,3 st. C. Z kolei najniższą temperaturę na poziomie 2 m zarejestrowano 25 marca w stacji w Zakopanem i było to –13 st. C.

„Rok 2020 był drugim najcieplejszym rokiem od początku regularnych pomiarów instrumentalnych na ziemiach polskich. Cieplejszy był jedynie rok 2019. Zima 2019/2020, tj. okres od grudnia 2019 do końca lutego 2020, była najcieplejszym sezonem zimowym w historii pomiarów temperatury” – napisano.

Według badań ekspertów temperatura powietrza w Polsce od 1951 roku wzrosła o nieco więcej niż 2 st. C. Przy czym w pasie pojezierzy oraz na obszarze nizin, Podkarpacia i Karpat temperatura powietrza w okresie ostatnich 70 lat wzrosła o 2,1 st. C.

Najwolniej temperatura powietrza wzrasta w Sudetach – 1,8 st. C, zaś od początku drugiej połowy 20. wieku temperatura zimy wzrosła o 2,5 st. C, a lata o 1,9 st. C.

W ubiegłym roku silne zróżnicowanie przestrzenne cechowało opady atmosferyczne, a ich sumy roczne zawierały się w przedziale od 80 do 140 proc. normy wieloletniej.

„W ciepłej porze roku wystąpiły liczne przypadki gwałtownych i niezwykle wydajnych opadów, powodujące lokalne wezbrania i podtopienia. Podobne gwałtowne opady wystąpiły w październiku. Średnia obszarowa suma opadów w Polsce w 2020 roku wynosiła 645,4 mm i była o 6 proc. wyższa od normy klimatologicznej” – napisano w opracowaniu.

Silny deficyt opadów zanotowano w Polsce północno-zachodniej oraz w pasie Wybrzeża i Pobrzeży Południowobałtyckich. „Zmienność śródroczną cechowały kilkudziesięciodniowe okresy bezopadowe, zwiastujące wystąpienie suszy atmosferycznej i inicjujące zjawisko suszy glebowej” – zauważają autorzy opracowania. Znaczny deficyt opadów zanotowano również na tzw. izolowanych obszarach wewnątrz kraju.

Liczba godzin, w których świeciło słońce, mieściła się w przedziale od 1585 godzin w Mławie do 2202 godzin w Jeleniej Górze. Była wyższa od normy wieloletniej o wartości wynoszące od 100 do prawie 600 godzin.

Instytut Meteorologii i Gospodarki Wodnej – Państwowy Instytut Badawczy od ponad 100 lat na bieżąco monitoruje klimat Polski, prowadząc obserwacje i pomiary wszystkich istotnych zmiennych klimatycznych. Instytut informuje m.in. organy administracji publicznej o stanie systemu klimatycznego oraz o zagrożeniach wynikających ze zmienności i zmiany klimatu.(PAP)

autor: Marcin Chomiuk

Możliwość komentowania Raport IMGW: ubiegły rok należy zaliczyć do ekstremalnie ciepłych została wyłączona

Na 548. urodziny Kopernika odtworzono napój według jego receptury

Napój z dodatkiem przypraw i miodu według receptury Mikołaja Kopernika odtworzono na 548. urodziny astronoma. Kopernik był nie tylko genialnym astronomem, ale i lekarzem, którego sława sięgała daleko poza granice…

Napój z dodatkiem przypraw i miodu według receptury Mikołaja Kopernika odtworzono na 548. urodziny astronoma. Kopernik był nie tylko genialnym astronomem, ale i lekarzem, którego sława sięgała daleko poza granice Warmii – przekonują władze powiatu olsztyńskiego.

W piątek w starostwie powiatowym w Olsztynie odbyła się konferencja z okazji 548. urodzin najbardziej znanego mieszkańca Warmii.

„Dla nas Mikołaj Kopernik jest przede wszystkim genialnym astronomem, który za sprawą swojego dzieła +O obrotach sfer niebieskich+ opisującego heliocentryczny model świata+, stworzył podwaliny pod rozwój nowożytnej cywilizacji” – powiedział rzecznik starostwa Wojciech Szalkiewicz.

Dla współczesnych sobie Kopernik był przede wszystkim lekarzem, którego sława sięgała daleko poza granice Warmii, gdzie przez czterdzieści lat mieszkał, pracował, obserwował niebo i leczył. „Zawsze i chętnie niósł pomoc chorym i cierpiącym, tak najznamienitszym jak i najbiedniejszym. Doktor Nicolai nie dokonał wprawdzie żadnego przełomu w medycynie, ale pozostało po nim kilka podręczników lekarskich z jego biblioteczki, sporo notatek medycznych oraz kilka oryginalnych recept” – wyjaśnił Wojciech Szalkiewicz.

W jednej z nich zalecał, by wziąć wina sublimowanego dwie kwarty, ususzonych jagód figi 4 drachmy, cynamonu, goździków i szafranu po 5 drachm. Zmieszajcie i przecedźcie do czystego naczynia – pisał Kopernik. Dalej zalecał, by używać napoju „wygodnie i niewstrzemięźliwie” oraz wskazywał, że „jeżeli Bóg zechce, to napój pomoże!”.

Na 548. urodziny Mikołaja Kopernika odtworzono napój z receptur sprzed stuleci. „Znając uznanie, jakim cieszył się doktor Mikołaj, z pełnym zaufaniem można sięgnąć po ten napój i skosztować warmińskiego panaceum sprzed stuleci”- powiedział Szalkiewicz.

Powiat olsztyński promuje Mikołaja Kopernika jako najwybitniejszego mieszkańca Warmii. Urodzony w Toruniu astronom, 40 lat swego życia spędził na Warmii: w Olsztynie, gdzie był administratorem dóbr kapitulnych i gdzie musiał zmierzyć się z przygotowaniem do obrony Olsztyna przed Krzyżakami oraz we Fromborku, gdzie pełnił funkcję kanonika Warmińskiej Kapituły Katedralnej i gdzie znajduje się jego grób.

Zarówno szlak świętej Warmii jak i szlak Kopernikowski to miejsca związane z pobytem tego wybitnego astronoma w tej części Polski oraz z innymi znakomitymi postaciami regionu takimi jak: Jan Dantyszek, Stanisław Hozjusz, Marcin Kromer i Ignacy Krasicki. (PAP)

autor: Agnieszka Libudzka

Możliwość komentowania Na 548. urodziny Kopernika odtworzono napój według jego receptury została wyłączona

Eksperci: helikopter z Perseverance może dać kolejny przełom w badaniach Marsa

Dzięki misji łazika Perseverance po raz pierwszy w eksploracji Kosmosu wykorzystany zostanie helikopter. Zdaniem ekspertów może przyczynić się on do rewolucji w eksploracji Marsa, umożliwiając poznawanie znacznie większych obszarów Czerwonej…

Dzięki misji łazika Perseverance po raz pierwszy w eksploracji Kosmosu wykorzystany zostanie helikopter. Zdaniem ekspertów może przyczynić się on do rewolucji w eksploracji Marsa, umożliwiając poznawanie znacznie większych obszarów Czerwonej Planety niż do tej pory.

W czwartek wieczorem amerykański łazik Perseverance wylądował na Marsie. Naukowcy z NASA stawiają kilka celów naukowych dla misji Perseverance. Poszukiwać on będzie śladów organicznego życia, wykonywać będzie pomiary składu chemicznego i mineralnego powierzchni, a także temperatury, prędkości i kierunku wiatru, ciśnienia, wilgotności względnej i właściwości unoszącego się w atmosferze pyłu.

Ma też kilka innych do przeprowadzenia testów, czasem zaskakujących. Na jego pokładzie znalazł się np. helikopter-dron Ingenuity. Waży niecałe dwa kilogramy i zasilany jest panelami słonecznymi. Zdaniem prezesa Europejskiej Fundacji Kosmicznej Łukasza Wilczyńskiego może być on „hitem” tej misji. „Nigdy w historii eksploracji Kosmosu nie było pojazdu latającego” – mówił podczas towarzyszącej lądowaniu łazika internetowej transmisji. „Jego głównym zadaniem jest po prostu polecieć” – dodał.

„Ma wypaść z ‚brzucha” (łazika – PAP), ponieważ jest w zasobniku pod spodem. Ma się poprawnie rozłożyć, bo jest złożony w kostkę, naładować swoje akumulatory i wykonać kilka krótkich testów. Mają to być testy 90 sekundowe. To krótko, ale pierwszy lot braci Wright trwał 12 sekund” – tak zadania helikoptera opisała Ewelina Zambrzycka-Kościelnicka z Centrum Badań Kosmicznych PAN.

Zaznaczyła, że choć takie rozwiązanie może wydawać się całkowitą nowością, to już w latach 90. XX były wyliczenia jak latać w marsjańskim powietrzu. Istniały też już matematyczne wzory, ale kłopot stanowiły materiały, z których można byłoby taki pojazd wykonać.

Helikopter – oceniał Wilczyński – może okazać się rewolucją w eksploracji Marsa. Mars jest olbrzymią planetą, ale łaziki, które się po nim poruszają przejechały dotąd bardzo niewielkie odległości. „Gdy jako ludzkość dostaniemy do ręki funkcjonujący helikopter, to następne misje z wykorzystaniem tego typu urządzeń będą absolutną rewolucją. Będziemy mogli eksplorować o wiele więcej powierzchni Marsa. Zdjęcia satelitarne nie wszystko mogą nam pokazać, czasami trzeba mieć ujęcia bliższe. Ta misja może być więc rewolucyjna” – mówił Wilczyński.

Innym ciekawym eksperymentem łazika jest – zdaniem ekspertów – sprawdzenie możliwości wykorzystania lokalnych materiałów, które mogłyby się przydać do budowy ewentualnych kolonii na Marsie. „Plany są takie, by przyszłe kolonie marsjańskie mogły powstawać z tych minerałów, które są tam na miejscu, choćby po to, by tego wszystkiego nie wysyłać. Na Ziemi już są laboratoria, które symulują regolit księżycowy, jeśli poznamy bliżej strukturę Marsa to będziemy mogli ten regolit symulować lepiej” – mówił Wilczyński.

Łazik przetransportował też ze sobą materiały, z których być może będą wykonywane skafandry kosmiczne. Sprawdzi jak zachowają się one w marsjańskich warunkach. Ma też spróbować wygenerować tlen – wszystko z myślą o przyszłych koloniach na Czerwonej Planecie. „Jeśli powstanie jakaś kolonia, to ludzie nie przeżyją w niej bez tlenu. Konieczność wytworzenia go na różne sposoby (…) jest niezbędna i jeśli nie przeskoczymy tej trudności, to nie ma o czym rozmawiać” – podsumowała Zambrzycka-Kościelnicka.

Transmisję z lądowania przygotowały Europejska Fundacja Kosmiczna, Astrofaza, Focus, Centrum Badań Kosmicznych PAN i European Rover Challenge. (PAP)

Możliwość komentowania Eksperci: helikopter z Perseverance może dać kolejny przełom w badaniach Marsa została wyłączona

Firmy z Polski i USA podpisały list intencyjny dot. wydobycia helu-3 na Księżycu

Krakowski start-up Solar System Resources Corporation podpisał z amerykańską firmą US Nuclear Corp. list intencyjny odnośnie dostaw z Księżyca cennego izotopu – helu-3. Małopolskie przedsiębiorstwo zamierza w projekcie współpracować z…

Krakowski start-up Solar System Resources Corporation podpisał z amerykańską firmą US Nuclear Corp. list intencyjny odnośnie dostaw z Księżyca cennego izotopu – helu-3. Małopolskie przedsiębiorstwo zamierza w projekcie współpracować z innymi podmiotami, w tym z polskimi ośrodkami naukowymi.

Dwie firmy – Solar System Resources Corporation Sp. z o. o. z Krakowa i amerykańska US Nuclear Corp. – podpisały w lutym list intencyjny na bezzałogową ekspedycję górniczą na Księżyc, której celem jest wydobycie niezwykle rzadkiego i cennego izotopu – helu-3. List sygnowano w Canoga Park (Kalifornia) oraz w Krakowie.

Jak podaje krakowski start-up, to pierwsze na świecie transatlantyckie porozumienie tego typu. „Podpisane porozumienie jest historyczne. Wierzymy, że przyczyni się ono w niedalekiej przyszłości do zaspokojenia rosnących potrzeb energetycznych świata i przyspieszy rozwój światowej branży kosmicznej – zwłaszcza w obszarze górnictwa kosmicznego. Wierzymy również, że przyczyni się ono do wzrostu innowacyjności w Polsce, zachęci ludzi do zakładania i inwestowania w startupy kosmiczne, a młodych ludzi zachęci do wyboru studiów technicznych. Chcielibyśmy prosić rząd o wsparcie dla obiecującej branży kosmicznej, przyspieszenie prac nad podpisaniem porozumienia o współpracy z NASA, przystąpienia Polski do programu ARTEMIS oraz jeszcze ważniejszego ARTEMIS ACCORDS o co będziemy wytrwale zabiegać” – mówi Polskiej Agencji Prasowej dr inż. Adam Jan Zwierzyński, dyrektor i współzałożyciel przedsiębiorstwa.

W podpisanym Letter of Intent firma Solar System Resource Corporation Sp. z o. o. wyraża wolę dostarczenia 500 kg izotopu helu-3 do roku 2028-32. Natomiast US Nuclear Corp. wyraża wolę odbioru tej dostawy. Firmy nie ujawniają uzgodnionej ceny, ale jak podaje polska strona, obecna cena rynkowa helu-3 wynosi 16.6 miliardów dolarów za tonę.

Powodów tak wysokiej ceny jest kilka. Jeżeli uda się opanować fuzję termojądrową, w przyszłości izotop ten mógłby być paliwem do reaktorów, które będą produkowały czystą energię, bez wytwarzania radioaktywnych odpadów czy gazów cieplarnianych. Eksperci z polskiej firmy szacują, że 200 ton helu-3 wystarczyłoby, aby pokryć globalne roczne zapotrzebowanie energetyczne całej ludzkości. To nie wszystko. Hel-3 wykorzystuje się też w badaniach naukowych, kriogenice, komputerach kwantowych, urządzeniach do badań MRI, a także w detektorach materiałów radioaktywnych stosowanych na lotniskach i przejściach granicznych.

„Zyski mogą być gigantyczne, ponieważ substancje, które mają być wydobywane, są niezwykle rzadkie na Ziemi, jeśli chodzi o ich użycie w generowaniu energii fuzyjnej, skanowaniu medycznym, wytwarzaniu elektroniki, samochodów, czy telefonów komórkowych. Nie ma gwarancji, że pierwsze misje przyniosą zysk. Jednak kolejne mogłyby być zyskowne w skali miliardów czy nawet bilionów dolarów i złotych” – przekazał Polskiej Agencji Prasowej Bob Goldstein CEO US Nuclear Corp.

Jak wyjaśniają eksperci Solar System Resources Corporation, zasoby helu-3, jakimi dysponuje ludzkość, to produkt uboczny konserwacji broni jądrowej, która teoretycznie może dostarczyć około 300 kg tego izotopu i dzięki niej można produkować około 15 kg helu-3 rocznie. Jednak hel-3 występuje w relatywnie dużych ilościach na Księżycu, gdzie jest go 100 milionów razy więcej niż w złożach na Ziemi – wyjaśniają specjaliści krakowskiej firmy. Co więcej, księżycowy Hel-3 się odnawia, ponieważ jego źródłem jest wiejący nieustannie wiatr słoneczny.

Zapytany o wykonalność przedstawianych planów prezes US Nuclear Corp powiedział: „Z pewnością możliwa jest podróż na Księżyc. Moim zdaniem jasne jest, iż misja na Księżyc z wydobyciem na nich materiałów może zakończyć się sukcesem” – twierdzi Goldstein, poproszony przez PAP o komentarz.

Firmy wydały wspólne oświadczenie prasowe będące w treści preambułą w podpisanym liście: „W związku z dramatycznym kryzysem klimatycznym i pandemicznym i pilną potrzebą znalezienia nowych alternatywnych źródeł ekologicznej, czystej, bezpiecznej i stabilnej energii, akceptowalnych przez międzynarodowe środowisko ekologiczne, które zaspokoją potrzeby dynamicznie rozwijającej się światowej populacji i ekonomii XXI wieku, które nie będą zaburzać ekosystemów w związku z eksploatacją surowców energetycznych, mając również na uwadze brak możliwości pełnego zaspokojenia tych potrzeb w przyszłości przez klasyczne odnawialne źródła zielonej energii – potrzebę ich dywersyfikacji, Solar System Resources Corporation Sp. z o. o., która jest innowacyjnym przedsiębiorstwem w sektorze górnictwa kosmicznego oraz US Nuclear Corp., który jest innowacyjnym przedsiębiorstwem w sektorze energii termojądrowej i sektorze urządzeń jądrowych, zdecydowały się ustanowić współpracę w obszarze wspólnego rozwoju i wspierania energetyki termojądrowej celem efektywnego poszukiwania i rozwiązania nierozwiązanego problemu taniej i czystej energii”.

US Nuclear Corp. to amerykańska korporacja nuklearna stanowiąca spin-off Projektu Manhattan. Firma uczestniczy w zaawansowanych projektach rządu i armii USA, zaangażowała się także w prace nad wykorzystaniem fuzji jądrowej do produkcji energii i innych zastosowań oraz do produkcji rzadkich izotopów stosowanych w medycynie.

Z kolei Solar System Resources Corporation Sp. z o. o. to spin-off wywodzący się z Wydziału Wiertnictwa, Nafty i Gazu AGH, specjalizujący się górnictwie kosmicznym. Firma deklaruje, iż ma ambicje stać się globalną amerykańsko-polską firmą prowadzącą rozpoznanie i weryfikację in-situ złóż surowców kosmicznych, a następnie ich eksploatację. Start-up aktywnie lobbuje też za silniejszą współpracą Polski z USA, NASA, przystąpieniem Polski do programu Artemis i jeszcze ważniejszego Artemis Accords, a także za mocniejszym zaangażowaniem Unii Europejskiej w eksploatację surowców kosmicznych we współpracy z USA. Obecnie współdziała już z inną polską firmą SatRevolution S.A., a także Instytutem Fizyki Jądrowej i Akademią Górniczo-Hutniczą w Krakowie.

W prace nad lokalizacją i pozyskiwaniem Helu-3 na Księżycu Polacy chcą zaangażować obecnych oraz potencjalnie kolejnych partnerów.

„Solar System Resources skontaktowało się z US Nuclear po przeczytaniu naszych notatek prasowych na temat wydobycia na Księżycu, asteroidach i potencjalnych korzyściach z napędzanych fuzją statkach kosmicznych. Solar System Resources Corporation może być jedyną firmą zorganizowaną całkowicie w celach wydobycia materiałów z Księżyca i asteroid” – mówi Bob Goldstein. (PAP)

Marek Matacz

źródło:

www.naukawpolsce.pap.pl

Możliwość komentowania Firmy z Polski i USA podpisały list intencyjny dot. wydobycia helu-3 na Księżycu została wyłączona

Wykłady i koncert przed Dniem Chorób Rzadkich

W ostatni dzień lutego obchodzony jest Dzień Chorób Rzadkich. Z tej okazji 26 lutego IBB PAN organizuje darmowe sympozjum online, podczas którego eksperci opowiedzą o dostępnych terapiach i poszukiwaniu nowych….

W ostatni dzień lutego obchodzony jest Dzień Chorób Rzadkich. Z tej okazji 26 lutego IBB PAN organizuje darmowe sympozjum online, podczas którego eksperci opowiedzą o dostępnych terapiach i poszukiwaniu nowych. 27 lutego z kolei studenci i badacze z Poznania szykują spotkanie online, a Muzeum Emigracji w Gdyni transmitować będzie koncert jazzowy. 

Międzynarodowy Dzień Chorób Rzadkich (Rare Disease Day) obchodzony jest co roku ostatniego dnia lutego (w lata przestępne wypada więc 29 lutego, a w pozostałe – 28 lutego). Na oficjalnej stronie obchodów poinformowano, że choroba rzadka to taka choroba, która występuje u 1 na 2 tys. mieszkańców. Zidentyfikowano już ponad 6 tys. takich chorób. Szacuje się, że z chorobą rzadką żyje na świecie 300 mln osób (między 3,5 a 5,9 proc. populacji). 72 proc. tych chorób to choroby genetyczne.

Z okazji Dnia Chorób Rzadkich na całym świecie organizowane są wydarzenia. Odbywają się one – głównie w formule online – również w Polsce.

I tak Instytut Biochemii i Biofizyki PAN w Warszawie 26 lutego (piątek) organizuje sympozjum. Wydarzenie „Dzień Chorób Rzadkich: Terapie Dostępne i Poszukiwanie Nowych” odbędzie się on-line. Wziąć może w nim za darmo każdy zainteresowany – m.in. pacjenci z chorobą rzadką, ich rodziny, lekarze, opiekunowie, naukowcy, politycy. Podczas pięciu wykładów mowa będzie m.in. o tym, jakie są możliwości terapii chorób rzadkich komórkami macierzystymi, jak w badaniu i leczeniu tych chorób przydaje się model drożdżowy, jak zmienić się może diagnostyka tych chorób. Mowa też będzie o terapiach w dystrofii mięśniowej Duchenne’a oraz o roli organizacji zrzeszających pacjentów z rdzeniowym zanikiem mięśni w pracach nad nowymi lekami. Podczas spotkania zaprezentowane będą prace fotograficzne Beaty Muchowskiej z cyklu „Nauczyciele Miłości”. Wspierana będzie też zbiórka funduszy na Fundację SMA.

Z kolei 27 lutego w ramach II poznańskiego Dnia Chorób Rzadkich zorganizowane będzie online „Spotkanie z niespotykanymi”. Organizatorem jest Studenckie Koło Naukowe Genetyki Medycznej UM w Poznaniu, wspólnie ze Studenckim Towarzystwem Naukowym UMP oraz tamtejszymi Katedrą i Zakładem Genetyki Medycznej. „Nasze spotkanie – tak jak w zeszłym roku – będzie składać się ze studenckiej sesji case report oraz wystąpień osób chorych na choroby rzadkie i przedstawicieli stowarzyszeń pacjenckich” – piszą organizatorzy. Konferencja będzie transmitowana na YouTube.

W ramach tegorocznej edycji Dnia Chorób rzadkich przewidziany jest też 27 lutego koncert online Jazz4Rare 2021. W wydarzeniu transmitowanym za pośrednictwem Muzeum Emigracji w Gdyni, wystąpią Joanna Knitter Blues & Folk Connection w projekcie Aretha.

PAP – Nauka w Polsce

 

Możliwość komentowania Wykłady i koncert przed Dniem Chorób Rzadkich została wyłączona

Gdzie zamieszkamy na Marsie?

Badania Marsa nabierają ostatnio dużego rozpędu. Niedawno do planety dotarły dwie nowe sondy. Misja arabska ma na celu zbadanie atmosfery i klimatu, chińska geologii i morfologii, a także poszukiwanie lodu…

Badania Marsa nabierają ostatnio dużego rozpędu. Niedawno do planety dotarły dwie nowe sondy. Misja arabska ma na celu zbadanie atmosfery i klimatu, chińska geologii i morfologii, a także poszukiwanie lodu pod powierzchnią Marsa. Dzisiaj na planecie wylądował amerykański łazik, który za jakiś czas pobierze próbki gruntu do badań, sprawdzi możliwość pozyskania tlenu z atmosfery planety, ale także zbada, czy na planecie występowało życie. Wszystkie te działania mają na celu zebrać jak najwięcej informacji o Czerwonej Planecie i przybliżyć nas do załogowej misji.

Jednym z najważniejszych wyzwań stojących przed przyszłymi mieszkańcami Marsa będzie zaopatrzenie się w wodę. Dane zbierane przez kolejne orbitery i łaziki pozwalają nam coraz lepiej poznać tę planetę i warunki panujące na powierzchni. Jednym z ważnych aspektów do rozważenia pod kątem przyszłej misji jest obecność wody. Występuje ona w dużej ilości na Marsie w postaci lodu. Wyzwaniem jest natomiast wybranie takiej lokalizacji, w której dostępność wody łączy się z innymi optymalnymi warunkami do lądowania.  Bardzo duża ilość lodu leży się na biegunach tej planety, znajduje się jednak na zbyt dużej wysokości, żeby można było go wykorzystać. Poza tym w tym rejonie światło słoneczne jest zbyt słabe, żeby posłużyć jako źródło zasilania potrzebnych ludziom urządzeń. Dlatego wymyślono inne podejście. Lód może również znajdować się pod powierzchnią ziemi. Badania opublikowane w Nature Astronomy proponują kilka miejsc, w których prawdopodobne wydaje się znalezienie zamarzniętej wody na głębokości do kilku metrów.

Projekt Mars Subsurface Water Ice Mapping (SWIM) bazuje na danych zebranych przez poprzednie misje wysyłane na Marsa przez 20 lat. Przeanalizowano dostępne zestawy danych z pomiarów zebranych przez orbiter Mars Odyssey, Mars Reconnaissance Orbiter, oraz Mars Global Surveyor. Połączenie danych zebranych w czasie misji z nowoczesną techniką przetwarzania danych pozwoliło na oszacowanie prawdopodobieństwa wystąpienia lodu pod powierzchnią Marsa.

„Każda z naszych pięciu technik skupia się na innej metodzie szukania oznak występowania lodu- mówi Gareth Morgan, badacz z Planetary Science Institute in Tucson, Arizona i główny autor publikacji.- Do technik tych zaliczamy termalne i geomorfologiczne mapowanie, które jest poszukiwaniem zmian w strukturze geologicznej powierzchni, spowodowanych przez lód położony na głębokości 5 metrów pod powierzchnią i płycej.”

Geomorfologiczne mapowanie to w tym przypadku badanie morfologii planety i dystrybucji form glacjalnych i peryglacjalnych w celu oszacowania, czy lód istniał lub czy wciąż istnieje pod powierzchnią. Analiza termalna opiera się na badaniu, w jaki sposób marsjańska gleba reaguje na chłodzenie i grzanie. Porowaty lód da się poznać po tym, że wolno się nagrzewa i chłodzi, a wbrew pozorom przewodzi ciepło lepiej niż gleba.

Morgan wraz z zespołem wyszukali kilka lokalizacji na półkuli północnej Marsa na średnich szerokościach geograficznych, które są najbardziej obiecujące. Wybrane przez nich obszary to niziny Arcadia Planiti oraz Deuteronilus Mensae. Pierwszy z nich to region z pozostałościami po wyciekach lawy, podejrzewa się, że dziesiątki milionów lat temu występowały w jego obszarze masywne opady śniegu. Nowe wyniki mogłyby sugerować, że złoża za pomocą powolnych ruchów przesunęły się płytko pod powierzchnię i dokopane się do nich mogłoby być stosunkowo łatwe.

Tymczasem Deuteronilus Mensae położony pomiędzy wyżyną pełną kraterów na południu i równinie na północy to miejsce występowania współczesnych lodowców. Lód występujący tutaj to pozostałość z prawdopodobnie o wiele bardziej rozległych struktur glacjalnych w przeszłości. Przypuszcza się, że jest on zlokalizowany pod dwumetrową warstwą marsjańskiej gleby oraz kilkumetrową warstwą skały lub innego porowatego materiału. W obu przypadkach dostęp do tych złóż powinien być w miarę łatwy dla przyszłych kolonistów.

Credit: U.S. Geological Survey

NASA sfinansowała analizę tylko półkuli północnej, ponieważ występują tam rozległe równiny, na których łatwiej jest wylądować statkiem kosmicznym. Są to więc bardziej strategiczne obszary pod kątem przyszłej kolonizacji Marsa i to na nich skupiają się poszukiwania. Naukowcy liczą jednak na to, że analiza półkuli południowej również dojdzie do skutku i tam też uda się znaleźć podpowierzchniowe złoża zamarzniętej wody. Celem badaczy jest teraz stworzenie lepszych map obecności lodu na głębokości od 0,5 do 12 metrów po powierzchnią, która to głębokość pozwoli na zdalne wydobycie lodu.

Źródło: https://www.technologyreview.com/

Możliwość komentowania Gdzie zamieszkamy na Marsie? została wyłączona

Warmińsko-mazurskie/ Ponad 700 nietoperzy zimuje w Puszczy Rominckiej

Rekordową liczbę 708 hibernujących nietoperzy stwierdzono tej zimy w Parku Krajobrazowym Puszczy Rominckiej (woj. warmińsko-mazurskie). Na potrzeby nietoperzy na tym terenie przystosowano kilkadziesiąt ziemianek i poniemieckie schrony z czasów II…

Rekordową liczbę 708 hibernujących nietoperzy stwierdzono tej zimy w Parku Krajobrazowym Puszczy Rominckiej (woj. warmińsko-mazurskie). Na potrzeby nietoperzy na tym terenie przystosowano kilkadziesiąt ziemianek i poniemieckie schrony z czasów II wojny. 

Jak wynika z inwentaryzacji przeprowadzonej przez pracowników Parku Krajobrazowego, wśród 708 hibernujących osobników najwięcej jest mopków zachodnich i mroczków pozłocistych. Stwierdzono też obecność gacków brunatnych, nocków rudych i nocków Natterera oraz pojedyncze nocki Brandta.

Liczebność zimujących tam nietoperzy od lat systematycznie rośnie, a ten rok jest pod tym względem rekordowy. Jeszcze w 2005 r. zinwentaryzowano jedynie 45 osobników, trzy lata później było ich 132, a w 2020 r. zimowały już 633 sztuki.

Park Krajobrazowy od prawie 20 lat zajmuje się czynną ochroną tych ssaków. W tym czasie wyremontowano i dostosowano do potrzeb zimujących nietoperzy prawie 40 piwnic i schrony w dawnej kwaterze głównej dowódcy Luftwaffe Hermanna Goeringa w lesie Kumiecie.

Zimą – gdy brakuje owadów, stanowiących ich pożywienie – nietoperze chronią się w kryjówkach i zapadają w stan hibernacji. Na zimowiska wybierają zwykle różnego rodzaju podziemia. Musi tam panować wysoka wilgotność oraz stabilna, niska temperatura, która nie spada jednak poniżej zera stopni Celsjusza.

Na Warmii i Mazurach duże zimowiska nietoperzy znajdują się również w jednym z podziemnych kanałów burzowych w Olsztynie, a także w kompleksach bunkrów z czasów II wojny światowej – dawnej kwaterze Adolfa Hitlera „Wilczy Szaniec” koło Gierłoży oraz w Kwaterze Głównej Wehrmachtu w Mamerkach nad Kanałem Mazurskim.

Nietoperze są objęte w Polsce całoroczną, ścisłą ochroną gatunkową. Prawo zakazuje ich płoszenia, przetrzymywania, zabijania oraz niszczenia siedlisk i kryjówek. (PAP)

autor: Marcin Boguszewski

źródło:

www.naukawpolsce.pap.pl

Możliwość komentowania Warmińsko-mazurskie/ Ponad 700 nietoperzy zimuje w Puszczy Rominckiej została wyłączona

Naukowcy sprawdzili, co motywuje ozdrowieńców do oddawania osocza

Naukowcy sprawdzili, co najskuteczniej motywuje ludzi, którzy wyzdrowieli z Covid-19, do oddawania osocza do celów terapeutycznych i naukowych. To altruizm wynikający z przejścia trudnej sytuacji życiowej. Australijsko-brytyjski zespół kierowany przez…

Naukowcy sprawdzili, co najskuteczniej motywuje ludzi, którzy wyzdrowieli z Covid-19, do oddawania osocza do celów terapeutycznych i naukowych. To altruizm wynikający z przejścia trudnej sytuacji życiowej.

Australijsko-brytyjski zespół kierowany przez prof. Eamonna Fergusona z University of Nottingham jako pierwszy na świecie zbadał motywacje i bariery wpływające na oddawanie osocza dla chorych na Covid-19 przez tzw. ozdrowieńców. Opublikowane w „Transfusion Medicine” wyniki pokazały, że większość ludzi zdecydowała się na ten krok, ponieważ chciała okazać wdzięczność za przeżycie.

Podawanie chorym osocza ozdrowieńców jest jedną z testowanych metod terapii Covid-19. Zdaniem lekarzy może zapewniać „bierną” odporność, ponieważ przeciwciała przeciwko koronawirusowi są przenoszone z ozdrowiałego na obecnego pacjenta.

„Stosowanie osocza w terapii chorych na Covid-19 zależy jednak od hojności i altruizmu osób, które niedawno wyzdrowiały – mówi prof. Ferguson. – Aby zwiększyć liczbę rekonwalescentów, którzy zdecydują się oddać swoje osocze, podobnie jak to jest z dawcami krwi – musimy zrozumieć, co ich motywuje, a co powstrzymuje przed podjęciem takiego kroku”.

W badaniu wzięło udział 419 mieszkańców Wielkiej Brytanii, którzy przechorowali Covid-19 i zostali sklasyfikowani jako osoby uprawnione do oddania osocza. Zapytano ich o to, czy są świadomi terapeutycznych właściwości osocza oraz o to, co skłoniłoby ich do zostania dawcą, a co by ich przed tym powstrzymało.

Na podstawie zebranych ankiet naukowcy zidentyfikowali sześć głównych motywacji: altruizm wynikający z przeciwności losu, tzw. wzrost potraumatyczny (pozytywna zmiana w obliczu doświadczanej traumy), poczucie moralnego lub/i obywatelskiego obowiązku udzielenia pomocy w badaniach naukowych, patriotyzm, altruizm niechętny (chęć pomagania dyktowana tym, że nikt inny nie może lub nie chce pomóc) oraz altruizm pokazowy (wynikający z chęci pochwalenia się innym).

Zdecydowanie najczęstszym wymienianym przez uczestników badania powodem był czysty altruizm związany z przeciwnościami losu: ozdrowieńcy wdzięczni za to, że przeżyli, mieli potrzebę „odpłacenia” za to, że im się poszczęściło. Na drugim miejscu uplasowało się poczucie moralnego i obywatelskiego obowiązku, aby poprzez wspieranie badań naukowych pomóc rodzinie i przyjaciołom.

Naukowcy przyjrzeli się również barierom utrudniającym ozdrowieńcom podjęcie decyzji o oddaniu osocza. Badani wymieniali tu m.in.: problemy logistyczne, brak zaufania do instytucji medycznych, strach przed ponowną infekcją oraz obawę, że inni dowiedzą się o zakażeniu COVID-19. Najczęściej wymienianą barierą był zaś strach przed igłami.

„Wyniki te pokazują, że w naturze człowieka leży życzliwość, hojność i duch współpracy – podsumowuje prof. Ferguson. – Nawet w niesprzyjających warunkach globalnej pandemii ludzie są gotowi pomagać nieznajomym i potrzebującym. To bardzo dobra wiadomość na temat kondycji moralnej człowieka”.

Jego zdaniem uzyskane wyniki można wykorzystać do opracowania skuteczniejszych kampanii społecznych zachęcających rekonwalescentów do oddawania osocza. Mogłyby się one skupiać na podkreślaniu znaczenia wdzięczności, ideach wzajemności i imperatywach moralnych.

„Uważamy, że odkrycia te mogą pomóc w walce z COVID-19, dostarczając cennych informacji na temat sposobów wspierania rekrutacji dawców osocza, które jest bardzo potrzebne do kontynuowania badań naukowych i leczenia pacjentów” – mówi autor publikacji.

Link do artykułu źródłowego: https://onlinelibrary.wiley.com/doi/10.1111/tme.12753 (PAP)

Katarzyna Czechowicz

źródło:

www.naukawpolsce.pap.pl

Możliwość komentowania Naukowcy sprawdzili, co motywuje ozdrowieńców do oddawania osocza została wyłączona

Eksperci: dzieci z poważną wadą wrodzą serca wymagają opieki przez całe życie

Wady wrodzone serca u dzieci rozpoznawane są już na etapie prenatalnym, ale po operacji wymagają one stałej opieki, przez całe życie – przypominają eksperci z okazji przypadającego 14 lutego Światowego…

Wady wrodzone serca u dzieci rozpoznawane są już na etapie prenatalnym, ale po operacji wymagają one stałej opieki, przez całe życie – przypominają eksperci z okazji przypadającego 14 lutego Światowego Dnia Świadomości Wad Wrodzonych Serca. 

W Polsce każdego roku diagnozowanych jest ok. 3 tys. dzieci z różnymi rodzajami wad serca. Codziennie w Polsce rodzi się 10 dzieci z wadą serca. Na świecie z taką wadą rodzi się 9 na 1000 noworodków. Jedna trzecia z nich wymaga operacji już w pierwszych dniach życia.

Konsultant Krajowy w dziedzinie kardiologii dziecięcej dr n. med. Maria Miszczak-Knecht wyjaśnia, że wrodzona wada serca powodowana jest nieprawidłową budową mięśnia sercowego. „Może ona polegać na obecności nieprawidłowych połączeń pomiędzy jamami serca lub uchodzącymi do nich dużymi naczyniami lub też na nieprawidłowościach w budowie i funkcjonowaniu zastawek serca” – dodaje.

Rozpoznanie najczęściej stawiane jest na etapie prenatalnym. Dla rodziców taka diagnoza jest szokiem. „Rodzice słysząc diagnozę: wrodzona wada serca, czują, że to dla nich koniec świata. Potrzebują pomocy i wsparcia. Nasza Fundacja udziela jej od 15 lat. Stawiamy przede wszystkim na rzetelną edukację. Bo wiedza to pierwszy krok do lepszego życia pacjenta z WWS i całej jego rodziny. Większość dzieci przechodzi we wczesnym okresie życia wiele skomplikowanych operacji ratujących życie. Potem czekają je lata leczenia i rehabilitacji. Ale to nie jest koniec świata” – przekonuje Katarzyna Parafianowicz, prezes Fundacji Serce Dziecka.

W początkowym etapie życia dziecka wrodzone wady serca mogą wiązać się z koniecznością przeprowadzenia nawet kilku operacji i częstymi hospitalizacjami. Dr n. med. Maria Miszczak-Knecht przyznaje, że jest to trudne dla małego pacjenta, jak i dla całej jego rodziny. Często konieczna jest operacja korygująca wadę, niezbędne jest też dalsze wieloletnie leczenie, również w okresie dorosłości.

„Na kolejnych etapach życia osoba z wadą wrodzą serca może wymagać reoperacji, powtarzanych interwencji kardiologicznych. Ponieważ jest to nowa grupa pacjentów, ich potrzeby są specyficzne. Bardzo ważna jest odpowiednia opieka nad nimi od momentu postawienia diagnozy aż do dorosłości” – podkreśla Konsultant Krajowy w dziedzinie kardiologii dziecięcej.

Dzieci i osoby dorosłe z wrodzonymi wadami serca częściej wykazują gorszą tolerancję wysiłku fizycznego, mają także problemy emocjonalne. „To wpływa na pogorszenie jakości życia. Wrodzone wady serca mogą wiązać się także ze zwiększonym ryzykiem wystąpienia: arytmii, rozwoju niewydolności krążenia, nagłego zgonu sercowego, udaru i powikłań neurologicznych” – zaznacza dr n. med. Maria Miszczak-Knecht.

Osoby w wadami wrodzonymi serca mogą być jednak aktywne fizyczne. Jedynie rodzaj aktywność fizycznej musi być do nich odpowiednio dobrany przez lekarza prowadzącego. Wiele dzieci wspaniale spełnia się w sporcie – przekonuje Katarzyna Parafianowicz – choć początkowo najmniejsza nawet aktywność wydawała się w ich przypadku niedopuszczalna. Uważa, że z wadą wrodzoną serca można żyć normalnie.

Do tego jednak potrzebna jest odpowiednia wiedza. Ma w tym pomóc ogólnopolska kampania edukacyjna „Tydzień wiedzy o wrodzonych wadach serca”. Rozpocznie się ona 14 lutego z okazji Światowego Dnia Świadomości Wad Wrodzonych Serca.

„Organizujemy warsztaty, konferencje, liczne webinaria edukacyjne dla naszych pacjentów i ich bliskich. Edukujemy, integrujemy i wspieramy naszych podopiecznych. Przekonujemy, że wrodzone wady serca nie muszą wykluczać, że zdrowie i samopoczucie pacjenta w dużej mierze zależy od tego, czy będzie on żył aktywnie w gronie rówieśników” – zaznacza.

Dzięki lepszej opiece coraz więcej dzieci z wrodzonymi wadami wkracza w wiek dorosły. „W Polsce w obszarze diagnostyki i terapii wad wrodzonych serca dysponujemy dziś opcjami terapeutycznymi i technologiami na poziomie światowym” – zapewnia dr Maria Miszczak-Knecht. Jednak ośrodki referencyjne są przeciążone coraz większa grupą pacjentów.

„Aby odciążyć największe placówki, ośrodki regionalne wymagają wsparcia, przede wszystkim w zakresie kształcenia kadr. To istotne zwłaszcza w przypadku najbardziej złożonych przypadków, których terapia i prowadzenie nie są łatwe, ponieważ wymagają specjalistycznej, interdyscyplinarnej wiedzy i dużego doświadczenia” – wyjaśnia.

Przewlekła choroba dziecka to nie tylko sama operacja czy leki, ale także dodatkowe i to znaczne koszty dla rodziny. Są one związane z dojazdami do ośrodków i noclegami, z rehabilitacją, konsultacjami psychologicznymi – zwraca uwagę Katarzyna Parafianowicz. (PAP)

Autor: Zbigniew Wojtasiński

źródło:

www.naukawpolsce.pap.pl

Możliwość komentowania Eksperci: dzieci z poważną wadą wrodzą serca wymagają opieki przez całe życie została wyłączona

Bez glonów bezpieczniej? Dewońska wskazówka od koralowców

Skamieniałości koralowców, które wymarły w dewonie, mogą podpowiedzieć naukowcom, co dokładnie czeka współczesne korale i jak można im pomóc. Wstępne badania z udziałem Polaków wskazują, że w odległej przeszłości na…

Skamieniałości koralowców, które wymarły w dewonie, mogą podpowiedzieć naukowcom, co dokładnie czeka współczesne korale i jak można im pomóc. Wstępne badania z udziałem Polaków wskazują, że w odległej przeszłości na zmiany środowiskowe były najbardziej podatne koralowce żyjące w symbiozie z jednokomórkowymi glonami. 

Prognozy dla współczesnych raf koralowych nie są optymistyczne. Na przykład z doniesień przedstawionych podczas konferencji Ocean Sciences Meeting 2020 w USA wynika, że z powodu ocieplenia i zakwaszenia oceanów do 2100 roku mogą zostać zniszczone praktycznie wszystkie rafy koralowe. W ciągu najbliższych 20 lat podobny los może spotkać aż 70-90 proc. raf. Coraz częściej ulegają tzw. blaknięciu, które polega na obumieraniu żyjących w nich symbiotycznych glonów, przez co wzrost samych koralowców zatrzymuje się i w konsekwencji rafa obumiera. Współpraca z glonami jest dla koralowców kluczowa. Glony pobierając do fotosyntezy dwutlenek węgla, znajdujący się w mikrośrodowisku wokół koralowca, ułatwiają mu tworzenie szkieletu, ale również żywią koralowca tworzonymi w fotosyntezie cukrami. Koralowiec z kolei zapewnia glonom m.in. schronienie.

Największy w historii naszej planety rozwój raf koralowych trwał przez pewien czas trwania dewonu, czyli okresu od ok. 419 do 358 mln lat wstecz w dziejach Ziemi. Jednak pod koniec tego czasu – około 372 mln lat temu – wraz z wielkim wymieraniem gatunków, które w tym czasie miało miejsce, załamały się również ekosystemy raf koralowych. Trwało to wprawdzie długo: kilkaset tysięcy lat, ale korale wyginęły wtedy niemal całkowicie.

Dzisiaj pozostałości tamtych koralowców znajdowane w różnych częściach świata badają paleontolodzy. Jednym z nich jest dr hab. Mikołaj Zapalski z Wydziału Geologii Uniwersytetu Warszawskiego, który takie pozostałości badał np. w Górach Świętokrzyskich.

Ostatnio w ramach Programu im. Bekkera prowadził badania w Australii wraz ze specjalistami James Cook University w Townsville i tamtejszego Centrum Badań Rafowych. W stanie Queensland – wskutek tej współpracy – odkrył nieznany wcześniej typ rafy dewońskiej, podobnej do współczesnych raf koralowych. Badania nietypowej, bo skrajnie płytkowodnej dewońskiej rafy zdominowanej przez koralowce, opublikowano w prestiżowym czasopiśmie „Coral Reefs”.

Spośród 100 gatunków koralowców dewońskich, których pozostałości odkryto na przestrzeni wielu lat m.in. w Górach Świętokrzyskich i Ardenach, zespół badaczy z udziałem dr. Zapalskiego starał się wybrać te elementy szkieletu, które występują również u współczesnych korali.

„Chcieliśmy zobaczyć, czy jest cecha lub zestaw cech, które powodowały, że dawne koralowce mogły przeżywać poszczególne etapy wymierania. Czy któreś z cech szkieletów predestynują koralowce do przeżywania lub wymierania. Chcieliśmy też zobaczyć, jaki może być też scenariusz dla współczesnych raf na podstawie scenariusza dewońskiego i pokazać, które z grup współcześnie tworzących rafy mają potencjalnie większe szanse na przeżycie zmian środowiskowych, a które są na nie bardziej narażone” – wyjaśnia w rozmowie z PAP dr Zapalski.

Wiadomo, że część mechanizmów fizjologicznych koralowców żyjących w dewonie była inna – mówi badacz – ale są też podobieństwa. Choćby takie, że tworzyły one szkielety podobne do tych współczesnych. I te prehistoryczne i współczesne zbudowane są z węglanu wapnia, tylko z innych jego form. Dewońskie z kalcytu a współczesne z aragonitu.

Zbierając dane dotyczące struktur szkieletowych naukowcy znajdują więc różne analogie między współczesnymi i dewońskimi koralowcami, co może sugerować – mówi dr Zapalski – że podobne do obecnych zmiany środowiskowe wpływały na to jak one żyły, rosły, formowały szkielet.

Wstępne wyniki pokazują, że na zmiany środowiskowe były najbardziej podatne tzw. koralowce fotosymbiotyczne, czyli żyjące w symbiozie z jednokomórkowymi glonami – te, które budują prawie wszystkie rafy koralowe na świecie. Te, które mogły pozostawać bezglonowe, miały lepszą przeżywalność, były mniej podatne na wahania środowiskowe. Lepiej przy wzrostach temperatury radziły sobie też korale o dużych polipach, średnicy kilku, czasem 10 mm.

„Obecnie praktycznie wszystkie rafy są budowane przez koralowce fotosymbiotyczne. Większość tych raf, które znamy, ma więc niestety spore szanse by wymrzeć. Współcześnie też istnieją koralowce, które nie są fotosymbiotyczne, ale one żyją w środowiskach na dużych głębokościach 200 – 400 metrów, tam gdzie światło już w zasadzie nie dociera i w zimnych morzach np. u wybrzeży Norwegii” – opisuje badacz.

Do środowiskowych zmian, z którymi mierzyły i mierzą się koralowce, należy przede wszystkim znaczący wzrost temperatur. W dewonie sięgały one wtedy powyżej 32 st. C. „Wymieranie koralowców pod koniec dewonu było z nim skorelowane” – opisuje rozmówca PAP. Wody oceaniczne w paleozoiku różniły się wprawdzie nieco składem chemicznym od współczesnych, znacznie bardziej zakwaszonych (co również sprzyja erozji szkieletów korali), ale zagrożenia środowiskowe dla korali były do pewnego stopnia podobne.

PAP – Nauka w Polsce, Ewelina Krajczyńska

źródło:

www.naukawpolsce.pap.pl

Możliwość komentowania Bez glonów bezpieczniej? Dewońska wskazówka od koralowców została wyłączona

Naukowcy pracują nad portretem generacji 50+ w Europie

Naukowcy przygotowują regularnie portret generacji osób po 50. roku życia. – W Polsce stan zdrowia wcześnie – bo już u osób po 45. roku życia – pogarsza się. W porównaniu…

Naukowcy przygotowują regularnie portret generacji osób po 50. roku życia. – W Polsce stan zdrowia wcześnie – bo już u osób po 45. roku życia – pogarsza się. W porównaniu z Europą Zachodnią aktywność zawodowa osób 50+, zwłaszcza kobiet, jest niska. Mamy nadzieję, że jednak będą zachodzić korzystne zmiany – mówi demograf prof. SGH Agnieszka Chłoń-Domińczak.

Badanie Zdrowia, Starzenia się Populacji i Procesów Emerytalnych „SHARE: 50+ w Europie” jest badaniem panelowym przeprowadzanym regularnie wśród osób w wieku 50 lat i więcej. Aktualnie w badaniu udział biorą przedstawiciele niemal wszystkich krajów Europy, a także mieszkańcy Izraela – łącznie osoby reprezentujące 28 krajów.

„Naszym celem jest opracowanie portretu generacji 50 plus we wszystkich krajach europejskich” – podsumowuje koordynująca udział Polski w programie demograf dr hab. Agnieszka Chłoń-Domińczak, prof. Szkoły Głównej Handlowej.

Dziesiątkom tysięcy badanych zadawane są pytania dotyczące np. ich zdrowia, sytuacji materialnej, rodzinnej, aktywności społecznej i tego, jak radzą sobie na rynku pracy i jak są z niej zadowoleni, a także jak wygląda ich proces przechodzenia na emeryturę. Dokonywane są również pomiary związane z oceną stanu zdrowia fizycznego czy psychicznego – to choćby pomiar siły uścisku dłoni czy testy pamięci.

Dotychczas Polska wzięła udział w pięciu rundach badania „SHARE: 50+ w Europie”, realizowanych od 2006 roku do 2017 roku. Obecnie trwa analiza danych z kolejnej rundy realizowanej w 2019 i 2020 roku – tuż przed i w czasie pandemii. Badanie w trakcie pandemii odbywało się telefonicznie.

Naukowcy starają się dotrzeć co dwa lata do tych samych respondentów. „Każde badanie jest fotografią tego, co aktualnie się dzieje. A dzięki badaniom mamy serię fotografii tego, co działo się przez wiele lat. Możemy monitorować proces zmian w przebiegu życia respondentów i porównywać to, co dzieje się w poszczególnych państwach” – mówi.

I tak np. w 2015 r. ok. 20 proc. osób po pięćdziesiątce z Polski deklarowało zły stan zdrowia. A symptomy depresji zanotowano wtedy u 48 proc. kobiet i 30 proc. mężczyzn.

Proszona o komentarz w tej sprawie prof. Agnieszka Chłoń-Domińczak mówi: „Również wyniki dostępne na podstawie kolejnej rundy badania, z 2017 r. pokazują, że sytuacja nie jest najlepsza. Widać, że stan zdrowia Polaków po 45. roku życia wyraźnie się pogarsza. To bardzo wcześnie. Konieczne są aktywne działania, by wspierać postawy prozdrowotne u seniorów i monitorować ich sytuację”.

Nie najlepiej przedstawiają się też kwestie materialne. W 2015 r. ponad 20 proc. badanych z naszego kraju w badaniu SHARE deklarowało, że ledwo wiąże koniec z końcem, a ponad 60 proc. – że nie jest w stanie pozwolić sobie na nieprzewidziany wydatek (w wysokości 1100 zł).

„Z aktywnością zawodową u osób 50+ też nie jest najlepiej. Mamy niższy wiek przechodzenia na emeryturę – zwłaszcza kobiet – w stosunku do innych krajów europejskich. Wyzwaniem na najbliższe lata jest więc to, jak zachęcać osoby koło 60. roku życia, by utrzymywały swoją aktywność zawodową. Dużo jest do zrobienia” – komentuje rozmówczyni PAP.

Prof. Chłoń-Domińczak jest jednak przekonana, że w kolejnych edycjach badań prawdopodobnie sytuacja w Polsce będzie się poprawiać. „Pokolenie, które dotąd badaliśmy, ma doświadczenia z różnych momentów historii Polski. Uwarunkowania społeczno-gospodarcze były zupełnie inne niż teraz i to wszystko odbija się na sytuacji tych osób. W badaniach widzimy już jednak korzystne zmiany pokoleniowe. Widać więc tendencje do poprawy w niektórych obszarach” – mówi demograf.

I zwraca uwagę, że choćby dotąd zupełnie inna była struktura wykształcenia polskich seniorów w stosunku do seniorów w Europie Zachodniej. U osób młodszych jednak – które dopiero teraz dobiegają do pięćdziesiątki – te różnice przestają być aż tak wyraźne. „Osoby urodzone później, które dziś osiągają wiek 50. lat, częściej mają maturę, wyższe wykształcenie. A to m.in. przekłada się na ich świadomość zdrowotną, a co za tym idzie – również średnią długość trwania życia” – mówi.

„Badanie SHARE pozwala nam na ocenę, jak wygląda w wielu wymiarach sytuacja osób w wieku 50+ w Polsce i Europie. Dzięki temu możemy wpływać na to, by jakość życia i aktywność tych osób mogła się poprawiać poprzez odpowiednią, bazującą na faktach politykę” – podsumowuje badaczka z SGH.

PAP – Nauka w Polsce, Ludwika Tomala

źródło:

www.naukawpolsce.pap.pl

Możliwość komentowania Naukowcy pracują nad portretem generacji 50+ w Europie została wyłączona

Polacy opracowali dokładne mapy poczerwienienia w Obłokach Magellana

Unikatowe, najdokładniejsze dotąd mapy poczerwienienia międzygwiazdowego w Obłokach Magellana opracowali astronomowie Obserwatorium Astronomicznego UW w ramach przeglądu nieba OGLE. Obłoki stanowią „laboratorium” do badań galaktyk, a uzyskane mapy będą doskonałym…

Unikatowe, najdokładniejsze dotąd mapy poczerwienienia międzygwiazdowego w Obłokach Magellana opracowali astronomowie Obserwatorium Astronomicznego UW w ramach przeglądu nieba OGLE. Obłoki stanowią „laboratorium” do badań galaktyk, a uzyskane mapy będą doskonałym narzędziem do kolejnych badań kosmologicznych.

Mały i Wielki Obłok Magellana to dwie pobliskie galaktyki, będące satelitami naszej Galaktyki – Drogi Mlecznej. Ze względu na ich bliskość i wzajemne oddziaływanie są one parą najczęściej badanych galaktyk we Wszechświecie i stanowią swego rodzaju laboratorium do badań struktury, ewolucji i oddziaływań galaktyk. Obłoki Magellana są również idealnym środowiskiem do badań populacji gwiazdowych oraz rozkładu materii międzygwiazdowej. Co więcej, używa się ich do kalibracji kosmicznej skali odległości, będącej podstawą badań kosmologicznych – wyjaśniają specjaliści na stronie Uniwersytet Warszawski.

Większość opisanych wyżej badań wymaga uwzględnienia wpływu poczerwienienia międzygwiazdowego na obserwacje astronomiczne. Poczerwienienie to efekt pochłaniania światła obiektu przez pył znajdujący się między obserwatorem a badanym obiektem. W efekcie obiekt ten wydaje się ciemniejszy i bardziej czerwony niż jest w rzeczywistości. Ma to bezpośredni wpływ na wyznaczanie odległości do obiektów. Bez uwzględnienia wpływu pyłu są one zawyżone. Dlatego, aby móc badać populacje gwiazdowe, potrzebujemy dokładnych map poczerwienienia w Obłokach Magellana.

Dotychczasowe mapy poczerwienienia w Obłokach Magellana obejmowały jedynie centralne obszary obu galaktyk i były obarczone błędem wynikającym z problemów z ich kalibracją.

Jednak dzięki wieloletnim obserwacjom projektu OGLE, prowadzonego w Obserwatorium Astronomicznym Uniwersytetu Warszawskiego, zespół astronomów prowadzonych przez dr Dorotę Skowron i dr. Jana Skowrona, był w stanie stworzyć pierwsze w historii dokładne mapy poczerwienienia, obejmujące cały obszar obu galaktyk.

„Wykorzystano do tego gwiazdy typu Red Clump – czerwone olbrzymy, które są na etapie spalania helu w jądrze, dzięki czemu mają dobrze określoną jasność rzeczywistą, a co za tym idzie również kolor. Następnie, poprzez porównanie oczekiwanego koloru gwiazd z kolorem obserwowanym, można wyznaczyć ich poczerwienienie” – czytamy w komunikacie UW.

Powstałe w ten sposób szczegółowe mapy poczerwienienia są narzędziem do analizy populacji gwiazdowych i badań struktury Obłoków Magellana.

Wyniki badania opublikowano w piśmie The Astrophysical Journal Supplement Series: https://iopscience.iop.org/article/10.3847/1538-4365/abcb81

PAP – Nauka w Polsce

źródło:

www.naukawpolsce.pap.pl

Możliwość komentowania Polacy opracowali dokładne mapy poczerwienienia w Obłokach Magellana została wyłączona

Pytania do czytelników i widzów – ankieta nt. treści Nauka. To Lubię

Drodzy, „Nauka. To Lubię” – zarówno portal, jak i kanał oraz fanpage szybko się rozwijają. To Wasza zasługa i bardzo Wam dziękuję za zaufanie. Chcę mówić o nauce, o edukacji…

Drodzy,

„Nauka. To Lubię” – zarówno portal, jak i kanał oraz fanpage szybko się rozwijają. To Wasza zasługa i bardzo Wam dziękuję za zaufanie. Chcę mówić o nauce, o edukacji o technologii, chcę popularyzować wiedzę w sposób, który najbardziej Wam odpowiada. Dlatego bardzo proszę podzielcie się ze mną swoimi opiniami. Poświęćcie 4 minuty na wyklikanie ankiety, do której link znajdziecie poniżej. Wasze opinie, Wasze odpowiedzi są dla mnie bardzo ważne. Dziękuję!

Tomasz Rożek

 

 

 

Możliwość komentowania Pytania do czytelników i widzów – ankieta nt. treści Nauka. To Lubię została wyłączona

Najłatwiej o kolizję z łosiem w jesienne popołudnie – ustalili naukowcy

Późne popołudnia września i października to czas najwyższego ryzyka wypadku drogowego z udziałem łosia. Najmniejsze ryzyko takiej kolizji przypada na godziny poranne i południowe w pozostałych miesiącach roku – informują…

Późne popołudnia września i października to czas najwyższego ryzyka wypadku drogowego z udziałem łosia. Najmniejsze ryzyko takiej kolizji przypada na godziny poranne i południowe w pozostałych miesiącach roku – informują naukowcy z Białowieży, Białegostoku i Lublina po analizie danych z 20 lat.

Jeszcze dekadę temu łosie występowały niemal wyłącznie na wschodzie Polski; dziś można je spotkać niemal w całym kraju. Ich najbardziej liczne populacje nadal są obecne w Polsce wschodniej i północno-wschodniej.

Wypadkom drogowym z udziałem łosi przyjrzeli się bliżej naukowcy z Instytutu Biologii Ssaków PAN (IBS PAN) w Białowieży, Uniwersytetu w Białymstoku i Uniwersytetu Przyrodniczego w Lublinie. Swoje wnioski opublikowali w artykule na łamach „Transportation Research Part D”.

Badania dotyczyły ostatnich dwudziestu lat. Naukowcy zebrali informacje o ponad 300 wypadkach komunikacyjnych z udziałem łosi w Polsce, o których raportowano na stronach internetowych policji, straży pożarnej oraz lokalnych gazet. Chcieli sprawdzić, czy wypadki z udziałem łosi wykazują wyraźny wzorzec czasowy; czy ryzyko kolizji ma związek z aktywnością zwierząt, czy raczej z natężeniem ruchu drogowego albo warunkami pogodowymi.

Aby odpowiedzieć na te pytania, dane o kolizjach naukowcy zestawili z danymi pochodzącymi z telemetrii satelitarnej 37 łosi z doliny Biebrzy oraz z obszaru Polesia czy intensywnością ruchu drogowego. Uwzględnili też informacje o warunkach pogodowych, przede wszystkim obecności opadów i mgły.

fot. Mateusz Wodziński
fot. Mateusz Wodziński

 

„Większość raportowanych wypadków miała miejsce w północno-wschodniej i wschodniej Polsce. Jednak pojedyncze wypadki rejestrowane były również w zachodniej i południowej części kraju” – podsumował dla PAP dr Tomasz Borowik z IBS PAN, odpowiedzialny za analizę danych.

„Wykazaliśmy, że wypadki z udziałem łosia charakteryzowała wyraźna zmienność czasowa. W ujęciu dobowym największe ryzyko kolizji występowało w pierwszych godzinach po zapadnięciu zmroku, natomiast sezonem o wyraźnie większym prawdopodobieństwie wypadków była wczesna jesień: okres od września do października. Zaobserwowany wzorzec czasowy kolizji był najsilniej powiązany z dobową i sezonową zmiennością aktywności łosi. Zwierzęta te są szczególnie aktywne w o zmierzchu i o świcie, kiedy intensywnie żerują, natomiast wczesna jesień jest okresem wzmożonej aktywności związanej z okresem rozrodczym (bukowiskiem)” – opowiadał.

To oznacza, że największe ryzyko kolizji auta z łosiem przypada na dni września i października, a konkretniej – na porę między godziną 16:00 a 20:00. Najmniejsze ryzyko jest w środku dnia, od ok. godz. 7:00 do 14:00, w ciągu całego roku – z wyjątkiem jesieni. Wtedy też w środku dnia ryzyko trochę rośnie” – precyzuje dr hab. Michał Żmihorski z IBS PAN w Białowieży.

Naukowcy porównywali też, jakie czynniki ryzyka kolizji mają największe znaczenie. Stwierdzili, że aktywność łosi wpływa na ryzyko ich kolizji z pojazdem aż dziesięć razy bardziej, niż choćby intensywność ruchu drogowego w danym dniu roku i o danej porze doby.

Ryzyko kolizji ma też związek z czynnikami pogodowymi – dodają autorzy badania. Według ich ustaleń w czasie opadów deszczu ryzyko kolizji było mniejsze, natomiast obecność mgieł je podwyższała. Mechanizmy odpowiadające za te zależności nie są obecnie jasne i wymagają przede wszystkim lepszego rozpoznania wpływu pogody na zachowanie kierowców – zastrzegają.

Naukowcy podkreślają, że informacje o kolizjach drogowych z udziałem dzikich zwierząt pojawiają się w mediach niemal każdego dnia. „Takie zdarzenia to ważny problem, gdyż często kończą się kalectwem lub śmiercią uczestników ruchu i zwierząt. Generują też niemałe koszty związane z leczeniem i rehabilitacją poszkodowanych, naprawą pojazdów czy też opóźnieniami transportowymi” – napisali w informacji przesłanej PAP.

fot. Mateusz Wodziński
fot. Mateusz Wodziński

 

W ostatnich latach w Polsce przybywa wypadków z udziałem łosi, co może mieć związek z nasileniem ruchu drogowego, a także zwiększaniem zasięgu występowania tego gatunku i wzrostem jego liczebności.

Wyniki nowych analiz oznaczają praktyczne informacje dla drogowców – potencjalnie ważne w kontekście ograniczania skali wypadków z udziałem dzikich zwierząt. ”Nasze badania pokazały, że ryzyko kolizji wyraźnie zmienia się w czasie, zatem ewentualne działania zapobiegające można dostosować do tego wzorca i wprowadzać je w czasie najwyższego ryzyka, a w pozostałych okresach, kiedy ryzyko kolizji jest istotnie niższe, z nich rezygnować. Dobrym rozwiązaniem mogłoby być wprowadzenie okresowych ograniczeń prędkości oraz znaków ostrzegawczych w okresach zwiększonego ryzyka kolizji” – sugeruje dr Tomasz Borowik z IBS PAN w Białowieży.

”Warto również położyć większy nacisk na edukację kierowców – gdyby byli świadomi, kiedy ryzyko kolizji jest największe, mogliby dostosować prędkość jazdy do tego okresowego zagrożenia” – dodaje.

Autorzy analiz podkreślają, że jest to pierwsze tak kompleksowe badanie czasowego wzorca kolizji z udziałem łosi w Centralnej Europie. Wyrażają nadzieję, że wyniki znajdą zastosowanie w praktyce, co pozwoli ograniczyć liczbę kolizji i związanych z nimi szkód. (PAP)

źródło:

www.naukawpolsce.pap.pl

Możliwość komentowania Najłatwiej o kolizję z łosiem w jesienne popołudnie – ustalili naukowcy została wyłączona

Tłusty czwartek pod lupą dietetyka

Tłusty czwartek to jeden z dni tradycyjnie świętowanych w Polsce, wypadający według kalendarza chrześcijańskiego w ostatni czwartek przed wielkim postem, czyli 52 dni przed Wielkanocą. Combrowy Czwartek (inaczej Tłusty Czwartek,…

Tłusty czwartek to jeden z dni tradycyjnie świętowanych w Polsce, wypadający według kalendarza chrześcijańskiego w ostatni czwartek przed wielkim postem, czyli 52 dni przed Wielkanocą. Combrowy Czwartek (inaczej Tłusty Czwartek, nazwa pochodzi od obchodów w Małopolsce), obchodzony w tym roku 11 lutego, rozpoczyna ostatni tydzień karnawału. Polacy spożywają w ten dzień średnio 2,5 pączka na osobę.

Okazuje się jednak, że geneza tłustego czwartku sięga aż starożytności. W starożytnym Rzymie w ten dzień świętowano przyjście wiosny, a tymczasem żegnano zimę. Zgodnie z tradycją spożywano wtedy głównie tłuste potrawy, a pączki początkowo przygotowywano nie w formie słodkiej – czytamy w informacji prasowej przesłanej przez Uniwersytet Przyrodniczy w Poznaniu (UPP).

Doktorantka w Katedrze Żywienia Człowieka i Dietetyki, Wydział Nauk o Żywności i Żywieniu UPP Natalia Główka przypomina, że w Polsce tradycja spożywania pampuchów (inaczej pączki) w czasie tłustego czwartku pojawiła się już w XVII wieku w miastach i na dworach, a pod koniec XIX i na początku XX wieku na wsiach. Na początku pączki przygotowywane były w formie ciasta chlebowego nadziewanego słoniną i smażonego na smalcu, który podawano z tłustym mięsem i zapijano je wódką. Słodkie pączki jako potrawa pojawiły się w Polsce już wcześniej, w XVI wieku, natomiast stały się bardziej puszyste na przełomie XVII i XVIII wieku. Według Staropolskiej tradycji tłusty czwartek świętowano bardzo hucznie i wesoło, przy stołach królewskich zastawionych tradycyjnymi, zapustnymi potrawami, takimi jak dziczyzna, wykwintnie przyrządzony drób, kasza i kapusta ze skwarkami, słonina, sadło, żur oraz smażone na tłuszczu racuchy, bliny, pampuchy, chrust (faworki) oraz pączki. Wybór tłustych, bogato przyrządzonych potraw wynikał z rozpoczynającego się w niedługim czasie 40-dniowego postu, w trakcie którego można było spożywać jedynie postne potrawy. Dodatkowo zabawy oraz obfitość pożywienia w tłusty czwartek miały stanowić metodę „zaklinania” urodzajnego zbioru plonów.

W obecnych czasach tłusty czwartek nie jest tak hucznie obchodzony, jednak nadal uważa się, że niezjedzenie w ten dzień pączka grozi niepowodzeniem w życiu. Polacy spożywają w ten dzień średnio 2,5 pączka na osobę, a statystyki wskazują, że wszyscy razem zjadamy ich nawet 100 milionów w ciągu jednego dnia. Polskie pączki różnią się od pączków przygotowywanych w innych krajach, gdzie używany jest odmienny rodzaj mąki czy sposób smażenia w tłuszczu, pączki mają inny kształt czy dodatek nadzienia – zaznacza Natalia Główka.

pączki, AdobeStock
pączki, AdobeStock

Czy pączki są zdrowe?

Ze względu na składniki oraz sposób przygotowywania pączki nie należą do grupy produktów zalecanych w codziennej diecie. Charakteryzują się dużą gęstością energetyczną, a więc w niewielkiej ilości produktu znajduje się spora zawartość kalorii. Dodatkowo pączki są źródłem tak zwanych „pustych kalorii”, czyli cukrów prostych oraz szkodliwych tłuszczów, przyczyniających się do wzrostu masy ciała. Pączki produkowane są z wysoko przetworzonej mąki, z dodatkiem cukru oraz są smażone na głębokim tłuszczu, tradycyjnie nawet na smalcu, co może negatywnie rzutować na stan zdrowia. Duża podaż w diecie tłuszczów nasyconych i trans oraz cukrów prostych zwiększa ryzyko chorób cywilizacyjnych, takich jak nadwaga, otyłość, zespół metaboliczny, cukrzyca typu 2, choroby sercowo-naczyniowe czy chorób o podłożu zapalnym. Co więcej są to produkty ciężkostrawne w znaczny sposób obciążające pracę układu pokarmowego, co sprawia, że nie mogą być stosowane w diecie osób chorych – przestrzega dietetyczka z UPP, absolwentka Wydziału Nauk o Zdrowiu WUM.

Czy w takim razie jedzenie pączków powinno być przeciwwskazane?

Codzienne spożywanie pączków może przyczynić się do wzrostu masy ciała oraz rozwoju chorób, jednak należy pamiętać, że jednorazowe spożycie danego produktu nie wpływa natychmiastowo na stałe zaburzenie pracy organizmu człowieka oraz nie przyczyni się od razu do odkładania tkanki tłuszczowej. W przypadku stosowanej na co dzień zbilansowanej diety spożycie pączka w tłusty czwartek nie musi zaszkodzić. Jednak warto w ten dzień wprowadzić dodatkową aktywność fizyczną, co pomoże utrzymać prawidłowy bilans energetyczny – czytamy w informacji z UPP.

Wartości odżywcze pączka (1 pączek, 80 g):

  • 332 kcal
  • 6,1 g białka
  • 12,4 g tłuszczu (6,1 g nasycone kwasy tłuszczowe)
  • 48,5 g węglowodanów przyswajalnych
  • 1,2 g błonnika pokarmowego
  • 49,7 g węglowodanów ogółem

(Na podstawie kcalmar.com)

pączki, AdobeStock
pączki, AdobeStock

Skład pączka – z supermarketu czy z piekarni?

Składniki wykorzystywane do produkcji pączków mogą różnić się w zależności od miejsca jego przygotowywania. Każdy konsument powinien zapoznać się z etykietą opakowania lub zapytać o skład produktu, aby móc świadomie dokonać zakupu – sugeruje Natalia Główka.

Jaki jest przykładowy skład pączka z supermarketu?

Składniki: mąka pszenna, woda, mieszanka ciasta drożdżowego [mąka pszenna, tłuszcz palmowy, cukier, serwatka w proszku, laktoza, sól jodowana, białko jaja kurzego w proszku, żółtko jaja kurzego w proszku, emulgatory (mono- i diglicerydy kwasów tłuszczowych, mono- i diglicerydy kwasów tłuszczowych estryfikowane kwasem mono- i diacetylowinowym, lecytyny), substancje spulchniające (fosforany wapnia, węglany sodu), enzymy, przyprawy, aromat, wanilina, regulator kwasowości (kwas askorbinowy), barwniki (karoteny)], nadzienie owocowe (5%), cukier, substancje konserwujące (benzoesan sodu, kwas cytrynowy), drożdże.

Jaki jest skład pączka z piekarni?

Składniki: mąka typu 500, rozczyn piekarski, cukier, tłuszcz, woda, sól, ocet, drożdże

***

Dietetyczka z UPP przytacza też przepisy na „zdrowsze pączki”:

 

Fit pączki bezglutenowe i wegańskie

Składniki na 12 pączków:

• 150 g mąki owsianej bezglutenowej

• 100 g skrobii ziemniaczanej

• 100 g mąki ryżowej jasnej

• 1,5 łyżeczki gumy ksantanowej

• 0,5 płaskiej łyżeczki soli

• 0,5 płaskiej łyżeczki sody oczyszczonej

• 50 g cukru ok 1/4 szklanki

• 25 g drożdży świeżych lub 2,5 łyżeczki suchych

• 1 łyżeczka octu jabłkowego lub soku z cytryny

• 6 łyżek Aquafaby (zalewy z puszki ciecierzycy lub wody z gotowania ciecierzycy)

• 1 szklanka napoju roślinnego

• 60 g margaryny bezmlecznej

• olej do smażenia (20-30 g)

Przygotowanie:

W dużej misce wymieszać mąki, gumę ksantanową, sodę, sól i cukier. Zmiskować razem w celu dobrego wymieszania i napowietrzenia. Drożdże rozkruszyć w miseczce i zalać 1/4 szklanki ciepłego napoju, dodać łyżeczkę cukru i mieszać aż drożdże się rozpuszczą. Odstawić na 15 minut. Resztę napoju podgrzać z margaryną, aż do rozpuszczenia, odstawić z ognia i lekko ostudzić. Do miski z mąkami wlać zaczyn drożdżowy, ocet i płynną aquafabę. Wymieszać. Następnie dodać ciepłą, ale nie gorącą się resztę napoju z rozpuszczoną margaryną. Mieszać łyżką aż całość się właściwie połączy i ciasto będzie lepkie (nie dosypywać mąki). Ciasto wyłożyć na arkusz papieru do pieczenia i rozwałkować je przez papier na grubość ok. 0,5 cm. Po rozwałkowaniu zdjąć górny papier, posypać placek ciasta mąką ryżową i wykroić kółka szklanką, a kieliszkiem mniejsze kółeczka w środku. Bardzo delikatnie przenieść na obsypany mąką blat lub na zdjęty wcześniej papier do pieczenia oponki ciasta i małe kółeczka, z których będą przygotowane małe pączusie i przykryć je ściereczką. W takiej formie (przykryte ściereczką) zostawić je w ciepłym miejscu bez przeciągu na ok. 1 godzinę aż urosną.. Po tym czasie do garnka wlać olej do wysokości ok. 2-3 cm od dna garnka. Powoli nagrzać do temperatury ok. 170°C. Smażyć po 1-2 minuty z każdej strony. Po usmażeniu przełożyć na papierowy ręcznik.

Orientacyjna wartość odżywcza 1 pączka:

• 188 kcal

• 3,3 g białka

• 8 g tłuszczu (1,2 g nasyconych kwasów tłuszczowych)

• 1,8 g błonnika pokarmowego

• 25,2 g węglowodanów przyswajalnych

• 26,8 g węglowodanów ogółem

(Przepis na podstawie https://nicponwkuchni.pl/najlepsze-paczki-bezglutenowe-weganskie/, wartości odżywcze na podstawie www.kcalmar.com)

 

Pieczone pączki z bananem

Składniki na 6 pączków:

• 90 g masła orzechowego

• 65 g naparu z kawy

• 60 g banana

• 36 g mąki pszennej, typ 500

• 30 g mąki pszennej, typ 1850

• 25 g skrobii ziemniaczanej

• 20 g cukru pudru

• 20 g mleczka kokosowego (12%)

• 15 g orzechów włoskich

• 10 g cukru trzcinowego

• 10 g wody

• 6 g wiórków kokosowych

• 15 g kakao

• 3 g proszku do pieczenia

Przygotowanie:

Włączyć piekarnik na 180°C. Zmiksować razem masło orzechowe, banana, kawę i cukier, tak aby uzyskać kremową konsystencję. Przesiać obie mąki, dodać proszek do pieczenia i wymieszać. Dodać połowę składników suchych (mąki i proszek do pieczenie) do kremu orzechowo-kawowego. Wymieszać, dodać pozostałą część suchych składników i ponownie wymieszać. Przełożyć masę do rękawa cukierniczego i wycisnąć do foremek na donuty (ang. donuts – amerykańskie pączki z dziurką). Można użyć też foremek na muffinki. Piec przez 8 minut, wyjąć do ochłodzenia. Wymieszać składniki polewy (kakao, mleczko kokosowe, wodę, cukier puder). Zanurzyć pączki w polewie a następnie obtaczać w wiórkach kokosowych lub posiekanych orzechach.

Orientacyjna wartość odżywcza 1 pączka:

• 202 kcal

• 5,3 g białka

• 10,7 g tłuszczu (2,8 g nasyconych kwasów tłuszczowych)

• 2 g błonnika pokarmowego

• 20,5 g węglowodanów przyswajalnych

• 23,5 g węglowodanów ogółem

(Przepis i wartości odżywcze na podstawie www.kcalmar.com)

Nauka w Polsce – PAP

źródło:

www.naukawpolsce.pap.pl

Możliwość komentowania Tłusty czwartek pod lupą dietetyka została wyłączona

Białystok/ 10 najlepszych pomysłów naukowców będzie miało szansę na komercjalizację

Wprowadzenie na rynek dziesięciu najlepszych pomysłów naukowych z białostockich uczelni, ich komercjalizacja ma być jednym z najważniejszych efektów projektu, który zrealizuje Politechnika Białostocka. Zarząd województwa podlaskiego przyznał w czwartek na…

Wprowadzenie na rynek dziesięciu najlepszych pomysłów naukowych z białostockich uczelni, ich komercjalizacja ma być jednym z najważniejszych efektów projektu, który zrealizuje Politechnika Białostocka. Zarząd województwa podlaskiego przyznał w czwartek na ten cel 2,5 mln zł z UE.

To środki z Regionalnego Programu Operacyjnego Województwa Podlaskiego (RPOWP) 2014-2020.

Politechnika wspólnie z jej Instytutem Innowacji i Technologii będą realizować ten projekt we współpracy z Uniwersytetem Medycznym w Białymstoku (UMB), Uniwersytetem w Białymstoku (UwB), Białostockim Parkiem Naukowo-Technologicznym, Centrum Promocji Innowacji i Rozwoju (Klastra Obróbki Metali) i Fundacją Regionalny Ekosystem Innowacji.

Rzeczniczka Politechniki Białostockiej Aleksandra Toczydłowska poinformowała PAP, że wśród potencjału naukowo-badawczego trzech białostockich uczelni, zatrudnieni w projekcie specjaliści – brokerzy innowacji – wybiorą i ocenią 20 najlepszych pomysłów, które można wdrożyć, skomercjalizować. 10 z nich będzie realizowanych, ma dostać dofinansowanie.

Urząd marszałkowski zaznaczył, że pomysły wskazane do komercjalizacji w projekcie, muszą być z dziedzin, które w strategii rozwoju regionu są tak zwanymi inteligentnymi specjalizacjami województwa, priorytetowymi, najmocniejszymi dziedzinami, istotnymi w rozwoju regionu. Przypomniał, że to m.in. przemysł metalowo-maszynowy, rolno-spożywczy, medycyna, ekoinnowacje.

Ma także powstać narzędzie internetowe, platforma, która będzie bazą danych o możliwościach, potencjale naukowym i badawczym uczelni. Chodzi o to, by zainteresowani współpracą – zarówno firmy, jak i naukowcy – mogli łatwiej szukać potrzebnych im informacji, baz danych i partnerów do współpracy. Przewidziane są także spotkania z udziałem naukowców, firm i podmiotów potencjalnie zainteresowanych finansowym udziałem w takich komercyjnych przedsięwzięciach. Jeśli bezpośrednie spotkania z powodu pandemii koronawirusa nie będą możliwe, mają się odbywać w formule on-line – poinformowała Politechnika Białostocka.

Urząd marszałkowski w Białymstoku tłumaczy, że efektem projektu ma być cały system wiążący uczelnie, firmy, inne podmioty, instytucje otoczenia biznesu w działaniu na rzecz podnoszenia konkurencyjności firm w regionie, większe wykorzystywanie prac badawczo-rozwojowych, przeanalizowanie co temu przeszkadza, wskazanie barier.

„Aby zdobyć dobrą pozycję na rynku, trzeba być konkurencyjnym, czyli mieć nowocześniejsze technologie, lepsze produkty, po prostu wyprzedzać innych. Można to osiągnąć prowadząc działania badawczo-rozwojowe. Tylko tak można wypracować nowatorskie rozwiązania” – podkreśla w informacji przesłanej przez urząd marszałkowski marszałek województwa podlaskiego Artur Kosicki. W jego ocenie w regionie jest potencjał zarówno firm, jak i naukowców, trzeba go bardziej wykorzystać.

W ramach projektu mają być wypracowane i wskazane rekomendacje, by ta współpraca była bardziej efektywna. Realizacja projektu ma potrwać rok. (PAP)

autor: Izabela Próchnicka

Możliwość komentowania Białystok/ 10 najlepszych pomysłów naukowców będzie miało szansę na komercjalizację została wyłączona

Kto wierzy w fake newsy? Badacze chcą zwalczać szkodliwe informacje jak epidemie

Aby skutecznie zapobiegać epidemiom kolejnych fake newsów, warto znać profil osób na fake newsy najbardziej podatnych. A wtedy skuteczniej dobierać narzędzia powstrzymujące rozchodzenie się nieprawdziwych informacji – uważają naukowcy z…

Aby skutecznie zapobiegać epidemiom kolejnych fake newsów, warto znać profil osób na fake newsy najbardziej podatnych. A wtedy skuteczniej dobierać narzędzia powstrzymujące rozchodzenie się nieprawdziwych informacji – uważają naukowcy z projektu #Cyber_odporność.

„Walka z fake newsami pochłania mnóstwo zasobów, które można by było zagospodarować znacznie efektywniej. Środki, które mogłyby więc służyć na promocję zdrowego stylu życia czy profilaktyki zużywane są np. na to, by prostować fałszywe informacje dotyczące szczepień. A środki, które mogłyby iść na walkę z COVID-19 trzeba przeznaczać na przygotowanie i dystrybucję materiałów odkręcających teorie spiskowe” – mówi w rozmowie z PAP etyk dr Jan Piasecki z Uniwersytetu Jagiellońskiego, kierownik projektu #Webimmunization (#Cyber_odporność).

Dlatego też między innymi interdyscyplinarny zespół z udziałem etyków, psychologów, neurobiologów, epidemiologów i informatyków chce poznać mechanizmy tej pochłaniającej środki „choroby”, jaką jest dezinformacja. Naukowcy w ramach swoich badań przygotowują m.in. profil psychologiczny osób najbardziej podatnych na wiarę w fałszywe informacje. A przez to będą mogli dowiedzieć się, jak wygaszać takie epidemie w zarodku.

Skąd porównanie rozprzestrzeniania się fake newsów do epidemii? „Wirus – nieożywiony fragment informacji – wykorzystuje luki w biochemicznych zabezpieczeniach organizmów żywych, aby za ich pomocą się namnażać. A dzięki temu może przenosić się na kolejne organizmy. Rozprzestrzenianie się fałszywych informacji możemy postrzegać podobnie: jako proces, w którym nieprawdziwe, złe informacje, wykorzystują słabe punkty w naszym systemie weryfikowania informacji i są przez nas reprodukowane” – mówi dr Jan Piasecki.

Tłumaczy, że wpływ na to, że fałszywa informacja może się replikować ma m.in. nasz aparat psychologiczny. Mniej skłonni jesteśmy więc, by weryfikować informacje apelujące do emocji czy pozwalające zbudować tożsamość w opozycji do innych grup. Bardziej jesteśmy też skłonni wierzyć w informacje zgodne z naszą wiedzą, spójne, wobec których jest konsensus wśród ludzi, którymi się otaczamy, informacje podawane przez wiarygodne naszym zdaniem źródła i poparte wieloma argumentami (które akurat jesteśmy w stanie przywołać).

Drugi element to system składający się z czynników ekonomicznych, politycznych i społecznych. Mogą więc następować czasy niepokoju, przełomu, gdzie jakieś grupy społeczne czują się zagrożone i wykluczone, czują, że tracą swoją tożsamość. A przez to są bardziej podatne na dezinformację.

Trzecim elementem mającym wpływ na replikację fake newsów jest czynnik technologiczny. „Co jakiś czas powstaje nowa technologia, która pozwala nam szybciej rozpowszechniać informacje. Kiedyś to był druk, później – radio, a teraz są to sieci społecznościowe” – mówi Piasecki. I zaznacza, że w mediach społecznościowych każdy z nas jest nie tylko odbiorcą, ale i producentem informacji. I są tu bardzo słabe filtry pozwalające odsiać nieprawdziwą informację. „Te sieci społecznościowe są pudłem rezonansowym, które pozwala wzmocnić te niesprawdzone informacje” – mówi.

Pytany, czy mamy już jako ludzkość szczepionkę na fake newsy, powiedział, że każdy z nas może takie przeciwciała na dezinformację zyskiwać: to krytyczne myślenie, umiejętność korzystania ze zweryfikowanych informacji i posługiwania się narzędziami naukowymi. „Możemy odwoływać się zarówno do nauk ścisłych, jak i do humanistycznych i społecznych, które dostarczają nam bogatej wiedzy o tym, jak funkcjonuje świat, umysł, jakie popełniamy błędy w rozumowaniu. To nie jest aż tak skomplikowane. Natomiast niestety rzadko mamy chęć włączania naszego krytycznego myślenia, bo jesteśmy wciąż bombardowani informacjami. Nie mamy czasu ani możliwości, żeby wszystkie je weryfikować. A w dodatku podlegamy uprzedzeniom, emocjom, przynależymy do różnego rodzaju obozów” – mówi.

Jego zdaniem, choć każdy z nas może wytworzyć w sobie „cyberodporność”, to jednak w sferze publicznej takiej uniwersalnej „szczepionki na dezinformację” jeszcze nie ma. I zaznacza, że fałszywe czy też zmanipulowane informacje (w angielskim określa się to pojemniejszym mianem misinformacji) to na tyle szerokie zjawisko, że nie ma tu jednego sposobu walki czy zapobiegania mu.

I tak rozróżniając informacje możemy kategoryzować ich prawdziwości oraz ich szkodliwość.

Informacja prawdziwa, ale rozpowszechniana ze złą intencją to tzw. Mal-informacja. Mal-informacja ma miejsce np. kiedy robi się komuś zdjęcie w sytuacji, która go ośmiesza (np. w sytuacji intymnej, z dziwną miną, kiedy się przewraca) i rozpowszechnia to zdjęcie, aby tę osobę oczernić, osłabić jej wiarygodność.

Z kolei dezinformacja – w rozumieniu naukowców – to informacja nieprawdziwa i podawana ze złą intencją. „Zazwyczaj za dezinformacją stoją zorganizowane grupy, które chcą siać w danej społeczności chaos. Tego typu informacje używane są też w walce politycznej czy w relacjach międzynarodowych, aby osłabić przeciwnika” – tłumaczy dr Piasecki.

Jest też misinformacja – informacja nieprawdziwa, ale rozpowszechniana bez złych intencji. Tu rozmówca PAP jako przykład podaje teorie spiskowe lub pseudonaukowe. „Np. antyszczepionkowcy są głęboko przekonani, że mówią prawdę i że chcą pomóc, ale w gruncie rzeczy rozpowszechniając nieprawdziwe informacje – szkodzą” – zwraca uwagę badacz.

Dodaje jednak, że do grona szkodliwych informacji w sieciach społecznościowych zaliczyć można też takie zjawiska jak: trollowanie (agresywne wypowiedzi na forach internetowych), mowa nienawiści (negatywne wypowiedzi dotyczące całych grup, bazujące na uprzedzeniach), rozpowszechnianie plotek i „legend miejskich”, cyberbullyng (znęcanie się psychiczne za pomocą sieci społecznosciowych) czy crowdturfing (sztuczne pompowanie czyjegoś wizerunku w mediach np. przez skupywanie użytkowników obserwujących jego konto).

„Każde z tych zjawisk wymaga innych środków zaradczych. Do walki z dezinformacją muszą być zaangażowani specjaliści od bezpieczeństwa, polityki kraju, spraw zagranicznych, którzy mają wiedzę i środki, by takie zjawiska wykrywać i im przeciwdziałać. A z kolei w cyberbullyingu trzeba już podjąć inne środki – edukacyjne, wychowawcze. I muszą się w to zaangażować pedagodzy, psycholodzy, ale i rodzice” – tłumaczy badacz.

Widać więc, że walka ze szkodliwymi informacjami może przybierać różne formy. Aby opracować najskuteczniejsze narzędzia do walki z poszczególnymi rodzajami szkodliwych informacji, badacze chcą przygotować psychologiczną skalę, która pozwoli ocenić indywidualną podatność na dezinformację. A następnie porównać z aktywnością użytkowników sieci. „Za pomocą narzędzi uczenia maszynowego chcemy potem stworzyć dokładny profil psychologiczny osób podatnych na dezinformację” – zapowiada.

Dzięki temu naukowcy chcą opracować różne rodzaje interwencji w sieciach społecznościowych – adekwatne do danych zagrożeń i najskuteczniejsze. Przydać się tu może właśnie wiedza z zakresu epidemiologii. Naukowiec porównuje, że w zapobieganiu epidemii nowotworów płuc – związanych z paleniem tytoniu – pomagają działania z bardzo różnych zakresów. Środkami zaradczymi może być np. nakaz stosowania filtrów (zmniejszenie szkodliwości dla samego użytkownika), wysoka akcyza (realne koszty dla użytkownika), podniesienie wieku, kiedy można kupować tytoń (ograniczenie dostępu do danego czynnika), informacje na etykietach (edukacja), zakaz palenia w miejscach publicznych (ograniczenie negatywnego wpływu danego zachowania na otoczenie) czy zakazy stosowania dodatkowych aromatów (uczynienie danego działania mniej atrakcyjnym). Dr Piasecki tłumaczy, że być może i w przypadku fake newsów trzeba będzie kiedyś zastosować analogiczne interwencje, które ograniczą szkodliwość takich nieprawdziwych informacji.

Czy jednak najskuteczniej działać będzie edukacja, restrykcje, kulturowe zmiany podejścia do sieci społecznościowych, na razie nie wiadomo, bo niewiele jeszcze wiemy o tym, kto i kiedy jest podatny na dezinformację – podsumowuje dr Piasecki.

Pytany o to, czy nie ma ryzyka, że w walce z fake newsami pojawi się cenzura, dr Piasecki odpowiada, że cenzury państwowej (kojarzonej z reżimami autorytarnymi) nie należy mylić z odpowiedzialnością za słowo.

„Dziennie na Twitterze publikuje się 500 milionów tweetów. Trudno z takiej ilości odsiać fałszywe informacje. Ci, których +ocenzurowano+, zawsze mogą pokazać palcem, że jest cała masa ludzi, których +system+ nie ukarał tak samo, zarzucając platformom stronniczość” – mówi. I zwraca uwagę na drugi problem, jakim jest powszechnie uznany system eliminacji fałszywych informacji. „W gazecie +cenzuruje+ autora redaktor, w czasopiśmie naukowym, praca jest oceniana przynajmniej przez dwóch recenzentów; jeśli ktoś jest lekarzem musi się liczyć z tym, że jego wypowiedzi mogą być ocenione przez środowisko naukowe. We wszystkich tych przypadkach istnieją standardy: rzetelności dziennikarskiej czy naukowej i procedury, które zachowanie tych standardów sprawdzają. W przypadku mediów społecznościowych nie ma takich standardów, nie ma też powszechnie akceptowanych transparentnych procedur. Dlatego osoby, których treści są +cenzurowane+ mogą mieć poczucie stronniczości i niesprawiedliwości. Z faktu jednak, że ktoś nie jest obecny na jakiejś platformie społecznościowej, nie można jednak wyciągać wniosku, że jest na niego cenzorski zapis” – uważa naukowiec.(PAP)

Autorka: Ludwika Tomala

źródło:

www.naukawpolsce.pap.pl

Możliwość komentowania Kto wierzy w fake newsy? Badacze chcą zwalczać szkodliwe informacje jak epidemie została wyłączona

Gra w szachy ustrzeże Cię przed Alzheimerem

Tradycja mówi, że gra w szachy powstała w Indiach ok. VII wieku. Do Polski dotarła w XII wieku. Od tamtej pory upowszechniła się i stanowi doskonałą gimnastykę umysłu dla młodszych…

Tradycja mówi, że gra w szachy powstała w Indiach ok. VII wieku. Do Polski dotarła w XII wieku. Od tamtej pory upowszechniła się i stanowi doskonałą gimnastykę umysłu dla młodszych i starszych. Najnowsze badania pokazują, że może ona mieć dla nas jeszcze więcej korzyści, niż myśleliśmy.

Szachy to gra o bardzo rozbudowanej strategii, wymaga ona opracowywania skomplikowanych taktyk, myślenia przestrzennego i logicznego. Dlatego często określa się je mianem siłowni dla mózgu. Tak jak aktywność fizyczna pozytywnie wpływa na stan naszego ciała, tak gra w szachy przynosi wiele korzyści naszemu umysłowi. Powszechnie już wiadomo, że sport ten rozwija intelektualnie, emocjonalnie i społecznie.

Specjaliści wykazali jednak, że dodatkowo szachy mogą zapobiegać Alzheimerowi. Neurolodzy udowodnili, że istnieje zależność pomiędzy większym wysiłkiem i ćwiczeniami umysłowymi, a mniejszym ryzykiem zapadnięcia na demencję starczą oraz Alzheimera.

Obie półkule pracują

Szachy są doskonałe w roli umysłowych ćwiczeń. Zostało udowodnione, że obie półkule mózgu są zaktywizowane podczas gry. Lewa półkula odpowiada za identyfikację figur, a prawa za rozpoznawanie ruchów i schematów. Ćwiczymy pamięć dzięki zapamiętywaniu wcześniejszych rozgrywek oraz ich analizowaniu. Kolejna przydatna umiejętność rozwijana w grze to myślenie przestrzenne. Patrząc na planszę trzeba zrozumieć położenie wszystkich figur szachowych oraz możliwości ich ruchów. Potrzebne jest zapamiętywanie poprzedniego położenia i wizualizacja ich możliwych przyszłych pozycji.  Mózg w ten sposób świetnie przygotowuje się do analizy sytuacji, które spotykamy na co dzień i do podejmowania decyzji.

Szachy też dla młodych

Umysł szachowy pomaga nie tylko rozwijać racjonalne myślenie, ale też jego kreatywną część. Co więcej, poprawia też koncentrację. W tej grze każde posunięcie jest ważne i wymaga pełnej uwagi. Ciągłe skupienie na grze, obserwowanie wszystkich ruchów uczy cierpliwości, koncentracji i spokoju ducha. To szczególnie ważne dla młodych ludzi, którzy żyją w bardzo szybko zmieniającym się świecie i są otoczeni przez mnóstwo „rozpraszaczy uwagi”. Badania związane z szachami aktualnie skupiają się na korzyściach, jakie trening szachowy może przynieść dzieciom z ADHD. Ich celem jest stworzenie metody, w której szachy będą użyte jako narzędzie terapeutyczne do poznawczego i emocjonalnego treningu dzieci z ADHD. Metodologia zakłada spojrzenie na grę w szachy z dwóch perspektyw: tradycyjnej gry w szachy i użycia jej elementów – planszy, zegara oraz bierek do pracy terapeutycznej.

Istnieją badania pokazujące, że dzieci ćwiczące umysł graniem w szachy osiągają później lepsze wyniki w rozwiązywaniu problemów, czytaniu i matematyce. Gra w szachy zmusza do planowania ruchów i przewidywania ich konsekwencji. To pomaga w rozwijaniu kory przedczołowej, co z kolei umożliwia podejmowanie trafniejszych decyzji. Kora przedczołowa jest obszarem mózgu odpowiedzialnym za planowanie, rozstrzyganie i samokontrolę.

Prześledzić zmiany

Bardzo dużą zaletą szachów jest stymulacja dendrytów do wzrostu. Dendryty to rozgałęzione wypustki komórek nerwowych odpowiedzialnych za odbieranie bodźców i przekazywanie sygnałów między komórkami nerwowymi. Ich wzrost zwiększa prędkość i jakość komunikacji neuronalnej, co polepsza ogólnie procesy myślowe, a zatem zwiększa zdolności poznawcze.

Dzięki zaawansowanej nauce i technologii rozwijane są instrumenty pozwalające nam na poznawanie zarówno architektury mózgu, jak i jego funkcjonowania. Przez ostatnią dekadę naukowcy i psychologowie opublikowali wiele prac, które pokazują różnice w funkcjonowaniu mózgu graczy i osób niegrających. W umyśle gracza występuje większa aktywność w dolnej lewej części płata ciemieniowego, zakręcie hipokampa i zakręcie wrzecionowatym. Inni badacze zauważyli też większą dynamikę móżdżka i płata czołowego.

Badania przeprowadzone na Yeshiva University by The Albert Einstein School of Medicine  dowiodły, że umysł wyćwiczony grą w szachy jest mniej podatny na degenerację z powodu dużej ilości danych przetwarzanych w czasie ćwiczeń i znacząco zmniejsza ryzyko demencji.

Źródło: https://www.abcmoney.co.uk/

Możliwość komentowania Gra w szachy ustrzeże Cię przed Alzheimerem została wyłączona

Kraków/ Na Uniwersytecie Rolniczym powstała modułowa uprawa hydroponiczna

Naukowcy z Uniwersytetu Rolniczego w Krakowie stworzyli modułową uprawę hydroponiczną z systemem kontroli warunków uprawy. Według nich to pierwszy w Polsce tego rodzaju proekologiczny i ekonomiczny kontener uprawowy. „To bardzo…

Naukowcy z Uniwersytetu Rolniczego w Krakowie stworzyli modułową uprawę hydroponiczną z systemem kontroli warunków uprawy. Według nich to pierwszy w Polsce tego rodzaju proekologiczny i ekonomiczny kontener uprawowy.

„To bardzo innowacyjny projekt, który powstał dzięki połączeniu pasji, wiedzy, kreatywności i doświadczenia naukowców z zakresu rolnictwa, ogrodnictwa i inżynierii mechanicznej i stanowi spełnienie wizji i pozytywnej ambicji inwestora” – powiedział kierownik Katedry Gleboznawstwa i Agrofizyki dr hab. inż. Tomasz Zaleski. Badacze opracowali i zbudowali kontener na zamówienie prywatnej firmy.

Jak dodał naukowiec, kontener uprawowy został zbudowany na bazie morskiego kontenera chłodniczego z automatyczną kontrolą temperatury atmosfery, dzięki czemu jest przystosowany do uprawy w niemal każdych warunkach klimatycznych. Naukowiec ocenił, że to pierwsze takie rozwiązanie w Polsce.

Mieszcząca się w 12-metrowym kontenerze morskim uprawa niskich warzyw liściastych i ziół znajduje się jeszcze w Uniwersytecie Rolniczym, ale może być prowadzona w niemal w każdym miejscu na Ziemi, przez cały rok, zużywając przy tym mniej wody w porównaniu do tradycyjnego szklarniowego lub gruntowego systemu uprawy. Lampy LED – jedyne źródło światła, o odpowiednio dobranym promieniowaniu, decydują o wielkości i jakości plonów oraz tempie wzrostu rośliny.

Naukowcy zamierzają udoskonalać projekt, który wcześniej zyskał dofinansowanie ze środków unijnych w ramach programu „Bon na Innowacje”.

Twórcami kontenera z modułową uprawą hydroponiczną są dr hab. inż. Tomasz Zaleski, dr inż. Anna Kołton i dr hab. inż. Jarosław Knaga.

PAP – Nauka w Polsce, Beata Kołodziej

źródło:

www.naukawpolsce.pap.pl

Możliwość komentowania Kraków/ Na Uniwersytecie Rolniczym powstała modułowa uprawa hydroponiczna została wyłączona

Eksperci: niepokojąco wzrasta liczba udarów mózgu wśród osób młodych

Najnowsza mapa nieba z misji kosmicznej Gaia

Type on the field below and hit Enter/Return to search

WP2Social Auto Publish Powered By : XYZScripts.com
Skip to content